Nvidia "Turing" Geforce RTX 2080 presterar 50 procent bättre än GTX 1080

Permalänk
Medlem

@TexN:
skulle säga att inger räcker men ja 2080 ser på paret bättre ut. Sen får vi ju se hur mycket förflytnigarna av belastning som kan gå till ai mm verkligen avbelastar.

@wargreymon:
vi var nere på ca 6kr ett tag det är vi inte nu.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av hACmAn:

@wargreymon:
vi var nere på ca 6kr ett tag det är vi inte nu.

SEK/USD, ja, jag vet, var extremt trevligt och billigt att köpa teknik då, i dagens läge är det inte så kul. Får hoppas på att kronan stärks igen snart.

Permalänk
Medlem
Skrivet av Xeno88:

Snygga staplar. Femtio procent snabbare i 4k. Pratar vi om 30 fps istället för 20 då eller?

Bättre fråga. Under vilka scenarion? I ett hörn tittandes in i väggen eller vadå?

Skrivet av wargreymon:

Ja, det är tråkigt att kronan är så svag. Däremot är MSRP samma för 2080 och 1080 när de lanserades. Så lanseringspriserna borde således vara kronans svaga värde och distrubitörer/återförsäljare, om ingen nu har information att Nvidia har en helt omöjlig MSRP. Sen brukar det typ aldrig vara billigare prestanda/krona vid lansering av high-end. Utan det kommer möjligtvis senare.

Stämmer inte alls. MSRP för GTX 1080 var just över 600 dollar. MSRP för RTX 2080 är en bra bit över 800 dollar. Detta minus moms.

Dessutom hur förklarar du att RTX 2080 är nästan lika dyr i Eurozonen som den är i Sverige? I Tyskland går RTX 2080 för ganska snarlika priser som de svenska.

Skrivet av wargreymon:

Var det verkligen 500-550 vid lansering? Kollade lite på prisjakt på några kort och då låg 1080 runt 8500:- i början med några dippar efter ett tag ner till 5500-6000:- innan det gick ner stabilare.

Så fort lagren fylldes i april-maj 2017 (lanseringen skedde i mars det året) så gick priserna ned kraftigt. Detta berodde på att butikerna sålde dyrt pga. dålig åtkomst av kort. När lagren fick fler kort så gick priset ned.

Skrivet av e3henri:

Men vad tusan kostar korten egentligen? Alla priser som visas på Nvidias hemsida och de första retailkorten på både svenska och amerikanska sidor visar runt $800 för 2080, men nu sägs det återigen $700. Knepigt

De enda korten som finns tillgängliga just nu är FE och dessa brukar kosta mer. Dessa priser kommer att stabilisera sig. Sedan ska man vara medveten om att hemsidan visar exklusive moms.

Skrivet av Ratatosk:

Jag ser fram emot att läsa dem i god tid före release jag.

Skulle inte förvåna mig om NDAt gick ut kl. 00.00 på releasedagen.

Skrivet av wargreymon:

Det är den information vi har, eller hur? Du får gärna rätta mig om du har annan information. Det har varit sjukt mycket negativitet runt hela Turing-lanseringen och knappt inget är baserat på fakta, utan bara vad folk tycker och tänker.

"Nvidia visar inga siffror om spel utan RT, de måste vara rädda och deras kort är skit och överpris!", "Jag vill inte ha RT, så det är helt onödigt"

Sedan kommer det siffror som visar på en bra ökning, men nej "de ljuger nog", "kan inte stämma", "luktar illa". Så varför läser man ens reklamen om man inte är intresserad? Visst ska man inte svälja allt med hull och hår, men kom igen, lite förtroende kan man väl ge dem.

Tester för 1080 kom 10 dagar efter lansering. Så lär inte gå snabbare denna gång. Efter det kan man se om priset motiverar en uppgradering eller inte. Och som alltid, Sverige är en liten marknad och Nvidia lär inte har chockhöjt priserna här för att jävlas med oss.

Information som enligt källkritikens alla regler man ska ta med en viss skepticism. Sedan är det ju Nvidias egna fel att det är negativitet runt hela lanseringen. Inte baserat på fakta? Priset om något är FAKTA eftersom Nvidia själv gått ut med det. Det i kombination med uttalanden från Nvidia och deras vägran att redovisa resultat talar ju sitt tydliga språk. Att Sverige skulle vara en liten marknad är inte heller sant. Få länder är så köpvilliga som Sverige.

Skrivet av wargreymon:

Du får nog komma med lite motsägande bevis då.

Så fungerar det inte. Man kan inte och ska inte behöva ge negativ bevisböring för att man är kritisk mot Nvidias uttalanden. Faktum är att det är sunt att vara skeptisk istället för att svälja det med hull och hår.

Skrivet av wargreymon:

Uhm, missade att skriva "lär inte ha chockhöjt". Och med det syftade jag på de som jämför lanseringspriset för 1080 och 2080 i SEK till exempel.

Är det verkligen så magstark ökning i USD? Vi har sett större ökningar ifrån bägge sidorna tidigare. Däremot kanske du har rätt i att vi till slut når en nivå där de som köpt 80 eller 80Ti tidigare nöjer sig med att köpa midrange då dessa börjar bli bra nog för det mesta, väntar ett tag på att priserna går ner lite eller hoppar över någon extra generation.

Vi har ju RT Core och Tensor Core delarna som nästan tar upp halva chippen som inte tidigare funnits i konsumentkort, samt att vi har mera beräkningskraft tack vare flera CUDA-kärnor etc. Nya saker kommer alltid i flaggskeppen och ibland fungerar de mer eller mindre bra, men det är flaggskeppen som får betatesta det först. Detta gäller all teknologi när något nytt introduceras. Så vill man inte hjälpa driva utvecklingen så ska man inte satsa på de dyraste prylarna.

En höjning på över 100 dollar är en chockhöjning.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem

@wargreymon:
Ja.
Däremot vet jag att vissa stora svenska företag lyckades gå bra strax efter då det var billigt att köpa från oss. Vilket fick vissa företag att gå upp "relativt" snabbt efter 2008.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem

Avskyr nVidias (och andras) sätt att mjölka "releaser" numera med tidsbestämda släpp av information.
Och än värre är att media följer det blint, vilket betyder att alla presenterar samma information samtidigt.

Samma sak med recensionerna.
Gnäll på lite tid är ju standard numera och såklart medvetet från tillverkarnas sida.
Så för guds skull kära SWC personal, ta god tid på er och gör ett riktigt bra jobb istället för att tvinga fram ett hafsjobb bara för att pricka NDA deadline.
Släpp ett enkelt grundläggande test istället och följ upp med kompletterande test senare.
3-4 speltester och resultat från syntetiska tester är nog för att vi skall se hur prylarna presterar generellt.

Och innan ni ens funderar på det:
Vi sk*ter fullständigt i raytracing tester när det inte finns nånting att jämföra med eller program som kan utnyttja det

Permalänk
Skrivet av TexN:

Känner mig så lost, om det stämmer, ska man köra på att köpa ett 1080ti eller 2080 för gaming i 3440x1440?

Hmm, 4k fick runt 60~70 FPS i spelen i bilden där de visade. Destiny 2 är det jag aktivt spelar i den listan så det är som mest relevant för mig. 3440x1440 är hälften av 4K och enligt tester med 1080Ti osv så tycks det stämma rätt bra att man helt enkelt kan lägga till hälften rakt på.

Så ett RTX 2080 bör kunna driva spelen i ca 85~105 FPS tror jag?
Ett RTX 2080Ti verkar definitivt i sånna fall, om siffrorna stämmer, vara ett säkrare köp om man vill pumpa upp alla inställningar och inte behöva tänka på att uppgradera inom en snar framtid. Oavsett om jag skaffar ett 2080 eller ett 2080Ti så kommer jag inte uppgradera nästa år när de (gissningsvis) lanserar nya grafikkort.

Har inte riktigt bestämt mig men nog bäst att avvakta och vänta på tester... dock finns det ett något enormt sug att förhandsboka ett kort.

Permalänk
Medlem
Skrivet av AMD-FX:

Hur blir 20 50% av 30?

30 är 50% mer än 20. 20 plus 50%=20 plus 10.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av Roger W:

... medan en säkning på 50% från 30 blir 15

Antar att denna lilla "paradox" vad var som lurade till det för @AMD-FX ?

Matte är inte min starka sida direkt

Visa signatur

Coca Cola missbrukare Förbjuden dryck för mig pga diabetes
AMD älskare
Katt älskare

Permalänk
Avstängd

Vem bryr sig egentligen?
Har man för mycket pengar, köper man nvidia även om det suger getpung, för att visa att "man har råd", sen spelar det ingen roll alls att man inte märker någon skillnad i spel, bara i benchmarks.......

Visa signatur

ASUS Prime B350 Plus, AMD Ryzen 5 1600X, Sapphire R9 390 8GB, 16GB Gskill Flare X 3200
Används för korsord online, och harpan.

Permalänk
Medlem

Enligt Nvidia har Turing runt 50% bättre shader prestanda per core än Pascal.
https://videocardz.com/77696/exclusive-nvidia-geforce-rtx-208...

Om detta stämmer är det, så är det en extremt bra arkitekturförbättring med Turing.

Recensioner kommer 14:e september: "NVIDIA has set the date for the full reviews to September 14th"

Permalänk
Medlem

Vet inte om detta redan har tagits upp, hinner inte läsa alla trådar.. Men här är en tanke gällande Nvlink.

Det ska ju funka bättre än SLi. Undrar hur 2st 2070 står sig mot 1st 2080Ti, med tanke på att du får 2st 2070 för 1st 2080Ti.
Ska bli intressant att se tester på Nvlink i höst!

Visa signatur

Moderkort: ASUS Crosshair VIII Dark Hero, CPU: R9 5900X @4,4GHz, RAM: Corsair Vengence DDR4 32Gb @3600MHz, GPU: RX7900XT Red Devil, Förvaring: Kingston KC3000 512Gb, WD Black SN750 2TB, Samsung 750 500Gb SSD och 2x Seagate Barracuda 4Tb i raid 1, Ljudkort: Creative Sound Blaster ZxR

Permalänk
Medlem
Skrivet av Ozzed:

Ska jag hålla mig till en viss tillverkare för att andra smetar epitet på mig? Nehej du. Huvudsaken för mig i det här fallet är att inte ge Nvidia pengar, och det gör jag ju inte heller om jag köper begagnat

Jag har ett begagnat 1070 idag och det var alltså tal om ett begagnat 2070 när sådanna finns. Nvidia får således klara sig utan mina pengar även fortsättningsvis Skulle inte falla mig in att ge dem pengar i dagsläget.

Så enkelt är det nog inte riktigt. Använder man deras produkter så kommer de också indirekt tjäna på det i slutändan vilket som, oavsett om du köpt det av Sven-Bertil. (Tyvärr)

Visa signatur

En ny signatur

Permalänk
Medlem

@ALmo: 2070 har inte NVLink eller SLI

Visa signatur

7800X3D | 7900XTX Merc 310 Alphacool | ASUS B650E-F | G.Skill 6000Mhz 32GB CL30 | SN850X | EK Quantum custom loop | Be Quiet 900 Dremel Edition | ASUS Xonar STX + Sennheiser HD650 | Corsair RM1000x | Monitor: LG C2 42 | Nintendo Switch | TV: LG C1 65

Permalänk
Medlem

50% i spel som stödjer det ja, nVidia kommer nu göra det möjligt att köra INT32 Shading och FP32 Shading parallellt men det ligger hos utvecklarna.

Så de där 50% bättre kommer vi inte att se, och absolut inte på dagens spel....kanske någon fnuttig tittel framöver.

Permalänk
Medlem
Skrivet av wargreymon:

Visst ska man inte svälja allt med hull och hår, men kom igen, lite förtroende kan man väl ge dem.

Jag håller med om ditt inlägg till viss del, men inte den här delen. Marknadsföring får inte ljuga och det tror jag inte den gör heller. Men den är givetvis gjord för att visa produkten med så bra siffror och ord som möjligt. Den ska få så många som möjligt att köpa, förstås. Jag litar aldrig någonsin på reklam.

Oberoende och objektiva tester så långt det är möjligt är det enda jag litar på. Vi människor är så lätta att påverka. Jag också.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Grumie:

Så enkelt är det nog inte riktigt. Använder man deras produkter så kommer de också indirekt tjäna på det i slutändan vilket som, oavsett om du köpt det av Sven-Bertil. (Tyvärr)

Beror väl på. De kan visserligen få mindshare i form av marknadsandelar men jag tycker själv att jag väger upp det rätt bra genom att ge dem en släng av sleven, gå på och kritisera deras dumheter som GPP osv så ofta ag kan.

Det är klart att som läget är nu så har de en bättre produkt-lineup än AMD, jag har aldrig sagt annat, men för mig är det viktigt att företag kör fair när de skaffar marknadsandelar. Det tycker jag inte att Nvidia har gjort så därför får de inga pengar av mig. Om det börjar bli 50/50 mellan AMD och Nvidia igen så vore läget ett annat, men jag skulle troligen inte köpa ett grafikkort för 7K oavsett. Det är en jävla massa pengar.

Köpte mitt begagnade 1070 för 3500Kr och någonstans där går smärtgränsen känner jag.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av SCORPIUS:

Går vi efter vad användare har för hårdvara på Steam så kommer vi se skillnad i spel om ca fem år.
D v s då vi kommer behöva dessa för rimlig fps.

Snarare är det spelkonsolerna som kommer att definiera nivån. De kommer att sikta på 4k upplösning, så PC spelare kan skala prestanda från det. De kommer att introduceras 2019/2020, och ha en livslängd på åtminstone 6/7 år.
Jag tänker inte köpa en PC pryl till innan 7nm, och innan jag vet vad konsolerna kommer med. Det kommer att ta ett år till eller så. Då kan man ta ställning till vad som finns på marknaden, och vad det kommer att kosta att köpa något som håller ett tag.

Permalänk
Hedersmedlem
Skrivet av Luciphear:

Hmm, 4k fick runt 60~70 FPS i spelen i bilden där de visade. Destiny 2 är det jag aktivt spelar i den listan så det är som mest relevant för mig. 3440x1440 är hälften av 4K

Mjaa. Inte riktigt
3440*1440 är ca 4,95 miljoner pixlar medan 4K är ca 8,3 miljoner pixlar så 4K är inte riktigt dubbla här.
En 4Kskärm har pixelantalet av en och två tredjedelars 3440*1440 skärmar.
Eller om man vill konvertera åt andra hållet:
3440*1440 har 60% av det pixelantalet som en 4Kskärm har.

Det borde därmed bli lite för bra glädjesiffror att bara dubbla FPSvärden från 4K för att förutspå vad 3440*1440 hamnar på. Borde bli en del mindre än det värtdet. Blir det helt rätt att gångra med 1,67 kanske? Har inte räknar på det men något mindre än en faktor på 2 borde bli rätt.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av EntropyQ3:

Snarare är det spelkonsolerna som kommer att definiera nivån. De kommer att sikta på 4k upplösning, så PC spelare kan skala prestanda från det. De kommer att introduceras 2019/2020, och ha en livslängd på åtminstone 6/7 år.
Jag tänker inte köpa en PC pryl till innan 7nm, och innan jag vet vad konsolerna kommer med. Det kommer att ta ett år till eller så. Då kan man ta ställning till vad som finns på marknaden, och vad det kommer att kosta att köpa något som håller ett tag.

Konsoler dikterar aldrig mina PC-köp och har aldrig gjort det tidigare heller. Tror det är väldigt få gamers på PC som låter konsoler bestämma sina köp.

När du ändå väntar på 7nm, varför inte vänta längre till refreshen på 7nm som kommer vara riktigt bra?

Permalänk
Medlem
Skrivet av Ozzed:

Beror väl på. De kan visserligen få mindshare i form av marknadsandelar men jag tycker själv att jag väger upp det rätt bra genom att ge dem en släng av sleven, gå på och kritisera deras dumheter som GPP osv så ofta ag kan.

Det är klart att som läget är nu så har de en bättre produkt-lineup än AMD, jag har aldrig sagt annat, men för mig är det viktigt att företag kör fair när de skaffar marknadsandelar. Det tycker jag inte att Nvidia har gjort så därför får de inga pengar av mig. Om det börjar bli 50/50 mellan AMD och Nvidia igen så vore läget ett annat, men jag skulle troligen inte köpa ett grafikkort för 7K oavsett. Det är en jävla massa pengar.

Köpte mitt begagnade 1070 för 3500Kr och någonstans där går smärtgränsen känner jag.

Det var ingen kritik. Tycker det är bra att du visar med plånboken vad du tycker och tänker. Menar bara att mätningar görs hela tiden på olika håll och de tjänar indirekt på att få en större del av marknaden. Deras ekosystem (med gsync och genom att tvinga spelbolag att medvetet göra optimeringar för endast dom) lever ju lite på att de kan visa siffror på de flesta har nvidia i burken hemma.

Själv köpte jag en skärm med gsync för något år sedan och efter det "snedtrampet" känner jag att nvidia fortfarande är det bästa för just mig (eftersom jag har låsts in mig lite och jag gillar sync). Får tänka om när jag nästa gång byter skärm

Visa signatur

En ny signatur

Permalänk
Medlem

Alltså... får inte ihop detta:

Medan SweClockers i dagsläget inte kan gå in på närmare detaljer räcker det med att kika på specifikationerna för att se att Turing som arkitektur är rejält förbättrad, där Geforce RTX 2080 trots sin rejäla prestandauppgång "endast" har 13,5 procent högre teoretisk beräkningskraft.

Och... sen jämför man 2560 Cuda vs 2944, samt 180W vs 215W...

Tittar man bara på ett överklockat 1080:
https://www.sweclockers.com/test/22308-asus-geforce-gtx-1080-...
ca 11500 vs 10200 => 12,5%

och du går då upp ca 50W äkta effekt...
215-180 = 35W tdp.

Så.. Nej... jag ser ingen stor förbättring.
Jag ser rök, speglar och en massa skitsnack.

Permalänk
Medlem

@EntropyQ3: Helt rätt tänkt. Enligt Digital foundry blir det en Ryzen 8 cores 16 trådar med typ nå Vega 56/64-aktigt baserat på Navi.

https://www.youtube.com/watch?v=5ixSVQwLaZw

Visa signatur

Playstation 4 + Nintendo Switch
R7 5800x3d - MSI B450 - RTX 3080 TUF - EVGA 650w G3 - ASUS PG279Q

Permalänk
Medlem

Väntar med spänning på "riktiga" tester men känns som om ens 980 Ti får göra plats åt ett 2070 när det väl kommer!

Visa signatur

AP201 | B650M | 7800X3D | 32GB | RTX 3090
G613 | G502 X | PRO X | G3223Q | PG279Q
OLED55C9 | PS5 | Switch

SvenskaDiablo Discord

Permalänk
Medlem
Skrivet av fantomsmurfen:

Vem skulle köpa ett 2080 för 1080p? CPU lär ju flaska i många spel i den upplösningen.

Tyvärr ganska många skulle jag tro.

Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Medlem
Skrivet av Mäki:

Ännu ett icke fakta baserat diagram.

Nja, det är säkert baserat på fakta. Frågan är dock vilka fakta som har valts ut och hur de presenteras

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Fulci:

Recensioner kommer 14:e september: "NVIDIA has set the date for the full reviews to September 14th"

Tack för info om det! Då är det bara några veckor tills spekulationerna kan upphöra

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Fulci:

Konsoler dikterar aldrig mina PC-köp och har aldrig gjort det tidigare heller. Tror det är väldigt få gamers på PC som låter konsoler bestämma sina köp.

När du ändå väntar på 7nm, varför inte vänta längre till refreshen på 7nm som kommer vara riktigt bra?

Jag har också köpt datorprylar för att det är kul att köpa nya datorprylar. Jag har slutat med det.
Spelkonsolerna spelar roll därför att de definierar den nivå (och generellt teknologi) som används av AAA titlarna. Eftersom det enda riktigt krävande jag använder min hemmaPC till är just spel, kommer spelkonsolerna i realiteten bilda baslinje för vad min PC behöver hårdvarumässigt. Nuförtiden är ju arkitekturerna lika mellan konsoler och PC-burkar, så det är ganska rättframt.
Min preferens är att ha ungefär dubbla GPU prestandan mot baslinjekonsolen, justerat uppåt eller i nästa generation neråt beroende på vilken upplösning som eftersträvas.
(Exempel: Jag tänker spela i högst 2560x1440 vilket är hälften av 4k. Jag kommer därför att se mig om efter grafiklösningar som är åtminstone lika kraftfulla som de nya konsolerna. Och en sådan grafiklösning kommer sedan i praktiken att räcka för alla nya titlar försåvitt inte jag ändrar mina preferenser. Spelen kommer inte att kräva mer. Om det kostar för mycket vid lanseringsdatum, ja då avvaktar jag helt enkelt.)

TSMC 7nm har ungefär 3ggr så hög packningstäthet som den process de nya nVidia-korten använder, vilket innebär att komponenter som görs med den nya processen kommer att vara ett ovanligt stort steg från de befintliga (även om de första kretsarna knappast kommer att vara några 700mm2 bjässar).

Permalänk
Medlem
Skrivet av ALmo:

Vet inte om detta redan har tagits upp, hinner inte läsa alla trådar.. Men här är en tanke gällande Nvlink.

Det ska ju funka bättre än SLi. Undrar hur 2st 2070 står sig mot 1st 2080Ti, med tanke på att du får 2st 2070 för 1st 2080Ti.
Ska bli intressant att se tester på Nvlink i höst!

Sli har ju försvunnit på billigare kort och dyrare kort behövde man betala för låsa upp (tror man behövde hosta upp par kr).

Så tror det snarare försvunnit stöd på ny hårdvara än tvärt om (tar bort lite i taget), just för dels få använder det och dyrt att underhålla (med dubbla kort får man stå ut med vissa nackdelar, så jag själv har inte nyttan av två kort, men tråkigt för dom som vill använda dubbla kort).

Men DLSS känns ju lite tråkigt (om det är ytterligare en låst teknik). AMD känns ju vara ute ur leken, även om deras kort skulle komma om några månader, lär inte folk köpa dessa i mängder (om dom inte slår Nvidias kort på fingrarna möjligen, men inte ens då är det någon garanti att amd ökar sin försäljning).

Men mer prestanda behövs för driva 4k (enligt mig vad jag sett hittills är 2800 lite långsam, behövs ju mer än 60FPS för bra flyt ), vist kontakt och kabelstandarden är ju efter (om man inte kör HDMI i stället). Dom som gör displayport standarden, bör ju öka signalöverföringen rätt rejält (och någon ny standard är inte i sikte än).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av ALmo:

Vet inte om detta redan har tagits upp, hinner inte läsa alla trådar.. Men här är en tanke gällande Nvlink.

Det ska ju funka bättre än SLi. Undrar hur 2st 2070 står sig mot 1st 2080Ti, med tanke på att du får 2st 2070 för 1st 2080Ti.
Ska bli intressant att se tester på Nvlink i höst!

Bara 2080 och 2080 Ti har NVLink.

Jag sitter f ö med öl och popcorn och skrattar åt alla som går med på dessa helt idiotiska prissättningar och förbokar.

Permalänk
Medlem
Skrivet av AMD-FX:

Hur blir 20 50% av 30?

Matte är inte riktigt din grej, va?

Nej, 50% av 30 är inte 20, men en 50-procentig ökning av 20 är just 30, vilket var vad han sa.

Lär man sig inte sånt här redan i mellanstadiet?