Nvidia Geforce RTX 2000-serien fyller ett år – spel med ray tracing fortfarande sällsynta

@saigon: Fantastiskt att kidsen (läs föräldrar) ska punga ut 8000+ kr på ett grafikkort för att spela minecraft.

kan se forumtrådarna framför mig.

"hej, jag är en pappa som ska bygga en minecraftdator åt min 7 åriga son. Vad ska jag köpa?"

Förslagen kommer att vara fyllda med 2080 och 2080TI grafikkort för att ha en behaglig upplevelse med raytracing.

Känns som Nvidia hjälpte till med Minecraft bara för att sabba alla memes gällande "buys 2080ti - plays Minecraft".

Man kan alltid peka på att Nvidia knappast gjort något för att ta ner förväntningarna på hur snabbt RTRT kan införas i spel. Men trots dagens skrala spelutbud är det ju ändå så att användning av DXR (APIet som DX12 spel använder för RTRT) tagit fart minst lika snabbt som någon annan ny teknik man stoppat in i DirectX.

Normalfallet har ju historiskt varit ett 2-4 års glapp mellan att något icke-trivial stoppas in i DX innan det ser någon relevant användning. DXR beror ju tyvärr på DX12 och DX12 börjar nog snart inta en jumboplats i tid från lansering till att vara ett självklart val i DX historia...

Många som klagar på att RT-kärnorna tar utrymme i kisel som kunde används till annat. Helt sant om man inte alls ser någon poäng i att utvecklingen går mot RTRT.

Fast tittar man på vad primära problemet med RTRT är i de titlar man försöker använda det så är den enda logiska slutsatsen att man framåt borde använda en större andel av kretsen till RTRT. Väldigt mycket av det som utförs i shaders i högre grafikinställningar är ju saker som helt naturligt faller ut från RTRT, det utan att behöva hantera udda specialfall och ändå få ett fysiskt sett felaktigt resultat.

Däri ligger ett uppenbart övergångsproblem. Så länge inte majoriteten sitter på kort med HW-stöd för ray tracing måste ju utvecklarna fortsätta spendera resurser på att skriva "fusk" för skuggor, ljus, reflektioner etc i shaders i stället för att låta det falla ut helt naturligt ur RTRT och lägga tiden på att spendera beräkningarna på det som faktiskt syns på skärmen (de titlar som infört DXR har ju initialt haft onödigt hög prestandaförlust just då man gjort massor med beräkningar som i praktiken haft nära noll bidrag till slutresultatet).

Ett annat uppenbart problem med de titlar som så här långt slängt in DXR är ju att det slängts in ovanpå en existerande spelmotor som inte alls designat för DXR.

Stödet för DXR i Unreal Engine lades till i våras och det verkar vara klart mer effektivt och framförallt långt mer integrerat i spelmotorn än något vi sett så här långt. Ska bli riktigt spännande att se de första titlar som kör med UE4.

Värt att notera är att även Unity kommer få DXR stöd under hösten, får se vad det betyder för alla de indie-titlar som ofta använder Unity.

Så länge de stora spelmotorerna saknar DXR stöd kommer vi knappast se något tsunami av speltitlar med ray tracing stöd, är ju först under 2019 som detta stöd implementeras och vilket betyder att faktiskt speltitlar som använder dessa versioner är något år bort än.

Skrivet av Olsson80:

Rtx 2080 ligger ju dock ca 10fps över 1080ti i Sweclockers prestandaindex, så både 2080/2080ti slår ju 1080ti.
2080 går att få för runt 6500-7000 så helt taskigt prissatt är det ju inte, sett många 1080ti för runt 5-5500kr begagnade, då köper jag mycket hellre nytt kort för 1000kr mer som presterar (om än lite) bättre och som har nyare teknik.
Enda fördelen med 1080ti är ju att det har 11gb minne, vilket inte verkar ge bättre prestanda.

Skickades från m.sweclockers.com

när vramen tar slut i 4k eller 1440p så tar jag 1080ti över 2080 alla dagar i veckan.

Hur lång tid tog det inte efter att quad cores kommit tills spelen började nyttja mer än 2 kärnor?

Skrivet av _Merc_:

när vramen tar slut i 4k eller 1440p så tar jag 1080ti över 2080 alla dagar i veckan.

Om detta vore ett problem, borde inte det isf visa sig när Sweclockers gör testerna och sätter ihop prestandaindex?

Skickades från m.sweclockers.com

Skrivet av Olsson80:

Tycker 10fps är en helt ok skillnad, är ju 2080 med 8gb mot ett 1080ti med 11gb ram, så 20 serien ger ju betydligt bättre prestanda. Skall man jämföra rakt av så borde man ju jämföra 2080 mot 1080 och ti mot ti kort. Det är ett stort hopp upp i prestanda och jag tror att folk glömmer det på grund av priset. Det blir alltid sura miner vid en prishöjning, självklart vill man ha det billigare, men samtidigt är det marknaden som sätter priset.

Skickades från m.sweclockers.com

Som du säger så sätter marknaden priset, men det är väl lite lustigt nu när Nvidia har problem att sälja sina dyraste kort, skulle gissa på att priset är för högt för den breda massan. I regel brukar företag sänka sina priser ifall försäljningen går trögt vilket inte Nvidia gjort så det känns som att Nvidia inte har så mycket prispåslag på tex 2080TI vilket gör att dom inte kan sänka priserna.

Det hela kan mycket väl bli ett nytt "VR-fiasko" där många vill ha produkten men har helt enkelt inte råd och sen blir det få utvecklare som gör spel som är dedikerade för just den upplevelsen. Man kan ju faktiskt spela utan VR i samma spel men med betydligt billigare medel dvs en vanligt skärm. Samma gäller RT-kärnor i dagens läge.

Skrivet av Nikodemous:

Som du säger så sätter marknaden priset, men det är väl lite lustigt nu när Nvidia har problem att sälja sina dyraste kort, skulle gissa på att priset är för högt för den breda massan. I regel brukar företag sänka sina priser ifall försäljningen går trögt vilket inte Nvidia gjort så det känns som att Nvidia inte har så mycket prispåslag på tex 2080TI vilket gör att dom inte kan sänka priserna.

Det hela kan mycket väl bli ett nytt "VR-fiasko" där många vill ha produkten men har helt enkelt inte råd och sen blir det få utvecklare som gör spel som är dedikerade för just den upplevelsen. Man kan ju faktiskt spela utan VR i samma spel men med betydligt billigare medel dvs en vanligt skärm. Samma gäller RT-kärnor i dagens läge.

Med tanke på att tom Minecraft skall få RT stöd och alla titlar som utannonserats de senaste dagarna så verkar det ju vara tvärtom, fler och fler spel får stödet och även äldre spel görs om för att få det.

Ja, priset är högt, väldigt högt.. men det är också version 1, det kommer alltså bara bli bättre och billigare.

Skickades från m.sweclockers.com

Skrivet av Purrfected:

Hur lång tid tog det inte efter att quad cores kommit tills spelen började nyttja mer än 2 kärnor?

2019?

Skrivet av Olsson80:

Med tanke på att tom Minecraft skall få RT stöd och alla titlar som utannonserats de senaste dagarna så verkar det ju vara tvärtom, fler och fler spel får stödet och även äldre spel görs om för att få det. ...

Att äldre spel med enklare grafik (Quake, Minecraft) uppdateras visar nog mer på att det är enkelt för just dessa.
Nya spel verkar ju mer si och så. Många utvecklare deklarerar sin avsikt att ha RT, men alla fullföljer inte eller tar väldigt god tid på sig.

Hur många spel har RT implementerat och officiellt tillgängligt just nu?
BF5, Metro Exodus, SoTTR och Quake 2. Bara fyra stycken, om jag inte glömt något.

För mig kanske det blir intressant den dag ett kort som stöder RT 60fps i FHD kostar ~3000 kr.

Skrivet av heinekenbeer:

Som att köpa den "fetaste" ljudanläggningen men inte äga några skivor att spela

... eller snarare 'Bara skivor av grupper man inte lyssnar på'.

Kommer ihåg flera gånger jag varit hemma hos kompisar som satte på Dire Straits eller klassiskt, fast de egentligen lyssnade på annat.

Skrivet av Kablash:

Säg vad man vill om att slänga på en massa ray tracing i korten, de är fan riktigt läckert utseende på referenskorten. Nästan så man vill skippa tredjepartstillverkare och köra direkt med referens.

Ljusår bättre än 1000 serien.

Det är starkare kort, men jag vet vilket jag hade valt om jag fick välja prismässigt. Detta är vad jag betalade för mitt 1080 TI.

ASUS GeForce GTX 1080 Ti 11GB STRIX GAMING
7 999 kr

Här är RTX varianten:
ASUS GeForce RTX 2080 Ti 11GB ROG STRIX GAMING OC
14 999 kr

Nånstans mellan 20-40% prestandaskillnad är inte värt den prisskillnaden. Oavsett raytracing eller inte.

Skrivet av Sh4d0wfi3nd:

Det är starkare kort, men jag vet vilket jag hade valt om jag fick välja prismässigt. Detta är vad jag betalade för mitt 1080 TI.

ASUS GeForce GTX 1080 Ti 11GB STRIX GAMING
7 999 kr

Här är RTX varianten:
ASUS GeForce RTX 2080 Ti 11GB ROG STRIX GAMING OC
14 999 kr

Nånstans mellan 20-40% prestandaskillnad är inte värt den prisskillnaden. Oavsett raytracing eller inte.

Och folk köper ändå. Jag fattar det inte..

Skrivet av Yoshman:

Värt att notera är att även Unity kommer få DXR stöd under hösten, får se vad det betyder för alla de indie-titlar som ofta använder Unity.

Så länge de stora spelmotorerna saknar DXR stöd kommer vi knappast se något tsunami av speltitlar med ray tracing stöd, är ju först under 2019 som detta stöd implementeras och vilket betyder att faktiskt speltitlar som använder dessa versioner är något år bort än.

Håller med till fullo. Ett spel jag spelar flitigt (och som bygger på Unity) är Subnautica - Below Zero. Den titeln tror skulle kunna få mycket nytta av ray tracing då det är ett relativt långsamt men visuellt snyggt spel. Hoppas utvecklarna bakom Unity lyckas med en bra implementering och att den är relativt enkelt att använda för spelutvecklare.

Jag köpte ett 2060super ganska nyligen och kan säga helt ärligt att jag inte la en tanke på ray tracing när jag valde det.

Var mer att jag alltid när jag köper nytt grafikkort har köpt ett Nvidia i mellansegmentet, som dock har blivit redigt dyrt för ett mellankort i mitt tycke.

Och valde den då för jag kände mig mest ”hemma” med det.

Men var allt bra sugen på nån av Radeon 5700/5700 XT korten och var riktigt nära att det blev ett sånt men vart avskräckt pga av kylaren då bara ref varianten fanns då, men nu är jag lite besviken att jag kunde vänta några veckor och köpa ett med dom nya kylarna.

För jag tror inte jag kommer få någon vidare användning alls av RT på mitt kort då jag hellre har mer fps än lite extra ögongodis.

Aja nästa gång kanske man vågar byta sida om det är samma läge mellan korten då Dock kul att vara tillbaka på AMD prolle igen efter mer eller mindre ha varit forcad att ha intel i typ ett decennium för skillnaden var för stor där.

Skickades från m.sweclockers.com

@Ceji: För att pengar inte alltid är ett problem och man är beredd å betala för å få den upplevelsen som det ger. Om datorer är din enda hobby så är det inte så konstigt att du lägger en hel del pengar på de.
Sen kan de va svårt å förstå det om man själv inte har dom höga kraven eller behovet av den prestandan för å njuta av spel fullt ut men att de är något man inte kan fatta så kanske man borde bredda sitt perspektiv lite. För det är en faktiskt skillnad även om inte alla kan förstå eller uppskatta den.
Tror alla kunde må bra av å tänka lite mer utanför sin egna bubbla.

Skrivet av Olsson80:

Om detta vore ett problem, borde inte det isf visa sig när Sweclockers gör testerna och sätter ihop prestandaindex?

Skickades från m.sweclockers.com

sweclockers speltester är inte dem mest vram intensiva, tror ingen, inte enns hardware unboxed har gjort ett vran test. I total war warhammer med 4 armeer på slagfältet samtidigt så maxade jag nästan vramet på mitt vega 64. Alltså 7.8gb i 1440p.

Skrivet av Sh4d0wfi3nd:

Det är starkare kort, men jag vet vilket jag hade valt om jag fick välja prismässigt. Detta är vad jag betalade för mitt 1080 TI.

ASUS GeForce GTX 1080 Ti 11GB STRIX GAMING
7 999 kr

Här är RTX varianten:
ASUS GeForce RTX 2080 Ti 11GB ROG STRIX GAMING OC
14 999 kr

Nånstans mellan 20-40% prestandaskillnad är inte värt den prisskillnaden. Oavsett raytracing eller inte.

Jag pratar bara om utseendet. ^^

@_Merc_: Tror faktiskt dom har gjort de... Orkar inte leta dock hehe. Men vet att dom testade med resident evil remaken och även om man valde max läget alltså 11gb eller var det var så märktes ingen prestanda förlust på 8gb korten. Kan vara relaterat just till det spelet dock. Tror de var kort med mindre än 4gb som fick stora problem.

Skrivet av Kablash:

Nu pratar jag inte om prestanda utan utseendet på referenskorten.

Det är tydligt att nVidia har försökt att designa ett kort med "coolt" utseende, snarare att försöka få till det mest optimal designen för kylningen.
AIB-kort borde vara att föredra just för kylningens skull och för att göra det tydligt för nVidia att det de är inte OK att vara så giriga att de vill tom. konkurrera ut sina egna partner.

nVidia har tyvärr historia av att göra sig ovän med sina partner.

Om det går tillräckligt bra för FE-korten så ska man inte bli förvånad om nVidia skulle välja att låsa ut ASUS/GIGABYTE/MSI och istället sälja sina kort exklusivt hos de själva, bara för att tjäna extra mycket på varje kort som säljs.

Skrivet av Olsson80:

Tycker 10fps är en helt ok skillnad, är ju 2080 med 8gb mot ett 1080ti med 11gb ram, så 20 serien ger ju betydligt bättre prestanda. Skall man jämföra rakt av så borde man ju jämföra 2080 mot 1080 och ti mot ti kort. Det är ett stort hopp upp i prestanda och jag tror att folk glömmer det på grund av priset. Det blir alltid sura miner vid en prishöjning, självklart vill man ha det billigare, men samtidigt är det marknaden som sätter priset.

Skickades från m.sweclockers.com

Ja, de är ju mer korrekt att jämföra RTX 2080 mot GTX 1080. Men när de kommer till GTX 1080 Ti så är också de kortet lite av en udda fågel. Prestandan de kortet gav när de släpptes är så jäkla mycke högre än vad ett GTX 1080 ger. NVIDIA slog på lite väl stort där. Och när RTX 20 serien inte gav något större prestandahopp så blir de ju tämligen "meh". Dom flesta var ju sugna att se samma prestandahopp som mellan GTX 9 serien till GTX 10 serien. Då hade ett GTX 1070 i runda slängor samma prestanda som ett GTX 980 Ti.

Skrivet av Yoshman:

Turing har bara en sak som inte Volta har, det är ray tracing (RT-cores).

Turing har däremot flera saker som Pascal saknar, flera av dessa gör väldigt liten skillnad i de flesta av dagens titlar. Men ju mer avancerade shaders spel kommer använda, ju mer kommer Turing (egentligen Volta då Turing är Volta med RT-kärnor) dra ifrån Pascal.

Nvidia nämnde ju att Turing (Volta) kan utföra upp till 50 % så mycket arbete per cykel som Pascal. Typisk "upp till" sak, då det är rätt nära 0 % bättre i de triviala fallen (äldre spel) men ju mer avancerade saker som läggs på GPU ju närmare 50 % kommer man hamna.

Vidare har Nvidia, i de mer tekniska beskrivningarna, pratat om att Tesla och framåt är SIMT (Single Instruction, Multiple Thread) och att det inte är samma sak som SIMD (Single Instruction, Multiple Data). AMD/Intel GPUer är SIMD maskiner på HW-nivå (det gäller även RDNA, men vet inte om det gäller Xe).

Redan Tesla och framåt skiljer sig från AMD/Intel i att den förra helt saknar s.k. vektor-register som är en grundpelare i en SIMD-design. Den detaljen gör att Nvidias GPUer uppför sig lite mer som en "riktig" CPU-kärna jämfört med SIMD-design, vilket i praktiken betyder att man lättare når en viss andel av teoretisk prestanda i en Nvidia GPU. Fördelen med SIMD-designen är att det krävs lite färre transistorer för att nå en viss teoretisk kapacitet, ju trivialare fall man försöker lösa ju mindre fördel har SIMT över SIMD (fast det omvända gäller också).

Fram till Volta fanns ändå vissa saker man teoretiskt sett borde kunna göra i SIMT (som inte är möjligt med SIMD), men som av detaljer i hur Nvidias HW fungerande ändå inte fungerade då den på HW-nivå egentligen körde SIMD här.

Pre-Volta kan inte trådar i samma warp som tagit olika vägar synkroniseras, något som är en självklarhet i vanligt multitrådad kod. Volta och framåt har den möjligheten, vilket öppnar upp för mer avancerade fall primärt för GPGPU men går även att utnyttja i spel

Allt ovan är bl.a. orsaken till varför Turing presterar klart bättre i just ray tracing jämfört med Pascal även när RT-kärnorna inte används (t.ex. i nuvarande version av Blender). Ray tracing är ett typexempel på något som SIMD har svårt att hantera effektivt då olika strålar tenderar välja olika vägar även fast de ligger nära varandra. SIMT designen och förändringen i Volta pekar väldigt mycket på att Nvidia haft just RTRT i sikte under väldigt lång tid, minst sedan designen av Tesla.

TL;DR av detta är: är betydligt fler förändringar än RT-kärnor mellan Pascal och Turing. Vi lär se det vanliga gnället om att Nvidia medvetet förstör för äldre GPU-modeller då Turing kommer dra ifrån Pascal allt mer ju mer avancerade spelen bli (vare sig de kör RTRT eller ej), men det är egentligen "Turing fine-wine".

Edit: Turing har en till sak som saknas i Pascal (saknas även i Volta) och kommer bli viktig för att bättre hantera höga upplösningar. Variable rate shading VRS. Förhoppningsvis (och väldigt sannolikt) kommer detta att hitta in i nästa generations konsoler och det finns med i Intels Gen11, tyvärr saknas VRS i Navi

Ja, dessa saker gör ju såklart skillnad. Men de är i de långa loppet de. Förbättringar på arkitekturerna sker ju vid varje skifte. När GTX 9 serien släpptes så var de inte någon gigantisk skillnad i prestanda mellan GTX 760 och GTX 960. GTX 960 har dessutom lite färre kärnor än GTX 760 men kunde hålla jämna steg. Och nu när åren har gått så kan man också se att ett GTX 960 ger lite bättre prestanda än GTX 760. De jag vill komma till är lite "här och nu". RTX 20 serien är dyr och man betalar för något som fortfarande är sällsynt att se i spel. De har redan gått ett år sen lansering och varken NVIDIA eller spelutvecklarna har levererat inom Ray Tracing. Dom spel som finns ute har använt tre olika tekniker för hur man kan implantera Ray Tracing. Inget spel använder alla tre tekniker som i teorin skulle kuna ge en sjujäkla grafikuplevelse. Men de lär ju också döda spelbarheten totalt med dagens grafikkort. Jag står fast vid att RTX 20 serien är extremt dyr för vad man betalar för. Men så gör man när man helt plötsligt är ensam om en teknik på marknaden. Då tar man i så man spricker med priserna.

I övrigt så tycker jag Ray Tracing är coolt och de är en teknik jag vill se mer av i spelen. Men inte till en kostnad av 15 000 kr för ett enda grafikkort som hjälpligt kan dra runt spelet!

Helt otroligt hur mycket pengar folk är beredda att pumpa in i nVidia-kort för att få en 1-3% bättre "upplevelse", för inte så länge sen kunde man få ett kompetent kort för 2-4000 för att leka runt med spel hemma.

Nu 10-12.000, om inte folk tycker det är bisarrt så vet jag inte vad...

Kudos till Nvidia för att de pressar utvecklingen framåt!
Lite tidigt bara; jag tvivlar på att många använder RTX men det nämns i varenda recension: "har inte stöd för raytracing".

En anna sak Nvida också lyckats med är att få det allmänt accepterat att ett bra grafikkort numera kostar runt 5000:- istället för 3000:- som de gjorde för ett par år sedan. Bra intäckter där till både Nvidia och AMD

Skrivet av RHWarrior:

Helt otroligt hur mycket pengar folk är beredda att pumpa in i nVidia-kort för att få en 1-3% bättre "upplevelse", för inte så länge sen kunde man få ett kompetent kort för 2-4000 för att leka runt med spel hemma.

Nu 10-12.000, om inte folk tycker det är bisarrt så vet jag inte vad...

Du kan få ett 2060 för under 4000:- (3790:-) Vega 56 hittade jag genom en snabb koll på prisjakt för 3213:- på proshop och 1660Ti för 3249:-. och vill du ner till cirka 2000:- kan du få 1660 (2499:-) eller ett 580 8GB (2390:-). Behöver man värstingkortet för att "leka runt"?

Senast redigerat 2019-08-21 16:46
Skrivet av ClintBeastwood:

Du kan få ett 2060 för under 4000:- (3790:-) Vega 56 hittade jag genom en snabb koll på prisjakt för 3213:- på proshop och 1660Ti för 3249:-. och vill du ner till cirka 2000:- kan du få 1660 (2499:-) eller ett 580 8GB (2390:-). Behöver man värstingkortet för att "leka runt"?

Nä, men det är rätt mediokra grejer, för inte så länge sen så kunde man hitta upper middle end för 3-4 lax, så....
Men men, har nvidia-aktier så köp på.

DLSS visade sig tyvärr vara helt värdelöst (suddigt med grafiska artefakter), men tycker att ray tracing är förbaskat häftigt om man har ett kort som kan driva runt det någorlunda med schyssta inställningar. Gammal reflektionsteknik kan bara visa reflektioner från statiska objekt så länge de syns i bild (dvs spegelbilder från omgivande miljöer försvinner då om man tittar nedåt etc, och ger en nästan buggig känsla vid jämförelse med ray tracing). Det gör en hel del för realismen att alltid kunna se spegelbilder samt händelser i dessa från omgivningen.