Ray tracing med mellanklassens Geforce RTX

Skrivet av JonasT:

Det är marginellt snabbare än ett 2060 Super, så det sistnämnda kortet är en rätt bra referenspunkt.

Guld! Tackar tackar.

Skrivet av Söderbäck:

Guld! Tackar tackar.

Ett tips är att överklocka ditt 2070, som jag förstår det så svarar 2070 korten riktigt bra generellt!

Sitter själv på vad man skulle kunna säga är "budget" versionen av ett 2070, d.v.s. MSI's RTX 2070 Armor. Kan posta lite nummer vad för OC jag kör och vad det gav mig med datorn i sign (2700X@4.15Ghz, 3000Mhz RAM). Detta är dessutom en stabil OC som jag kör 24/7 just nu, har än så länge inte upplevt några problem alls.

  • GPU Stock (TimeSpy 1440p): 8653p

  • GPU OC (TimeSpy 1440p): 9176p

OC inställningar (MSI Afterburner):

  • Core Voltage: +100 (bara maxa ut slidern, det är safe)

  • Power Limit: 105% (max på Armor?)

  • Temp. Limit: 88c

  • Core Clock: +200

  • Memory Clock: +700

EDIT: Av det jag läst på forum så verkar sweetspot ligga mellan +200-240core och +700-1000mem, så drog på med lägsta "safe" vad jag kunde läsa mig till efter lite snabbt Googlande. Finns eventuellt mer headroom att plocka hem. Kortet blir visserligen inte något magiskt "Super"-kort, men 5-15 extra FPS i krävande scenarion gratis tackar jag personligen inte nej till

Senast redigerat 2020-06-01 19:38
Skrivet av Radolov:

Vem är Ray och varför letar alla efter han? ¯\_(ツ)_/¯

Undrar om det är den där blåa Ray?
Eller är det Ray som alltid får en ban?

”2070 super” och ”mellanklass” i samma mening?

Jag trodde inte det var så indelningen såg ut...

Så totalt meningslöst om man inte har ett 2080TI eller bättre.

Skrivet av Vash:

DLSS är ett krav för RT med dagens kort, förstår att man väljer å testa utan i Battlefield å delvis Metro även om de fungerar helt ok med DLSS förutom att eld visar mycket artefakter.
Men Control är ett utmärkt exempel för å visa upp DLSS 2.0 så synd att man inte har med det i testet kanske även borde haft med Deliver us the moon som har förträffligt DLSS och RT stöd. Lite synd å bara ge worst case när de finns lovande titlar att mixa in.

Exakt.. EXTREMT märkligt att man inte har staplar med DLSS 2.0 med på Control. DLSS 2.0 är ett rejält steg upp alltså, nästan samma flyt som utan RTX påslaget och knappt något grafiskt nedköp alls. Och som du säger, ett par spel med bra DLSS-stöd känns ju givet att ha med i ett test som detta. Speciellt för mellan-korten är DLSS (och speciellt 2.0) halvt revolutionerande.

Skrivet av Defender:

Så totalt meningslöst om man inte har ett 2080TI eller bättre.

Helt fel.. Jag har ett vanligt RTX 2080 själv, och har kört flera spel i 1440p med RTX på, jag har inte kunnat maxa exakt allt på alla spel förstås. Men... DLSS 2.0 har gjort att penaltyn för att ha RTX på nästan försvinner, medan bildkvalitén bibehålls. Control är just nu det bästa exemplet på sjukt fin Raytracing och ett otroligt bra DLSS 2.0 (första spelet med just 2.0-stöd). Bara fler spel får bra DLSS-stöd så kommer fler kunna njuta av RTX utan ett 2080Ti.

Skrivet av Vaneriuz:

Helt fel.. Jag har ett vanligt RTX 2080 själv, och har kört flera spel i 1440p med RTX på, jag har inte kunnat maxa exakt allt på alla spel förstås. Men... DLSS 2.0 har gjort att penaltyn för att ha RTX på nästan försvinner, medan bildkvalitén bibehålls. Control är just nu det bästa exemplet på sjukt fin Raytracing och ett otroligt bra DLSS 2.0 (första spelet med just 2.0-stöd). Bara fler spel får bra DLSS-stöd så kommer fler kunna njuta av RTX utan ett 2080Ti.

Det är skönt att du kan spela 3-4 spel.

Skrivet av EntropyQ3:

Sant - fast det är ju också så att den kiselytan inte är gratis. Antingen kunde de gjort ett mindre chip med bättre yield => betydligt billigare med samma prestanda utan RT-cores, eller också hade de kunnat spendera kiselytan på fler generella CUDA cores => bättre prestanda för allt utom RT. Kiselteknologin är som den är. Frågan är hur man prioriterar med resurserna.
Och det gäller naturligtvis också oss konsumenter. Är det detta vi vill lägga våra pengar på? Det finns ju annat i livet än något mera fysikaliskt korrekt skuggade Pixlar i spel att lägga sina pengar på.

Det är helt sant. Men det finns också fler saker att spendera pengar på än några extra fps, eller högre inställningar i ett spel. Man år ta det lite för vad det är, Nvidia satsade på en helt ny teknik och vi vet fortfarande inte hur utfallet blev. Jag tycker det är synd att gnälla på nvidia för det. Kan dock hålla med om att 2000 serien inte varit så spännande för de flesta, och att konsumenter gynnats av mer konkurrens. Det är dock så att det är en nischad marknad med extremt höga utvecklingskostnader. Så det förvånar mig inte att läget är som det är.

Skrivet av Vaneriuz:

Exakt.. EXTREMT märkligt att man inte har staplar med DLSS 2.0 med på Control. DLSS 2.0 är ett rejält steg upp alltså, nästan samma flyt som utan RTX påslaget och knappt något grafiskt nedköp alls. Och som du säger, ett par spel med bra DLSS-stöd känns ju givet att ha med i ett test som detta. Speciellt för mellan-korten är DLSS (och speciellt 2.0) halvt revolutionerande.

Finns svar på det här i tråden ;).

Skrivet av JonasT:

Vi sparar det till en separat artikel så vi kan lägga mer tid att fokusera på bildkvalitet och jämförelser.

Skrivet av DevilsDad:

Det är helt sant. Men det finns också fler saker att spendera pengar på än några extra fps, eller högre inställningar i ett spel. Man år ta det lite för vad det är, Nvidia satsade på en helt ny teknik och vi vet fortfarande inte hur utfallet blev. Jag tycker det är synd att gnälla på nvidia för det. Kan dock hålla med om att 2000 serien inte varit så spännande för de flesta, och att konsumenter gynnats av mer konkurrens. Det är dock så att det är en nischad marknad med extremt höga utvecklingskostnader. Så det förvånar mig inte att läget är som det är.

Jag känner det som ganska uppenbart att det blev typ såhär

1. Vi måste ha en ny teknik för att vara relevanta (bättre prestanda med samma tillverkningsnod är nästan omöjligt)
2. Vi testar raytracing, algoritmerna behöver massa beräkningar av typen x som alla dagens gpuer är dåliga på
3. Hur mycket (lite) accelerering behövs för att det inte ska gå att köra alls på annan hårdvara än vår egen (samtidigt ta så lite kisel i anspråk som möjligt)
4. Massa marknadsföring och sånt för att visa att vi är dom enda som kan det (se till att alla nyhetssidor testar tekniken även om den ser dålig ut)
5. Om allt gå dåligt behöver vi inte slösa så mycket kisel för all framtid
6. AMD hoppar på tåget med nya konsollerna
7. Nästa generation med krypmt tillverkning rymmer ökad prestanda och RT samtidigt
8. Eftersom RT blev en sån bra grej lägger vi till rimlig mängd kisel och riktigt prestanda till nästa generation, och folk kommer inte hata oss för att första generationen sög så mycket
9. Promota tensor kärnorna med DLSS
10. Göm dålig RT prestanda med uppskalning (DLSS) så att folk kan säga att det faktiskt fungerar (trots att man spelar på uppskalad halverad upplösning på riktigt)
11. Tensor blev ingen stor hit ännu så skala inte upp det så mycket för nästa generation utan använd det främst i datacenter där det hör hemma

Lite så är min känsla, men har säkert missat massor

Skrivet av DevilsDad:

Det är helt sant. Men det finns också fler saker att spendera pengar på än några extra fps, eller högre inställningar i ett spel. Man år ta det lite för vad det är, Nvidia satsade på en helt ny teknik och vi vet fortfarande inte hur utfallet blev. Jag tycker det är synd att gnälla på nvidia för det. Kan dock hålla med om att 2000 serien inte varit så spännande för de flesta, och att konsumenter gynnats av mer konkurrens. Det är dock så att det är en nischad marknad med extremt höga utvecklingskostnader. Så det förvånar mig inte att läget är som det är.

Det som besvärar mig med RT satsningen är att den känns som "full fart nerför stupet". Om man gör dedicerade insticksgrafikkort så innebär det i och för sig att man konkurrerar utifrån sina styrkor, i ett läge där den mobila marknaden är den största för gaming, och också där tillväxten sker. PC-kort kan vara stora och dyra, och dra mycket effekt, så man kan introducera teknik som inte är möjlig någon annanstans.
Men det känns ändå tondövt när Windowsmarknaden stadigt sjunker i volym, andelen stationära datorer inom den marknaden har sjunkit till en tredjedel, och folk kan tillfredställa sina gamingbehov på mobiler, plattor och konsoler. Att då pusha för en dyr och ineffektiv teknik förbättrar inte precis attraktiviteten för plattformen.
Allt färre får betala allt mer för att jaga sina PC pixlar. Flera krympande marknader gör samma sak - ökar priserna helt enkelt för att hålla intäktsnivån uppe. Men det är som att kissa i byxorna för att hålla sig varm, för det leder ofrånkomligen till att marknadsvolymen minskar, och när datorspelande ju egentligen bara är ett tidsfördriv så känns det inte precis som ett framtidskoncept att höja tröskel och kostnader för att vara med i leken. Och spelpublicisterna har ingen anledning att bry sig ett jota om var människor köper deras spel, de är minst lika glada om det sker på mer slutna plattformar.

Skrivet av medbor:

Jag känner det som ganska uppenbart att det blev typ såhär

1. Vi måste ha en ny teknik för att vara relevanta (bättre prestanda med samma tillverkningsnod är nästan omöjligt)
2. Vi testar raytracing, algoritmerna behöver massa beräkningar av typen x som alla dagens gpuer är dåliga på
3. Hur mycket (lite) accelerering behövs för att det inte ska gå att köra alls på annan hårdvara än vår egen (samtidigt ta så lite kisel i anspråk som möjligt)
4. Massa marknadsföring och sånt för att visa att vi är dom enda som kan det (se till att alla nyhetssidor testar tekniken även om den ser dålig ut)
5. Om allt gå dåligt behöver vi inte slösa så mycket kisel för all framtid
6. AMD hoppar på tåget med nya konsollerna
7. Nästa generation med krypmt tillverkning rymmer ökad prestanda och RT samtidigt
8. Eftersom RT blev en sån bra grej lägger vi till rimlig mängd kisel och riktigt prestanda till nästa generation, och folk kommer inte hata oss för att första generationen sög så mycket
9. Promota tensor kärnorna med DLSS
10. Göm dålig RT prestanda med uppskalning (DLSS) så att folk kan säga att det faktiskt fungerar (trots att man spelar på uppskalad halverad upplösning på riktigt)
11. Tensor blev ingen stor hit ännu så skala inte upp det så mycket för nästa generation utan använd det främst i datacenter där det hör hemma

Lite så är min känsla, men har säkert missat massor

Oj, här gör de flera antagande som jag inte alls tycker är uppenbara.

1. Att bättre prestanda på samma nod är nästan omöjligt är ett väldigt vågat uttalande. Garfikkort är väldigt enkla och skala upp genom att bara öka antalet beräkningsenheter. Den extra kiselytan finns uppenbarligen där eftersom den användes för RT och tensor-kärnor.

Behövde verkligen Nvidia en ny typ av rendering för att fortsätta vara relevanta? Deras 3 år gammla 1080 ti är fortfarande i nivå med de bästa konkurrenterna har.

3. Förstår inte hur hur bra RT funkar på annan hårdvara är relaterad till nvidias val av beräkningakraft för RT? Det är ju knappast så att spelen är nedskalade till 2000 seriens beräkningskraft, med tanke på fps-nivåerna. Allt med RT bär ses som proof of concept/early adopter i nuläget.

8. Förstår inte varför folk skulle hata dem för att de var försiktiga med att lägga mycket kisel (och därmed prispåslag) på en ny teknik som de inte visste hur många spelutvecklare som skulle nyttja.

Att du tycker RT i 2000 serien suger är väl din ensak. Förstår inte hur det är en del av händelseförloppet. Jag skulle hävda att dina förväntningar var orealistiska.

11. Vet vi att de inte skalat upp det? Och i så fall, vet vi anledningen? Det kanske inte behövs mer för det tänkta användningsområdet. Oavsett tror jag inte det kommer hållas enbart till servrar. Vi kommer nog se den typen av beräkningsenheter även i mobila produkter framöver.

Skrivet av EntropyQ3:

Det som besvärar mig med RT satsningen är att den känns som "full fart nerför stupet". Om man gör dedicerade insticksgrafikkort så innebär det i och för sig att man konkurrerar utifrån sina styrkor, i ett läge där den mobila marknaden är den största för gaming, och också där tillväxten sker. PC-kort kan vara stora och dyra, och dra mycket effekt, så man kan introducera teknik som inte är möjlig någon annanstans.
Men det känns ändå tondövt när Windowsmarknaden stadigt sjunker i volym, andelen stationära datorer inom den marknaden har sjunkit till en tredjedel, och folk kan tillfredställa sina gamingbehov på mobiler, plattor och konsoler. Att då pusha för en dyr och ineffektiv teknik förbättrar inte precis attraktiviteten för plattformen.
Allt färre får betala allt mer för att jaga sina PC pixlar. Flera krympande marknader gör samma sak - ökar priserna helt enkelt för att hålla intäktsnivån uppe. Men det är som att kissa i byxorna för att hålla sig varm, för det leder ofrånkomligen till att marknadsvolymen minskar, och när datorspelande ju egentligen bara är ett tidsfördriv så känns det inte precis som ett framtidskoncept att höja tröskel och kostnader för att vara med i leken. Och spelpublicisterna har ingen anledning att bry sig ett jota om var människor köper deras spel, de är minst lika glada om det sker på mer slutna plattformar.

Tja, jag förstår vad du menar. Men jag ser det inte som att det är så uppenbart olika saker från nvidias sida. De kan använda i princip samma arkitektur från tegra till superdatorer.

Det är ju absolut inte så att man måste ha ett 2070 eller bättre för att spela på en dator. Man kommer ganska långt på ett 1660ti. Så jag köper inte att detta bidrar till att marknaden för stationära datorer minskar. Är dessutom lite nyfiken var du fått siffrorna från? Har verkligen ingen koll på den biten ^^

Slutligen ser jag det som ganska naturligt att nya tekniker introduceras i entusiastsegmentet först. Det är ju precis denna gruppen som kan vara intresserade av att testa även om det inte lämpar sig för vardaglig användning än.

Skrivet av DevilsDad:

Tja, jag förstår vad du menar. Men jag ser det inte som att det är så uppenbart olika saker från nvidias sida. De kan använda i princip samma arkitektur från tegra till superdatorer.

Det är ju absolut inte så att man måste ha ett 2070 eller bättre för att spela på en dator. Man kommer ganska långt på ett 1660ti. Så jag köper inte att detta bidrar till att marknaden för stationära datorer minskar. Är dessutom lite nyfiken var du fått siffrorna från? Har verkligen ingen koll på den biten ^^

PC försäljning sedan 2009. (Observera att de höjer siffrorna sedan 2014 genom att inkludera Apple.)

Andelen desktop datorer (blå) laptops (mörkgrå) tablets (ljusgrå) 2010-2017. De senare siffrorna är bara projektioner.

Jag var lat och använde statista och de bråkar lite med att visa den andra grafen, men man ser den obehindrat vid googlesökning. (Analytikerna vill ha betalt för sin statistik. Skurkar. )Wikipedia har en vettig pc-graf fram till 2017, återigen, dra av 20 miljoner per år för Apple.

Skrivet av DevilsDad:

Oj, här gör de flera antagande som jag inte alls tycker är uppenbara.

1. Att bättre prestanda på samma nod är nästan omöjligt är ett väldigt vågat uttalande. Garfikkort är väldigt enkla och skala upp genom att bara öka antalet beräkningsenheter. Den extra kiselytan finns uppenbarligen där eftersom den användes för RT och tensor-kärnor.

Behövde verkligen Nvidia en ny typ av rendering för att fortsätta vara relevanta? Deras 3 år gammla 1080 ti är fortfarande i nivå med de bästa konkurrenterna har.

3. Förstår inte hur hur bra RT funkar på annan hårdvara är relaterad till nvidias val av beräkningakraft för RT? Det är ju knappast så att spelen är nedskalade till 2000 seriens beräkningskraft, med tanke på fps-nivåerna. Allt med RT bär ses som proof of concept/early adopter i nuläget.

8. Förstår inte varför folk skulle hata dem för att de var försiktiga med att lägga mycket kisel (och därmed prispåslag) på en ny teknik som de inte visste hur många spelutvecklare som skulle nyttja.

Att du tycker RT i 2000 serien suger är väl din ensak. Förstår inte hur det är en del av händelseförloppet. Jag skulle hävda att dina förväntningar var orealistiska.

11. Vet vi att de inte skalat upp det? Och i så fall, vet vi anledningen? Det kanske inte behövs mer för det tänkta användningsområdet. Oavsett tror jag inte det kommer hållas enbart till servrar. Vi kommer nog se den typen av beräkningsenheter även i mobila produkter framöver.

Tror det mesta du nämner är tolkningsfrågor där framförallt synen på bolaget i fråga färgar vår syn på situationen

Jag tror dock det mesta jag säger är ganska nära sanningen.

Sett till första punkten kan man väl bara se till hur extremt stora chip de fick ta till och ändå knappt öka prestandan. Priset för samma prestanda har ju dessutom inte bättrats sedan 1080ti direkt, därför behövdes RT för att särskilja och ’tvinga’ uppgraderingar för alla som vill ha senaste trots att prestandan knappt är bättre.

Ännu värre är det för alla som köpt 2000 serien i år när budgetkorten i 3000 kommer slå 2080ti i RT prestanda...

Nu har vi följt upp med en mer fokuserad artikel på just DLSS 2.0 ihop med ray tracing i Control.