Ray tracing – djupdykning i tekniken och betydelsen för framtidens spel

Permalänk
Melding Plague

Ray tracing – djupdykning i tekniken och betydelsen för framtidens spel

När Nvidia lanserade Geforce RTX 2000-serien slogs det på stora trumman för ray tracing. Vad är det, hur skiljer det från traditionell rastrering och varför beskrivs det som "den heliga graalen"?

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Hjälpsam

Bra artikel @Yoshman!
Lättläst och informativ.
Personligen tror jag att det kommer att dröja ett tag om och när tekniken slår igenom.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Mycket bra och välskriven artikel! Ser fram emot fler intressanta artiklar från dig i framtiden @Yoshman !

Visa signatur

12c/24t 4.0GHz (Zen2) • 2x16GiB 3200MHz C14 • RTX 2080 FE 1965MHz 7000MHz • X570 I PW • Ghost S1 MKII

Permalänk
Medlem
Skrivet av Ratatosk:

Bra artikel @Yoshman!
Lättläst och informativ.
Personligen tror jag att det kommer att dröja ett tag om och när tekniken slår igenom.

Mkt prestanda kommer krävas för full raytrace rendering. Nvidias är väll någon sorts hybrid än så länge?
I framtiden kanske vanliga cpu kärnor även kan hjälpa till, tex om man har 120 kärnor och bara 30 drar spelet då kan dom andra på leka med strålar.

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

Kul läsning och skriven på ett bra sätt.

Skickades från m.sweclockers.com

Visa signatur

Dator - Dell Alienware Oled AW3423DW, Phantek Enthoo Pro, Intel i7 8700K, Noctua NH-14, Asus TUF Z370-PRO, Samsung SSD 840 Pro 128GB, 32 GB DDR4, Gigabyte Geforce GTX 1080 Ti, 2st x 3 TB WD RED, Logitech MX518, Sennheiser Momentum, Qpad Pro MK80.

Permalänk
Hjälpsam

Gillar verkligen upplägget som börjar allmänt om Raytracing och som gradvis leder till Nvidias speciella lösning.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

@Yoshman gör det Yoshman gör Helt suverän artikel! Kan tycka att ray tracing är fenomenalt för filmer, om än så är det lite för "färskt" för att idag gå och slänga sig över senaste RTX generationen för ray tracings skull. Fast, någonstans måste tåget börja.

Visa signatur

Star Citizen ❤

Permalänk
Datavetare
Skrivet av Ratatosk:

Bra artikel @Yoshman!
Lättläst och informativ.
Personligen tror jag att det kommer att dröja ett tag om och när tekniken slår igenom.

Tänker inte säga emot! Rent generellt brukar det ta längre tid än man tror innan saker slår igenom, även i datorvärlden (eller kanske speciellt i dataor-världen då förväntningen är hög hastighet?).

Ett extremt exempel är SSE.

Det lanserades 1999, tog rätt många år innan man hittade något vettig sätt att utnyttja tekniken. Men tiden började det ändå hitta in i bibliotek för filmkodning och liknande. Det är också en självklarhet i program som Matlab och andra saker som jobbar med matriser.

SSE är egentligen bara x86 anpassning av en mer generell teknik som nämns i artikeln, SIMD. Egentligen vill man inte skriva sina program på ett sätt som låser fast det i SSE eller AVX (framförallt tidigare när AVX inte fanns på en klar majoritet av x86 modeller på marknaden).

Det tog fram till 2013 innan det kom någon form av standardiserat sätt att skriva program för SIMD, d.v.s ett sätt där jag som programmerare kan skriva koden på ett sätt så det går att köra på SSE, AVX, AVX512 men även på NEON (SIMD för ARM) och AltiVec (SIMD för PowerPC). Detta hände med lanseringen av OpenMP 4.0.

Tog ända fram till 2017 innan något av de större programmeringsspråken inkluderade något i sin standard som möjliggör beskrivning av programkonstruktioner på ett sätt som lämpar sig för att generera SIMD-kod. Det i 2017 års standard av C++...

SIMD är trots allt en väldigt användbar teknik. Många saker som folk idag försöker lösa med flera CPU-kärnor lämpar sig långt bättre för SIMD. Ändå har det tagit så lång tid för att göra denna teknik relativt tillgänglig (fortfarande rätt omöjligt att utnyttja i de flesta programspråk via standardmetoder).

HW-T&L är ett annat exempel som nämns i artikeln. Här gick det betydligt snabbare, men var trots allt så att DirectX som fanns vid release av GeForce256 (första konsumentkortet med T&L, Radeon 7000-serien blev ATis första kort med detta) inte en hade stöd för HW-T&L! Här gick det ändå hyfsat snabb, tog två/tre år innan detta blev normen.

Sista exemplet man kan ta är GPGPU. En av huvudanledningarna till AMDs köp av ATi 2006 var att man hade en vision om att kombinera CPU och GPU för att utnyttja styrkorna hos de två. En CPU är optimerad för maximal prestanda per tråd, vilket kräver låg latens. En GPU är optimerad för maximal total prestanda över en massiv mängd trådar, något som i princip kräver att man i det närmaste ignorerar latens men har en enorm bandbredd. De är bra på väldigt olika saker!

Visionen med "fusion" som man kallade syntesen av CPU+GPU var helt rätt, men här krävdes ungefär ett decennium av sökande innan man hittade rätt formel både på kiselsidan och programsidan.

Det kommer vara en tids sökande med ray tracing. Jämfört med HW-T&L ligger man egentligen redan före i tidslinjen, men tror inte det säger så mycket om farten härifrån.

Huvudproblemet med ray tracing givet RTX-serien är att lura ut vad som är vettigast att lägga resurserna på då det är uppenbart att man bara fixar en av de tre huvudkomponenterna i en given titel.

Självklart finns även möjligheten att dagens RTX-kort är för klena. Men tycker ändå BFV visar (även utan DLSS ) att det går att göra saker redan nu som ser rätt bra ut och som i praktiken är nära nog omöjligt med rastrering.

Men tror inte vi kommer få se något som är väsentligt bättre rent visuellt än BFV på 2000-serien. Visst kommer man putsa lite i drivare och göra lite smartare optimeringar i spelmotorerna, men det lär vara ungefär den nivån vi får. D.v.s blanka fina ytor (då de är billigare att beräkna än matta) alt. inte allt för mjuka skuggor (då det kräver väldigt många skuggstrålar per primärstråle).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@Aka_The_Barf: Frågan blir hur pass effektivt dessa överblivna CPU kärnor kommer kunna jobba med just ray tracing. Nu vet jag inte hur prestandan skulle påverkas på 100 kärnor där 30st används för att driva spel AI och liknande men någonstans där så (om som idag) delar dom fortfarande på samma tillgång mot CPUn cacheminne(n) och liknande just för alla call() som görs. Men är långt ifrån insatt själv i just hur ray tracing faktiskt fungerar så kan vara helt ute på isen och snurra nu. Min förhoppning, även om det säkert inte lär ske förens om 20 år kanske. Är att vi har nya tekniker och metoder för hur renderingar och arbeten utförs i processerna, hur texturer hanteras och att kunna ladda in 40K texturer i minne utan en massa fördröjningar. Dvs, jag menar att någonstans kommer tekniken bli haltande när vi kommer till den där övergången att saker faktiskt ska se helt verklighetstroget ut i t.ex VR miljö och liknande. När den övergången skall ske, så krävs något annat än dagens teknik och förutsättningar för hur tekniken utvecklas närmaste 10 åren framöver.

@Yoshman jag vet att PixelShader versionerna egentligen inte hör hemma i artikeln, men det skulle vara oerhört kul att läsa en artikel om fenomenet bakom "skiten" då spel en vecka kunde kräva PixelShader v4.0 och veckan därpå 4.1, medans skillnaderna i sig egentligen var så små (i spel) att det inte gick att urskilja dom, mer än faktumet att som gamer var man tvungen att köpa ett nytt grafikkort som kunde stödja dessa revolutionerande(?) PixelShader förändringarna. Vet att det är ett icke-problem idag, men på den tiden var det om något, frustrerande.

Visa signatur

Star Citizen ❤

Permalänk
Datavetare
Skrivet av Aka_The_Barf:

Mkt prestanda kommer krävas för full raytrace rendering. Nvidias är väll någon sorts hybrid än så länge?
I framtiden kanske vanliga cpu kärnor även kan hjälpa till, tex om man har 120 kärnor och bara 30 drar spelet då kan dom andra på leka med strålar.

Skickades från m.sweclockers.com

Tror "hybrid raytracing" är det enda vi kan förvänta oss ett bra tag framöver vad det gäller spel. Helt övertygade om att AMD (och Intel om deras kommande GPU blir något att räkna med) kommer ta samma väg.

DXR är ju specifikt designad för att lämna rätt mycket frihet i exakt hur ray tracing delen implementeras, men DXR förutsätter i praktiken "hybrid rendering".

Sedan vill nog både vi som kunder och grafikkortstillverkarna få så mycket nytta av existerande GPU-design som möjligt. Dagens GPUer är ju nästan helt optimerade för "dataparallella problem", detta då de är det klart vanligaste vid rastrering. Med "hybrid rendering" får man en fin väg där man gradvis kan skala upp det ray tracing behöver och med tiden kan man börja skala ned delar för rastrering som framöver kanske blir överflödiga.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Men rent krasst, om vi helt enkelt skalar upp en Turing-krets enormt, så borde man väl nå en punkt där man får full ray tracing i realtid?

Att man sen behöver trefas med 25 A säkring för att driva datorn och ett kylaggregat på flera kW också, det må vara hänt...

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

Men rent krasst, om vi helt enkelt skalar upp en Turing-krets enormt, så borde man väl nå en punkt där man får full ray tracing i realtid?

Problemet där är att definiera vad full ray tracing i realtid faktiskt betyder, vilket är mer en filosofisk fråga snarare än teknisk. Det finns ju redan nu spel som använder full ray tracing i realtid, då Quake 2 med path tracing har implementerats för NVIDIA RTX. Grafikkvalitén når kanske inte riktigt upp till vad vi förväntar oss av ett modernt spel, men det är ray tracing i realtid i alla fall.

Permalänk
Medlem
Skrivet av perost:

Problemet där är att definiera vad full ray tracing i realtid faktiskt betyder

För mig innebär det att allt beräknas genom ray tracing. Belysning/skuggor, reflektioner, ljusbrytning, färger. Ingen hybridlösning. Och realtid, tja, 30-40 fps är nog en under gräns.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

För mig innebär det att allt beräknas genom ray tracing. Belysning/skuggor, reflektioner, ljusbrytning, färger. Ingen hybridlösning. Och realtid, tja, 30-40 fps är nog en under gräns.

Quake 2 som jag länkade till tidigare uppfyller i stort sett redan de kraven i så fall. Hela spelet renderas där med ray tracing inklusive ljus och skuggor, ingen rastrering används ö.h.t. förutom för att rendera 2D-gränssnittet. Och ett 2080 Ti ska klara ~60 fps i 2560x1440 enligt den länkade sidan.

Permalänk
Medlem
Skrivet av Tomika:

@Aka_The_Barf: Frågan blir hur pass effektivt dessa överblivna CPU kärnor kommer kunna jobba med just ray tracing. Nu vet jag inte hur prestandan skulle påverkas på 100 kärnor där 30st används för att driva spel AI och liknande men någonstans där så (om som idag) delar dom fortfarande på samma tillgång mot CPUn cacheminne(n) och liknande just för alla call() som görs. Men är långt ifrån insatt själv i just hur ray tracing faktiskt fungerar så kan vara helt ute på isen och snurra nu. Min förhoppning, även om det säkert inte lär ske förens om 20 år kanske. Är att vi har nya tekniker och metoder för hur renderingar och arbeten utförs i processerna, hur texturer hanteras och att kunna ladda in 40K texturer i minne utan en massa fördröjningar. Dvs, jag menar att någonstans kommer tekniken bli haltande när vi kommer till den där övergången att saker faktiskt ska se helt verklighetstroget ut i t.ex VR miljö och liknande. När den övergången skall ske, så krävs något annat än dagens teknik och förutsättningar för hur tekniken utvecklas närmaste 10 åren framöver.

@Yoshman jag vet att PixelShader versionerna egentligen inte hör hemma i artikeln, men det skulle vara oerhört kul att läsa en artikel om fenomenet bakom "skiten" då spel en vecka kunde kräva PixelShader v4.0 och veckan därpå 4.1, medans skillnaderna i sig egentligen var så små (i spel) att det inte gick att urskilja dom, mer än faktumet att som gamer var man tvungen att köpa ett nytt grafikkort som kunde stödja dessa revolutionerande(?) PixelShader förändringarna. Vet att det är ett icke-problem idag, men på den tiden var det om något, frustrerande.

Skrivet av Yoshman:

Tror "hybrid raytracing" är det enda vi kan förvänta oss ett bra tag framöver vad det gäller spel. Helt övertygade om att AMD (och Intel om deras kommande GPU blir något att räkna med) kommer ta samma väg.

DXR är ju specifikt designad för att lämna rätt mycket frihet i exakt hur ray tracing delen implementeras, men DXR förutsätter i praktiken "hybrid rendering".

Sedan vill nog både vi som kunder och grafikkortstillverkarna få så mycket nytta av existerande GPU-design som möjligt. Dagens GPUer är ju nästan helt optimerade för "dataparallella problem", detta då de är det klart vanligaste vid rastrering. Med "hybrid rendering" får man en fin väg där man gradvis kan skala upp det ray tracing behöver och med tiden kan man börja skala ned delar för rastrering som framöver kanske blir överflödiga.

Kommer nog vara en långsam övergång OM inte någon ny teknik kommer, nvidias är väll den första som faktiskt fungerar i realtid även om det är en hybrid än sålänge.
Sen har vi quake 2 demot där någon fått det att gå helt med raytracing. vad det exakt innebär kanske kan vara svårt att definiera. hur många gånger kan ljuset studsa innan beräkningarna slutar? i spel kan man sätta in low, medium samt high. vad det innebär vet jag faktiskt inte. kanske är hur mkt raysen kan studsa eller hur mkt av bilden där det används?

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Mkt prestanda kommer krävas för full raytrace rendering. Nvidias är väll någon sorts hybrid än så länge?
I framtiden kanske vanliga cpu kärnor även kan hjälpa till, tex om man har 120 kärnor och bara 30 drar spelet då kan dom andra på leka med strålar.

Det finns ju en point of diminishing return när det gäller cores, så att vi får 120kärnor verkar rätt osannolikt.

Man ska ju också komma ihåg att där vi är nu, säg 6-8cores, hit har ju en bred marknad hjälpts åt att dra lasset (kostnaden) för att det har funnits en viss förtjänst för dom.

Säg att marknaden hard core gamers är 5%, då ska dom dra utvecklingskostnader för utvecklingen, vilket innebär att grafikkort och processorer blir kanske 20 gånger dyrare.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av perost:

Problemet där är att definiera vad full ray tracing i realtid faktiskt betyder, vilket är mer en filosofisk fråga snarare än teknisk.

Va? Hur kan det vara en filosofisk fråga?

Full ray-tracing är full ray-tracing, nu gör man ju tillägget unbiased ibland, och det säger ju ungefär samma sak som "full".

Skickades från m.sweclockers.com

Permalänk
Medlem

Blir spännande att följa denna utvecklingen!

Till skillnad från tidigare teknikskiften är jag med i matchen denna gång och kan följa det! (dvs är inte ett småbarn/inte född)

Skickades från m.sweclockers.com

Visa signatur

| AMD Ryzen 7 5800X3D | Noctua NH-U12A | Gigabyte X570 Aorus Pro | Powercolor Radeon RX 6900XT Red Devil | 16GB G.Skill Trident Z@3600 CL15 | Gigabyte Aorus 2TB M.2 NVMe SSD | Fractal Design Ion+ Platinum 860W | Fractal Design Meshify S2 Blackout | Corsair K70 | Logitech G502 | Alienware AW3423DWF |

Permalänk
Medlem

Tack @Yoshman för intressant läsning.

Visa signatur

Dell U2311H / MSI Optix MAG274QRF-QD
[ FD 7 Black TG Dark ][ MSI Z690 EDGE WIFI DDR4][ I7 12700K ][ Noctau NH-D15 Black ][ Kingston Fury Renegade 32GB 3600Mhz CL16 DDR4][ WD Blue M2 1TB][ Samsung 860 500 GB ][ WD Caviar Green (EZRX) 1TB ][ Corsair RM850x v3 ][ MSI GTX 1060 GamingX 6GB ][ Backup WD Caviar Green (EARX) 2TB ] [ Backup Seagate BarraCuda (ST2000DM006) 2TB ]
[ Qpad MK-50 ][ SteelSeries Sensei Ten ]

Permalänk
Medlem

Mycket som har gjort comeback nu, först VR och sen Raytracing....

Läsvärd artikel!

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk
Datavetare
Skrivet av Aka_The_Barf:

Mkt prestanda kommer krävas för full raytrace rendering. Nvidias är väll någon sorts hybrid än så länge?
I framtiden kanske vanliga cpu kärnor även kan hjälpa till, tex om man har 120 kärnor och bara 30 drar spelet då kan dom andra på leka med strålar.

Var lite detta jag primärt försökte belysa med prestandajämförelsen i Blender.

Ett GTX1080Ti drar ju där jämt med en dual Xeon 6140 (totalt 36 kärnor Skylake X kärnor @ 3,0 GHz, totalt 72 trådar). Och då är 1080Ti ändå flera heltalsfaktorer långsammare än RTX2060 när den använder RT-kärnorna.

Uppenbarligen har Nvidia optimerat CUDA-kärnorna rätt ordentligt för mer "generella beräkningar" (det är ju superhett i datacenter med GPGPU så inte alls förvånande), men man måste ha i bakhuvudet att i denna tabell

så använder inte RTX-korten sina RT-kärnor då man inte lagt sådant stöd i Blender än.

Stöd för RT-kärnorna börjar leta sig in i kommersiella program som Arnold Renderer och Octane Renderer. Där har man sett upp mot 4-6 gånger högre prestanda jämfört med att inte köra med RT-kärnor. (Nvidia har tydligen fixat en variant av OptiX med en licens som Blender gänget är OK med, så kommer nog stöd där också om något år).

Slutsatsen är helt enkelt:. utan dedicerat kisel likt RT-kärnor (eller något med motsvarade praktisk kapacitet) är det inte realistiskt att nå ray tracing i realtid. CPUer är bra på väldigt mycket, men just på denna punkt har de inte tillräckligt med rå "umph".

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av Aka_The_Barf:

Kommer nog vara en långsam övergång OM inte någon ny teknik kommer, nvidias är väll den första som faktiskt fungerar i realtid även om det är en hybrid än sålänge.
Sen har vi quake 2 demot där någon fått det att gå helt med raytracing. vad det exakt innebär kanske kan vara svårt att definiera. hur många gånger kan ljuset studsa innan beräkningarna slutar? i spel kan man sätta in low, medium samt high. vad det innebär vet jag faktiskt inte. kanske är hur mkt raysen kan studsa eller hur mkt av bilden där det används?

Här är min gissning helt i linje med din. Övergången kommer ta lång tid. Kommer garanterat finnas stor användning av rastrering trio år från nu, det är så pass mycket mer beräkningseffektivt!

En sak man kan försöka sig på att gissa är: hur många år tror ni det tar innan första speltiteln som kräver DXR lanseras?

Här kan man jämföra lite med hur långt tid det tog innan första speltiteln som bara hade stöd för DX12 släpptes efter DX12 introduktionen mitten 2015. Min gissning är att det kommer ta mycket längre innan första spelet som kräver DXR lanseras, men tror samtidigt att stöd för DXR kommer rullas ut mycket snabbare än vad som var fallet för DX12.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Mycket bra artikel! Tack Yoshman!

Permalänk
Medlem
Skrivet av Yoshman:

Var lite detta jag primärt försökte belysa med prestandajämförelsen i Blender.

Ett GTX1080Ti drar ju där jämt med en dual Xeon 6140 (totalt 36 kärnor Skylake X kärnor @ 3,0 GHz, totalt 72 trådar). Och då är 1080Ti ändå flera heltalsfaktorer långsammare än RTX2060 när den använder RT-kärnorna.

Uppenbarligen har Nvidia optimerat CUDA-kärnorna rätt ordentligt för mer "generella beräkningar" (det är ju superhett i datacenter med GPGPU så inte alls förvånande), men man måste ha i bakhuvudet att i denna tabell
https://cdn.sweclockers.com/artikel/diagram/16503?key=21aba4026136b4076a60b0a0f6df1114
så använder inte RTX-korten sina RT-kärnor då man inte lagt sådant stöd i Blender än.

Stöd för RT-kärnorna börjar leta sig in i kommersiella program som Arnold Renderer och Octane Renderer. Där har man sett upp mot 4-6 gånger högre prestanda jämfört med att inte köra med RT-kärnor. (Nvidia har tydligen fixat en variant av OptiX med en licens som Blender gänget är OK med, så kommer nog stöd där också om något år).

Slutsatsen är helt enkelt:. utan dedicerat kisel likt RT-kärnor (eller något med motsvarade praktisk kapacitet) är det inte realistiskt att nå ray tracing i realtid. CPUer är bra på väldigt mycket, men just på denna punkt har de inte tillräckligt med rå "umph".

Jag är mer inne på att cpun inte kan ta en tung del utan RT kärnorna kanske kan lämna över vissa strålar till cpun när dom fått studsa några gånger när det kanske inte behövs väldigt mycket precision. kanske mest blir för billigare kort där cpun mer kan assistera RT kärnorna med att köra stålarna lite halvdant för en bättre upplevelse. även om det inte ger jätte mycket så kanske man kan få ett par till fps och att det ser OK ut endå. eller kanske assistera på något helt annat sätt?

fast cpun kanske kommer ha fullt upp endå, när jag körde anthem demot så drog det runt 80% på samtliga 8 kärnor :).

ska bli kul att se vad AMD kokar ihop för något, även om RT inte är speciellt relevant idag så kommer det nog komma en del nytt. kanske remakes av hela spel där RT verkligen kan göra stor skillnad. BF spelen är fina men endå snabba fps. inte så att man stannar och beundrar reflektionerna där då är man död

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Datavetare

@Aka_The_Barf: håller med om BFV, ser snyggt ut men inte rätt speltyp för tekniken.

Tror spel som Uncharted och än mer Last of us är exempel på speltyper där ray tracing skulle kunna ge en riktigt fint mervärde!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av cyklonen:

Men rent krasst, om vi helt enkelt skalar upp en Turing-krets enormt, så borde man väl nå en punkt där man får full ray tracing i realtid?

Att man sen behöver trefas med 25 A säkring för att driva datorn och ett kylaggregat på flera kW också, det må vara hänt...

I grunden handlar det om huruvida metoden kan göras effektivare och mer skalbar än alternativen. Jag tror inte på det du antyder ovan - att kisellitografin skall lösa problemet. De första 25 åren jag hade med datorer att göra (som var 32-bit eller mer) ökade prestandan ungefär en faktor 10000. De senaste tio åren har CPU prestandan ökat en faktor två....
Vad det gäller GPUer är bilden bättre, men inte så mycket bättre som man skulle kunna tro vid första anblicken. De senaste 10 åren har absoluta prestandan räknat i 32-bit FLOPS ökat drygt en faktor 10, men FLOPS/mm2 har inte ökat mer än ca. en faktor fyra och FLOPS/W är i samma område.
Det är osannolikt att jag kommer att få se ett så stort litografisteg igen i min livstid som steget nu mellan TSMC 16/12nmFF till 7nm. Men om vi tittar på vårt enda exempel, Vega 20, är steget både i FLOPS/W och FLOPS/mm2 mycket måttligt - 2080Ti prestanda (754mm2) kommer knappast att vara mainstream ens på diskreta grafikkort i stationära PC-burkar på 7nm än mindre portabler, och steget till 5nm kommer att vara betydligt mindre än steget från 16/12nm till 7nm.

Kort sagt - med mindre än att det kommer spelkonsoler nu där arkitekturen i princip bygger på hybridrendrering tror jag inte att det någonsin kommer att ta över. Stationära PC-datorer för spel är en liten del av den totala spelmarknaden, och även på PC är det titlar som DOTA, LoL, PUBG, Fortnite, Overwatch och så vidare som har rejäl volym, dvs titlar som kräver och kostar relativt lite hårdvarumässigt. Om inte hybridrendrering är ett realistiskt alternativ för en hyfsat billig portabel studentdator, kommer det aldrig att kunna bli dominant - och om det tar för lång tid har målet flyttat sig till mobila enheter och frågan blir då när nVidias RTX kommer att slå genom på Huawei telefoner i mellanklassen.

Fan trot.

Permalänk
Medlem
Skrivet av Yoshman:

@Aka_The_Barf: håller med om BFV, ser snyggt ut men inte rätt speltyp för tekniken.

Tror spel som Uncharted och än mer Last of us är exempel på speltyper där ray tracing skulle kunna ge en riktigt fint mervärde!

Tänker tillbaka på myst spelen som var fina för sin tid, tänk dom i en högt detaljerad värld och mer levande än alla stillbilder som dom är uppbyggda av. skulle kunna ta mystiken och stämningen till helt nya nivåer, där kan man även stå och beundra utsikten eller den fina arkitekturen utan att bli skjuten i huvudet av en no scope 360 in air

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Snusfri

Mycket intressant och läsvärd artikel.

För mig som inte är något stort fan av "Generic Run'N'Gun" som BF, CoD, CS eller Battle Royal (ryser) så ser jag stor potential för RT i flertalet andra titlar.

Hitman, State of Decay, FIFA, Assassin's Creed bla är några spel-(serier) som imho skulle få betydligt trevligare grafisk fidelitet.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem
Skrivet av Yoshman:

@Aka_The_Barf: håller med om BFV, ser snyggt ut men inte rätt speltyp för tekniken.

Tror spel som Uncharted och än mer Last of us är exempel på speltyper där ray tracing skulle kunna ge en riktigt fint mervärde!

Personligen hade jag faktiskt nog velat se först och främst lite indiespel, eller rättare sagt enklare spel där man kan använda sig av tekniken för att förhöja spelmekaniker. Alltså spel mer i stil med kanske portal eller andra pusselspel där man kan bygga en upplevelse med hjälp av reflektioner och ljus som idag är omöjligt med nuvarande teknik. Känns betydligt mer spännande än lite snyggare reflektioner imo.

Permalänk
Medlem
Skrivet av Yoshman:

Stöd för RT-kärnorna börjar leta sig in i kommersiella program som Arnold Renderer och Octane Renderer. Där har man sett upp mot 4-6 gånger högre prestanda jämfört med att inte köra med RT-kärnor.

Har du någon källa på det? Mig veterligen har inte Arnold ens kunnat visa upp sin GPU-renderer med alla dom funktioner som Arnold har i sin CPU-renderer, och rykten säger att deras GPU-renderer är långt ifrån färdig, och ligger kanske 2-3 år bort.

Skickades från m.sweclockers.com