Nvidia introducerar RTX - teknik för hårdvaruaccelererad ray tracing i spel

Permalänk
Melding Plague

Nvidia introducerar RTX - teknik för hårdvaruaccelererad ray tracing i spel

Nvidia rivstartar årets upplaga av GDC med avtäckandet av sin nya teknik RTX, där denna ska ge ultrarealistisk grafik i spel via hårdvaruaccelererad ray tracing med arkitekturen Volta.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Inofficiell ambassadör

Högintressant teknik! Synd bara att den är proprietär.

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Medlem

intressant, intressant. Men hur vore det om man började producera lite grafikkort också.

Permalänk
Avstängd

Nej tack. Ännu en Nvidia exklusive funktion som jag hellre kan leva utan.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Redaktion
Praktikant ✨
Skrivet av Xyborg:

Högintressant teknik! Synd bara att den är proprietär.

Det finns dock inget som hindrar AMD från att utveckla en egen teknik med stöd för DirectX Raytracing, då det troligtvis blir det vanligaste gränssnittet som spelutvecklarna kommer använda för just ray tracing.

Permalänk
Avstängd
Skrivet av _Merc_:

Nej tack. Ännu en Nvidia exklusive funktion som jag hellre kan leva utan.

Fast om du hade läst artikeln hade du förstått att det inte var fallet.

Bonus:

https://www.anandtech.com/show/12547/expanding-directx-12-mic...

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem

Hade ett vagt hopp om att DX skulle dö innan jag läst klart artikeln. :/

Visa signatur

SweClockers Dark Pearl tema: http://www.sweclockers.com/forum/trad/1484891
(Rek. Stylus)

Permalänk
Inaktiv

Skön slap in the face till kunder som köpt Pascal-kort. För det lär väl inte direkt vara något banbrytande i Volta som möjliggör det?

Permalänk
Medlem

Volta....vilket år som helst då.

Permalänk
Avstängd
Skrivet av anon193054:

Skön slap in the face till kunder som köpt Pascal-kort. För det lär väl inte direkt vara något banbrytande i Volta som möjliggör det?

Om inte Tensor-kärnor är tillräckligt banbrytande

Saxat från https://m.sweclockers.com/nyhet/24886-nvidia-sjosatter-titan-... :

"Det stora dragplåstret för grafikkortet är de Tensor-kärnor Nvidia introducerade med Volta. Dessa är skräddarsydda för beräkningar som rör maskininlärning och i fallet Titan V finns en massiv beräkningskraft om 110 TFLOPS för deep learning."

Så jo, något banbrytande kommer med Volta, än om det inte direkt gör mig våt i byxorna

Visa signatur

CPU: Ryzen 7 1700, kylare: Noctua NH-L12, Mammabräda: Gigabyte AX370 Gaming-K3, RAM: Corsair LPX 3200Mhz @ 3066Mhz vid 1,35V stabilt, GPU: MSI 1080 Ti Gaming X, PSU: Corsair SF600, Lagring: 2xWD Red 3TB speglat, 1x Samsung Evo 960 256GB, Chassi: Inbyggt i skrivbordet, sörjer för sval lägenhet.

Permalänk
Medlem

Ray Tracing är det jag har sett mest fram emot i spelbranschen, men med tanke på hur tungdrivet det är så har det ju också dröjt några decennier. Och även om antalet "partiklar" är relativt lågt och långt ifrån Hollywood-filmer så är det åtminstone i realtid, och det får man ändå se som ett enormt framsteg.

Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Inaktiv
Skrivet av RazerBlader:

Om inte Tensor-kärnor är tillräckligt banbrytande

Saxat från https://m.sweclockers.com/nyhet/24886-nvidia-sjosatter-titan-... :

"Det stora dragplåstret för grafikkortet är de Tensor-kärnor Nvidia introducerade med Volta. Dessa är skräddarsydda för beräkningar som rör maskininlärning och i fallet Titan V finns en massiv beräkningskraft om 110 TFLOPS för deep learning."

Så jo, något banbrytande kommer med Volta, än om det inte direkt gör mig våt i byxorna

Tolkade det som att det var Tensor + HBM2 som gjorde Titan V så dyrt?

Inte sugen på att köpa ett nytt XX80 för 20k

Permalänk
Medlem
Skrivet av anon193054:

Skön slap in the face till kunder som köpt Pascal-kort. För det lär väl inte direkt vara något banbrytande i Volta som möjliggör det?

Verkar som AMD gör det igen, integrerar det till befintliga kort/drivers.

http://schedule.gdconf.com/session/real-time-ray-tracing-tech...

Visa signatur

Rʏᴢᴇɴ 5800X3D / Tᴀɪᴄʜɪ X570 / 64Gʙ DDR4/ RX 6950XT Mᴇʀᴄʜ 319

Permalänk
Datavetare

Verkar ju vara så att dagens GPUer är inte i närheten starka nog att faktiskt köra ray-tracing i realtid.

Tekniskt sett får alla dagens GPUer stöd för DXR.

"Developers can use currently in-market hardware to get started on DirectX Raytracing. There is also a fallback layer which will allow developers to start experimenting with DirectX Raytracing that does not require any specific hardware support."

Tydligen har Microsoft lämnat detaljerna kring hur DXR ska implementeras rätt ordentligt öppet för tolkning Spekulationen är därför att Nvidia kommer nyttja Tensor-cores i Volta och senare för att applicera "AI" till att lura ut exakt hur mycket och var man kan "fuska" genom att inte alls följa så många ljusstrålar som egentligen är nödvändigt.

Nvidia har tydligen pratat om något de kallar "AI-powered de-noiser".

"There, NVIDIA demonstrated that using the Volta Tensor cores it could run an AI-powered de-noiser on the ray traced image, effectively improving the quality of the resulting image and emulating much higher ray counts than are actually processed.

By using the Tensor cores with RTX for DXR implementation on the TITAN V, NVIDIA will be able to offer image quality and performance for ray tracing well ahead of even the TITAN Xp or GTX 1080 Ti as those GPUs do not have Tensor cores on-board"

Verkar alltså som "äkta" ray-tracing fortfarande är en bit bort. Eventuellt stöd på dagens kort kräver att man hittar effektiva sätt att "fuska". Eller så kan man självklart köra på och få ungefär samma FPS som iGPUer erbjuder med maxade inställningar i AAA-titlar, d.v.s. mellan 1-10 FPS

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Undra om det är vad Chaos Group hintar om med deras Vray for Unreal.

Skulle vara riktigt najs om kan använda deras API:s "hardware ray intersection" för sin egen path tracing algorithm, jag håller själv på programmerar på min egen rendering path tracer och algorithm med målet att göra den realtime (ganska optimistiskt mål) men om man kan använda gpu hårdvaruaccelerering, så kanske det finns en chans att man lyckas x)

Annars kommer det i alla fall vara najs att testa implementera det med mina egna unity shaders som jag håller på utvecklar

Visa signatur

Ryzen 5950x | RTX 4090 | 64GB 3600Mhz| WD Black sn850 2TB
NAS: Unraid | 8GB 2133Mhz | ASRock C236 WSI | Intel G4600 | 32TB WD RED
YT:youtube.com/patan77xd IG:instagram.com/patan77 Webwww.patan77.com

Permalänk
Avstängd
Skrivet av anon193054:

Tolkade det som att det var Tensor + HBM2 som gjorde Titan V så dyrt?

Inte sugen på att köpa ett nytt XX80 för 20k

Jo, än om jag inte förstår, samtidigt som jag förstår, att de kan kränga grafikkorten dyrare ur kommande Volta-serien ägnad för konsumenter med tensor-kärnorna.

Jag kan tänka mig att Nvidia bara behövde hitta på hur de kunde använda Tensor-kärnorna/annars medföljande beräkningskraft, och implementera det så att den kunde brukas även på konsumentmarknaden,vilket potentiellt(förmodligen?) kommer att synas på butikspriserna sen.

Och HBM2 höjer priset en del, då det är dyrare, i jämförelse med GDDR5, och GDDR5x, men inte så löjligt mycket dyrare att det rättfärdigar priset

Men att det inte ska förglömmas att Nvidias Titan V gjordes så dyrt, då jag tror att det mest var för att visa att de kan, och mer en försmak av vad som komma skall, plus att de fick lite PR även till följd av lanseringen.

Då ingen lär köpa det p g a att de har bra pris/prestanda, då det mer är ett showoff-kort, och något som jag inte ens vet vad det är skapt för för publik, typ gamers med för mycket pengar eller något

Än om jag inte vet hur det står sig som renodlat beräkningskort, då Nvidias Titan-serie har varit en jäkla bergochdalbana.

ifrån att komma med bra beräkningskraft, till endast bra gamingprestanda, och att det här vet jag i ärlighetens namn själv inte om de är ett beräkningskort likt Quadro-serien, eller om Nvidia strypt ner det, så det ska jag låta vara osagt även, men att det enda jag kan tycka är att Titan V är skapt för att utstråla "Det här kan vi göra" i mina ögon.

Och att priser på kommande toppkorten kan vi endast spekulera kring än så länge

Skickades från m.sweclockers.com

Visa signatur

CPU: Ryzen 7 1700, kylare: Noctua NH-L12, Mammabräda: Gigabyte AX370 Gaming-K3, RAM: Corsair LPX 3200Mhz @ 3066Mhz vid 1,35V stabilt, GPU: MSI 1080 Ti Gaming X, PSU: Corsair SF600, Lagring: 2xWD Red 3TB speglat, 1x Samsung Evo 960 256GB, Chassi: Inbyggt i skrivbordet, sörjer för sval lägenhet.

Permalänk
Medlem

"Broad industry support" fyra företag och fyra spelmotorer på bilderna.

Visa signatur

Skriv jätteintressant information här.

Permalänk
Medlem

När började folk drömma om raytracing i spel? I slutet på Amiga tiden?

Rätt galet att man kunde rendera raytracing mjulvarumässigt på en dator från 80-talet men att hårdvaran för att göra det i realtid fortfarande är klen.

Vill dock minnas att ja såg nått demo på Dreamcast med realtids-raytracing?

Visa signatur

En del av mina bildlänkar hostas på egen maskin, är bildlänkarna trasiga, ha tålamod.

Permalänk
Medlem

Ray tracern verkar bara skicka ut en ståle per pixel och ha ganska begränsat antal studsar mellan ytor, detta har gått att uppnå med blender "render preview" på kraftigare kort/flera kort om man bara drar ner kravet på raytracern till i stort sett minimum (vilket borde vara ungefär exakt samma sak).

Resterande tunga effekter verkar ha bortlämnats (såsom fuskad AO), vilket tyder på att det är nog tungt som det är att driva bara bild med texturer (vilket vi redan visste).

Intressant att se hur detta kan ändras framöver dock, finns helt klart områden som många speglade ytor i olika vinklar/avstånd där raytracing solklart vinner över allt annat.

Sedan får man inte underskatta hur mycket detta kan ändra spelet inom vanlig rendering, om en enkel setup klarar av 10-30 fps, hur mycket snabbare kommer inte riktig raytracing att kunna bli (som normalt kan ta timmar på samma bild).

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Inofficiell ambassadör
Skrivet av JonasT:

Det finns dock inget som hindrar AMD från att utveckla en egen teknik med stöd för DirectX Raytracing, då det troligtvis blir det vanligaste gränssnittet som spelutvecklarna kommer använda för just ray tracing.

Aha! Efter detta och att ha läst artikeln igen förstår jag bättre. Tack för förtydligandet!

Skickades från m.sweclockers.com

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Inaktiv
Skrivet av _Merc_:

Nej tack. Ännu en Nvidia exklusive funktion som jag hellre kan leva utan.

Om folk ändå kunde läsa mer än överskriften 😂🤣🤗

Om det va Amd exklusiv, skulle du leva utan den då med?

Permalänk
Medlem

Återigen kommer en teknik som är otroligt cool och hade kunnat låta spel och andra pplikationer ta ett intressant steg framåt. Självklart är det enda rätta att göra detta i en standardiseringsgrupp så att alla kan stödja och nyttja tekniken. Men, vi talar om Nvidia som inte brukar anstränga sig för att sprida ny teknik utanför dörrarna allt för mycket. Likt hur HW PhysX hade kunnat vara en grej som faktiskt adderade en ny dimension till våra spel om alla kunde stödja det men istället blev en gimick som ett fåtal spel använder och på sätt som inte alls är någon integrerad del i spelupplevelsen då spelet även måste gå att köra på all hårdvara som inte kan köra HW PhysX. Även om Ageia initialt hoppades på just en standard med tillverkare av instickskort likt vad vi hade för grafik men för fysik. Samma sak har nog en risk att ske här... Att Nvidia försöker ta en position för att kunna styra utbudet snarare än att bidra till en "bättre framtid för alla". "Introducing Ray tracing for Game Works" skvallrar lite om detta. Vi har chanses i och med DirectX Raytracing etc, men risken är att Nvidia pushar sin, kanske inte helt kompatibla lösning, så att "standarderna" väljer att anpassa sig efter Nvidia istället för tvärtom. Tummarna hålls dock.

Vi hade vilda västern i 3D grafikens begynnelse. En uppsjö propreritära API:er osv. Även om man kan argumentera för att DirectX och OpenGL i vissa lägen begränsat prestandan, så möjliggjorde de också hela 3D revolutionen av spel som vi har sett. Det var först när dessa öppna standarder kom på plats som utvecklare på riktigt vågade sattsa och grafikkortstillverkare kunde lägga i en ny växel. Men initialt även då så fanns där olika kort som "typ" hade stöd för DirectX, iaf vissa delar, med lite egna modifikationer... ZzzZzzzz

Tekniken är cool och detta är det "naturliga" nästa steget istället för rasterizing som vi väntat på. Men jag hoppas att Kronos och MS kommer kunna stå emot att anspassa sig efter vad Nvidia gör och istället utveckla standard API:erna självständigt.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Skrivet av Xyborg:

Högintressant teknik! Synd bara att den är proprietär.

Jo, tyvärr. Frågan är om den är det pga Volta, eller pga Nvidia.

Visa signatur

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 3770K @4.2 Motherboard: P8P67 GPU: AMD R9 290X

Permalänk
Medlem

Det här får mig att tänka på Intel Larrabee.
https://en.wikipedia.org/wiki/Larrabee_(microarchitecture)

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Medlem
Skrivet av Bloodstainer:

Jo, tyvärr. Frågan är om den är det pga Volta, eller pga Nvidia.

Det står ju hårdvaruaccelererad och att bara Volta har stöd, så med största sannolikhet något i Voltas hårdvara som gör att det blir mycket snabbare, kanske tensor cores.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av inquam:

Återigen kommer en teknik som är otroligt cool och hade kunnat låta spel och andra pplikationer ta ett intressant steg framåt. Självklart är det enda rätta att göra detta i en standardiseringsgrupp så att alla kan stödja och nyttja tekniken. Men, vi talar om Nvidia som inte brukar anstränga sig för att sprida ny teknik utanför dörrarna allt för mycket. Likt hur HW PhysX hade kunnat vara en grej som faktiskt adderade en ny dimension till våra spel om alla kunde stödja det men istället blev en gimick som ett fåtal spel använder och på sätt som inte alls är någon integrerad del i spelupplevelsen då spelet även måste gå att köra på all hårdvara som inte kan köra HW PhysX. Även om Ageia initialt hoppades på just en standard med tillverkare av instickskort likt vad vi hade för grafik men för fysik. Samma sak har nog en risk att ske här... Att Nvidia försöker ta en position för att kunna styra utbudet snarare än att bidra till en "bättre framtid för alla". "Introducing Ray tracing for Game Works" skvallrar lite om detta. Vi har chanses i och med DirectX Raytracing etc, men risken är att Nvidia pushar sin, kanske inte helt kompatibla lösning, så att "standarderna" väljer att anpassa sig efter Nvidia istället för tvärtom. Tummarna hålls dock.

Vi hade vilda västern i 3D grafikens begynnelse. En uppsjö propreritära API:er osv. Även om man kan argumentera för att DirectX och OpenGL i vissa lägen begränsat prestandan, så möjliggjorde de också hela 3D revolutionen av spel som vi har sett. Det var först när dessa öppna standarder kom på plats som utvecklare på riktigt vågade sattsa och grafikkortstillverkare kunde lägga i en ny växel. Men initialt även då så fanns där olika kort som "typ" hade stöd för DirectX, iaf vissa delar, med lite egna modifikationer... ZzzZzzzz

Tekniken är cool och detta är det "naturliga" nästa steget istället för rasterizing som vi väntat på. Men jag hoppas att Kronos och MS kommer kunna stå emot att anspassa sig efter vad Nvidia gör och istället utveckla standard API:erna självständigt.

OpenGL har historiskt bromsat prestanda pga sanitetskod som ger fina meddelanden när man har programmerat dåligt, med de senare varianterna kan man dock stänga av detta för högre prestanda, och med 4.6 är spir-v och async shaders en del av standarden (så det är väldigt likt Vulkan).

Khronos brukar vara duktiga på att skapa standarder som funkar ypperligt (oftast) på nästan vad som helst, OpenCL t.ex. funkar på i stort sett alla typer av processorer.

Nvidia brukar släppa standarder som fungerar bra på endast sina egna kort av en anledning, de har pengar att sponsra spel och liknande för att få motståndare att uppvisa sämre prestanda istället för att arbeta tillsammans. Ett liknande exempel jag kan tänka på är att OpenCL i blender som utan större anledning presterar sämre än CUDA för att Nvidia vägrar att göra en ordentlig implementering på drivarnivå, och också dröjer länge med drivare för att artificiellt framhäva sina egna system.

Skickades från m.sweclockers.com

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Avstängd
Skrivet av anon200632:

Om folk ändå kunde läsa mer än överskriften 😂🤣🤗

Om det va Amd exklusiv, skulle du leva utan den då med?

det hade jämnat ut den nuvarande spelplanen. Även om jag föredrar open source.

Skickades från m.sweclockers.com

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av Karaff:

När började folk drömma om raytracing i spel? I slutet på Amiga tiden?

Rätt galet att man kunde rendera raytracing mjulvarumässigt på en dator från 80-talet men att hårdvaran för att göra det i realtid fortfarande är klen.

Vill dock minnas att ja såg nått demo på Dreamcast med realtids-raytracing?

Dock väldigt begränsat, simplifierat och låg upplösning. Har sett ett antal sådana demos genom tiderna.
Lite som att lysa upp ett nästa tomt rum med laserpekare, istället för att tända lampan i ett fullt möblerat rum.
(och en hel del av dom demo's fakeade effekten

Ingen ny ide, vi har ju använt raytracing för att generera grafik sen... tja 80tal? Dock att göra det i realtid är en jäkla utmaning. Det vi har sett hittills i olika tech demos har ju varit begränsade scener. Små scener som inte kräver alls lika mycket som exempelvis en scen från ett spel.

Det jag är mest intresserad av är hur dom lyckat göra processen parallel för att dra nytta av GPU'n många trådar. Raytracing behandlas ju annorlunda än vanlig rastergrafik.

Och sedan undrar jag hur Euclideon kan dra nytta av detta eller tvärtom. Då sättet deras metod med en databas av point clouds fungerar på samma sätt som raytracing. (nån som ens kommer ihåg dem?)

Permalänk
Medlem
Skrivet av Lordsqueak:

Dock väldigt begränsat, simplifierat och låg upplösning. Har sett ett antal sådana demos genom tiderna.
Lite som att lysa upp ett nästa tomt rum med laserpekare, istället för att tända lampan i ett fullt möblerat rum.
(och en hel del av dom demo's fakeade effekten

Ingen ny ide, vi har ju använt raytracing för att generera grafik sen... tja 80tal? Dock att göra det i realtid är en jäkla utmaning. Det vi har sett hittills i olika tech demos har ju varit begränsade scener. Små scener som inte kräver alls lika mycket som exempelvis en scen från ett spel.

Det jag är mest intresserad av är hur dom lyckat göra processen parallel för att dra nytta av GPU'n många trådar. Raytracing behandlas ju annorlunda än vanlig rastergrafik.

Och sedan undrar jag hur Euclideon kan dra nytta av detta eller tvärtom. Då sättet deras metod med en databas av point clouds fungerar på samma sätt som raytracing. (nån som ens kommer ihåg dem?)

Ang raytracing på PC förr så tänkte jag allra främst på redering av stillbilder.

Hört om en kille som skrev ett program för detta till en 286a, resultatet hade för hög upplösning för att visas på datorn men bilden levererades på en hög med disketter till ett tryckeri som kunde printa dem på plansch. Har sett nån av de planscherna så det är inte bara Bull.

Visa signatur

En del av mina bildlänkar hostas på egen maskin, är bildlänkarna trasiga, ha tålamod.

Permalänk
Medlem

AMD vill inte vara sämre.

Undrar om det är samma som gjorts via async compute i åratal eller inte då de hänvisar till vulkan.
https://www.anandtech.com/show/12552/amd-announces-real-time-...