AMD-patent avslöjar planer för ray tracing med arkitekturen Navi

AMD-patent avslöjar planer för ray tracing med arkitekturen Navi

Ett nytt patent visar att AMD:s stöd för ray tracing i Navi bygger på en hybridlösning där tekniken hanteras av arkitekturens texturprocessor och inte dedikerade RT-kärnor.

Läs hela artikeln här

Härligt att se att AMD satsar på raytracing också.

Skrivet av mill:

Härligt att se att AMD satsar på raytracing också.

Sannerligen, frågan är dock hur den kommer att stå sig mot nVidias dito.

/Lifooz

Skrivet av mill:

Härligt att se att AMD satsar på raytracing också.

Instämmer verkligen! Att en till aktör får möjlighet att hårdvaruaccelerera ray tracing är en morot för att uppmuntra fler utvecklare att implementera tekniken i sina spel.

Skrivet av Lifooz:

Sannerligen, frågan är dock hur den kommer att stå sig mot nVidias dito.

/Lifooz

Än så länge helt ok.

Skickades från m.sweclockers.com

Skrivet av Maximo:

Än så länge helt ok.

Skickades från m.sweclockers.com

Skönt, då låter det helt klart lovande.

/Lifooz

Skrivet av Maximo:

Än så länge helt ok.

Skickades från m.sweclockers.com

Finns det ens den minsta grund till detta påstående? I slutändan så är ju frågan om denna lösning kan konkurrera i prestanda så det är ju lite magstarkt att dra några slutsatser innan prestandatester finns.

@Lifooz: svårt att uttala sig om så här tidigt. Att AMD integrerar en enklare RT-funktion i den befintliga texturprocessorn gör den mindre komplex, och därmed billigare, men hur effektiv den här hybridfunktionen är jämfört med Nvidias stora komplexa RT-kärnor är oklart. Ska jag spekulera har jag svårt att se hur de ska kunna matcha prestandan hos Nvidias lösning, men den minskade komplexiteten kan nog leda till att vi får ray tracing-stöd i mer plånboksvänliga prisklasser. Eftersom de komplexa RT-kärnorna i Turing duplicerar funktioner som cache och bufferutrymme blir de dyra att implementera i kretsar, medan AMD:s integration i mer konventionell arkitektur återanvänder befintliga funktioner och sparar därmed utrymme = komplexitet = kostnad.

Men som @JonasT skriver, härligt att se bredare stöd för ray tracing på grafikmarknaden, det behövs för att sparka igång stödet hos fler spelutvecklare.

Tror absolut att ray tracing kommer vara en del av framtiden. Känns som att tekniken bara är i startgroparna dock.

Jag ska nog personlingen vänta lite med en uppgradering av grafikkortet tills det mognat lite mer. Känns som att det finns en risk att man sitter där om två år med ett rtx 2060,2070, 2080 som är jättedåligt på ray tracing jämfört med de korten som finns då, där ray tracing fått mogna lite.

Eller vad tror ni?

Ska nog sitta och suga på mitt 970 lite till.

Så Sony och Microsoft köper grisen i säcken.. innan RDNA och RTX har fått gå ens En rond mot varandra. Känns sisådär halvbra, om jag ska vara uppriktig. OM dom gör en Nintendo, med basstationen som en utbytbar "docka" och sätter CPU/GPU i denna, absolut. Kan tänka mig att byta ut en docka vart tredje år, men inte hela konsolen för 5000kr.

Senast redigerat 2019-07-02 12:02
Skrivet av loevet:

@Lifooz: svårt att uttala sig om så här tidigt. Att AMD integrerar en enklare RT-funktion i den befintliga texturprocessorn gör den mindre komplex, och därmed billigare, men hur effektiv den här hybridfunktionen är jämfört med Nvidias stora komplexa RT-kärnor är oklart. Ska jag spekulera har jag svårt att se hur de ska kunna matcha prestandan hos Nvidias lösning, men den minskade komplexiteten kan nog leda till att vi får ray tracing-stöd i mer plånboksvänliga prisklasser. Eftersom de komplexa RT-kärnorna i Turing duplicerar funktioner som cache och bufferutrymme blir de dyra att implementera i kretsar, medan AMD:s integration i mer konventionell arkitektur återanvänder befintliga funktioner och sparar därmed utrymme = komplexitet = kostnad.

Men som @JonasT skriver, härligt att se bredare stöd för ray tracing på grafikmarknaden, det behövs för att sparka igång stödet hos fler spelutvecklare.

Nej det är klart att de inte kommer ligga på exakt samma nivå.

Men AMD´s lösning är nog det som kommer slå den breda massan, när de implenterar det i konsolerna.

Hursom så har både AMD och nVidia gjort bra ifrån sig angående detta.
Även om jag gärna hade sett, att slippa bli påtvingad tekniken från nVidias håll.

/Lifooz

Den här tekniken borde fungera på även äldre kort, Som Vega 56, 64 och radeon 7. Det finns en heldel oanvänd beräkningskraft på vega korten så dem bör kunna använda den här tekniken utan allt för stora prestanda förluster.

Skrivet av Rallemulle87:

Så Sony och Microsoft köper grisen i säcken.. innan RDNA och RTX har fått gå ens En rond mot varandra. Känns sisådär halvbra, om jag ska vara uppriktig. OM dom gör en Nintendo, med basstationen som en utbytbar "docka" och sätter CPU/GPU i denna, absolut. Kan tänka mig att byta ut en docka vart tredje år, men inte hela konsolen för 5000kr.

Svårt att föreställa mig att MS och Sony, skulle köpa "grisen i säcken" och att de båda jättarna skulle riskera floppa sina konsoller, de har sannolikt grundligt gått genom de tekniska specarna och anser de vara tillräckliga.

Skrivet av Rallemulle87:

Så Sony och Microsoft köper grisen i säcken.. innan RDNA och RTX har fått gå ens En rond mot varandra. Känns sisådär halvbra, om jag ska vara uppriktig. OM dom gör en Nintendo, med basstationen som en utbytbar "docka" och sätter CPU/GPU i denna, absolut. Kan tänka mig att byta ut en docka vart tredje år, men inte hela konsolen för 5000kr.

Hur kan de ha köpt grisen i säcken? Zen 2/3+ RDNA 2 är väl en ypperlig uppgradering oavsett ray-tracing eller inte? Nvidia har inget att sätta emot AMD´s APU alls då den är x86 baserad och nvidia har ingen sådan licens.

Skrivet av Rallemulle87:

Så Sony och Microsoft köper grisen i säcken.. innan RDNA och RTX har fått gå ens En rond mot varandra. Känns sisådär halvbra, om jag ska vara uppriktig. OM dom gör en Nintendo, med basstationen som en utbytbar "docka" och sätter CPU/GPU i denna, absolut. Kan tänka mig att byta ut en docka vart tredje år, men inte hela konsolen för 5000kr.

Du kommer ju kunna sälja din gamla konsol när det väl kommer en Pro eller X av de nya. Vet inte riktigt vad du får för en ps4 eller xbox one idag, men kikade på tradera och såg en ps4 slim den är uppe i över 1500kr och har över 5 dagar kvar på annonsen. Köper du en ny docka så har du inget att sälja.
Dessutom skulle nog dockan inte bli jättebillig för det är väl ändå CPU/GPU som kostar mest i en konsol?

Sitter o lurar på om inte Nvidea skjutigt sig själva i foten här, de drev fram den här tekniken de propagerade för dess ypperlighet, att de själva inte har patent på denna lösning trots massivt försprång måste endå ses som ett nederlag eller inovativ vinst för AMD (AMD hade antagligen inte en susning vad de pillade på) Hade varigt klockrent för Nvidea's mid/budget segment.

Fördelen är att det blir lite konkrens som i alla fall gynnar oss konsumenter!

Sedan vems AMD vs Nvidea implentationen slår bäst återstå att se, AMD borde ha utvecklar övertag men Nvidea har rå prestandan

Hmmm, kanske användbart för enklare ljussättning? typ inte riktigt raytracing, men realistisk ljussättning av traditionell rastergrafik ?
Jag menar att prestandan lär ju inte vara full raytracing 60fps, så ska bli intressant att se vad dom kan hitta på.

Skrivet av loevet:

@Lifooz: svårt att uttala sig om så här tidigt. Att AMD integrerar en enklare RT-funktion i den befintliga texturprocessorn gör den mindre komplex, och därmed billigare, men hur effektiv den här hybridfunktionen är jämfört med Nvidias stora komplexa RT-kärnor är oklart. Ska jag spekulera har jag svårt att se hur de ska kunna matcha prestandan hos Nvidias lösning, men den minskade komplexiteten kan nog leda till att vi får ray tracing-stöd i mer plånboksvänliga prisklasser. Eftersom de komplexa RT-kärnorna i Turing duplicerar funktioner som cache och bufferutrymme blir de dyra att implementera i kretsar, medan AMD:s integration i mer konventionell arkitektur återanvänder befintliga funktioner och sparar därmed utrymme = komplexitet = kostnad.

Men som @JonasT skriver, härligt att se bredare stöd för ray tracing på grafikmarknaden, det behövs för att sparka igång stödet hos fler spelutvecklare.

Får man anta att de kommer ösa på med fler texturenheter, eller kommer RT konkurrera med den konventionella användningen av dessa?

Skrivet av UncleDirty:

Sitter o lurar på om inte Nvidea skjutigt sig själva i foten här, de drev fram den här tekniken de propagerade för dess ypperlighet, att de själva inte har patent på denna lösning trots massivt försprång måste endå ses som ett nederlag eller inovativ vinst för AMD (AMD hade antagligen inte en susning vad de pillade på) Hade varigt klockrent för Nvidea's mid/budget segment.

Fördelen är att det blir lite konkrens som i alla fall gynnar oss konsumenter!

Sedan vems AMD vs Nvidea implentationen slår bäst återstå att se, AMD borde ha utvecklar övertag men Nvidea har rå prestandan

Hur ska de ta patent nu på något som har funnits i typ 50+ år? För övrigt tjänar Nvidia på att RT blir en självklarhet i spel, det blir det inte om de är ensamma om det.

Skrivet av dlq84:

Får man anta att de kommer ösa på med fler texturenheter, eller kommer RT konkurrera med den konventionella användningen av dessa?

Hur ska de ta patent nu på något som har funnits i typ 50+ år? För övrigt tjänar Nvidia på att RT blir en självklarhet i spel, det blir det inte om de är ensamma om det.

De hade sådant försprång så de borde kunnat ha förutspå vilken väg AMD hade kvar att gå då deras egna patent låg på bordet. Just AMD's patent lösning borde de kunnat ha knipigt själva.

Men som sagt bra för oss konsumenter de inte gjorde så

@loevet: svårt att säga. Eftersom de enkla RT-enheterna jobbar mot texturprocessorns funktioner lär de inte kunna skala antalet på samma sätt som Nvidia kan med sina dedikerade RT-kärnor. AMD kan säkert skala antalet RT-enheter efter olika prissegment, men exakt hur skalbart det blir beror nog en del på hur shaderenheterna jobbar mot RT-enheter, vilket det här patentet inte avslöjar. Det kan vara ett fixerat antal RT-enheter kopplat till antalet shaderenheter, vilket jag ser som mest troligt, men det är bara rena spekulationer från min sida.

Skrivet av Rallemulle87:

Så Sony och Microsoft köper grisen i säcken.. innan RDNA och RTX har fått gå ens En rond mot varandra. Känns sisådär halvbra, om jag ska vara uppriktig. OM dom gör en Nintendo, med basstationen som en utbytbar "docka" och sätter CPU/GPU i denna, absolut. Kan tänka mig att byta ut en docka vart tredje år, men inte hela konsolen för 5000kr.

Dock vet du ju inte om det är så att de företagen fått se tester eller så redan, vad vi konsumenter ser är ju inte direkt samma som vad partners m.m. ser

Själv så tycker jag RT känns som en flopp för oss som konsumenter. RT verkar så tungt och effekterna märks knappt . Jag skulle nog ge det kanske 5 år till innan det börjar bli okej. Men å andra sidan kanske AMD kan fixa det bättre. Kanske spelutvecklarna är mer positiv också, nog för att många här verkar positiva också...

Hur många av er som kan köra RT gör det nu? Jag har inte koll på vilka spel som stödjer det men inbillar mig att det är högre fps som är önskvärt i dom.

Att konsoler får RT är fint. Jag vill se RT i spel som är mer långsamma så tekniken verkligen syns genom att grafiken blir mer vacker.
Jag känner personligen att jag har mer nytta av RT i spel som Tomb Rider eller Skyrim än DOOM och liknande.

Som jag sade när RT lanserades, vi ses om fem år när det är moget, inte kostar mer och spelutvecklarna vet vad dom gör med det.

Eftersom RT uppenbarligen är så tungrott så vore det roligare för oss konsumenter nu i början om branschen fokuserade på förenklad implementation så att alla enklare spel och många indie-spel kunde anamma tekniken. Sedan kunde AAA-titlarna komma ifatt allteftersom grafikkretsarna får mer prestanda.

Skrivet av Joppis:

Eftersom RT uppenbarligen är så tungrott så vore det roligare för oss konsumenter nu i början om branschen fokuserade på förenklad implementation så att alla enklare spel och många indie-spel kunde anamma tekniken. Sedan kunde AAA-titlarna komma ifatt allteftersom grafikkretsarna får mer prestanda.

Finns redan i moderna grafikmotorer, tex bara att slå på ett reglage i UE: https://docs.unrealengine.com/en-US/Engine/Rendering/RayTraci...

Senast redigerat 2019-07-02 14:15

Är raytracing snabbare på en CPU eller en GPU?

Om man skulle skriva en raytracer skulle man använda OpenGL, OpenCL, Vulkan eller Vulkan Compute då, eller bara skriva vanlig kod utan bibliotek/ramverk?

Kan man modellera ett geometriskt objekt som inte går att raytraca?
Och hur fungerar stealthteknik, för det kombinerar väl geometri med radarabsorberandematerial?

Skrivet av rektor:

Är raytracing snabbare på en CPU eller en GPU?

Om man skulle skriva en raytracer skulle man använda OpenGL, OpenCL, Vulkan eller Vulkan Compute då, eller bara skriva vanlig kod utan bibliotek/ramverk?

Jag har hört av folk som är lite mer insatta så lämpar sig en CPU bättre. Men sedan kan du ha så många beräkningsenheter på GPU'n att det i det stora hela förmodligen är bättre prestanda.

Att skriva en raytracer med "vanlig kod" är jag lite osäker på vad du menar. Men att skriva utan några bibliotek/ramverk hade du nog aldrig gjort. Ditt OS erbjuder en massa abstraktioner och ramverk, drivrutinerna till grafikkortet, ramverk för att få grafik att ritas osv. Att göra det helt utan bibliotek/ramverk hade varit en gigantisk uppgift. Men jag antar att du endast menar att inte använda olika bibliotek för just grafik. Om du inte använder något som drivrutinen för ditt grafikkort har stöd för så kommer det börja bli väldigt jobbigt och att stödja mer än ett kort kommer bli pilligt.

Du vill förmodligen använda tex Vulkan eller DirectX och sedan bygga på det.

Skrivet av rektor:

Kan man modellera ett geometriskt objekt som inte går att raytraca?

Well, då ray-tracing handlar om att ljussätta en scen på det sätt det fysiskt sker i verkligheten så är svaret på frågan, så länge objektet följer fysiska lagar och inte har former som är fysiskt omöjliga och går genom flera dimensioner, en motfråga. Kan du bygga ett geometriskt objekt i verkligeheten som blir osynligt?

Skrivet av rektor:

Är raytracing snabbare på en CPU eller en GPU?

Beror på vilken CPU/GPU man har. Men från teoretisk synvinkel så är en GPU bättre för ändamålet av precis samma anledningar som man använder en separat GPU för andra typer av grafikberäkningar - den är bättre anpassad för extremt parallella beräknngar.

Citat:

Om man skulle skriva en raytracer skulle man använda OpenGL, OpenCL, Vulkan eller Vulkan Compute då, eller bara skriva vanlig kod utan bibliotek/ramverk?

Jag tror inte att något av de ramverk du nämner har något stöd för raytracing idag, men det finns andra bibliotek/ramverk för just raytracing.
En enkel raytracer är annars inte särskilt komplicerad att skriva för hand.

Citat:

Kan man modellera ett geometriskt objekt som inte går att raytraca?
Och hur fungerar stealthteknik, för det kombinerar väl geometri med radarabsorberandematerial?

Objekt som inte går att raytraca lär du inte kunna se heller. Raytracing simulerar helt enkelt hur ljusstrålar färdas från ljuskällor fram till mottagarens ögon. Extremt enkelt i princip, men väldigt beräkningstungt.

Stealthteknik fungerar så att den försöker använda geometrin för att sprida radarreflektioner för att minska hur mycket reflektioner som kommer tillbaka till sändaren, och för att få föremålet att se ut som något annat än det är. Ungefär som vanligt kamouflagemönster gör med vanligt ljus för att bryta upp linjer och mönster.

Skrivet av Lifooz:

Nej det är klart att de inte kommer ligga på exakt samma nivå.

Men AMD´s lösning är nog det som kommer slå den breda massan, när de implenterar det i konsolerna.

Hursom så har både AMD och nVidia gjort bra ifrån sig angående detta.
Även om jag gärna hade sett, att slippa bli påtvingad tekniken från nVidias håll.

/Lifooz

Med tanke på att det har varit så mycket gnäll på RT prestandan på Nvidias kort så känns en klenare RT implementation inte jätte intressant. AMD måste ha hittat på något riktigt smart som matchar Nvidias lösning.

@rektor: Ta en titt på Yoshman's artikel om ray tracing, den går igenom lite historia och förklarar även varför dagens grafikkort inte är lämpade för ray tracing.

Men lite kortfattat så är en normal GPU uppbyggd så att t.ex. en grupp med 32 kärnor måste utföra samma operation (t.ex. multiplicera två värden, etc.). Har man en förgrening i koden, säg att 16 av kärnorna ska utföra operation A och 16 ska utföra operation B, så löser grafikkortet det genom att först utföra A och sen utföra B. Medan A utförs så sitter kärnorna som ska utföra B och rullar tummarna, och när B sen utförs så blir det de andra kärnornas tur att vänta.

Och det är just denna situation man hamnar i med ray tracing, eftersom beräkningarna för en stråle beror på vad den träffar och hur den studsar. Ray tracing är dock fortfarande lite parallellt, så det går oftast snabbare att beräkna på GPU eftersom de har så brutalt många fler kärnor. Men det är inte ett särskilt effektivt sätt att utföra ray tracing.