AMD-patent avslöjar planer för ray tracing med arkitekturen Navi

Permalänk
Medlem
Skrivet av MarkSix:

Med tanke på att det har varit så mycket gnäll på RT prestandan på Nvidias kort så känns en klenare RT implementation inte jätte intressant. AMD måste ha hittat på något riktigt smart som matchar Nvidias lösning.

Hur AMDs lösning står sig prestandamässigt vet vi inte ännu men den är inte nödvändigtvis klenare än Nvidias lösning.
Det riktigt smarta med AMDs lösning är dock att den återanvänder det mesta av hårdvaran i existerande grafikkortsarkitekturer vilket gör att den blir mycket billigare att implementera jämfört med Nvidias lösning.

Permalänk
Medlem
Skrivet av igelkotte:

Själv så tycker jag RT känns som en flopp för oss som konsumenter. RT verkar så tungt och effekterna märks knappt . Jag skulle nog ge det kanske 5 år till innan det börjar bli okej. Men å andra sidan kanske AMD kan fixa det bättre. Kanske spelutvecklarna är mer positiv också, nog för att många här verkar positiva också...

Du kommer aldrig att märka så mycket av ray-tracing. Av den enkla anledningen att befintlig teknik redan gör ett bra jobb, så skillnaderna kan inte annat än bli ganska små. Reflexer, ljusbrytning i transparenta material, vissa skuggningseffekter (ambient occlusion) är områden där en skillnad är detekterbar, men också där är det inte alltid så lätt att uttala sig om vad som faktiskt är bättre ens när man tittar på stillbilder. Och spel är interaktiva, det finns inte en människa som stannar och begrundar refraktionsmönster när man har tre zombier som tänker äta ens hjärna i hälarna. De områden som ray-tracing i spelsammanhang sköter bra, är också sådana som vår hjärna i huvudsak inte bryr så mycket om eller till och med filtrerar bort.

Dessutom skall man komma ihåg att alla multiplattformspel måste utvecklas för att kunna köra på hårdvara som saknar specifikt hårdvarustöd för ray-tracing under överskådlig framtid. Så för oss som spelar på PC, kommer det att vara en switch man slår av eller på beroende på hur prestandan i spelet blir.

Vi får se vad framtiden bär med sig. Själv är jag mer intresserad av resultatet och hur mycket jag måste betala för det, än vilken rendreringsteknik som användes för att åstadkomma det.

Permalänk
Medlem
Skrivet av MarkSix:

Med tanke på att det har varit så mycket gnäll på RT prestandan på Nvidias kort så känns en klenare RT implementation inte jätte intressant. AMD måste ha hittat på något riktigt smart som matchar Nvidias lösning.

Åandra sidan behöver det kanske inte vara några farfar hårding grejor heller direkt.

AMD´s huvudfokus lär ligga på konsolerna som det är nu där det är där de större pengarna hämtas.

Och där har de begränsningar i hårdvaran som håller tillbaka. Sedan på Navi för konsumentkorten blir det nog något liknande, men det är bara gissningar.
NVidia var de första med RT, och löste det på sitt sätt.

Nu får vi se hur AMD löser det åt sig själva, men vi får nog räkna med att deras fokus ligger på konsolerna i första hand.

/Lifooz

Visa signatur

Deepcool Matrexx 30 & MSI Z87-G43 Gaming!
Intel Inside Core I7 4790K med AMD Radeon R9 290!
Rubbet strömförsörjs av Corsair RM750X!
Hjälp Teamtrees plantera träd på vår jord. https://teamtrees.org/

Permalänk
Medlem
Skrivet av Sir. Haxalot:

Finns det ens den minsta grund till detta påstående? I slutändan så är ju frågan om denna lösning kan konkurrera i prestanda så det är ju lite magstarkt att dra några slutsatser innan prestandatester finns.

Det finns hundratals prestandatester, RTX är skräp.

Permalänk
Medlem
Skrivet av mill:

Härligt att se att AMD satsar på raytracing också.

Vad är det som är härligt? Har dom något val att inte göra det? Jag har en Freesync skärm och behöver vänta minst 1 år till för att detta ska komma ut. Behöver jag RTX nu, nej, men jag behöver ett bättre kort nu och då vill jag inte behöva köpa ett nytt igen.

Permalänk
Medlem
Skrivet av nicoX:

Vad är det som är härligt? Har dom något val att inte göra det? Jag har en Freesync skärm och behöver vänta minst 1 år till för att detta ska komma ut. Behöver jag RTX nu, nej, men jag behöver ett bättre kort och då vill jag inte behöva köpa ett nytt igen.

Det är härligt att "alla" grafikkortstillverkare är villiga att driva utvecklingen i den riktningen, det kommer dock ta några generationer innan det är defacto standard med raytracing för ljussättning.

Permalänk
Lyxfällan 🎮

En sak som är intressant/lovande med AMD:s hybridlösning för ray tracing är just användningen i nästa generations konsoler. Rent spekulativt tror jag inte att den kommer matcha Nvidias RT-kärnor, men PS5/Scarlett kan leda till att utvecklare optimerar för AMD:s lösning både för konsol och PC. Det blir en liknande situation som för PS4 där grafikdelen bestyckades med fler asynkrona exekveringsenheter (ACE:s) än dåtidens Radeon-kort var bestyckade med. GCN-arkitekturen hade länge haft ACE-tekniken, men det var först när den användes i konsolerna som den började utnyttjas på bred front av utvecklare.

När deras hybrid-RT finns tillgänglig från start i både PC-grafikkretsar och konsoler ökar sannolikheten markant för att utvecklare ska optimera för deras lösning, kontra om de bara introducerat den för de egna grafikkorten. Och ett bredare anammande av ray tracing gynnar oss alla!

Skickades från m.sweclockers.com

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Datavetare
Skrivet av perost:

@rektor: Ta en titt på Yoshman's artikel om ray tracing, den går igenom lite historia och förklarar även varför dagens grafikkort inte är lämpade för ray tracing.

Men lite kortfattat så är en normal GPU uppbyggd så att t.ex. en grupp med 32 kärnor måste utföra samma operation (t.ex. multiplicera två värden, etc.). Har man en förgrening i koden, säg att 16 av kärnorna ska utföra operation A och 16 ska utföra operation B, så löser grafikkortet det genom att först utföra A och sen utföra B. Medan A utförs så sitter kärnorna som ska utföra B och rullar tummarna, och när B sen utförs så blir det de andra kärnornas tur att vänta.

Och det är just denna situation man hamnar i med ray tracing, eftersom beräkningarna för en stråle beror på vad den träffar och hur den studsar. Ray tracing är dock fortfarande lite parallellt, så det går oftast snabbare att beräkna på GPU eftersom de har så brutalt många fler kärnor. Men det är inte ett särskilt effektivt sätt att utföra ray tracing.

Det är fortfarande sant, men en sak jag inte riktigt hade fattat när jag skrev ray-tracing artikeln att Nvidia gjort en rätt fundamental förändring i Volta.

Nämner i artikeln att Nvidia vill kalla sin modell för SIMT (single-instruction multiple thread) medan AMD (och även Intel) refererar till sina respektive modeller som SIMD (single-instruction multiple data). Antog att det mest var PR-fluff och primärt relaterat till att modellen man programmerar i CUDA (och även i OpenCL samt VulkanCompute) är fokuserad på att skriva sin logik så att man bara beskriver vad en enskild tråd ska göra, miljön lägger sedan ut programmet "på lämpligt sätt" över alla "kärnor".

Från Tesla fram till Pascal var det rätt mycket bara på CUDA-nivå som SIMT riktigt existerade. Men här finns nog ändå något som pekar på att saker som ray tracing kan ha varit på kartan under mycket lång tid. För Nivida kör verkligen SIMT på ISA nivå och från och med Volta har varje "CUDA-kärna" faktisk sin egen programräknare (och sedan tidigare hade man redan egna stack och adress pekare per CUDA-kärna).

Patentet denna artikel refererar till gör massor med referenser till SIMD, vilket är naturligt då det är modellen GCN (och RDNA) använder sig av. Den stora tekniska skillnaden mellan SIMD och SIMT är att den senare är närmare modellen CPUer använder för flera kärnor (MIMD, multiple instructions multiple data) än vad SIMD är.

Framförallt så hanterar SIMT divergerande kodvägar mer effekt (inte alls lika effektivt som MIMD, men bättre än SIMD). Konkret exempel

if (pred) a += b; else a -= b;

Det fullt möjligt för SIMT i Volta och senare att få i princip 100 % effektivitet på detta fall även fast CUDA-kärnorna går båda vägarna medan SIMD måste köra båda fallen i sekvens. Begränsningen i SIMT är att alla kärnor får samma instruktion (som de kan välja att hantera som en no-operation om den inte passar), de kan däremot sedan Volta befinna sig på olika punkter i koden (något som är omöjligt för SIMD).

Det ser vi också effekter av i praktiken. T.ex. så testade jag Blender (som inte använder RT-kärnorna utan kör ray tracing via CUDA-program), där ser man att Turing-korten presterar klart bättre än Pascal relativt deras teoretiska kapacitet.

För att svara på frågan från @rektor
Dagens GPUer är helt överlägsen en CPU i ray tracing, helt enkelt då det är ett problem som är väldigt enkelt att dela upp i väldigt många oberoende parallella spår. Utan hjälp från saker som RT-kärnor eller det som AMD beskriver i patentet (som är verkar vara en hybrid mellan viss fix-function tillägg och utökning av funktioner i texturenheter, RT-kärnorna är ju en ren fixed-function lösning) är GPUer långt mindre effektiva jämfört med sin teoretiska kapacitet men GPUer har brutalt mycket högre kapacitet.

I mitt Blender test drar ju RTX2070 jämt med en 2x 18 kärnor Xeon Skylake SP maskin (totalt 36 hyfsat högt klockade kärnor). I renderingprogram som använder RT-kärnorna ökar prestanda 3-5 gånger (varierar lite per beroende på hur scenen ser ut). Så med stöd för RT-kärnor har du svårt att hitta en dual-socket x86 server idag som matchar RTX2060 i rendering!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av EntropyQ3:

Du kommer aldrig att märka så mycket av ray-tracing. Av den enkla anledningen att befintlig teknik redan gör ett bra jobb, så skillnaderna kan inte annat än bli ganska små. Reflexer, ljusbrytning i transparenta material, vissa skuggningseffekter (ambient occlusion) är områden där en skillnad är detekterbar, men också där är det inte alltid så lätt att uttala sig om vad som faktiskt är bättre ens när man tittar på stillbilder. Och spel är interaktiva, det finns inte en människa som stannar och begrundar refraktionsmönster när man har tre zombier som tänker äta ens hjärna i hälarna. De områden som ray-tracing i spelsammanhang sköter bra, är också sådana som vår hjärna i huvudsak inte bryr så mycket om eller till och med filtrerar bort.

Dessutom skall man komma ihåg att alla multiplattformspel måste utvecklas för att kunna köra på hårdvara som saknar specifikt hårdvarustöd för ray-tracing under överskådlig framtid. Så för oss som spelar på PC, kommer det att vara en switch man slår av eller på beroende på hur prestandan i spelet blir.

Vi får se vad framtiden bär med sig. Själv är jag mer intresserad av resultatet och hur mycket jag måste betala för det, än vilken rendreringsteknik som användes för att åstadkomma det.

Ja det känns som du sammanfattar det ganska bra. Men jag har lite svårt att förstå varför så många är hypade av RT. Det som jag förstått är fördel är för spelutvecklare att det ska underlätta deras jobb på något sätt. Själv tycker jag det känns ganska ointressant med RT just i spelsammanhang, men försöker bara förstå vad andra ser.

Visa signatur

Intel Pentium 2 MMX 233 @263 MHz, 192 mb, Nvidia TNT 16mb, 40gb hdd

Permalänk

Detta borde innebära att de kan fläska på med fler SMs som inte går oanvända när man spelar spel utan raytracing aktiverat.
Så utan RT aktiverat bör ett framtida RDNA-baserat kort ge en rejäl boost i prestanda, vilket kanske kan väga upp för att de antagligen inte presterar lika bra med RT aktiverat som ett motsvarande RTX-kort.

Jag håller tummarna för att detta blir bra! Shoutout till @Ozzed som jag minns önskade få en lösning mer lik denna än vad Nvidia levererat, om jag inte minns / tolkar fel.

Permalänk
Medlem
Skrivet av Galadhnen:

Detta borde innebära att de kan fläska på med fler SMs som inte går oanvända när man spelar spel utan raytracing aktiverat.
Så utan RT aktiverat bör ett framtida RDNA-baserat kort ge en rejäl boost i prestanda, vilket kanske kan väga upp för att de antagligen inte presterar lika bra med RT aktiverat som ett motsvarande RTX-kort.

Jag håller tummarna för att detta blir bra! Shoutout till @Ozzed som jag minns önskade få en lösning mer lik denna än vad Nvidia levererat, om jag inte minns / tolkar fel.

Stämmer! Jävlar vilket minne du har Jag förespråkade en lösning för fläskigare generell beräkningskraft istället för massa grejer med specialsyfte. Jag fick då mothugg och man menade att "Jamen ett grafikkort är ju specialdesignat för grafikberäkningar jämfört med en CPU", och så vidare. Men jag vidhåller att om inte hela kretsen oftast kan användas till allt man kastar på'n så är det slåseri Så ja detta är väldigt nice.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av EntropyQ3:

Du kommer aldrig att märka så mycket av ray-tracing. Av den enkla anledningen att befintlig teknik redan gör ett bra jobb, så skillnaderna kan inte annat än bli ganska små. Reflexer, ljusbrytning i transparenta material, vissa skuggningseffekter (ambient occlusion) är områden där en skillnad är detekterbar, men också där är det inte alltid så lätt att uttala sig om vad som faktiskt är bättre ens när man tittar på stillbilder. Och spel är interaktiva, det finns inte en människa som stannar och begrundar refraktionsmönster när man har tre zombier som tänker äta ens hjärna i hälarna. De områden som ray-tracing i spelsammanhang sköter bra, är också sådana som vår hjärna i huvudsak inte bryr så mycket om eller till och med filtrerar bort.

Struntprat!

Är du medveten om att det finns fler typer av spel än blixtsnabba springa-hoppa-skjuta-spel?

Jag spelar, fortfarande, väldigt mycket Skyrim. Det är ytterst sällan som jag rör mig snabbt, utan för det mesta är det gå eller smyga som gäller. En modern version med full global illumination, reflektioner och refraktioner skulle vara helt magisk att gå runt i! Och jag tror det skulle vara fullt möjligt i 1440p60 med grafikkortet jag har. Ett par grafikkortsgenerationer senare kan det vara en barnlek.

Det finns många, många fler spel, och klasser av spel, där ray tracing skulle göra underverk, och förbättra det visuella väldigt mycket.

Sen finns det en annan aspekt av det, och det är att när kraften i grafikkorten, på ray tracing-området, ökar dramatiskt, så kan man inom några år nå en punkt där allt (mer eller mindre) sköts av realtids-RT, i stället för "genvägar" som används i dag.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

Struntprat!

Är du medveten om att det finns fler typer av spel än blixtsnabba springa-hoppa-skjuta-spel?

Jag spelar, fortfarande, väldigt mycket Skyrim. Det är ytterst sällan som jag rör mig snabbt, utan för det mesta är det gå eller smyga som gäller. En modern version med full global illumination, reflektioner och refraktioner skulle vara helt magisk att gå runt i! Och jag tror det skulle vara fullt möjligt i 1440p60 med grafikkortet jag har. Ett par grafikkortsgenerationer senare kan det vara en barnlek.

Det finns många, många fler spel, och klasser av spel, där ray tracing skulle göra underverk, och förbättra det visuella väldigt mycket.

Sen finns det en annan aspekt av det, och det är att när kraften i grafikkorten, på ray tracing-området, ökar dramatiskt, så kan man inom några år nå en punkt där allt (mer eller mindre) sköts av realtids-RT, i stället för "genvägar" som används i dag.

Du har naturligtvis rätt i att det finns olika typer av spel.
Men jag står fast i mina uttalanden generellt.
Jag sitter just nu på min uteplats och tittar på mitt urdruckna glas juice, som ger ett refraktionsmönster på bordet. Men jag har ingen aning om huruvida det är korrekt för jag tittar aldrig på refraktionsmönster! Om du är ute i trafiken, tittar du på bilarna eller skuggan under dem? Om du ser en attraktiv person, tittar du på dem eller på deras reflex i ett fönster som reflekterar deras reflex i en vattenpöl? Våra hjärnor filtrerar aktivt bort den informationen som irrelevant, inte bara i spel utan också i verkligheten. Så en hyfsad approximation fungerar lika bra som en något bättre approximation för mig, för med god användning av befintlig teknik är jag redan nöjd. (Förresten du tror väl inte att de raytracing varianter som används för att få anständig prestanda är utan sina egna genvägar och därmed artefakter?)

Och du är väldigt optimistisk angående framtida litografiska prestandaframsteg. Jag delar inte den optimismen. De senaste 10 åren har TFLOPS/mm2 ökat med en faktor 4. Tror du att vi kommer att se väsentligt större kretsar på TSMC "2nm" än de 752mm2 som 2080Ti har? Tror du att högeffektskretsar kommer att gynnas mera av nästa 10 år än de föregående?
Jag gör det definitivt inte.
Framtiden är naturligtvis svår att förutsäga med säkerhet, men trenderna är tydliga.

Permalänk
Medlem
Skrivet av loevet:

@loevet: svårt att säga. Eftersom de enkla RT-enheterna jobbar mot texturprocessorns funktioner lär de inte kunna skala antalet på samma sätt som Nvidia kan med sina dedikerade RT-kärnor. AMD kan säkert skala antalet RT-enheter efter olika prissegment, men exakt hur skalbart det blir beror nog en del på hur shaderenheterna jobbar mot RT-enheter, vilket det här patentet inte avslöjar. Det kan vara ett fixerat antal RT-enheter kopplat till antalet shaderenheter, vilket jag ser som mest troligt, men det är bara rena spekulationer från min sida.

@loevet: du citerar dig själv! 😁

Visa signatur

HTPC Lian Li PC-A05FNB | Intel Core i5-13400 | 32GB DDR5-6000 | 4,5TB SSD | RTX 4070 12GB
Laptop Razer Blade 15 Base 2021 | Intel Core i7-10750H | 16GB DDR4-2933 | 1,5TB SSD | RTX 3070 8GB
Laptop Lenovo ThinkPad E585 | AMD Ryzen 5 2500U | 24GB DDR4-2400 | 756GB SSD | Radeon Vega 8

Klocka GTX 460 med NiBiTor 5.8

Permalänk
Lyxfällan 🎮

@Calle2003: damnit, där får jag för att jag svarar på meddelanden på mobilen, det såg jag inte. Men då har jag ju informerat mig själv i alla fall!

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Medlem
Skrivet av loevet:

@Calle2003: damnit, där får jag för att jag svarar på meddelanden på mobilen, det såg jag inte. Men då har jag ju informerat mig själv i alla fall!

😂

Visa signatur

HTPC Lian Li PC-A05FNB | Intel Core i5-13400 | 32GB DDR5-6000 | 4,5TB SSD | RTX 4070 12GB
Laptop Razer Blade 15 Base 2021 | Intel Core i7-10750H | 16GB DDR4-2933 | 1,5TB SSD | RTX 3070 8GB
Laptop Lenovo ThinkPad E585 | AMD Ryzen 5 2500U | 24GB DDR4-2400 | 756GB SSD | Radeon Vega 8

Klocka GTX 460 med NiBiTor 5.8

Permalänk

@Ozzed: Du har ofta färgstarka åsikter, inga problem att lägga på minnet.

Permalänk
Medlem
Skrivet av cyklonen:

Struntprat!

Är du medveten om att det finns fler typer av spel än blixtsnabba springa-hoppa-skjuta-spel?

Jag spelar, fortfarande, väldigt mycket Skyrim. Det är ytterst sällan som jag rör mig snabbt, utan för det mesta är det gå eller smyga som gäller. En modern version med full global illumination, reflektioner och refraktioner skulle vara helt magisk att gå runt i! Och jag tror det skulle vara fullt möjligt i 1440p60 med grafikkortet jag har. Ett par grafikkortsgenerationer senare kan det vara en barnlek.

Det finns många, många fler spel, och klasser av spel, där ray tracing skulle göra underverk, och förbättra det visuella väldigt mycket.

Sen finns det en annan aspekt av det, och det är att när kraften i grafikkorten, på ray tracing-området, ökar dramatiskt, så kan man inom några år nå en punkt där allt (mer eller mindre) sköts av realtids-RT, i stället för "genvägar" som används i dag.

Precis vad jag menar och säger.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av SCORPIUS:

Precis vad jag menar och säger.

Problemet är att Quake RT har en framerate på 30fps där GL versionen har en framerate på över 1000.
Det håller inte säga att kraften på grafikkorten kommer att öka dramatiskt. Hur då?
Forrest Norrod som är chef för AMDs datacenterlösningar säger och en artikel finns här på Sweclockers:

"I think there's a clear path on using traditional silicon to about 3 nanometer geometry. So another couple of process nodes. Which we'll get to in about, probably about 5 to 6 years. I think after that it gets a little bit more, it gets a little fuzzier. Obviously we got the dice rolling on quantum off to the side. I am sure that quantum will mature in 10 to 100 years. It's not 10, it's probably more like 20 or 30. So I think we're stuck on silicon here for about, at least the next 7 to 10 years. And I don't believe anyone who tried to predict any longer than that sum."

Och han representerar ett konto på TSMC värt miljarder dollar, så han borde ha bättre information än någon armchair expert eller analytiker.
Förbättrad processteknologi kommer inte att lösa effektivitetsproblemet. Om raytracing skall kunna bli en bredare standardmetod för att hantera ljus i spel, måste det till mjukvarulösningar (som inte är så grova förenklingar att de bara innebär att vi skapar en ny uppsättning begränsningar och artefakter).
De finns inte idag. Och folk har jobbat med raytracing i decennier, så jag tror inte de går att trolla fram särskilt enkelt.

Permalänk
Medlem
Skrivet av EntropyQ3:

Problemet är att Quake RT har en framerate på 30fps där GL versionen har en framerate på över 1000.
Det håller inte säga att kraften på grafikkorten kommer att öka dramatiskt. Hur då?
Forrest Norrod som är chef för AMDs datacenterlösningar säger och en artikel finns här på Sweclockers:

"I think there's a clear path on using traditional silicon to about 3 nanometer geometry. So another couple of process nodes. Which we'll get to in about, probably about 5 to 6 years. I think after that it gets a little bit more, it gets a little fuzzier. Obviously we got the dice rolling on quantum off to the side. I am sure that quantum will mature in 10 to 100 years. It's not 10, it's probably more like 20 or 30. So I think we're stuck on silicon here for about, at least the next 7 to 10 years. And I don't believe anyone who tried to predict any longer than that sum."

Och han representerar ett konto på TSMC värt miljarder dollar, så han borde ha bättre information än någon armchair expert eller analytiker.
Förbättrad processteknologi kommer inte att lösa effektivitetsproblemet. Om raytracing skall kunna bli en bredare standardmetod för att hantera ljus i spel, måste det till mjukvarulösningar (som inte är så grova förenklingar att de bara innebär att vi skapar en ny uppsättning begränsningar och artefakter).
De finns inte idag. Och folk har jobbat med raytracing i decennier, så jag tror inte de går att trolla fram särskilt enkelt.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.