Intels Xe-grafikkort får stöd för ray tracing

Intels Xe-grafikkort får stöd för ray tracing

I enlighet med den rådande trenden på marknaden ska Intels kommande grafikkortsfamilj Xe stöda hårdvaruaccelererad ray tracing, med fokus på både grafikkort och processor.

Läs hela artikeln här

Ska bli spännande att se va de kommer med för prestanda och pris sen!

Men jag antar att de kommer köra i sann Intel-anda och ta hutlösa priser för sina grejer.
Samtidigt är de ju sprojlans ny på marknaden, så kan ju hända att de gör en AMD och lägger sig lågt i pris för att ta marknadsandelar istället. Hoppas går ju alltid!

Vore trevligt om Intel kom in med ett kort likvärdigt RTX 2080 Ti till halva priset. Ja ja drömma kan man väl alltid.

Priset kommer matcha marknadens pris. Frågan vad prestanda och energiåtgång matchar.

Skickades från m.sweclockers.com

Skrivet av Nautilus011:

Vore trevligt om Intel kom in med ett kort likvärdigt RTX 2080 Ti till halva priset. Ja ja drömma kan man väl alltid.

Hehe, en dröm som kan bli sann vid ca år2025 när RTX4030Ti har den prestandan

Ska bli riktigt intressant att se om Intel lyckas slå sig in på ett hörn!

Spännande. Men ska de lyckas som nykomling så är det klart att det är självklart att de får lägga sig lägst i pris. Det går inte att klafsa in med leriga stövlar och tro sig. Men å andra sidan är det ju Intel vi pratar om, så det är väl inte omöjligt att de går in med ett saftigt pris och tror sig, men i så fall hoppas jag de misslyckas fullständigt. Om det skall vara någon nytta med en till aktör på marknaden, från oss konsumenters synvinkel, så skall det ju vara just för att få ner de sjuka överpriserna son råder idag.

AMD inför stöd för Ray Tracing, Intel inför stöd för Ray Tracing. Det är ju fint, men jag har inte hört ett knyst om hur det fungerar i praktiken. För Intels del är det givetvis inte så konstigt då de precis meddelat att stödet kommer att finnas.

I läckta slides för nya Xboxen är en av USParna just stöd för Ray Tracing. Min fundering är dock hur pass bra den tekniken står sig mot Nvidas och deras Tensorkärnor hos RTX-korten i det övre segmentet. Jag kan ju faktiskt slå funktionen för Ray tracing i realtid på mitt kort, men det kommer ju inte vara något som går att använda till spel om man samtidigt hade tänkt spela det medans man beundrar tekniken.

Finns det någon information kring dessa, eller är de så långt efter i utvecklingen att de bara nämner "stöd" för tekniken i dagsläget utan att ha något att visa upp i hur det faktiskt fungerar och presterar?

@trickeh2k: de nämner inte hur det fungerar i praktiken, men de nämner att det handlar om hårdvaruaccelererad ray tracing, alltså inte att det sköts via mjukvaran. Men exakt hur det fungerar vet vi inte. Det är samma sak med AMD, vi vet att Navi får stöd för ray tracing, men inte hur det kommer fungera. Med all sannolikhet har den GCN-arkitekturen utformats för att utföra RT-beräkningar effektivt, även om de inte använder dedikerade beräkningsenheter för ändamålet likt RT-kärnorna i Turing.

En intressant detalj i blogginlägget runt Xe-stödet är att de ska använda både CPU och GPU för ray tracing. Nvidias Turing-arkitektur använder dedikerade enheter för att beräkna hur ljusstrålar korsar varandra och att "städa upp" det visuella brus (de-noiser) som ray tracing medför i bilden. Det här är bara min spekulation, men Intel kan välja att exempelvis låta AVX-enheterna på processorn sköta de-noise-processen medan Xe-grafikkortet sköter beräkningar av ljusstrålarna.

Skrivet av loevet:

@trickeh2k: de nämner inte hur det fungerar i praktiken, men de nämner att det handlar om hårdvaruaccelererad ray tracing, alltså inte att det sköts via mjukvaran. Men exakt hur det fungerar vet vi inte. Det är samma sak med AMD, vi vet att Navi får stöd för ray tracing, men inte hur det kommer fungera. Med all sannolikhet har den GCN-arkitekturen utformats för att utföra RT-beräkningar effektivt, även om de inte använder dedikerade beräkningsenheter för ändamålet likt RT-kärnorna i Turing.

En intressant detalj i blogginlägget runt Xe-stödet är att de ska använda både CPU och GPU för ray tracing. Nvidias Turing-arkitektur använder dedikerade enheter för att beräkna hur ljusstrålar korsar varandra och att "städa upp" det visuella brus (de-noiser) som ray tracing medför i bilden. Det här är bara min spekulation, men Intel kan välja att exempelvis låta AVX-enheterna på processorn sköta de-noise-processen medan Xe-grafikkortet sköter beräkningar av ljusstrålarna.

Nej, vilket leder tillbaka till det jag säger lite. Lite som att säga att jag har stöd för tyska språket, att det sedan visar sig vara ytterst begränsade kunskaper som knappt skule gå att få fram något vettigt med framgår inte

Det är väl lite det man kan läsa mellan raderna, eftersom de säger att de kommer att fokusera på enterprise-nivå. Dvs, de kommer inte att kunna implementera tekniken med den kommande hård- och mjukvaran för att det skulle gå att använda i realtid för 3d-applikationer så som spel, tolkar jag det. Det borde ju också innebära att de antagligen kommer att hårdkoda detta på processornivå, annars skulle ju Nvidia också kunna tillämpa tekniken i komination med sina Tensorkärnor på Quadro-serien för eventuellt sopa Intel och AMD helt under mattan.

Ray tracing i realtid för spel ligger nog en eller ett par generationer bort för att det ska bli intressant i form av prestanda/upplösning kontra kostnad för kompetent kort, men det finns nog mycket pengar att hämta för produktionsbolag inom filmindustrin t ex.

Har man cpu kärnor till övers varför inte använda dem.

Skickades från m.sweclockers.com

Skrivet av Ozzed:

Spännande. Men ska de lyckas som nykomling så är det klart att det är självklart att de får lägga sig lägst i pris....

Prestanda, effektivitet, pris och kvalitet är väl det intressanta. Gällande kvalitet (hårdvara/mjukvara) så tycker jag dom har en bra chans med det med tanke på motståndet.

Skrivet av _Merc_:

Har man cpu kärnor till övers varför inte använda dem.

Skickades från m.sweclockers.com

X86 uppbyggnaden har väll aldrig varit speciellt lämpad alls för saker som tex raytracing. Det är mer för att de finns till nära till hands då de ändå måste vara i datorn de används än att de är optimala på något sätt.

Det är i professionella sammanhang där nästan allt av vad som nu finns kan användas hela tiden. När det kommer till spel, så antar jag att utvecklare fortfarande inte kan räkna med att det finns nog över på CPUn ändå, även om den praktiskt taget går på tomgång med de häftigaste spelen så kan den raskt bli en kork i systemet istället.

Skrivet av TuHack:

Prestanda, effektivitet, pris och kvalitet är väl det intressanta. Gällande kvalitet (hårdvara/mjukvara) så tycker jag dom har en bra chans med det med tanke på motståndet.

Intels drivisar kanske har blivit bättre än de var, men det är ju inte superlätt att optimera för hundratals titlar månadsvis, hålla kompabilitet med äldre spel osv.. Det kan bli en barriär om det visar sig att tio av dina favoritklassiker inte funkar, om de funkar klockrent på exempelvis Navi, även om Intel leder i prestanda på nya titlar.. :/

Heh, Larrabee. Det är ett namn jag inte hört på väldigt länge...

Skrivet av Halogen:

Heh, Larrabee. Det är ett namn jag inte hört på väldigt länge...

Kändes som att det var igår! Det som slog mig är att det nästan gått 10 år redan, vart tog den tiden vägen?!

Skrivet av trickeh2k:

AMD inför stöd för Ray Tracing, Intel inför stöd för Ray Tracing. Det är ju fint, men jag har inte hört ett knyst om hur det fungerar i praktiken. För Intels del är det givetvis inte så konstigt då de precis meddelat att stödet kommer att finnas.

DXR är specificerat på en, för DirectX, väldigt abstrakt nivå. Detta specifikt för att man vill göra det möjligt för GPU-tillverkarna att vara rätt flexibel i hur och därmed flexibel i vad av ray-tracing beräkningarna som hanteras av dedicerat kisel.

Är helt och fullt möjligt att implementera DXR enbart med en CPU, faktum är att en sådan implementation igår i DirectX. En sådan implementation erbjuder knappast den prestanda som behövs för ray-tracing i realtid i ett spel (redan ett RTX 2060 är runt dubbelt så snabb som 2700X/9900K utan att ens använda RT-kärnorna...), men det går att se hur en viss sekvens kommer se ut.

En kombination av GPU+CPU kan vara en vettig idé. Det kritiska där är att lura ut vilka delar som måste ha dedicerat kisel och vad som kan hanteras på CPU utan att orsaka flaskhals. Fördelen med att nyttja CPU-delen är att ray-tracing, till skillnad mot det mesta i en spelmotor, kan skalas riktigt effektivt till många kärnor och kan även utnyttja SSE/AVX riktigt bra!

Gissar att både Intel och AMD kommer behöva göra något som är rätt likt det Nvidia gör i sina RT-kärnor. Det är en av de mest kritiska delarna att accelerera för ray-tracing och något "vanliga" GPUer kan göra men inte gör med något större effektivitet. Det RT-kärnorna gör passar egentligen bättre på en CPU än en traditionell GPU, men är nog svårt att göra det steget effektivt på en CPU då kopplingen mellan det RT-kärnorna gör och det som måste göras av GPU-shaders är rejält tight kopplade i DXR. Fast vem vet? Framtiden får utvisa!

Skrivet av Yoshman:

DXR är specificerat på en, för DirectX, väldigt abstrakt nivå. Detta specifikt för att man vill göra det möjligt för GPU-tillverkarna att vara rätt flexibel i hur och därmed flexibel i vad av ray-tracing beräkningarna som hanteras av dedicerat kisel.

Är helt och fullt möjligt att implementera DXR enbart med en CPU, faktum är att en sådan implementation igår i DirectX. En sådan implementation erbjuder knappast den prestanda som behövs för ray-tracing i realtid i ett spel (redan ett RTX 2060 är runt dubbelt så snabb som 2700X/9900K utan att ens använda RT-kärnorna...), men det går att se hur en viss sekvens kommer se ut.

En kombination av GPU+CPU kan vara en vettig idé. Det kritiska där är att lura ut vilka delar som måste ha dedicerat kisel och vad som kan hanteras på CPU utan att orsaka flaskhals. Fördelen med att nyttja CPU-delen är att ray-tracing, till skillnad mot det mesta i en spelmotor, kan skalas riktigt effektivt till många kärnor och kan även utnyttja SSE/AVX riktigt bra!

Gissar att både Intel och AMD kommer behöva göra något som är rätt likt det Nvidia gör i sina RT-kärnor. Det är en av de mest kritiska delarna att accelerera för ray-tracing och något "vanliga" GPUer kan göra men inte gör med något större effektivitet. Det RT-kärnorna gör passar egentligen bättre på en CPU än en traditionell GPU, men är nog svårt att göra det steget effektivt på en CPU då kopplingen mellan det RT-kärnorna gör och det som måste göras av GPU-shaders är rejält tight kopplade i DXR. Fast vem vet? Framtiden får utvisa!

Tack för ett som vanligt, intressant och lärorikt svar! Det har väl redan talats om att GPUer är framtiden mer än CPU när det gäller beräkningskraft. Har för mig att jag läst att likt det du beskriver så är det enklare att utveckla nya tekniker för beräkningskraft på GPU än på CPU, utan att ha någon större förståelse i det tekniska bakomliggande.

Är det så att DXR är utvecklat med fokus för GPU snarare än att det skulle vara en begränsning att flytta dessa beräkningar till CPU? Vad är det dessutom som gör att dessa beräkningar egentligen skulle fungera bättre på en CPU som du nämner ovan och varför (om du vet) har man inte gjort kopplingen mellan shaders och CPU bättre/tightare?

Skrivet av VadSaDu:

Hehe, en dröm som kan bli sann vid ca år2025 när RTX4030Ti har den prestandan

Av ren nostalgi så hoppas jag att namnschemat blir Rtx 4, 4200ti / 4600ti samt 4800ti😁

Skickades från m.sweclockers.com

Skrivet av huttala:

Ska bli spännande att se va de kommer med för prestanda och pris sen!

Men jag antar att de kommer köra i sann Intel-anda och ta hutlösa priser för sina grejer.
Samtidigt är de ju sprojlans ny på marknaden, så kan ju hända att de gör en AMD och lägger sig lågt i pris för att ta marknadsandelar istället. Hoppas går ju alltid!

Är man marknadsledande kan man ta ett högre pris, Intel och Nvidia gör det och AMD skulle också göra det om så vore fallet, de här företagen är här för att tjäna pengar till sina aktieägare och inte välgörenhet till dator intresserade oavsett hur stor skara fanbois de har.

Skickades från m.sweclockers.com

Skrivet av trickeh2k:

Tack för ett som vanligt, intressant och lärorikt svar! Det har väl redan talats om att GPUer är framtiden mer än CPU när det gäller beräkningskraft. Har för mig att jag läst att likt det du beskriver så är det enklare att utveckla nya tekniker för beräkningskraft på GPU än på CPU, utan att ha någon större förståelse i det tekniska bakomliggande.

En av huvudanledningarna till att AMD köpte ATi för över tio år sedan var att man redan då insåg att GPUer kommer ta över vissa typer av beräkningar från CPU.

Problemet sedan dess har primärt varit att man famlat i mörkret efter hur GPUer lämpligast presenteras för programkonstruktörer. Måste ju vara på ett sätt som både är relativt enkelt att begripa sig på, men samtidigt inte är allt för abstrakt så det dödar möjligheterna.

Positiva är att Nvidia knäckte den nöten med CUDA, trista är att CUDA är bundet till Nvidias GPUer och än så länge finns inget som är lika bra och fungerar på alla GPUer.

Här tror jag Intels entré på GPU-marknaden kan vara det som krävs för att något ska kunna bryta den dominans CUDA har idag (många saker fungerar tyvärr bara på Nvidias kort alt. på CPU med betydligt lägre prestanda, exempel är de mest populära ramverken för maskininlärning).

För de saker som är beräkningsintensivt och passar en GPU är GPUer typiskt heltalsfaktorer snabbare. En RTX2060 är som sagt ungefär dubbelt så snabb i Blender (som inte använder RT-kärnorna än, men det kommer) jämfört med 2700X/9900K. När RT-kärnorna kommer börja användas ökar det nog till 3-4 gånger snabbare.

GPUer är också helt överlägsna på att beräkningar för att träna neuralnätverk. Med "tensor-kärnor" är det mer än en tiopotens mellan de snabbaste konsument CPUerna mot RTX-korten.

Skrivet av trickeh2k:

Är det så att DXR är utvecklat med fokus för GPU snarare än att det skulle vara en begränsning att flytta dessa beräkningar till CPU? Vad är det dessutom som gör att dessa beräkningar egentligen skulle fungera bättre på en CPU som du nämner ovan och varför (om du vet) har man inte gjort kopplingen mellan shaders och CPU bättre/tightare?

DXR är absolut utvecklat med fokus på GPU, är där ray-tracing hör hemma.

Problemet med dagens GPUer är att deras beräkningsenheter är optimerade för fall där man applicerar i princip samma beräkning på en stor mängd indata (en beräkning som mycket väl kan vara komplex, men är samma beräkning på all indata).

Det är tyvärr inte fallet för ray-tracing. Initialt så har man exakt det fallet, första skärningspunkten beräknas på samma sätt oavsett vilken skärmpixel strålen går igenom. Men sedan beror det helt på vad strålen träffar vad som händer härnäst, ett fall som en CPU inte har något problem med då dem implementerar vad man kallar MIMD (d.v.s. kort och gott man har flera CPU-trådar med egen programräknare).

GPUer implementerar SIMD eller SIMT (dessa modeller är väldigt snarlika och skillnaderna ligger mer i hur man presenterar det hela, CUDA är SIMT medan CPUer typiskt programmeras som SIMD men finns SIMT även där).
.
SIMD/SIMT kan skalas till långt fler "trådar" just då man har en och samma instruktion för många trådar med olika in/ut-data. Nackdelen med en sådan modell är att den blir bara riktigt effektiv om alla trådar följer samma väg. Modellen kan hantera att trådarna tar olika vägar genom koden, men det blir inte speciellt effektivt om trådar börjar divergera kodvägsmässigt.

Exakt det löser "RT-kärnorna". De verkar implementera en väldigt restriktiv form av MIMD, specifikt för den last som behövs när man jagar strålar

Citat:

Intressant är även att Intel inte endast fokuserar på grafikkortet för accelerering av ray tracing, utan ska nyttja både processor och grafikdel för detta. Exakt hur denna uppdelning kommer fungera och skilja sig från konkurrenterna AMD och Nvidia återstår att se.

Ser framför mig hur det som vanligt bara blir en ytterligare implementation som splittrar marknaden à la 3dfx/NVIDIA.

Hoppas naturligtvis att de bygger vidare på existerande standarder men det är trots allt Intel vi pratar om.

Ska bli väldigt kul och behövligt med en till spelare i grafikkorts leken! när ska de första släppas? hoppas dom släpper nya innovativa tekniker som får de andra att tänka till och sporrar dom att utvecklas på ett bra sätt!

Så läge den slår AMD så är jag glad.

Jag tror att Intel GPU kommer vara kraftfull, dom har pengar och bra GPU ingenjör vad skulle kunna gå fel.

Fanns det personer som på allvar trodde att NVIDIA var de enda som höll på med hårdvaruaccelererad ray tracing?

För att citera ett patent om just hårdvaruaccelererad ray tracing (Intel 2015):
"There are several companies that are currently building fixed-function ray tracing architectures. The idea of these architectures is to devise a fixed-function (FF) unit for ray traversal and a FF unit for ray intersection, and then allow the graphics processing unit (GPU) handle shading and ray generation. The designer of the FF unit must decide which relationship should exist between the traversal unit and the intersection unit."

"Several companies" refererar till de mobila arkitekturerna som hade accelererad ray tracing, men även till en viss AMD som hade skrivit om det tidigare 2014. Jag vet inte när NVIDIA kollade på dessa saker... Men saken är den att de verkar ha haft ett öga på det ändå ett tag. Det roliga är att samma person som skrev patentet började på NVIDIA i slutet av 2016 verkar det som. Intel äger fortfarande patentet antar jag.

Men hur blir det i framtiden då? Det verkar som ray tracing är här för att stanna. Intel använder sannolikt fixed-function enheter såsom NVIDIA och förmodligen AMD. Dessa är area- och energieffektiva och är här för att stanna också. Nästa steg är att hitta andra saker att accelerera ray tracing. Värt att nämna här att att stort fokus ligger på att reducera tiden i intersection tests. Fixed function enheterna idag är mer av stilen "gör det snabbare genom att göra beräkningarna snabbare". Ett alternativ verkar vara att enheter som "gör det snabbare genom att reducera antalet beräkningar (beräkna färre missar)". Det skulle inte förvåna mig om vi hade 10x snabbare intersectiontests om en eller två generationer.

Värt att notera att steget efter det verkar vara att hantera dynamisk geometri bättre som är vanligt förekommande i spel. Häri kan heterogena CPU+GPU system möjligtvis gynnas, t.ex genom att dela upp hanteringen mellan dessa. Men det återstår att se. Några citat från intervjuer om DXR om just hur svårt det kan vara att hantera dynamisk geometri:

"We would also love to see other exposed metrics for how 'good' a “BVH” REFIT was - ie. if the BVH has deteriorated from multiple refits and if we need to rebuild it. Characters running around can deteriorate rather fast!"

”ray tracing itself and denoising are about the same performance cost in most scenes. What other people rarely talk about - there is another performance critical thing. It is BVH (BLAS) updates which are necessary for vertex-animated stuff, plus BVH (TLAS) rebuilds necessary to keep the instance tree compact and tight. We throttle it as much as we can. Without all that its cost would be about on par with 0.5 RPP trace if not more.”

Sedan kan det ju ske fokus även på andra saker för att reducera antalet beräkningar, såsom denoisers och upscalers.

AMD arbetar med maskininlärda denoisers och uppscalers via DirectML

@Aka_The_Barf: Intel siktar på lansering av de första produkterna under 2020, det återstår att se vad det innebär i form av produkter för enterprise kontra konsumentprodukter.

https://www.sweclockers.com/nyhet/26739-intels-satsning-pa-gr...

Ser fram emot riktigt mycket mot vad Intel kan åstadkomma på GPU-fronten!

Det stod väll inget om DXR-stöd eller missade jag något?

Hmm, Funderar på om intel helt enkelt kommer lägga in "cpu" delen på gpu'n, eller om det kanske blir en extra krets på kortet. Det är väl en fördel om dom slipper skyffla data till och från moderkortets cpu?

Skrivet av loevet:

@Aka_The_Barf: Intel siktar på lansering av de första produkterna under 2020, det återstår att se vad det innebär i form av produkter för enterprise kontra konsumentprodukter.

https://www.sweclockers.com/nyhet/26739-intels-satsning-pa-gr...

Ska bli intressant helt klart, då kanske det inte är jätte långt kvar. några smaskiga läckor kanske även hittar ut