The Coalition-utvecklare bekräftar kärnor för ray tracing till Xbox Scarlett

The Coalition-utvecklare bekräftar kärnor för ray tracing till Xbox Scarlett

I en intervju med Gamespot avslöjar en utvecklare från Gears 5-studion The Coalition att Xbox Scarlett utrustas med dedikerade kärnor för ray tracing.

Läs hela artikeln här

Ah sweet, RayTracing är här för att stanna, vad än bakåtsträvare tycker.

"XBox is all about choice...the games that you want with the people you want on the devices you want."

Så var är deras VR-headset?

Då kan man tolka det som att 2021 blir året då strålspårning tar spelvärlden med storm? Då borde Nvidia vara inne på andra eller möjligen tredje generationen RTX-kort? Då kanske det är dags att byta ut mitt GTX 1080.

Lurigt detta med Ray Tracing. Det måste fungera tillfredsställande i många år framöver annars blir konsolerna helt överkörda av pc.
Så ska bli intressant att se vilken nivå det hamnar på. I början lär det blir bättre än på pc då det är lättare att programmera effektivt till en konsol, d v s ta vara på hårdvaran.

Men 8k och Ray Tracing? Nja

När denna teknik för Ray Tracing ser dagens ljus så lär ju utvecklingen av de gå mot AMDs håll också. Jag tror precis som många andra gör att NVIDIAs version inte kommer slå i så många titlar. NVIDIA är ofta en föregångare till mycke nytt, men de är sällan deras nya tekniker slår igenom. De brukar konkurrerande teknik göra. Man kan ju undra varför ¯\_(ツ)_/¯

Skrivet av HC-8315:

När denna teknik för Ray Tracing ser dagens ljus så lär ju utvecklingen av de gå mot AMDs håll också. Jag tror precis som många andra gör att NVIDIAs version inte kommer slå i så många titlar. NVIDIA är ofta en föregångare till mycke nytt, men de är sällan deras nya tekniker slår igenom. De brukar konkurrerande teknik göra. Man kan ju undra varför ¯\_(ツ)_/¯

Andras är kanske billigare och inte lika inlåsta i sitt system?

Jadu. Det är väl som tessellation och AA etc. Jäkla gimick som bara slösar prestanda...
Några år senare har alla kort hårdvara för att köra det och det är ingen som inte kör det för det har implementerats på ett bra sätt.
Jag tror ray tracing kommer finnas i många spel om några år och att konsolerna har det gör att vi nog får en användning som är rimlig för de flesta maskiner med modernt grafikkort.
Det är bara att vänta och se men idag är det för tidigt, krävande och experimentella implementationer

Skrivet av Joppis:

Då kan man tolka det som att 2021 blir året då strålspårning tar spelvärlden med storm?

Knappast. Inga multiplattformsspel kommer att byggas runt det på ett bra tag till.
Däremot kanske Microsofts egna konsolprodukter. Fast - de måste ju köra på PC-burkar också, så där finns en del frågetecken.

Dessutom stämmer ju inte ”ray tracing cores” mad AMD:s patent, så vad är det som kommer att implementeras egentligen?

Och för det tredje: XBox säljs i mycket små volymer i relation till den totala marknaden. Vi får se om också Sonys nya konsol stödjer samma teknik. Och naturligtvis, med vilken prestanda.

Skrivet av wargreymon:

Ah sweet, RayTracing är här för att stanna, vad än bakåtsträvare tycker.

De har liksom inte mycket annat de kan göra med specifika kärnorna

Är lite som att GPUer är här för att stanna, även om allt kan räknas på en CPU. GPU kärnorna kan dock inte ersätta CPUns alla funktioner, utan bara hjälpa till. RT hade varit ett kanon "extra kort" om det hade kunnat göras så. Se det som "dual-gpu" lösning i DX12, med ett RT optimerat kort du kan köpa till.

Som det är nu tog ju Nvidia ett 10-series pascal chip... limma på lite Tensorkärnor och skapa RTX. Sålde det för hutlösa pengar till folk som inte inser att första gen troligen inte kommer vara så användbar när det väl "slår igenom".

AMD tar sina nya RDNA kärnor och limmar på lite RT kärnor de troligen utvecklar just nu. De har ju dock utvecklare och en marknad som accepterar 30 fps 4k "liknande"... bara det är prisvärt. Så betydligt enklare att sälja, även om det påverkar prestandan.

Du betalar mao en hel del extra för en funktion som... idag, knappt kan användas vettigt. Men å andra sidan, om de göra RT kärnorna starkare, lyfta bort last på vanliga GPUns kärna så är det ju klart positivt. Men det lär kräva en hel del generationer innan vi ser det.

AA började ju som en funktion som var "wow..." men ingen utom de med super dyrt system kunde köra pga prestandakraven. Så med tiden... why not.

Personligen dock tar jag hellre 1440/4k med 100FPS, än RT och lägre FPS.. men det är kanske jag bara. Hellre utan AA än låg FPS mao.

Senast redigerat 2019-09-10 16:23

Men det pratas om att AMD ska ha nya TMU:er som ska sköta raytracingspecifika operationer och där mycket av nummertuggandet ska ske i vanliga shaders, detta för att optimera så att man får så mycket prestanda som möjligt per transistor och för att underlätta för programmerare som slipper programmera för shaders, tensorkärnor och RT-kärnor samtidigt som hos nVidia.
Passar det överens med uttalandet om dedikerade raytracingenheter? Kan det ses som raytracingkärnor och TMUs separat utåt även om de är ganska integrerade i sin konstruktion?
Eller är patentet på raytracing på TMUs och shaders inte något som kommer användas i första generationen hårdvaruaccelerad raytracing från AMD?

Skrivet av SCORPIUS:

Andras är kanske billigare och inte lika inlåsta i sitt system?

Hur är Nvidias version inlåst i deras system?
De använder sig utav DirectX Raytracing och att det inte fungerar på AMD gpuer ligger väl mer på att speltillverkare inte lägger till stödet för det inte är värt tiden.

Skrivet av EntropyQ3:

Knappast. Inga multiplattformsspel kommer att byggas runt det på ett bra tag till.
Däremot kanske Microsofts egna konsolprodukter. Fast - de måste ju köra på PC-burkar också, så där finns en del frågetecken.

Dessutom stämmer ju inte ”ray tracing cores” mad AMD:s patent, så vad är det som kommer att implementeras egentligen?

Och för det tredje: XBox säljs i mycket små volymer i relation till den totala marknaden. Vi får se om också Sonys nya konsol stödjer samma teknik. Och naturligtvis, med vilken prestanda.

Skrivet av Aleshi:

Men det pratas om att AMD ska ha nya TMU:er som ska sköta raytracingspecifika operationer och där mycket av nummertuggandet ska ske i vanliga shaders, detta för att optimera så att man får så mycket prestanda som möjligt per transistor och för att underlätta för programmerare som slipper programmera för shaders, tensorkärnor och RT-kärnor samtidigt som hos nVidia.
Passar det överens med uttalandet om dedikerade raytracingenheter? Kan det ses som raytracingkärnor och TMUs separat utåt även om de är ganska integrerade i sin konstruktion?
Eller är patentet på raytracing på TMUs och shaders inte något som kommer användas i första generationen hårdvaruaccelerad raytracing från AMD?

Värt att ha i åtanke är att personen som intervjuats är Creative Director, alltså kreativt styrande i projektet och har kanske inte nödvändigtvis järnkoll på arkitektoniska egenskaper som spelmotor-kollegorna har. Också värt att beakta är att han pratar med en spelsajt som har en bred publik som kanske inte har djup förståelse för arkitektoniska frågor, och han kan därför förenkla till "dedikerade RT-kärnor".

Om man ska titta specifikt på nästa generations konsoler har jag väldigt svårt att se att Sony och Microsoft har budget för dedikerade RT-kärnor i stil med Nvidias lösning. De är stora, använder många transistorer, medför en hel del kostnader och ökar krav på ström/värmebudget. I en spelkonsol med begränsad budget för såväl pris som transistormängd, strömförbrukning och värmeutveckling har jag svårt att se att AMD skulle klämma in RT-kärnor i en konsol-SoC. Särskilt eftersom inte alla utvecklare kommer använda funktionen, och då blir det bortslösade budgetresurser.

Ur det avseendet förefaller AMD-patentet med utökade shader-enheter betydligt mer rimligt för en konsol-SoC. Utvecklare kan utnyttja RT-funktionen om de vill, men om de inte gör det är belastningen på kretsens budget förhållandevis väldigt liten jämfört med fullödiga RT-enheter. Så rent spekulativt tror jag att hans uttalande enbart refererar till att konsolens "grafikkärnor" är RT-kapabla, inte att det handlar om dedikerade enheter för ändamålet.

Av allt man har hört om nästa generations konsoler så låter det som att vi får betala mer än 10000kr för en konsol.

Skrivet av zather:

Hur är Nvidias version inlåst i deras system?
De använder sig utav DirectX Raytracing och att det inte fungerar på AMD gpuer ligger väl mer på att speltillverkare inte lägger till stödet för det inte är värt tiden.

"men de är sällan deras nya tekniker slår igenom. De brukar konkurrerande teknik göra."
Denna raden infattade mycket mer än RT.
Ta deras glasögon för 3D tex. 3D vision. Funkar bara med nvidia och skärm avsedd för det.

Alla annan 3D är öppen för vem som.

Skrivet av CubaCola:

Av allt man har hört om nästa generations konsoler så låter det som att vi får betala mer än 10000kr för en konsol.

En stor m.2 SSD, Ryzen CPU och ny GPU i relativt hög klass kostar, men jag tror inte de kommer springa iväg så illa. De tog väl ca 6500 för de dyraste jag sett, och skulle inte förvåna mig om de dyraste blir i den klassen... 6000-7000kr iaf, max 8000. Men det kommer ju finnas enklare modeller också, där du får tex mindre disk.

Sen får vi tänka på att både DDR4 och SSDer sjunker sakta men säkert i pris, och vi pratar OEM stor produktion (så bra bulk pris) och 2020. Men att döma från specs som de skryter med iaf, är det nog första konsolen jag tror även PC spelare kommer titta på. Riktigt CPU, SSD och extra features... låter som en vettig grund tbh.

Skrivet av SCORPIUS:

"men de är sällan deras nya tekniker slår igenom. De brukar konkurrerande teknik göra."
Denna raden infattade mycket mer än RT.
Ta deras glasögon för 3D tex. 3D vision. Funkar bara med nvidia och skärm avsedd för det.

Alla annan 3D är öppen för vem som.

Ok tänkte mes på ray tracing eftersom artikeln handlade om det och 3d vision är kan jag hålla med om men personligen så skulle jag inte säga att Nvidia sitter och kommer på massa som andra ersätter med standarder.

Jag kommer iaf inte på någon stor grej just denna sekund.

MS bekräftade ju hårdvaruaccelererad ray tracing redan på E3. Så nyheten häri ligger i att Gears-snubben tycker det ska bli kul?

Citat:

Intressant nog avslöjar företaget också att grafikkretsen stöder hårdvaruaccelererad ray tracing

https://www.sweclockers.com/nyhet/27703-microsoft-avtacker-xb...

Skrivet av wargreymon:

Ah sweet, RayTracing är här för att stanna, vad än bakåtsträvare tycker.

Tror ingen tycker att Ray Tracing i sig är dåligt eller inte vill ha det. Det är att just nu så är det inte det minsta imponerande vad man kan göra med det, speciellt till den prestandaförlust man får.

60GB nvme-disk incoming XD om vi tittar på storleken från andra generationer rofl

Skrivet av wargreymon:

Ah sweet, RayTracing är här för att stanna, vad än bakåtsträvare tycker.

Det är väl ändå väldigt få eller ingen som tycker att raytracing är dåligt? Det är Nvidias marknadsföring och prissättning på produkterna med raytracing som har kritiserats så hårt.
Raytracing är välkommet för min del men så länge det innebär dubbelt så dyra grafikkort, 30fps och ungefär 3st spel som stödjer tekniken så säger jag tack men nej tack!

Börjar bli hypad på nästa gen spelkonsoll, raytracing är nice. Hoppas bara innerligen att de satsar på 60fps och ej 30fps denna generationen. Dvs min 60fps på de flesta spel.
Det lär bli en xbox nästa gen, gampass är på tok för bra för att playstation ens skall kunna vara ett alternativ.

Skickades från m.sweclockers.com

Skrivet av zather:

Ok tänkte mes på ray tracing eftersom artikeln handlade om det och 3d vision är kan jag hålla med om men personligen så skulle jag inte säga att Nvidia sitter och kommer på massa som andra ersätter med standarder.

Jag kommer iaf inte på någon stor grej just denna sekund.

G-Sync är ett annat exempel på Nvidia teknik för de som använder Nvidia kort.
Finns andra varianter för variabel bildsynkronisering, som Freesync och Vesa adaptive sync. Men just G-Sync är Nvidia specifikt.

Skrivet av GuessWho:

G-Sync är ett annat exempel på Nvidia teknik för de som använder Nvidia kort.
Finns andra varianter för variabel bildsynkronisering, som Freesync och Vesa adaptive sync. Men just G-Sync är Nvidia specifikt.

Fast vi sa där det kommer ut och sätts som standard. G-Sync finns fortfarande för att det just nu är bättre men kanske i framtiden så går vi över till bara adaptive sync men i nuet skulle jag inte säga att det stämmer alls.
G-sync är märkbart bättre och har fler funktioner men kostar också mer därför.

Uppdatering: Texten säger nu "Having dedicated ray tracing hardware is huge." Så antingen är det fel å intervjuarens vägnar, eller så är det så att de råkade säga lite för mycket... Intressant i båda fall.

Citat:

AMD har sedan tidigare aviserat att den fullständiga versionen av RDNA kommer först nästa år med generation två av arkitekturen.

När sa de det? Har aldrig hört detta från dem. Man kan dock ha en tolkning att de varianter med mixed precision FMA enheter såsom Navi12 och Navi14 är "fullständig RDNA", och starka indikationer på ett utbyggt system för att göra plats för intersection hårdvara vid texturenheterna.

Citat:

Ett patent som avtäcktes tidigare i år antyder att AMD valt att utrusta befintlig arkitektur med ray tracing-kapacitet, istället för dedikerade RT-enheter likt de som används i Nvidias Turing-arkitektur i Geforce RTX-familjen.

Skrivet av EntropyQ3:

Dessutom stämmer ju inte ”ray tracing cores” mad AMD:s patent, så vad är det som kommer att implementeras egentligen?

Om man läser patentet blir det dock ytterst klart att de har även täckt in fallet med a traversal sker i fixed function hårdvara. Vilket gör att den i stort sett inte alls skiljer sig från Turing.

[0023] "Based on the results of the intersection testing, a state machine determines how the shader units should advance its internal stack (traversal stack) and traverse the BVH tree. The state machine can be fixed function or programmable."

[0035] "Alternatively, shader functionality can be implemented partially or fully as fixed-function, non-programmable hardware external to the compute unit"

[0048] "It should be understood that many variations are possible based on the disclosure herein."

Läser man [0024] låter det mer som att det är ett val. "Flexibility is preserved since the shader unit can still control the overall calculation and can bypass the fixed function hardware where needed and still get the performance advantage of the fixed function hardware."

Citat från patentet som stödjer en fixed function traversal

Visst är det otroligt att man kan läsa samma sak med ett helt nytt perspektiv långt senare? Det här kräver dock att man är grammar nazi lvl 999.

Skrivet av Paddanx:

RT hade varit ett kanon "extra kort" om det hade kunnat göras så. Se det som "dual-gpu" lösning i DX12, med ett RT optimerat kort du kan köpa till.

Nope. Detta hade behövt att man duplicerar resurser (vilket leder till att totalkostnaden blir mycket högre, skulle inte förvåna mig om det blev 1.5-1.8k dollar totalt (1000 för huvudkortet och ~500-800 dollar för acceleratorn) för att få något som motsvarar en 2080ti). Minnessystem, VRAM för BVH och scendata, cache dupliceras, schemaläggare, etc etc. Samtidigt utgör det en liten del av kretsytan , vilket är helt i linje med tidigare forskning. Att få det sålt till renderingsfarmar är nog inget problem , men för spel så är det både svårsålt och inte helt optimalt (då det introducerar synkronisering,minnesöverföringar och så som kan ta upp en hel del tid. Om vi har flera olika effekter som i control så blir det extra jobbigt). Sedan så har vi shading efteråt som måste ske på det andra kortet.

Det finns även ett mysterium (iallafall för mig) med just Turing och RT. När RT Cores körs så körs alltid FP32 och INT32 kärnorna samtidigt i de exempel som NVIDIA visat, och de arbetar med någonting väldigt relaterat till RT lasten (ingen annan del reduceras). Om det är så att de håller på med en last relaterat till RT som de inte direkt specificerat... så kan det bli så att allting blir mycket mer komplicerat. AMD och NVIDIA har förmodligen gjort alla beräkningar och gått igenom alla detaljer, så jag litar på att de fattar smarta val.

Skrivet av loevet:

Om man ska titta specifikt på nästa generations konsoler har jag väldigt svårt att se att Sony och Microsoft har budget för dedikerade RT-kärnor i stil med Nvidias lösning. De är stora, använder många transistorer, medför en hel del kostnader och ökar krav på ström/värmebudget. I en spelkonsol med begränsad budget för såväl pris som transistormängd, strömförbrukning och värmeutveckling har jag svårt att se att AMD skulle klämma in RT-kärnor i en konsol-SoC. Särskilt eftersom inte alla utvecklare kommer använda funktionen, och då blir det bortslösade budgetresurser.

Ur det avseendet förefaller AMD-patentet med utökade shader-enheter betydligt mer rimligt för en konsol-SoC. Utvecklare kan utnyttja RT-funktionen om de vill, men om de inte gör det är belastningen på kretsens budget förhållandevis väldigt liten jämfört med fullödiga RT-enheter. Så rent spekulativt tror jag att hans uttalande enbart refererar till att konsolens "grafikkärnor" är RT-kapabla, inte att det handlar om dedikerade enheter för ändamålet.

Med tanke på att det går att få in den hårdvara som krävs genom att öka arean med några få procent så lär det inte vara något större problem (utan kostnader de tagit hänsyn till). Att ha en fixed function tillståndsmaskin utöver det som de redan lägger in, är nog inte hela världen. Inte heller verkar de ha otillräckligt med cache för att få allt att fungera. Vi får se helt enkelt, men de kommer nog maximera vad de kan få ut från den hårdvara som de väljer.