Cuda, TensorCores och RT

Permalänk
Medlem

Cuda, TensorCores och RT

Jag kan förstå att man slänger med RT cores, men det känns så jävla påtvingat att de slängt med TensorCores. Då hade kärnor för PhysX varit mer vettiga. Jag som kör lite ML har ju användning för dem, men gemene man har fan ingen användning av dem. Och spel som använder ML / AI i framtiden, hur stor procent kommer det att vara. Det känns som vi hade kunnat få korten billigare om vi hade kunnat få dem utan de kärnorna.

Hade varit nice om man hade kunnat köpa 2080 GTX Ti t.ex. Utan TC och RT. Eller 2080 RT Ti, med bara RT.

Varför har de med tensor cores överhuvud taget?

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem

DLSS, som ger bättre och snabbare antialiasing (och ev. upscaling?), och därmed kan öka antalet FPS rejält, körs på tensor cores. Det verkar ju som att Nvidia gjort det enkelt att integrera i spel (i och med att Nvidia står för maskininlärningsbiten), så det är 25 spel hittills som ska implementera det. Det går ju inte att sia om hur många spel som kommer göra det i framtiden, men det känns som en helt ok start.

https://www.engadget.com/2018/09/14/nvidia-rtx-mesh-shaders-d...

https://cdn.wccftech.com/wp-content/uploads/2018/08/NV-GeForc...

Permalänk
Medlem
Skrivet av Ureet:

DLSS, som ger bättre och snabbare antialiasing (och ev. upscaling?), och därmed kan öka antalet FPS rejält, körs på tensor cores. Det verkar ju som att Nvidia gjort det enkelt att integrera i spel (i och med att Nvidia står för maskininlärningsbiten), så det är 25 spel hittills som ska implementera det. Det går ju inte att sia om hur många spel som kommer göra det i framtiden, men det känns som en helt ok start.

https://www.engadget.com/2018/09/14/nvidia-rtx-mesh-shaders-d...

https://cdn.wccftech.com/wp-content/uploads/2018/08/NV-GeForc...

Fast, är inte det mer en ursäkt eller något man har skakat fram för att motivera deras existens?

Du kan ju köra AA utan att ha tensorcores och stänga av det ifall du behöver mer prestanda. Du kan inte stänga av DLSS och få fler FPS, vilket du kan göra med annan AA.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av kelthar:

Du kan ju köra AA utan att ha tensorcores och stänga av det ifall du behöver mer prestanda. Du kan inte stänga av DLSS och få fler FPS, vilket du kan göra med annan AA.

Det där är ju lite bakvänt resonerat. Du är alltså missnöjd med att DLSS inte ska sänka prestandan lika mycket när det är påslaget jämfört med annan AA?

Har du läst Sweclockers artikel om Turing förresten? De tar upp flera tekniker som tensorkärnorna planeras att användas till, och det kommer säkert mer i framtiden när utvecklarna fått leka mer med dem.

Permalänk
Medlem
Skrivet av kelthar:

Du kan ju köra AA utan att ha tensorcores och stänga av det ifall du behöver mer prestanda.

Men i så fall måste man välja mellan höga FPS och kantutjämnad grafik. Med DLSS kan man enligt Nvidia få bra AA med markant högre FPS än innan, vilket för mig låter som ett ordentligt steg framåt. (Sedan kan man ju fråga sig hur bra och dyrt hade det blivit i jämförelse om de skippat tensor cores och i stället ökat antalet CUDA-kärnor med 30%, men det kan jag inte bedöma.)

I vilket fall så är det ju svårt att säga något definitivt innan det kommit oberoende benchmarks och fler implementeringar i spel. Jag har dock sett fantastiska resultat från andra deep learning-baserade upscaling-algoritmer, så ifall DLSS går snabbt nog så skulle det kunna bli en total gamechanger för nästa generations VR och 4K-spel (typ rendera i 1080p, få det automatiskt uppskalat till 4k med minimal prestanda- och kvalitetsförlust). Nu skriver Engadget-artikeln jag länkade att DLSS är "unbelievably good at resolving fine detail while straight edges aren't always flawless", så vi får vänta och se hur bra det blir i praktiken.

Permalänk
Medlem
Skrivet av perost:

Det där är ju lite bakvänt resonerat. Du är alltså missnöjd med att DLSS inte ska sänka prestandan lika mycket när det är påslaget jämfört med annan AA?

Har du läst Sweclockers artikel om Turing förresten? De tar upp flera tekniker som tensorkärnorna planeras att användas till, och det kommer säkert mer i framtiden när utvecklarna fått leka mer med dem.

Jag tror inte att du förstår vad jag menar. Om man hade tagit de extra transistorerna som man använt till tensor cores och lagt dem på cuda och sm i stället så hade man själv fått välja vad man skulle använda prestandan till.

Det enda som står i artiklen är DSAA, bättre upscaling och AI som anpassar sig efter spelaren.

Vill du ha uppskalad grafik? Vill du ha AA som du inte kan stänga av för att få bättre prestanda.

Om man hade lagt transistorerna på cuda och sm i stället för tensor cores så hade man kunnat stänga av AA och få högre FPS. Om man stänger av sin DSAA så händer ingenting med ens fps. Det är ren bullshit.

2080 Ti har 18.9b transistorer, 1080 Ti har 12b. Det är lite mer än 57% fler transistorer.

2080 har 21% flera cuda kärnor, när den borde kunnat ha 57% i stället. (om man skulle ta bort RT också)

Men låt oss säga att de transistorerna är jämnt fördelade på RT och Tensor. Om man hade skippat Tensor så hade man kunnat ha 39% flera cuda/sm i ställer för 21%. En ökning på nästan det dubbla i stället för det som vi ser idag. Vi hade haft ett riktigt prestandamonster som hade kunnat motivera priset.

Skrivet av Ureet:

Men i så fall måste man välja mellan höga FPS och kantutjämnad grafik.

Och nu får du: Alltid kantutjämnad grafik med lägre FPS, för det har nvidia bestämt att du ska ha.

Visa signatur

Hur många datorer är för många?