Använda RTX kort som dedikerat RT/DLSS kort?

Använda RTX kort som dedikerat RT/DLSS kort?

Tjena!

Bakgrund:
Sitter idag på ett GTX 1080Ti i mainburken, har dock blivit sugen på att testa RT & DLSS nu när ett gäng titlar som jag är intresserad utav kommer använda ovannämnda tekniker och faktiskt kommer i år!

Enda uppgraderingen jag kan göra är att gå till ett 2080Ti, vilket känns för dyrt. Skulle kunna sälja mitt 1080Ti och lägga till ca. 2000kr för ett 2080, men känns sisådär att betala för en nedgradering i spel som inte har RT/DLSS. Spelar i 3440x1440p som standard, har även en 55" 4K panel jag använder för VR/slöspelande ibland i vardagsrummet (i 1080p läge för VR) - Så är rätt krävande och DLSS skulle vara trevligt oavsett om man använder RT eller inte.

Frågeställning:
Det jag då satt och fundera på var om man skulle införskaffa sig ett RTX 2060 och det isåfall gick att köra det som ett dedikerat RT/DLSS-kort likt hur man brukade/kan göra med PhysX? Har försökt Googla på det men inte kommit fram till något svar direkt alls.

Tack på förhand,
//Yatagarasu

Senast redigerat 2019-02-12 03:27: Ändrade struktur och meningsuppbyggnad.
Skrivet av Yatagarasu:

Tjena!

Bakgrund:
Sitter idag på ett GTX 1080Ti i mainburken, har dock blivit sugen på att testa RT & DLSS nu när ett gäng titlar som jag är intresserad utav kommer använda ovannämnda tekniker och faktiskt kommer i år!

Enda uppgraderingen jag kan göra är att gå till ett 2080Ti, vilket känns för dyrt. Skulle kunna sälja mitt 1080Ti och lägga till ca. 2000kr för ett 2080, men känns sisådär att betala för en nedgradering i spel som inte har RT/DLSS. Spelar i 3440x1440p som standard, har även en 55" 4K panel jag använder för VR/slöspelande ibland i vardagsrummet (i 1080p läge för VR) - Så är rätt krävande och DLSS skulle vara trevligt oavsett om man använder RT eller inte.

Frågeställning:
Det jag då satt och fundera på var om man skulle införskaffa sig ett RTX 2060 och det isåfall gick att köra det som ett dedikerat RT/DLSS-kort likt hur man brukade/kan göra med PhysX? Har försökt Googla på det men inte kommit fram till något svar direkt alls.

Tack på förhand,
//Yatagarasu

Känns som att nVidia lär ha spärrat det, men jag vet inte, man kunde ju köra dedikerat PhysX kort ett tag som du säger.
Dock vet jag inte alls hur nVidias tankar har gått kring RT och DLSS.

/Lifooz

Hur menar du att det skulle bli en nedgradering i spel med ett 2080? Jag har sett något enstaka spel där 1080 Ti presterat aningen bättre i tester, men över lag är 2080 oftast några procent snabbare. Se t.ex. Sweclockers prestandaindex.

Sen får man ha i åtanke att RT/DLSS utförs med dedikerad hårdvara på korten, d.v.s. även om det skulle fungera att ha ett 2060 som dedikerat RT/DLSS-kort så skulle man ändå få sämre prestanda än om man körde allt på ett 2080. Kombinationen 1080 Ti + 2060 skulle alltså motsvara ungefär ett 2080 med halverad RT/DLSS-prestanda. Och ett 2060 klarar t.ex. inte av att hålla 60 fps med ray tracing i BF5 enligt Sweclockers tester.

Men det är väl mest av akademiskt intresse ändå eftersom det vad jag vet inte finns några spel som tillåter att man kombinerar kort på det sättet. Så länge som NVIDIA inte spärrat det av någon anledning så är det väl rent teoretiskt spelutvecklarnas ansvar att implementera stöd för det, på samma sätt som vanlig multi-GPU i DX12. Men intresset bland både utvecklarna och spelarna är nog rätt lågt för den funktionaliteten. BF5 har ju t.ex. inte ens officiellt stöd för multi-GPU än.

Senast redigerat 2019-02-12 16:41
Skrivet av Yatagarasu:

Tjena!

Bakgrund:
Sitter idag på ett GTX 1080Ti i mainburken, har dock blivit sugen på att testa RT & DLSS nu när ett gäng titlar som jag är intresserad utav kommer använda ovannämnda tekniker och faktiskt kommer i år!

Enda uppgraderingen jag kan göra är att gå till ett 2080Ti, vilket känns för dyrt. Skulle kunna sälja mitt 1080Ti och lägga till ca. 2000kr för ett 2080, men känns sisådär att betala för en nedgradering i spel som inte har RT/DLSS. Spelar i 3440x1440p som standard, har även en 55" 4K panel jag använder för VR/slöspelande ibland i vardagsrummet (i 1080p läge för VR) - Så är rätt krävande och DLSS skulle vara trevligt oavsett om man använder RT eller inte.

Frågeställning:
Det jag då satt och fundera på var om man skulle införskaffa sig ett RTX 2060 och det isåfall gick att köra det som ett dedikerat RT/DLSS-kort likt hur man brukade/kan göra med PhysX? Har försökt Googla på det men inte kommit fram till något svar direkt alls.

Tack på förhand,
//Yatagarasu

Jag har precis som sagts ovan inte sett något test där 1080Ti slår RTX 2080, utan RTX/DLSS.

Jag tror heller inte att det går att köra som du tänkt, men du kanske kan ställa frågan direkt till NVIDIA och få svar.

Det är inte många procents skillnad mellan 1080Ti och 2080, dock lär det senare klara sig lite bättre i 4K. Radeon 7 är sämre i DX11 men rätt bra i DX12 samt 4K.

Du får lätt 6k för ditt 1080Ti och lägger du bara till 2500kr så har du ett sprillans 2080 i näven. Värt det? Nja enligt många men det kan i slutändan bara du avgöra.

Skrivet av Lifooz:

Känns som att nVidia lär ha spärrat det, men jag vet inte, man kunde ju köra dedikerat PhysX kort ett tag som du säger.
Dock vet jag inte alls hur nVidias tankar har gått kring RT och DLSS.

/Lifooz

Skrivet av perost:

Hur menar du att det skulle bli en nedgradering i spel med ett 2080? Jag har sett något enstaka spel där 1080 Ti presterat aningen bättre i tester, men över lag är 2080 oftast några procent snabbare. Se t.ex. Sweclockers prestandaindex.

Sen får man ha i åtanke att RT/DLSS utförs med dedikerad hårdvara på korten, d.v.s. även om det skulle fungera att ha ett 2060 som dedikerat RT/DLSS-kort så skulle man ändå få sämre prestanda än om man körde allt på ett 2080. Kombinationen 1080 Ti + 2060 skulle alltså motsvara ungefär ett 2080 med halverad RT/DLSS-prestanda. Och ett 2060 klarar t.ex. inte av att hålla 60 fps med ray tracing i BF5 enligt Sweclockers tester.

Men det är väl mest av akademiskt intresse ändå eftersom det vad jag vet inte finns några spel som tillåter att man kombinerar kort på det sättet. Så länge som NVIDIA inte spärrat det av någon anledning så är det väl rent teoretiskt spelutvecklarnas ansvar att implementera stöd för det, på samma sätt som vanlig multi-GPU i DX12. Men intresset bland både utvecklarna och spelarna är nog rätt lågt för den funktionaliteten. BF5 har ju t.ex. inte ens officiellt stöd för multi-GPU än.

Det vore ju intressant för oss som sitter på 1080Ti's (som är nästan identiskt med 2080 i ren prestanda) att kunna införskaffa ett RTX 2060 och köra det som ett dedikerat RT/DLSS kort, likt man kan göra med PhysX idag redan. Det skulle innebära att man kan fortfarande få RT/DLSS för en tredjedel av priset gentemot att byta GPU helt och hållet - I teorin d.v.s.

Sedan har jag ingen aning om Tensor-kärnorna kan agera på det viset, så lite det som var frågeställningen från min sida om någon är mer insatt i hur den tekniken funkar och/eller om Nvidia tillåter/spärrar eventuell sådan funktionalitet.

Skrivet av Samlooh:

Jag har precis som sagts ovan inte sett något test där 1080Ti slår RTX 2080, utan RTX/DLSS.

Jag tror heller inte att det går att köra som du tänkt, men du kanske kan ställa frågan direkt till NVIDIA och få svar.

Skrivet av Mocka:

Det är inte många procents skillnad mellan 1080Ti och 2080, dock lär det senare klara sig lite bättre i 4K. Radeon 7 är sämre i DX11 men rätt bra i DX12 samt 4K.

Du får lätt 6k för ditt 1080Ti och lägger du bara till 2500kr så har du ett sprillans 2080 i näven. Värt det? Nja enligt många men det kan i slutändan bara du avgöra.

Jag som skrev lite missvisande ursprungligen, det skiljer i snitt 3fps~ mellan 1080Ti och 2080 till 2080's fördel och i vissa fall som Battlefield så visar 2080 en lägre lägsta fps gentemot 1080Ti i 4K upplösning (enligt Sweclockers tester). Så känner personligen inte att det blir en uppgradering alls i slutändan rent prestandamässigt, sedan som Mocka säger så kan man sälja sitt 1080Ti, men känner personligen inte att 2000-2500kr är värt det rent av för DLSS/RT om man sitter kvar på samma prestanda - Ett separat 2060 för runt 33-3500kr begagnat kan man iaf ha användning för i en annan maskin om man skulle vilja det, medan om man byter GPU helt så saknas den möjligheten.

Har idag ett 2060 på ingång som var tänkt för VR burken, men kan lika gärna använda annan GPU jag har för det om det skulle gå att köra DLSS/RT funktionerna som ett slavkort bara - Hade inte gått ur vägen för att köpa ett 2060 enkom för det syftet i slutändan om man säger så

Tackar för svar iaf, kanske får kontakta Nvidia direkt om detta och fråga då jag verkligen inte kan hitta någon lättöverkomlig information om detta haha!

Senast redigerat 2019-02-12 18:11

Well, det är teoretiskt möjligt... men kräver tyvärr mjukvarustöd för t.ex mGPU. Det är förinspelade kommandon som man skickar till GPU:n som den sedan kommer utföra (det kan vara t.ex grafik,compute,transfereringskommandon). Du vill alltså skicka RT+DLSS kommandona till en annan GPU och rendera som vanligt på en annan? Det bör vara fullt möjligt och kan göras t.ex på något i stil med det här:

(oklart om denoise behöver köras med DLSS, men la till den för säkerhets skull)
Men problemet ligger i att göra det utanför applikationen är väldigt, väldigt svårt om ens möjligt. Jag skulle inte förvänta mig att någon kommer göra en sån lösning heller.

Skrivet av Yatagarasu:

Sedan har jag ingen aning om Tensor-kärnorna kan agera på det viset, så lite det som var frågeställningen från min sida om någon är mer insatt i hur den tekniken funkar och/eller om Nvidia tillåter/spärrar eventuell sådan funktionalitet.

När det är tensorkärnorna som körs så är det enbart tensorkärnorna som körs. De bryr sig inte om var de körs. Om det är implementerat i applikationen så kommer det köras helt enkelt. Jag ser inte hur de kan spärra någonting som är tillgängligt i vanliga fall?

En sak som jag kan tycka är aningen missvisande är att all ray tracing inte sker på RT cores. Dessa är enbart till för att hitta vilken triangel som träffas. Så den gynnas alltså av att ha resurser fria från vanlig rendering, även om RT kärnorna körs asynkront så måste man utföra shading för de trianglar som träffas. Så visst kan det finnas prestandavinster att hämta... givet att överföring av data och synkroniseringen inte tar alltför lång tid.

Problemet är att det inte är så värst kostnadeffektivt och ett sånt udda setup att jag tror att ingen kommer att bry sig. De har lagt alla tre användningsområden på samma kort för att de bara ska behöva sälja ett kort till många marknader och behöva slippa tänka på det här.

Skrivet av Yatagarasu:

Det vore ju intressant för oss som sitter på 1080Ti's (som är nästan identiskt med 2080 i ren prestanda) att kunna införskaffa ett RTX 2060 och köra det som ett dedikerat RT/DLSS kort, likt man kan göra med PhysX idag redan. Det skulle innebära att man kan fortfarande få RT/DLSS för en tredjedel av priset gentemot att byta GPU helt och hållet - I teorin d.v.s.

NVIDIA, AMD eller Intel. De vill att du köper den dyrare produkten för det är den de tjänar mest på.

Skrivet av Radolov:

Well, det är teoretiskt möjligt... men kräver tyvärr mjukvarustöd för t.ex mGPU. Det är förinspelade kommandon som man skickar till GPU:n som den sedan kommer utföra (det kan vara t.ex grafik,compute,transfereringskommandon). Du vill alltså skicka RT+DLSS kommandona till en annan GPU och rendera som vanligt på en annan? Det bör vara fullt möjligt och kan göras t.ex på något i stil med det här:
https://i.gyazo.com/ec492242b36345f1d67772020a6038c8.png
(oklart om denoise behöver köras med DLSS, men la till den för säkerhets skull)
Men problemet ligger i att göra det utanför applikationen är väldigt, väldigt svårt om ens möjligt. Jag skulle inte förvänta mig att någon kommer göra en sån lösning heller.

När det är tensorkärnorna som körs så är det enbart tensorkärnorna som körs. De bryr sig inte om var de körs. Om det är implementerat i applikationen så kommer det köras helt enkelt. Jag ser inte hur de kan spärra någonting som är tillgängligt i vanliga fall?
https://hexus.net/media/uploaded/2018/9/7d5a04b9-1073-4fa0-9091-c12880992258.PNG
En sak som jag kan tycka är aningen missvisande är att all ray tracing inte sker på RT cores. Dessa är enbart till för att hitta vilken triangel som träffas. Så den gynnas alltså av att ha resurser fria från vanlig rendering, även om RT kärnorna körs asynkront så måste man utföra shading för de trianglar som träffas. Så visst kan det finnas prestandavinster att hämta... givet att överföring av data och synkroniseringen inte tar alltför lång tid.

Problemet är att det inte är så värst kostnadeffektivt och ett sånt udda setup att jag tror att ingen kommer att bry sig. De har lagt alla tre användningsområden på samma kort för att de bara ska behöva sälja ett kort till många marknader och behöva slippa tänka på det här.

NVIDIA, AMD eller Intel. De vill att du köper den dyrare produkten för det är den de tjänar mest på.

Tackar för ett otroligt grundligt svar, du förstod precis vad jag var ute efter och förklara varför det vore en rätt dum idé även om det vore möjligt haha!

Får helt enkelt bita i det sura äpplet och antingen sidgradera till ett 2080 eller vänta på RTX 3000 serien & hoppas att "3080" får 2080Ti prestanda för lite mer humana priser - Tills vidare får 2060 kortet sitta i VR/soff-burken då det kommer vara för klent för 3440x1440 med någon form av RT påslaget