Kommer RTX alltid vara en grej?

Permalänk
Medlem

Kommer RTX alltid vara en grej?

Hej!

Sitter och funderar på ifall RTX kommer bli standard? Jag har svårt att se att de skulle släppa en, säg 3080 med RTX för 10.000 och ett utan RTX för 8000. Jag vet att det kanske är omöjligt att svara på men jag bryr mig inte ens lite om RTX men ändå måste jag punga ut tusentals kronor pga att de har just det.
'' Gå AMD då ''. Sitter på en 8.000kr G sync skärm, så är körd där.

Lite spekulationer enbart såklart men känns som att vi måste nå ett pristak snart. Personligen är 15.000 alldeles för dyrt för det bästa grafikkortet. kostade inte 1080ti typ 9000? vill inte ens veta vad nästa generations flagskäpp kort kommer kosta.

Visa signatur

Dator: i7 9700k @ 5.0 Ghz - Asus Rog Strix OC 2080 Super
3600mhz 32gb - Gigabyte UD Z390 - Dark Rock Pro 4 - M.2 SSD MP510

Kringutrustning: Xiaomi 34" 3440x1440 - Xtrfy K4 - Glorious 0 Mus
Ljud: DT770 80ohm Headset - E10K DAC/AMP

Permalänk
Medlem

Ja. Inom branschen är i stort sett alla överens om att ray tracing är framtiden inom spel och jag är övertygad om att det inom en generation kort eller två inte kommer att finnas kort utan ray tracing bortsett från de absolut billigaste budgetmodellerna. I och med att både PS5 och nästa Xbox kommer att ha stöd för det så sätter de standarden.

Skickades från m.sweclockers.com

Visa signatur

NZXT H5 | Asus Strix B550-F | 5800X3D | NZXT Kraken Elite 240 | 32GB Kingston Fury 3600MHz CL18 | Corsair RM850x Shift | Kingston Fury 2TB NVMe | 4070 Super FE | Dell G2724D 165Hz

Permalänk
Hedersmedlem
Skrivet av KlyfftPotatis:

Hej!

Sitter och funderar på ifall RTX kommer bli standard? Jag har svårt att se att de skulle släppa en, säg 3080 med RTX för 10.000 och ett utan RTX för 8000. Jag vet att det kanske är omöjligt att svara på men jag bryr mig inte ens lite om RTX men ändå måste jag punga ut tusentals kronor pga att de har just det.
'' Gå AMD då ''. Sitter på en 8.000kr G sync skärm, så är körd där.

Lite spekulationer enbart såklart men känns som att vi måste nå ett pristak snart. Personligen är 15.000 alldeles för dyrt för det bästa grafikkortet. kostade inte 1080ti typ 9000? vill inte ens veta vad nästa generations flagskäpp kort kommer kosta.

Enligt de flesta bedömare jag läst och sett så är det en "feature" som kommer att vara kvar och utvecklas framöver, så att köpa ett sådant kort är ju inte "fel".
Dock skulle inte jag gå all in på detta, iaf inte denna generation då mycket återstår rent prestandamässigt, även med de nya Superkorten + Ti varianten på 2080. Så standard kommer det att bli någon gång i framtiden.

Visa signatur

Stalin var så gammal att de fick Len´in. ;)

Permalänk
Medlem

Ja, inom två generationer grafikkort kommer hårdvaruaccelererad RT bli standard. Helt övertygad om det!

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

@ågren: frågan var om RTX kommer diktera standarden, dvs tensor cores. Min gissning är att det är en fluga som kommer kringgås på andra sätt från AMDs sida. Och är det ingen fluga så kommer det kanske fortsätta vara standard hos nvidia. Vad gäller G-sync så tror jag det kommer dö ut eftersom freesync funkar med nvidia-kort. Funkar inte freesync på G-syncskärmar? Själv använder jag aldrig adaptiv synkteknologi.

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem

RTX kommer utvecklas och tillverkare kommer hitta på nya sätt att ge användarna en mer realistisk och vacker spelupplevelse.

Dock idag är RTX så där. Få titlar och extremt få kort som klarar av att ge någorlunda stabil framerate med RTX i högre upplösningar.

Vill du ha rtx idag (när den är halvdan enligt mitt tycke) så köp MINST 2080 super, helst 2080ti.

Om några generationer när tekniken utvecklas och blir en branschstandard kommer RTX 2xxx serien vara uråldriga och kommer behöva bytas ändå.
Det finns flera klipp på youtube som förklarar att ett extremt kraftigt grafikkort idag ska inte ses som framtidssäkerhet. Tekniken utvecklas och nya lösningar tas fram. Kolla hur bra ett 1080ti klarar av Quake2 med RTX. inte bra alls.
Kraftiga grafikkort köps om du vill ha max möjlig prestanda idag, inget annat.

Visa signatur

Ryzen 2700 - be quiet Dark Rock 4
MSI B450 Gaming Pro Carbon AC WiFi - G.Skill TridentZ 16GB 3200c14
MSI Ventus OC 2070S @ 0,750V - Samsung C27HG70 Curved 1440p 144hz
Fractal Design Define R6 Vit TG - Corsair rm750x v2
SSD Samsung 860 EVO @ 500GB - SSD Intel 660p @ 1TB

Permalänk
Medlem
Skrivet av Chris_Kadaver:

@ågren: frågan var om RTX kommer diktera standarden, dvs tensor cores. Min gissning är att det är en fluga som kommer kringgås på andra sätt från AMDs sida. Och är det ingen fluga så kommer det kanske fortsätta vara standard hos nvidia. Vad gäller G-sync så tror jag det kommer dö ut eftersom freesync funkar med nvidia-kort. Funkar inte freesync på G-syncskärmar? Själv använder jag aldrig adaptiv synkteknologi.

Som jag förstår det så ligger framtiden för RT just inom specialiserat kisel då det är såpass intensivt, i detta fallet RT-kärnor (tensor är för maskinlärning/AI etc). AMD kommer helt enkelt att behöva ta fram sin egna variant förr eller senare om de inte lyckas göra någon form av hybridlösning.

Poängen med detta är ju att kunna accelerera RT oavsett vilket gränssnitt som körs i mjukvaran och därmed avlasta GPUns normala funktionalitet.

I min mening ligger framtiden inom strålspårning/RT just i att kunna sköta sådant i realtid som utvecklare idag får lägga mycket tid och möda och trixande på för att få det bra inom ljussättning. Däremot är det relativt långt kvar dit... Men en vacker dag.

Visa signatur

The cookie goes *crumble*.

Permalänk
Medlem
Skrivet av roxkz:

Poängen med detta är ju att kunna accelerera RT oavsett vilket gränssnitt som körs i mjukvaran och därmed avlasta GPUns normala funktionalitet.

Så du menar när jag kör tex Metro Exodus utan Ray Tracing på mitt 2070 och har 70FPS så jobbar alla cuda kärnor för fullt och RT kärnor sover gott.
När jag sedan aktiverar Ray Tracing och går ner till 30 fps, så jobbar alla cuda kärnor precis lika mycket som tidigare och RT kärnorna vaknar och sänker min prestanda med 50%????

Visa signatur

Ryzen 2700 - be quiet Dark Rock 4
MSI B450 Gaming Pro Carbon AC WiFi - G.Skill TridentZ 16GB 3200c14
MSI Ventus OC 2070S @ 0,750V - Samsung C27HG70 Curved 1440p 144hz
Fractal Design Define R6 Vit TG - Corsair rm750x v2
SSD Samsung 860 EVO @ 500GB - SSD Intel 660p @ 1TB

Permalänk
Medlem
Skrivet av Chris_Kadaver:

frågan var om RTX kommer diktera standarden, dvs tensor cores.

Tensor-kärnorna är till för maskininlärning, t.ex. DLSS, och har inget med ray tracing att göra. Det är RT-kärnorna som används för ray tracing på RTX-korten. Spelprogrammerarna använder för övrigt inte RT-kärnorna direkt, utan använder t.ex. DirectX Raytracing (DXR) API:et eller Vulkans motsvarighet. Ray tracing i nuvarande spel är alltså inte något som är låst till NVIDIA, utan det är baserat på öppna API:er som AMD och Intel också lär implementera stöd för i sinom tid.

Permalänk
Medlem
Skrivet av Savage_Gray:

Så du menar när jag kör tex Metro Exodus utan Ray Tracing på mitt 2070 och har 70FPS så jobbar alla cuda kärnor för fullt och RT kärnor sover gott.
När jag sedan aktiverar Ray Tracing och går ner till 30 fps, så jobbar alla cuda kärnor precis lika mycket som tidigare och RT kärnorna vaknar och sänker min prestanda med 50%????

Gissningvis är den långsammaste komponenten i skapandet av en bildruta den som sätter gränsen. Så förmodligen jobbar de "vanliga" delarna av grafikkretsen långsammare när det är RT-specifika saker som slås på, och sänker bildfrekvensen.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av Savage_Gray:

Så du menar när jag kör tex Metro Exodus utan Ray Tracing på mitt 2070 och har 70FPS så jobbar alla cuda kärnor för fullt och RT kärnor sover gott.

Ja.

Skrivet av Savage_Gray:

När jag sedan aktiverar Ray Tracing och går ner till 30 fps, så jobbar alla cuda kärnor precis lika mycket som tidigare och RT kärnorna vaknar och sänker min prestanda med 50%????

Nej, Dina RT-kärnor accelererar Ray Tracingen så dina Cuda-kärnor kan sköta sitt som vanligt när de aktiveras. Det du ser är en prestandaökning på ungefär 300% mot fallet RT-kärnorna skulle ligga i vila när Ray Tracing är aktiverat.

Däremot är dagens RT-kärnor inte snabba nog för att uppnå fullgod prestanda riktigt, i kombination med att utvecklarna inte fått styr på allt ännu.

Visa signatur

The cookie goes *crumble*.

Permalänk
Medlem

Tror ni 2080 TI kommer ''bli'' ett 1080ti? Dvs lite för bra för nvidias egna bästa, så den håller standarden nästa generation också

Visa signatur

Dator: i7 9700k @ 5.0 Ghz - Asus Rog Strix OC 2080 Super
3600mhz 32gb - Gigabyte UD Z390 - Dark Rock Pro 4 - M.2 SSD MP510

Kringutrustning: Xiaomi 34" 3440x1440 - Xtrfy K4 - Glorious 0 Mus
Ljud: DT770 80ohm Headset - E10K DAC/AMP

Permalänk
Medlem

Det beror på vad som menas. Jag tror intresset för raytracing kommer stanna, men jag tror inte att nvidias propreitära lösningar kommer bestå över tid.

Visa signatur

Arch | 1440p 165Hz IPS | 7800X3D | 1080ti | 64GB@6GHz | SN850 2TB

Permalänk
Medlem

när de flesta spelen har ray tracing kommer du nog inte kunna köpa ett grafikkort utan ray tracing heller. Nu är det lite mer av en gimmick men skadar ju som sagt inte att ha möjligheten till det redan nu

Permalänk
Medlem

Ray tracing är här för att stanna. Vad jag tror kommer att hända är att det kommer först som nu att fläskas på ordentligt just för att visa upp det osv. Sen kommer det att användas lite mer måttfullt medans dom lär sig implementera RT optimalt och under tiden blir grafikkorten bättre på att hantera det.

Plötsligt bara är det där precis som anti-aliasing och alla andra bildinställningar vi har idag.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Kommer Google Stadia ha stöd för det?

Permalänk
Medlem

Ray Tracing är nog här för att stanna men RTX, dvs Nvidias standard för ray tracing, tror jag inte så mycket på.

AMD tillverkar hårdvaran för nästa Xbox och PS5. Den lösning för ray tracing som implementeras där kommer nog bli den ledande lösningen för ray tracing på PC också.

Permalänk
Medlem
Skrivet av hg:

AMD tillverkar hårdvaran för nästa Xbox och PS5. Den lösning för ray tracing som implementeras där kommer nog bli den ledande lösningen för ray tracing på PC också.

Den som är specificerad i DX12 menar du? Känns orimligt att AMD frångår Microsofts standard på deras egen konsol.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Kwirek:

Den som är specificerad i DX12 menar du? Känns orimligt att AMD frångår Microsofts standard på deras egen konsol.

Skickades från m.sweclockers.com

Ja det lär väl nog högst troligtvis byggas utifrån en integrering med Microsofts DXR-tillägg till DX12, iaf till Xbox. Ingen aning när det gäller Playstation.

Permalänk
Medlem
Skrivet av hg:

Ray Tracing är nog här för att stanna men RTX, dvs Nvidias standard för ray tracing, tror jag inte så mycket på.

AMD tillverkar hårdvaran för nästa Xbox och PS5. Den lösning för ray tracing som implementeras där kommer nog bli den ledande lösningen för ray tracing på PC också.

Nog är väl Nvidias "lösning" en hårdvarulösning för DXR, som är en standard i DirectX?

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av hg:

Ray Tracing är nog här för att stanna men RTX, dvs Nvidias standard för ray tracing, tror jag inte så mycket på.

AMD tillverkar hårdvaran för nästa Xbox och PS5. Den lösning för ray tracing som implementeras där kommer nog bli den ledande lösningen för ray tracing på PC också.

Skrivet av cyklonen:

Nog är väl Nvidias "lösning" en hårdvarulösning för DXR, som är en standard i DirectX?

Ja så är det väl. RTX är bara Nvidias namn på hårdvaruacceleration av DXR.

/hulle.

Visa signatur

A600, 2 MB Chipram, 85 MB HD, Extra diskettstation, Joysticks: Tac-2, The Bug och Wico Red Ball.
Zotamedu:"Kompressorkylning är nog det mest miljöfarliga du kan göra med en dator om du inte tänker börja elda brunkol i den."

Permalänk
Medlem

Ja, RTX kommer nog att fortsätta. Det är en kostnadseffektiv åtgärd som handlar om att skapa samma chip för många marknader, datacenter som till PC. Att göra vissa kort med tensor och RT cores, och vissa utan är en dyrare affär för NVIDIA. Så egentligen är det nog inte så att 2080ti kostar tusentals kronor extra att tillverka p.g.a tensor cores och RT cores, utan det är många delar av korten som tar upp mer yta också (t.ex cache, simultan FP och INT exekvering, etc.).
Utöver det så har de sålt in en bild att det ska vara så, så kommer de göra allt i sin makt för att se till att det blir så.

(Sedan så kan konkurrens med Intel och AMD komma i vägen, och då kan prisbilden bli lite bättre, förhoppningsvis)

Skrivet av perost:

Tensor-kärnorna är till för maskininlärning, t.ex. DLSS, och har inget med ray tracing att göra. Det är RT-kärnorna som används för ray tracing på RTX-korten.

För det första så har du rätt, tensor cores används för träning och slutledning inom maskininlärning.

För det andra så har du fel. Maskininlärning har med många många olika saker att göra, inklusive ray tracing.
Vi börjar med den där presentationen läderjackan höll när RTX introducerades. "Because of two fundamentally new technologies, we're able to bring it to today. And those two technologies... ray tracing acceleration with the RT core, and deep learning with the tensor core." Så nej, de är inte helt oberoende. För ray tracing så kan de användas till t.ex denoising eller upskalning (DLSS) eller båda.

Vad han kallar "slightly lower resolution" verkar vara 1/4 så många pixlar (mät staplarna). Så 4k = 1080p. 1080p=540p. Dessutom är testen som de utför söndertränade i vem vet hur många veckor/månader på en superdator i perfekta slingor och hela världen är synlig? DLSS i de allra flesta spel idag är väldigt jämförbar med vanlig resolution scaling, i några enstaka fall är den lite bättre. Men de kapitulerade i stort sett när Control släpptes. "Vi approximerade det och kallade det för DLSS (även om det inte är det), men vi har 110 tensor teraflops! Men vi slår fortfarande inte approximationen i alla fall, men kanske i framtiden ¯\_(ツ)_/¯". Så de hade all kraft i världen, men lyckades ändå inte få det att fungera så bra, ännu/på Turing. Vem vet, kanske de får det att fungera, eller inte. Men de annonserade att det fungerade från dag 1, så lite udda att ändra sig efter 1 år.

Så kvar har vi AI denoising, vilket används i exakt 0 spel idag. Detta hör lite ihop med föregående punkt om att de inte riktigt fått DLSS att funka bra. Vad är då chanserna att få AI denoising att fungera bra (som man också måste träna!). AMD har dock introducerat en AI denoiser i professionella sammanhang m.h.a DirectML. Där får de samma kvalité 18x snabbare än utan denoising (detta var på en Vega 14nm, så ingen särskilda ML instruktioner kan ha använts, dessa introducerades först i Vega 7nm och vissa versioner av Navi). Jag har en känsla att det kommer vara en del av många spel när det väl är dags. (Btw, 18x är som minst ~3x så stor förbättring som med RT cores för Turing. Det är därför jag säger att ML trots allt kan vara en del av ray tracing, om inte viktigare)

Inte direkt riktat till dig. Men ai kan också ha andra användningsområden inom spel, t.ex bestämma hur snubbar ska bete sig, räkna ut fysik 300x snabbare, animationer, etc. Det är alltså osannolikt att de skulle ta bort tensor cores nu. Helst skulle jag vilja se att de får till så att tensor cores kan köras helt separat från shaders. Då kan man t.ex uppskala en bild medan de renderar nästa bild (parallellisering). Det är det som är ett av de stora problemen idag, de dedicerar tid på tensor cores som lika gärna kunde ha använts av shaders och RT cores, och slutprodukten blir att skillnaden är för liten jämfört med att köra shaders hela tiden med en lite högre upplösning...

Permalänk
Medlem
Skrivet av cyklonen:

Nog är väl Nvidias "lösning" en hårdvarulösning för DXR, som är en standard i DirectX?

Skrivet av Hulle:

Ja så är det väl. RTX är bara Nvidias namn på hårdvaruacceleration av DXR.

/hulle.

Njaä inte precis. RTX är en "development platform" primärt för Ray Tracing. Den har integration till Vulkan och DX12 (via Microsofts DXR tillägg). RTX är en proprietär teknik som funkar endast på Nvidias hårdvara.

Dvs, RTX kommer inte att fungera på kommande konsoler eftersom de använder AMD hårdvara. AMD kommer att skapa en egen "development platform" för sin Ray Tracing metod, vad det nu än sist och slutligen blir, denna kommer högst sannolikt ha integration till Vulkan och DX12 (via DXR) precis som RTX. AMD har redan en öppen standard som heter Radeon Rays och är baserad på OpenCL, så sannolikt nån vidareutveckling av det men det är bara mina spekulationer.

Skillnaden blir att jag inte ser varför någon spelutvecklare skulle utveckla i Nvidias RTX som bara funkar på PC med Nvidia hårdvara när AMDs motsvarighet när den väl dyker upp kommer att funka på nya Xbox, PS5 (högst sannolikt), samt PC med AMD hårdvara. AMD brukar gilla öppna lösningar så det är väl tänkbart att deras kommande "development platform" kommer funka på Nvidia hårdvara också.

Lång förklaring men det är iaf orsaken till att jag inte tror att RTX blir speciellt långlivat

Permalänk
Medlem
Skrivet av hg:

Njaä inte precis. RTX är en "development platform" primärt för Ray Tracing. Den har integration till Vulkan och DX12 (via Microsofts DXR tillägg). RTX är en proprietär teknik som funkar endast på Nvidias hårdvara.

Dvs, RTX kommer inte att fungera på kommande konsoler eftersom de använder AMD hårdvara. AMD kommer att skapa en egen "development platform" för sin Ray Tracing metod, vad det nu än sist och slutligen blir, denna kommer högst sannolikt ha integration till Vulkan och DX12 (via DXR) precis som RTX. AMD har redan en öppen standard som heter Radeon Rays och är baserad på OpenCL, så sannolikt nån vidareutveckling av det men det är bara mina spekulationer.

Skillnaden blir att jag inte ser varför någon spelutvecklare skulle utveckla i Nvidias RTX som bara funkar på PC med Nvidia hårdvara när AMDs motsvarighet när den väl dyker upp kommer att funka på nya Xbox, PS5 (högst sannolikt), samt PC med AMD hårdvara. AMD brukar gilla öppna lösningar så det är väl tänkbart att deras kommande "development platform" kommer funka på Nvidia hårdvara också.

Lång förklaring men det är iaf orsaken till att jag inte tror att RTX blir speciellt långlivat

Okdå, du har säkert rätt för dig. Men oavsett vad så är DXR det viktiga, och om både Nvidia och AMD stödjer DXR så är saken biff och allting annat är ointressant för köparna.

/hulle.

Visa signatur

A600, 2 MB Chipram, 85 MB HD, Extra diskettstation, Joysticks: Tac-2, The Bug och Wico Red Ball.
Zotamedu:"Kompressorkylning är nog det mest miljöfarliga du kan göra med en dator om du inte tänker börja elda brunkol i den."