Är Raytracing en fluga?

Permalänk
Medlem

Nej det är ingen fluga. Det är krävande nu men om 10 år lär det inte släppas spel annat än några få indie och sådant som inte har RT som standard. Det är framtiden utan tvekan. Vi har fortfarande bara sett början av det. Frågan är bara när det kommer bli mainstream. Om det tar 3 år , 5 år eller 10 år.

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk
Medlem
Skrivet av Thomas:

Hur menar du då? De har enbart RT som ljussättning (GI, direct lightning, indirect lightning, skuggor, reflektioner, refraktioner) vilkte jag antog var vad du menade.
Självklart används saker som denoising och liknande snarare än att varje pixel har massvis med rays; det gör det ju till och med i mjukvara som Blender och liknande.

Inte en chans att allt är RT. I sådana fall borde ju rena 3D-modelleringsprogram kunna rendera lika snabbt. Du har väldigt långt kvar för att övertyga mig.

Visa signatur

Phanteks P400A RGB : Asus Prime X570-P : Ryzen 9 5900X : Corsair H100X : 32GB G.Skill Trident Z Neo 3600CL14 : Sapphire Nitro+ 6800 XT : Xiaomi 34" Curved 3440x1440 : Playseat Evolution Alcantara : Thrustmaster T300RS GT / Ferrari SF1000 Edition Add-on : HP Reverb G2

Permalänk
Medlem

Det måste alltid finnas en balans mellan grafik och prestanda, ett 4080 som kostar ~15000:- nytt tappar cirka 54%(131->61) FPS i Cyberpunk med RT Ultra(1440p). Detta är för mycket fortfarande för den grafiska skillnad det ger, måste nog ge det ett par år.

Visa signatur

MSI B650 Gaming Plus WIFI - Ryzen 7 7800X3D - XFX 7900 XT - Corsair 32GB DDR5 6000MHz CL36 - Fractal Design Meshify 2 Compact - Gigabyte Ultra Durable 850W

Permalänk
Medlem
Skrivet av tankjunior:

Allt inom spelgrafik är fusk. Tror du verkligen att varenda dammpartikel renderas och dess bana bestäms från vindturbulens.
Tror att raytracing kan fuskas till utmärkt och det finns flera olika metoder. Fast med det sagt är det heller inte omöjligt att dedikerad raytracinghårdvara delvis kan hjälpa till med fusket, typ som referenspunkter som ljussättningsalgoritmer kan få hjälp av...

Det finns mer eller mindre biased raytracingmotorer, så visst förekommer genvägar, men det är fortfarande baserad på riktig matte o fysik där det är "fotoner" som studsar runt, till skillnad från rasterisering som inte alls funkar så.
Är ju iaf klart o tydligt om man kollar på Cyberpunks raytracing, finns verkligen _inget_ rasteriserat spel som har lika bra ljus som det. Skulle väl möjligtvis vara typ Quake II RTX, av precis samma anledning då. Raytracing ÄR framtiden.

Permalänk
Hedersmedlem
Skrivet av Alphahanne:

Inte en chans att allt är RT. I sådana fall borde ju rena 3D-modelleringsprogram kunna rendera lika snabbt. Du har väldigt långt kvar för att övertyga mig.

Om du hittar på vad som inte är RT får du gärna upplysa mig, jag vill inte gå runt och vara vilseledd. Men jag har inte hittat på något som nämner något specifikt undantag.

NVIDIAs artikel om tekniken i Cyberpunk är rätt tydlig med ordvalen i regel, fast på något ställe säger de saker som "virtually all" och snarlika weasel words.
De har även lite grafik som förklarar deras pipelines för rastrering, RT och full RT/path tracing.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem

Har inte känt nåt behov att använda det, däremot DLSS 3.0 är nice!

Visa signatur
Permalänk
Avstängd
Skrivet av BergEr:

Om nu Nvidia helt börjar överge gaming så kommer nog RT ligga stilla i många år. De behöver inte driva innovation där för att tjäna pengar.

Hoppas verkligen inte Nvidia överger gaming.

Permalänk
Medlem

Nu har jag inte läst alla inlägg i tråden. Men min input på raytracing.
Det är nog ingen fluga. Men så långe det sinkar ner Framerate så mycket som det gör idag kommer det inte vara populärt. Men när det kommer teknik där det inte påverkar prestandan speciellt mycket så kommer det kicka igång. Alla vill ha ögongodis. Men inte till vilket pris som helst.

Visa signatur

ASUS X570-F, AMD Ryzen 9 3900x, 16Gb RAM, Gigabyte 2070Super auros

Permalänk
Medlem

Om det är några som borde uppskatta RT är det utvecklare.
Tänk en framtid där man slipper baka in ljuskällor och där vissa saker "bara funkar". Så kan man lägga tid på annat istället.

Visa signatur

Corsair 5000D | PRIME X670E-PRO | 7800X3D |
Kingston Fury Beast DDR5 2x16GB @6000MT/s CL30-40-40-28 | TUF RTX 4090 | 2 * 2TB WD Black SN850X PCI-E 4 |

Permalänk
Medlem

Att kunna spela Cyberpunk 2077 med full pathtracing och få fullt spelbar prestanda med dlss gör att mitt nördhjärta slår extra hårt! Det är riktigt häftigt att vi är här nu. Spel har varit bra på att fakea mycket av det visuella med tex screenspace-effekter som i de flesta fallen är tillräckligt bra, och jag köper att många inte bryr sig om den extra pushen raytracing ger för att göra det "på riktigt". Jag tycker att det är superspännande att vi har den här tekniken nu och är väldigt taggad på att se hur de kommande åren ser ut för ray/path-tracing i real time.

Att många spel pushar raytraced reflektioner och ambient occlusion har nog gjort att många inte riktigt insett hur kraftfull tekniken är. Där gör det inte tillräckligt stor skillnad för att motivera prestandatappet imo. Det är realtime global illumination och skuggor som kommer visa tydligast att raytracing inte bara är en fluga

Visa signatur

Zotac GeForce RTX 3080 Trinity | Ryzen 9 5900x | 64GB DDR4 | Define S

Permalänk
Medlem

Jag vurmade för RayTracing och gör fortfarande, men tekniken är fortfarande i sin barndom, det är inte smärtfritt och det känns som det är ett antal år fram innan det blir bra implementerat i spel.

De spel jag kör, tex F1 23 så blir skillnaden minimal med RayTracing påslagen och utan, däremot går strömmätaren i topp.

Jag brukar växla beroende på spel att köra å High för bästa flyt, sen RayTracing påslaget temporärt, men då går jag mest runt i spelet och utforskar tex det grafiska. Ibland ser vissa spel bättre ut med vanlig rendering.

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Samsung 980 Pro Series 1TB

Permalänk
Snusfri

RT är defintivt framtiden och kommer att finnas i typ alla spel framöver.
Ögongodis före FPS alla dagar i veckan för mig då jag inte spelar mög som CoD, BF, Fartknight osv.

Sedan så finns det givetvis gränser där även "långsammare" spel blir olidliga, tex 30-40 fps är helt acceptabelt i spel som Rimworld, Cities Skylines 2 och liknande.

Runt 60 räcker i långsammare FPS/TPS som Hitman tex.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem
Skrivet av Alphahanne:

Inte en chans att allt är RT. I sådana fall borde ju rena 3D-modelleringsprogram kunna rendera lika snabbt. Du har väldigt långt kvar för att övertyga mig.

De renderar också väldigt snabbt men skiljer sig i fråga om precision, hur många ljusstrålar/samples som skickas, hur många gånger ljusstrålarna får studsa, hur komplexa beräkningar som görs på material osv.

Permalänk
Medlem
Skrivet av norrby89:

Det är nog inte en fluga, men det kommer vara en nishad funktion fram tills dess att du kan köra med allt maxat i 1080p på Nvidia xx60 kort och AMD x6xx kort som är en förmodligen två generationer gamla.

Värt att tänka på att idag om vi kollar på cyberpunk vilket är det spel som är närmast att ha "alla" ray tracing funktioner så är det mer eller mindre bara 4090 och 4080 som klarar av att köra konstant 60+ fps (räknar även med 1% low) och 4070 ti är precis på gränsen, och inget kort idag klarar det i 1440p

Hmm, kör det i 110-120fps med 4090 och ryzen 9 3900x allt maxat och frame generation.

Permalänk
Medlem
Skrivet av MrJB:

Hmm, kör det i 110-120fps med 4090 och ryzen 9 3900x allt maxat och frame generation.

Åter igen native, prova stäng av dlss och fusk rutor =p så ska du se att det är inte många fps kvar.

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av norrby89:

Åter igen native, prova stäng av dlss och fusk rutor =p så ska du se att det är inte många fps kvar.

DLSS ger, i måttlig mängd, bättre bild än native, så det är inget fusk där. Interpolerade är mer "fusk" i så fall.

Det är resultatet som räknas, inte hur "rent" det är framtaget.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av norrby89:

Åter igen native, prova stäng av dlss och fusk rutor =p så ska du se att det är inte många fps kvar.

Men varför skulle jag göra detta? Ser enbart skillnad med microskop och noggrann granskning. Och någon latency är det inte heller om man ställer in frame gen rätt.

Permalänk
Medlem

Även om jag både ser och förstår fördelarna kring realtidsrendering av RT, så måste jag nog ändå säga att det definitivt inte är någon smart användning av beräkningskraft eftersom bildkvalitén på renderingen tar på tok för mycket stryk. Något som inte nödvändigtvis gynnar spelaren i stor utsträckning. Jag hade hellre sett att man blev mer kreativ i hur man använder RT. Låt säga att det finns en fixed budget till t.ex. RTGI, och att mycket av färg/ljusinformationen kan bakas in i mer primitiva rasteriseringstekniker... I sådana fall kan miljöer laddas in med förbakad ljusdata från en offline-rendering, varav spelmotorn enbart behöver aktivera realtids-RT pipelines (eller fejkat ljus) för de ljuskällor som krävs för realtidsfunktioner. Hade gärna sett en mer långsam och ackumulativ beräkning med statisk budget för "time of day" ljusdata. Jag förstår inte grejen med att ständigt skjuta ut strålar för att sedan kasta färg informationen i samma sekund. Ackumulativ RT data borde ju vara vettigare för RTGI t.ex.

Sedan finns det ju en fördel att fejka saker så länge det är övertygande. I dagsläget hade jag hellre sett att spel blir mer skalbara till olika hårdvara. Så att Steam Deck och VR kan köra AAA-spel utan större problem, samtidigt som det går att skruva upp detaljer för desktop-platformar som körs under mer gynnsamma förhållanden.

Visa signatur

Motorola 68020 @ 42Mhz, AGA Grafik, 2MB RAM, 8MB Fast RAM, 2GB eMMC

Permalänk
Datavetare
Skrivet av norrby89:

Åter igen native, prova stäng av dlss och fusk rutor =p så ska du se att det är inte många fps kvar.

Frågan man då ställer sig: är det mer eller mindre "fuskrutor" om man kör med fysiskt korrekt ljussättning ihop med upscaler, denoiser och frame-generation jämfört med att köra med helt påhittad ljussättning som renderas med massor med pixlar?

Tycker resultatet talar helt för sig själv. Ovanpå det lär trenden starkt gå mot ray-tracing då det inte bara ger ett bättre resultat, det är också mindre arbetskrävande jämfört med att göra "fuskljus" som inte ser ut som en påse skit.

Dold text
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av MrJB:

Men varför skulle jag göra detta? Ser enbart skillnad med microskop och noggrann granskning. Och någon latency är det inte heller om man ställer in frame gen rätt.

Ja vet inte om det blivit bättre senaste året men i våras så hade dlss enorma problem med artifakter/noice och va helt klart inte spelbart för min del. Men kan även vara jag som är petig också!

Ändrar inte faktumet att använda rt native fullt ut är omöjligt med dagens hårdvara, och inte förns det går att köra native på äldre billigare kort kommer det bli en standard istället för en nish.

Visa signatur

here we go!

Permalänk
Medlem

Så länge man inte kommer åt 144hz+ med höga inställningar från AMD och Nvidia tycker jag nog att så är fallet.

Visa signatur

🡇

• 5800x3D • 7900 XT •

Permalänk
Medlem
Skrivet av Yoshman:

Frågan man då ställer sig: är det mer eller mindre "fuskrutor" om man kör med fysiskt korrekt ljussättning ihop med upscaler, denoiser och frame-generation jämfört med att köra med helt påhittad ljussättning som renderas med massor med pixlar?

Tycker resultatet talar helt för sig själv. Ovanpå det lär trenden starkt gå mot ray-tracing då det inte bara ger ett bättre resultat, det är också mindre arbetskrävande jämfört med att göra "fuskljus" som inte ser ut som en påse skit.

Dold text

Oavsätt så ändrar det inte mitt påstående =p

Sen helt ärligt så har jag inte provat frame gen då dlss i våras va en så pass dålig upplevelse att jag gav röda laget en chans iom högre raster prestanda per krona än hos de gröna laget.

Sen är det säkert framtiden, både rt och dlss/fsr men vi har flera generstioner kvar tills dess!

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av norrby89:

Åter igen native, prova stäng av dlss och fusk rutor =p så ska du se att det är inte många fps kvar.

Av ren nyfikenhet, när man är så emot "fusk rutor", stänger man av reflektioner (SSR) och diverse ljuseffekter också då för att det är fusk och inte korrekt renderat?

Permalänk
Medlem
Skrivet av Zalcore:

Av ren nyfikenhet, när man är så emot "fusk rutor", stänger man av reflektioner (SSR) och diverse ljuseffekter också då för att det är fusk och inte korrekt renderat?

Äpplen och Päron.

Problemet med frame generation är att det inte reflekterar aktuell gamestate och ökar latens. Allt det gör är att få bilden att flyta bättre, men spelets prestanda ökar inte som resultat.

Visa signatur

| Corsair Obsidian 1000D | AMD Ryzen 9 5950x 3.4 GHz(5 GHz boost) med Corsair iCue H170i Elite Capellix | Asus ROG Crosshair VIII Dark Hero | G.Skill Trident Z neo, 2x16GB 3600MHz C16 | ROG Strix LC GeForce 3090 Ti 24GB | 1x Seagate FireCuda 520 1TB, 1x Samsung 850 EVO 250GB, 1x Samsung 970 EVO 1TB, 2x 1TB HDD, 1x Seagate Ironwolf 16TB HDD | Corsair AX860i | ASUS PG279Q & ASUS XG27AQM|

Permalänk
Medlem
Skrivet av Alexraptor:

Äpplen och Päron.

Problemet med frame generation är att det inte reflekterar aktuell gamestate och ökar latens. Allt det gör är att få bilden att flyta bättre, men spelets prestanda ökar inte som resultat.

Men uppskalning med DLSS innebär inte frame generation. Det är två olika saker.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

CP2077 och Alan Wake 2 är nästan framme. Med rätt hårdvara väljer många att köra PT versionen av de spelen. Och dom anses vara två av de snyggaste spelen som finns. Detta med grafikkort som egentligen är gjorda mest för raster-prestanda. Förhoppningsvis får nästa generation grafikkort ännu bättre RT kontra raster prestanda. Då blir det ännu trevligare.

Sen har vi spelet "The Finals" med förstörbara banor som det är stor skillnad på RT och förbakad GI. Mer sånt. Gärna något stealth-lir med RT speglar. Nya grejer som inte kunnat göras förut på ett effektivt sätt. Att ta dagens statiska spel och lägga RT på dom blir ok, men spelen är redan gjorda för att vara bakade, det finns bara så mycket RT kan tillföra.

Permalänk
Medlem

Jag skulle bli väldigt förvånad ifall det bara var en fluga...se bara vad det gjorde för Minecraft...ljussättning är ruskigt viktig för känslan i ett spel. Det måste gå att implementera den på ett bättre sätt än vad som gjort hittills, men det handlar väl om majoritetens resurser att köra det som sätter käppar i hjulen.

Visa signatur

MB: Asus ROG Strix Z370-E Gaming // CPU: Intel Core i7-8700K
GPU: Asus RTX 3080 TUF OC // Acer Predator XB271HU
RAM: Corsair 16GB DDR4 3000Mhz // PSU: Corsair 750W HX
SSD: Samsung 840 Pro 128GB + 850 EVO 250GB + 850 EVO 500GB

Permalänk
Medlem

Nej, cyberpunk 2077 med ray tracing overdrive ser helt fantastiskt ut.

Visa signatur

7800X3D - 4090 FE

Permalänk
Medlem
Skrivet av norrby89:

Ja vet inte om det blivit bättre senaste året men i våras så hade dlss enorma problem med artifakter/noice och va helt klart inte spelbart för min del. Men kan även vara jag som är petig också!

Ändrar inte faktumet att använda rt native fullt ut är omöjligt med dagens hårdvara, och inte förns det går att köra native på äldre billigare kort kommer det bli en standard istället för en nish.

Finns inte en chans att det du tänker dig kommer inträffa. Det finns ingen anledning att köra "native" raytracing, helt utan att spara temporal data, räkna ut varje enskild pixel varje frame, utan uppskalning osv. Vi skulle behöva 100-tals gånger snabbare kort än vi har idag och skillnaden i bildkvalité skulle inte vara 100-tals gånger bättre. Jag vill nästan gå så långt som att säga att det går inte att göra med kisel-transistorer.

Dom senaste tio årens utveckling har varit mot att rendera smartare för att få mer/snyggare pixlar per watt. Det kommer fortsätta så. Visst kommer grafikkort bli snabbare, men mycket av bildkvalitén kommer vara från smarta algoritmer och AI. Native i AAA-titlar är snart utdött om man vill köra maxat med hög upplösning och framerate.

Uppskalningskriget DLSS/FSR/XESS är något av det trevligaste PC har varit med om på många år, 3 företag som går över lik för att få ut sina teknologier snabbt i dom bästa spelen, och det utvecklas från månad till månad och blir bara bättre. Det är så här modern GPU konkurrens ser ut, den sker i mjukvara.

Permalänk
Medlem
Skrivet av norrby89:

Ja vet inte om det blivit bättre senaste året men i våras så hade dlss enorma problem med artifakter/noice och va helt klart inte spelbart för min del. Men kan även vara jag som är petig också!

Nej det hade det inte. Du kanske hade enorma problem med det i de spel du försökte köra, men det är i så fall ett problem med implementationen och/eller dina inställningar. Tekniken i sig fungerar bra, och i vissa fall riktigt bra.

Citat:

Ändrar inte faktumet att använda rt native fullt ut är omöjligt med dagens hårdvara, och inte förns det går att köra native på äldre billigare kort kommer det bli en standard istället för en nish.

Uppskalningsteknikerna är här för att stanna och accepteras utan problem av den breda massan.