Nvidia Geforce RTX 3090 får prestandasiffror i 3DMark-tester

Permalänk
Medlem
Skrivet av kelthar:

Det är mycket skillnad på spel med DXR, men för övrigt tror jag det är mindre än 80%.

70% enl swecs prestandaindex för 4K.

Orkar inte räkna på vad det blir för RT spelen - Kan vi inte få prestandaindex på dessa oxå kära Red?

Permalänk
Datavetare
Skrivet av _Merc_:

Total war spelen, När det blir 4 eller fler fulla Arméer samtidigt på slagfältet.

Så hur kan spelet gå från att uppenbarligen inte ens behöva 4 GB VRAM i 4k i den testslinga man körde här till att helt plötsligt inte ens klara sig med 10 GB?

Notera hur t.ex. 570 med 4 GB står sig mot 580 med 8 GB, framförallt lägsta FPS skulle droppa rejält om VRAM tar slut. Men även i 4k ser man precis den skillnad mellan dessa två som kan förklaras med skillnad i GPU-prestanda. 5500XT med 4 GB är även i 4k snabbare än 580 med 8 GB, GTX1660 med 6 GB är klart snabbare än 580.

Enda rimliga förklaringen, om det faktiskt är ett problem med 10 GB VRAM, är att du råkat köra testet på en version av spelet alt. drivers med en kraftig minnesläcka.

Har själv bara kört TW Warhammer serien av de senare TW, där har då inte RTX2070 med 8 GB varit alls något problem i 1440p m.a.p VRAM. I just Warhammer serien försökte man gå över till DX12, det strulade en hel del och kan mycket väl ha varit problem med VRAM i DX12 läget. De versionen som kommit efter TW Warhammer har åter igen enbart DX11 stöd.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av the squonk:

Dom tänker dränka AMD med att ha femtielva fler modeller i alla prisspann för att inte lämna någon lucka ledig.

Tänk om AMD chockar med att prestera över 3090, då har Nvidias strategi misslyckats. Kan finnas en anledning att AIB ännu inte har fått någon information av AMD. Trots allt har AMD en skapligt mycket bättre nod och börjar man göra lika stora chip som Nvidia så ryms en hel del mer i chippet.

Vi får hoppas att AMD slår världen med häpnad när big-navi hittar ut, vore ju ett riktigt glädjebesked för de som vill ha korten för spel.

Men som redan nämnts i tråden av @cyklonen finns andra användningsområden för GPUer, det kanske framförallt när man kilar på modeller med riktigt mycket VRAM.

Bistra sanningen här är att Nvidia dominerar totalt med CUDA, den lilla andel AMD hade är rätt mycket utraderad med RDNA då man (än så länge, låt oss hoppas de ändras) har riktigt undermåligt GPGPU-stöd för RDNA.

SweClockers skrev detta i sitt 3080 test

"Tyvärr vill den senaste versionen av mjukvaran av någon outgrundlig anledning inte leka fint över OpenCL med AMD:s grafikkort, där denna spottar ut felmeddelanden och vägrar sparka igång renderingen."

Computerbase körde en egen variant som faktiskt fungerande på Radeon, prestandamässigt krossar Nvidias Turing och Ampere serie AMDs GPUer

I program/miljöer som Matlab, R och NumPy är det än värre, finns stöd för accelerering på CPU via SSE, AVX, AVX512 samt för CUDA. Närmaste man kommer här för AMD är experimentellt stöd via deras HIP, något som än så länge bara implementeras av AMDs ROCm drivare (så Linux only) samt även där fungerar det bara på GCN.

Just på GPGPU-sidan får man nog sätta sitt hopp till Intel vad det gäller att utmana Nvidia. Intel har faktiskt tänkt till här, ramverket som väldigt ofta används i dessa program för att accelerera saker via SSE, AVX, AVX512 heter MKL och man har lagt till stöd så att MKL även kan köras på GPU via oneAPI.

Många program som idag endera har SIMD-stöd på CPU alt. CUDA på GPU kommer snart även få GPU stöd för det som stödjer OneAPI. Möjligen kan det även hjälpa AMD, finns ett open-source projekt där bl.a. ett par europeiska universitet lagt resurser på med namnet hipSYCL som kan används för att få till Radeon stöd för oneAPI (GPU-delen i oneAPI är i praktiken Khronos SyCL). Fast även det bygger på HIP, så Linux/GCN only just nu...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Hade förväntat mig mer men efter jag läste specs:en så är det ju inget oväntat. CUDA cores 10,496 respektive 8,704 med lite lägre frekvens för 3090. Så 10% är väl vad man kan vänta sig...

Visa signatur

Meshilicious, Amd 7950X3D, Asus X670E-I ,96 GB DDR5 6000,RTX4090 FE, Corsair 2TB m.2 / 4TB, Samsung 57" G9

Permalänk
Avstängd

Varför hackar och stuttrar allting sönder fullständigt när testet visar så höga FPS?

Visa signatur

LG OLED65CX6LA | Samsung 840 EVO 1TB SSD | Samsung 840 Pro 256GB SSD | Eizo Foris FS2333 | Cougar 200K DE

Permalänk
Medlem
Skrivet av Donnerstal:

Men vi visste ju redan hur många CUDA-kärnor båda korten har. Och det har vi vetat sen nästan 3 veckor tillbaks. Eftersom skillnaden i antalet kärnor är relativt liten så kan man ju inte förvänta sig ett enormt prestanda-hopp.

Exakt. Ännu ett exempel på att man måste titta på kortets konfiguration, inte vad Nvidia råkat sätta för namn på lådan.

Nu är det förvisso 0.01% av publiken det rör men det är trots allt så nvidia sålt in 3090 : Inga av testerna är i 8K.

3090s mer minne och högre bandbredd kan nog i vissa fall göra rätt stora skillnader här.

Permalänk
Medlem

Men om vi plockar bort priset så är 3000 serien en grym serie och kan 3090 plocka +10% över 3080 prestanda så kommer de som alltid köper topp kort se en stor skillnad mot sitt "gamla" 2080ti.
3090 är ett grymt grafikkort men med ett pris som gör att endast ett fåtal kommer köpa dessa kort för att spela på.

Om de sedan kör 3050 kort med likvärdig prestanda som AMDs 5700 så kommer Nvidia äga marknaden i minst 2år till.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av McMillan:

Lite märkligt att det inte är något "problem" när det gäller strömförbrukning på dessa kort när det var en så oerhört het potatis tidigare när ATI/AMD drog "mera ström än Nvidia" i trådarna (sant eller ej tvistar de lärde om).

Är det helt plötsligt inget problem eller kan det vara så att vissa personer är totala hycklare?

Känns som du jämför äpplen och päron.
AMD kritiserades inte för strömförbrukningen utan för att watt/fps i vissa fall var nästan dubbelt så hög.
Nvidias RTX3080 är extremt energieffektivt om du tittar på bifogad graf och AMDs senaste GPUer till skillnad från Vega.

Permalänk
Medlem

Bara för något är dubbelt så dyrt betyder det inte dubbelt så bra men nog förväntar man sej mer än ~10-20%, blir nog 3080 FE trots allt.

Visa signatur

CPU: Intel i9-12900K Cooler: Asus TUF Gaming LC 240 ARGB MB: Asus TUF Gaming Z690 Plus Wifi D4 GPU: Asus TUF GeForce RTX 3080 Ti 12GB Case: In Win D-Frame HD: Intel Optane 900P 280GB, WD Black SN850 1TB Mem: Kingston Fury Beast RGB 3600MHz CL17 32GB PSU: Corsair AX760 OS: Win11 Pro

Permalänk
Medlem

@Yoshman: Ja, Nvidia har en mycket stor ledning i mjukvara, vilket är väldigt synd för konkurrensen

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Varför kan vi inte få veta när tester på 3090 får släppas? Är det NDA på NDA's längd eller hur skall man tolka det

Visa signatur

Ett flertal datorer (typ 5-6).
Himla nöjd med min BeadaPanel med Aida64.
Om det alltid var bättre förr så kommer det aldrig att bli lika bra igen som det är just nu.

Permalänk
Medlem

Blir 3090 bara upp till 10% snabbare så går det absolut bort.
Knappast så att de 24gb ram väger upp för det dubbla priset heller.

Permalänk
Medlem
Skrivet av Dragnet:

Varför kan vi inte få veta när tester på 3090 får släppas? Är det NDA på NDA's längd eller hur skall man tolka det

Jag håller med, vad är poängen med det

Skrivet av EliteSweden:

Blir 3090 bara upp till 10% snabbare så går det absolut bort.
Knappast så att de 24gb ram väger upp för det dubbla priset heller.

Beror på hur 3080 med 20gb prissätts för min del..

Visa signatur

Intel i9 10900K | H150i PRO XT | Asus Rog Strix Z490-E Gaming | Asus Strix 3090 OC | G.Skill Trident Z Royal 4x8GB 3600MHZ CL17 | Corsair Force MP600 1TB | Asus Rog Swift PG278QE | EVGA Supernova T2 1600W

Permalänk
Medlem

Det intressanta är hur mycket bättre det är i 4K spel i verkligheten. 3080 har inte nog med VRAM men 3090 kanske har det (vi har inte sett optimerade spel och drivrutiner än heller). Är det "prisvärt" med 3090? Nej, men det bästa kostar alltid oproportionerligt mycket mer än det näst bästa, så har det alltid varit.

Vad är smartast? -> vänta in både 3080 20GB versionerna och AMD Big Navi innan beställning av nytt grafikkort.

Vill du ha det bästa pengar kan köpa just nu och 16-20.000 kr inte är ett problem? Köp 3090.

En extra fundering.. 8K lurar runt hörnet.. det finns redan tv-apparater som kan köra den upplösningen. Är en 3090 nog för att slippa köpa nytt grafikkort om man vill ha en 8K tv att spela på inom en snar framtid? 3080 är det definitivt inte.

Permalänk
Avstängd
Skrivet av Yoshman:

Så hur kan spelet gå från att uppenbarligen inte ens behöva 4 GB VRAM i 4k i den testslinga man körde här till att helt plötsligt inte ens klara sig med 10 GB?

Notera hur t.ex. 570 med 4 GB står sig mot 580 med 8 GB, framförallt lägsta FPS skulle droppa rejält om VRAM tar slut. Men även i 4k ser man precis den skillnad mellan dessa två som kan förklaras med skillnad i GPU-prestanda. 5500XT med 4 GB är även i 4k snabbare än 580 med 8 GB, GTX1660 med 6 GB är klart snabbare än 580.

Enda rimliga förklaringen, om det faktiskt är ett problem med 10 GB VRAM, är att du råkat köra testet på en version av spelet alt. drivers med en kraftig minnesläcka.

Har själv bara kört TW Warhammer serien av de senare TW, där har då inte RTX2070 med 8 GB varit alls något problem i 1440p m.a.p VRAM. I just Warhammer serien försökte man gå över till DX12, det strulade en hel del och kan mycket väl ha varit problem med VRAM i DX12 läget. De versionen som kommit efter TW Warhammer har åter igen enbart DX11 stöd.

hur många armeer hade dem på fältet samtidigt? och Troy är känt för att ha dem minsta mappsen hittils i en total war serie. En stor map i Total war warhammer 2 där alla minst 4 full stackade armeer samtidigt slås drar upp mängden Vram som används till 8GB.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av EliteSweden:

Blir 3090 bara upp till 10% snabbare så går det absolut bort.
Knappast så att de 24gb ram väger upp för det dubbla priset heller.

3090 = Titan Kort

Skillnaden mellan RTX2080ti och RTX Titan var ju inte heller så mycket i cuda-cores, däremot i minnesmängd skillde det åt.

Precis samma historia den här gången med 3080 och 3090.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Viking
Skrivet av _Merc_:

hur många armeer hade dem på fältet samtidigt? och Troy är känt för att ha dem minsta mappsen hittils i en total war serie. En stor map i Total war warhammer 2 där alla minst 4 full stackade armeer samtidigt slås drar upp mängden Vram som används till 8GB.

Har inte läst eran diskussion. Men då är du säker på att det inte är allokerat minne?

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | Xiaomi Mi 34" 3440x1440p 144Hz

Permalänk
Medlem
Skrivet av Dragnet:

Varför kan vi inte få veta när tester på 3090 får släppas? Är det NDA på NDA's längd eller hur skall man tolka det

The first rule of NDA: You do not talk about NDA!

Mao ja. När NDA går ut är under NDA. Löjligt som attan imnsho.

Permalänk
Medlem

@Donnerstal: Har kollat runt lite på youtube.

Finns en option som heter "unlimited vram usage" eller liknande, och då använder faktiskt spelet typ 9GB utan problem, medans de som inte har kryssat i denna option i total war hammer, så används ca 3,5GB i 4k Ultra settings.

Så troligen allokerar väl spelet upp minnet som finns när man väljer denna option i spelet.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Viking
Skrivet av CubaCola:

@Donnerstal: Har kollat runt lite på youtube.

Finns en option som heter "unlimited vram usage" eller liknande, och då använder faktiskt spelet typ 9GB utan problem, medans de som inte har kryssat i denna option i total war hammer, så används ca 3,5GB i 4k Ultra settings.

Så troligen allokerar väl spelet upp minnet som finns när man väljer denna option i spelet.

Ja, exakt. Så då stämmer inte det @_Merc_ säger... (?)

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | Xiaomi Mi 34" 3440x1440p 144Hz

Permalänk
Medlem
Skrivet av _Merc_:

hur många armeer hade dem på fältet samtidigt? och Troy är känt för att ha dem minsta mappsen hittils i en total war serie. En stor map i Total war warhammer 2 där alla minst 4 full stackade armeer samtidigt slås drar upp mängden Vram som används till 8GB.

Jag känner igen problematiken med stora armies på kartan, speciellt med Skaven som har extremt många modeller per enhet och även galet mycket effekter på sina magier. Sen om det beror på att minnet tar slut eller om GPUn på något annat sätt blir helt slaktad vet jag ej.
Jag har 11 GB på mitt 1080ti och jag får detta problem med främst Skaven och Brettonia i 3440x1440p.

Visa signatur

Dator: Lian Li O11 Dynamic, R9 5900X, MSI X570 ACE, Corsair H150i Pro, G.Skill TridentZ@3733MhzCL16, ASUS RTX 3090 TUF OC, Firecuda 530 2TB, 990 Pro 2TB, Corsair RM850x.
Skärm: LG OLED 42C2

Permalänk
Avstängd
Skrivet av Donnerstal:

Har inte läst eran diskussion. Men då är du säker på att det inte är allokerat minne?

jag är väldigt säker, eftersom att det är huvud anledningen till varför jag äger ett Radeon 7, mitt förra 64 maxxade jag i total war warhammer 2 med 4 eller fler stacks.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Avstängd
Skrivet av Donnerstal:

Ja, exakt. Så då stämmer inte det @_Merc_ säger... (?)

Släng in 4 Skaven armeer samtidigt på slagfältet + ett par High Elf Armeer och Stacka Lothren SeaGuards som alla samtidigt använder sina Ranged vapen så ska du få se på Vram användning och lite Sisters of Avelorn att toppa med, samt ett par Chainlightnings som går av samtidigt så har du Vram användning.

Jag kör med Unlimited Vram, Normalt sätt så används bara 4gb i normala strider, men ju fler olika faktioner o enheter vi blandar in o det sticker iväg ganska fort.

Unlimited Vram är som gjort för Radeon 7 då det sänker Overhead om man har nog med Vram. med tanke på hur lite Vram Nvidia kort har så tappar dem mer än Radeon korten som använder detta.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av pytonOrm:

hur kommer det sig att bara 3090 får stöd för sli då ? tycker alla kort ska ha det om folk vill ha flera gpu sin burk.. hoppas att 3080 ti/3070 ti kommer ha nvlink

SLI/NVlink för konsumenter har varit på väg bort länge, och de har nu valt att kapa av benet så inte ruttnandet fortsätter sprida sig.
Dåligt stöd, dåligt optimerat.. det är bara siffer-kåta clowner som spelar 3Dmark som har haft nytta av SLI senaste årtiondet.

Jag hoppas vi aldrig ser nån liknande lösning igen, och om det skulle bli så att jag har fel så hoppas jag innerligt att de har en perfekt skalande lösning som blivit ordentligt testad före lansering.

Visa signatur

Fractal Design Define C | NH-D15 AMD | R5 5600X | TUF Gaming B550-Plus | 2x16GB Corsair DDR4@3200mhz | RTX 3060Ti | 2TB 980 Pro m.2 + 500gb 970 EVO m.2 | Steelseries APEX, Logitech G603 | Razer Blackshark Pro v2 | Dell 28" 1440p165 + Swedx 28" 2160p60 + Benq 24" 1080p60 |

Permalänk
Medlem
Skrivet av pytonOrm:

hur kommer det sig att bara 3090 får stöd för sli då ? tycker alla kort ska ha det om folk vill ha flera gpu sin burk.. hoppas att 3080 ti/3070 ti kommer ha nvlink

Det är för att nvidia hellre vill att folk köper dessa hutlöst dyra 3090 korten istället för att nån skulle komma på tanken att köpa 2 3080 kort och köra dom i sli istället 😉

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Medlem
Skrivet av Nikodemous:

Det är för att nvidia hellre vill att folk köper dessa hutlöst dyra 3090 korten istället för att nån skulle komma på tanken att köpa 2 3080 kort och köra dom i sli istället 😉

Jo om det gick, men det går alltså inte. Bara 3090 som har den möjligheten tydligen.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Hjälpsam

Angående framtidssäkerhet, för spel.
Det är något jag brukar förorda, även om minnet räcker i dag hur bra räcker det om två år.
Men då tänker jag på att kanske betala 20% extra, nu pratar vi 100%, eller dubbelt så mycket.
Räcker inte 10 GB om två år då har du pengar kvar till ett nytt kort, Nvidia 4080 eller AMD 7800, eller vad de nu kommer att heta.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

Angående framtidssäkerhet, för spel.
Det är något jag brukar förorda, även om minnet räcker i dag hur bra räcker det om två år.
Men då tänker jag på att kanske betala 20% extra, nu pratar vi 100%, eller dubbelt så mycket.
Räcker inte 10 GB om två år då har du pengar kvar till ett nytt kort, Nvidia 4080 eller AMD 7800, eller vad de nu kommer att heta.

Lite så jag tänker också, ändå lär det rycka i plånboken den 24e när 3090 släpps 😬

Visa signatur

RTX 3090 - Ryzen 3700X - 16GB RAM 3600MHz

Permalänk
Medlem

@MinpinStudios: Undra om det blir samma som med 3080 att 3090 FE redan är sålda när Nvidia har uppdaterat sin sida för försäljning och partnerkorten tar slut på en halvtimma.

Apropå FE, lurades Nvidia med att inte sälja och bara skicka ut till recensenter? Någon som har eller vet någon som kunnat beställa ett FE?

Visa signatur

[AMD Ryzen 9 3900X] [ASUS GeForce RTX 2080 Ti] [LG OLED 55 C9 som skärm] [Samsung HW-Q96R till ljudet]

Permalänk
Medlem
Skrivet av yrfhar:

@MinpinStudios: Undra om det blir samma som med 3080 att 3090 FE redan är sålda när Nvidia har uppdaterat sin sida för försäljning och partnerkorten tar slut på en halvtimma.

Apropå FE, lurades Nvidia med att inte sälja och bara skicka ut till recensenter? Någon som har eller vet någon som kunnat beställa ett FE?

Var väl ett gäng här på Swec som lyckades beställa FE har jag för mig.

Visa signatur

RTX 3090 - Ryzen 3700X - 16GB RAM 3600MHz