Nvidia Geforce RTX 3090 får prestandasiffror i 3DMark-tester

Permalänk

Som många sagt, det här är ju inte så imponerande jämfört med 3080.

Min 2080 Ti har en rätt försiktig överklockning på +100 core, +950 mem (brukar toppa ut på 2055 MHz core, 7950 mem) och fick häromdagen 16200 Graphics Score i vanliga Time Spy. 3090 skulle ge mig nästan +26% prestanda, det är ju inte i närheten av vad jag hoppats på. Om skillnaden mellan 3080 och 2080 enligt Nvidia är 100% (även om det är närmare 80-90% i praktiken) så hade jag hoppats åtminstone på 50% ökning från 2080 Ti till 3090.

Det verkar ju inte heller finnas någon direkt överklockningspotential på 3080, antagligen inte 3090 heller då. Bah!

edit:
Tänkte att kanske prestandaskillnaden skulle vara högre i Time Spy Extreme. Där fick min 2080 Ti 7631 Graphics Score, medan 3090 får 10328, så +35%, det är ju iaf lite mer påtagligt men ändå inte vad jag hoppades på.

Permalänk

Hur mycket VRAM kan användas som mest i dagens spel i 4k-upplösning? Finns det spel där 10 inte räcker?

Permalänk
Medlem
Skrivet av marcusOCZ:

Jag antar att 3070 kommer prestera ungefär som 2080, och 3060 som 2070.

Nah, 3070 kommer matcha 2080Ti.
3060 8GB hamnar nog runt 2080S nånstans.

Permalänk
Medlem
Skrivet av _Merc_:

Det är då det blir ännu mer problem med för lite Vram.

Varför då?

Du behöver ju rent teoretiskt bara ha texturer inladdade för det du ser just då på skärmen, och inget annat, så då blir SSD:n mer som en del av ditt vanliga ram-minne.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av pickadulverman:

Hur mycket VRAM kan användas som mest i dagens spel i 4k-upplösning? Finns det spel där 10 inte räcker?

Playstation 5 lär ju inte ha mer än runt 10GB ram kvar för användning av grafikdelen när operativsystem och spelmotor är inladdade, så jag tror 10GB är lugnt.
Speciellt med PCIE4 då lär man även kunna strömma texturer ifrån vanliga ramminnet på PC:n utan att det märks i prestandasänkning.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av McMillan:

Lite märkligt att det inte är något "problem" när det gäller strömförbrukning på dessa kort när det var en så oerhört het potatis tidigare när ATI/AMD drog "mera ström än Nvidia" i trådarna (sant eller ej tvistar de lärde om).

Är det helt plötsligt inget problem eller kan det vara så att vissa personer är totala hycklare?

Grafikkorten verkar vara extremt strömkrävande, de är som trimmade V8 Mustanger! En okey PC med ett juste Nvidia-kort i framkant (t ex RTX 3080) kommer nog behöva 750watt agg (om inte mer). Med Samsungs process-nod 8N (special nod för Nvidia) drar de mycket ström, då har de fortfarande lite mer att klämma ur när de går ner till 5nm och sedan 3nm om några år. Men jag gissar ändå att de kommer dra extremt mycket ström för att behålla prestandahoppen. Men de kommer skifta också till multichip design som t ex AMDs Zen 2/3, snart kanske du väljer hur många kärnor du vill ha på ditt Nvidia-kort?

Nvidia är klassledande, och om man känner dem rätt, kommer de klämma ur varje droppe ur marknaden på vägen och "skynda långsamt" och göra små generationshopp om 20-30% i taget, så länge de är marknadsledande och inte tvingas göra mer pga konkurrens från t ex AMD. Visst vore det kul om grafik-korten blev strömsnålare, men det ligger nog långt fram i tiden. Om man inte ska nöja sig med en snik-variant som t ex RTX 3060?

Permalänk
Medlem

Jag har 750w, räcker det ens till ett 3090?

Visa signatur

RTX 3090 - Ryzen 3700X - 16GB RAM 3600MHz

Permalänk
Medlem
Skrivet av Boredbynoobs:

Inte alls särskilt upphetsande :O.

Samtidigt får detta mig att tro att Nvidia är säkra på att Big Navi inte kan slå 3080, men ligger nära, varför dem prissatt just 3080 konkurrenskraftigt men inte 3090.

1) Yields (naturligtvis)

2) Mer än dubbelt så mycket grafikminne (vilket troligtvis lämpar kortet mer till proffesionellt bruk, likt Titan).

3) Slår troligtvis Big Navi. Nvidia vet att dom kan lägga på lite och ändå få sålt korten.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av MinpinStudios:

Tänkte köpa 3090 men stämmer detta vetifan vad man ska göra.

Alltså för gaming är det mer eller mindre bortkastade pengar jämfört med 3080. Men om pengar inte är något problem för dig, why not?

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av MinpinStudios:

Jag har 750w, räcker det ens till ett 3090?

Japp, med råge, även om du överklockar och sitter med 10 kärnig processor.

Permalänk
Medlem
Skrivet av Homunculus:

3090 finns för att få 3080 att se prisvärd ut?

Nej det fick deras 2080ti modell redan det att göra.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av pytonOrm:

nej jag tar hellre 2st RTX 3080 ti med 20gb Vram istället för en 3090 även om dom tillsammans kostar 22000-24000kr är dom snabbare än ett 3090 förhoppningsvis tror att lager på 3080 är dåligt fram till januari/februari månad minst. synd om alla som har beställt kort redan.. klart dom kan makulera sitt köp. tråkigt endå

3080 tillåter väl inte, eller rättare sagt är väl gjort utan SLI-möjlighet?

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av Hybe:

Ganska väntat men ff besviken. Hade hoppats på 20% iaf och uppgradera runt BF.
Får väl vänta in 3080(ti) med mer minne då.. 2021?

Vet du redan hur AMD's Big Navi presterar?

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av EvonS:

Har också tidigare varit inne att den är ersättare för Titan. Kanske, kanske inte säger jag nu. Den kanske ska ses som istället för 3080ti.. allt mer tyder att det är så. Då kan vi prata om prishöjning från 2080ti. Varför de pratade om att det skulle vara "titan" ersättare och att "vanliga" konsumenter nu kan köpa "Titan class card" är för att Titan av 30 serien inte kommer alls. Det går inte helt enkelt. Hur ska de kunna sänka till 250w och samtidigt klå 3090 i prestanda?

Så det är helt enkelt ett 3080ti som döpts om till 3090 med prat om att det är Titan, vilket det inte är. Den här generationen har aldeles för hög strömförbrukning helt enkelt till förhållande med prestandan. Så gott folk, vill ni ha ett "3080Ti så får ni allt punga ut mkt mer än för förra generationens extremt dyra 2080ti.

Helt enkelt.. det är typisk Nvidiastyle att trolla med namnen och "ändra" för att sen tuta i oss något det inte är men som vi vill ha och kostar skjortan alltmedans ägarna gnuggar händerna o fyller sina konton.

Men alltså, det har ju dykt upp info på flera ställen (partnertillverkare) där det funnits ett 3080 med 20GB VRam på gång.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av kleine:

Tänkte köra lite Doom II blir det bra med RTX 3090 då eller?

Om du kör SLI.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av jawik:

Sen vore det väl bra om de som argumenterar för eller emot något kunde skriva anledningen i samma inlägg till varför de är för eller emot det. Blir bara fånigt när folk nästan grälar om till exempel mängden grafikminne bara för att de inte behagat skriva någon motivering mer än "10 GB räcker inte".

Dom flesta använder "inte framtidssäkert" som ett skäl, som om något kort skulle vara det. Tycker det är en massa gnäll i onödan om dom där 10GB'n. Det kommer som någon annan nämnde troligtvis räcka en lång tid framöver.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av EvonS:

Har också tidigare varit inne att den är ersättare för Titan. Kanske, kanske inte säger jag nu. Den kanske ska ses som istället för 3080ti.. allt mer tyder att det är så. Då kan vi prata om prishöjning från 2080ti. Varför de pratade om att det skulle vara "titan" ersättare och att "vanliga" konsumenter nu kan köpa "Titan class card" är för att Titan av 30 serien inte kommer alls. Det går inte helt enkelt. Hur ska de kunna sänka till 250w och samtidigt klå 3090 i prestanda?

Så det är helt enkelt ett 3080ti som döpts om till 3090 med prat om att det är Titan, vilket det inte är. Den här generationen har aldeles för hög strömförbrukning helt enkelt till förhållande med prestandan. Så gott folk, vill ni ha ett "3080Ti så får ni allt punga ut mkt mer än för förra generationens extremt dyra 2080ti.

Helt enkelt.. det är typisk Nvidiastyle att trolla med namnen och "ändra" för att sen tuta i oss något det inte är men som vi vill ha och kostar skjortan alltmedans ägarna gnuggar händerna o fyller sina konton.

När ska Swec begripa att namnet helt saknar betydelse när man jämför kort på det här viset? Utan man måste titta på kortets innehåll/konfiguration. Därigenom blir man inte "intutad" något alls utan istället tänker man själv.

Det kort från förra generationen som är mest likt 3090 är RTX Titan (ifråga om antalet minnesmoduler, en väldigt central i hur olika grafikkort konfigureras, är 3090 tom att likställas med Quadro RTX 8000!)

Permalänk
Medlem

@elajt_1:

Nej.
Hoppas dock de presterar bra, så de sätter press på Nvidia att ex. lansera 16gb/20gb kort tidigare.

Visa signatur

Technörd

Permalänk
Digital fyndjägare

Ser helt ok ut med tanke på att drivisarna inte är helt slipade och anpassade för dessa kort än.

RTX 3090 Overclocked Benchmark

https://www.youtube.com/watch?v=GOgFtE3CVIA

Visa signatur

• In My Defens God Me Defend •

Permalänk
Medlem

@Bl4ckIce: Du bör nämna att det drar 500W OC Som 2080Ti SLI(hade det ens SLI elller var det bara Titan?)

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Grymt besviken på de senaste 3090 siffrorna som dykt upp och i och med alla läckor på performance syns tyvärr ingen ljusning i tunneln.
3080 it is.

Visa signatur

CM NR200P MAX • CM 280 AIO • Corsair SF750 • Asus B550-I Strix • Samsung 980 Pro • Crucial Ballistix MAX 4000 • LG OLED48CX • Ryzen 5950X • Radeon RX 6950 XT

Permalänk
Medlem
Skrivet av McMillan:

Lite märkligt att det inte är något "problem" när det gäller strömförbrukning på dessa kort när det var en så oerhört het potatis tidigare när ATI/AMD drog "mera ström än Nvidia" i trådarna (sant eller ej tvistar de lärde om).

Är det helt plötsligt inget problem eller kan det vara så att vissa personer är totala hycklare?

Problem om man pratar om värmen så ligger temperaturen på Founders edition 3080 en bra bit under 2080 Ti i tester där de maxas. Vilket är helt sjukt då 2080 Ti ligger väl 100 watt under vad 3080 drar. Det säger lite om hur bra Kylare de har nu. Med det sagt vet jag att du menar att folk klagade på elräkningen.

Permalänk
Avstängd
Skrivet av pickadulverman:

Hur mycket VRAM kan användas som mest i dagens spel i 4k-upplösning? Finns det spel där 10 inte räcker?

Total war spelen, När det blir 4 eller fler fulla Arméer samtidigt på slagfältet.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Avstängd
Skrivet av CubaCola:

Varför då?

Du behöver ju rent teoretiskt bara ha texturer inladdade för det du ser just då på skärmen, och inget annat, så då blir SSD:n mer som en del av ditt vanliga ram-minne.

Ja och när Texturerna blir större och fler, när ett område blir för komplext då går det fort att få slut på Vram. Det händer redan i högsta inställningarna i Total war, när du har 4+ Arméer i Full Ultra (1440p)

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av Rapidact:

Grafikkorten verkar vara extremt strömkrävande, de är som trimmade V8 Mustanger! En okey PC med ett juste Nvidia-kort i framkant (t ex RTX 3080) kommer nog behöva 750watt agg (om inte mer). Med Samsungs process-nod 8N (special nod för Nvidia) drar de mycket ström, då har de fortfarande lite mer att klämma ur när de går ner till 5nm och sedan 3nm om några år. Men jag gissar ändå att de kommer dra extremt mycket ström för att behålla prestandahoppen. Men de kommer skifta också till multichip design som t ex AMDs Zen 2/3, snart kanske du väljer hur många kärnor du vill ha på ditt Nvidia-kort?

Nvidia är klassledande, och om man känner dem rätt, kommer de klämma ur varje droppe ur marknaden på vägen och "skynda långsamt" och göra små generationshopp om 20-30% i taget, så länge de är marknadsledande och inte tvingas göra mer pga konkurrens från t ex AMD. Visst vore det kul om grafik-korten blev strömsnålare, men det ligger nog långt fram i tiden. Om man inte ska nöja sig med en snik-variant som t ex RTX 3060?

Enligt min uppfattning tycker jag inte att argumentet "klassledande" skall vara tongivande och sätta standarden vad som är "ok" och inte ok för isåfall skulle ju fortfarande bilar dra 1.5-2 liter milen med samma hästkrafter där vi idag har bilar som drar 0.5-0.6 liter eftersom både konsumenter och stater nobbar bränsletörstiga bilar.

Jag tyckte det var dåliga produkter som AMD kom med då när deras grejer drog alltför mycket el och nu tycker jag samma samma om Nvidias strömtörstiga kort.

Pga utvecklingen så har vi idag dessa strömsnåla enkretsdatorerna som nästan inte drar någonting och det är vi konsumenter som tillsammans kan sätta vart gränserna skall gå när det kommer till hur mycket som är ok.

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Medlem
Skrivet av _Merc_:

Ja och när Texturerna blir större och fler, när ett område blir för komplext då går det fort att få slut på Vram. Det händer redan i högsta inställningarna i Total war, när du har 4+ Arméer i Full Ultra (1440p)

Har inte spelat Total war, men jag vet att i spel såsom Resident Evil remaken, så tar ju spelet all vram som den kan, fast den använder inte allt grafikminne ändå, så det kanske inte är så att spelet använder allt minne ändå?
Svårt att veta då jag som sagt aldrig spelat det

En snabb googling på Total War Three kingdoms så ser det inte ut som ett spel som skulle äta 16GB vram, då jag antar att de flesta i en arme borde ha ungefär samma uniform på sig, så att många texturer återanvänds med mindre skillnader som man nog kan mappa dit isåfall.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Medlem
Skrivet av Galadhnen:

Om skillnaden mellan 3080 och 2080 enligt Nvidia är 100% (även om det är närmare 80-90% i praktiken) så hade jag hoppats åtminstone på 50% ökning från 2080 Ti till 3090.

Det är mycket skillnad på spel med DXR, men för övrigt tror jag det är mindre än 80%.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av Donnerstal:

Vad hade folk förväntat sig?

Jag förväntade mej att 3090 skulle prestera typ som ett Titan kort. Alltså något bättre än ett XX80Ti, men betydligt bättre än ett XX80.

Permalänk
Viking
Skrivet av employed:

Jag förväntade mej att 3090 skulle prestera typ som ett Titan kort. Alltså något bättre än ett XX80Ti, men betydligt bättre än ett XX80.

Men vi visste ju redan hur många CUDA-kärnor båda korten har. Och det har vi vetat sen nästan 3 veckor tillbaks. Eftersom skillnaden i antalet kärnor är relativt liten så kan man ju inte förvänta sig ett enormt prestanda-hopp.

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | Xiaomi Mi 34" 3440x1440p 144Hz

Permalänk
Medlem
Skrivet av McMillan:

Lite märkligt att det inte är något "problem" när det gäller strömförbrukning på dessa kort när det var en så oerhört het potatis tidigare när ATI/AMD drog "mera ström än Nvidia" i trådarna (sant eller ej tvistar de lärde om).

Är det helt plötsligt inget problem eller kan det vara så att vissa personer är totala hycklare?

Inte något problem? Du måste vara blind i så fall. Står i varenda kommentarsfält att folk tycker den är väldigt strömtörstig. Sedan är det ju att de presterar bäst och drar mycket. Fortfarande med bäst prestanda/watt. När AMD haft strömtörstiga kort har de ju inte legat ohotad i toppen direkt. Jag tycker också att det kunde varit bättre, kommer sikta in mig på AIO vattenkylningssystem på mitt 3080, men finns inget alternativ ens i närheten till det. Ännu mindre lär det bli till 3090.