Nvidia Geforce RTX 3090 får prestandasiffror i 3DMark-tester

Permalänk
Medlem
Skrivet av pytonOrm:

hur kommer det sig att bara 3090 får stöd för sli då ? tycker alla kort ska ha det om folk vill ha flera gpu sin burk.. hoppas att 3080 ti/3070 ti kommer ha nvlink

SLI dör långsamt ut över tid, och det har aldrig varit särskilt vanligt även under glansdagarna. Jag körde SLI själv i några år (2x 980 och sedan 2x 1080), och visst var det trevligt när man kunde få upp till dubbla prestandan, men så bra var det nästan aldrig i praktiken och mängden strul med SLI-profiler och dåligt stöd i spel var definitivt aldrig noll. Med vissa spel var jag rent tvungen att slå av SLI helt och hållet, annars gick det inte alls.

Sen har väl DX 12 stöd för att använda fler än en gpu, utan SLI, men det kräver en hel del av spelutvecklarna och jag har faktiskt inte hört något om det på länge nu?

Visa signatur

5950X, 3090

Permalänk
Inaktiv

Jag vill ha 3090 FE kylaren

Permalänk
Inaktiv
Skrivet av backfeed:

SLI dör långsamt ut över tid, och det har aldrig varit särskilt vanligt även under glansdagarna. Jag körde SLI själv i några år (2x 980 och sedan 2x 1080), och visst var det trevligt när man kunde få upp till dubbla prestandan, men så bra var det nästan aldrig i praktiken och mängden strul med SLI-profiler och dåligt stöd i spel var definitivt aldrig noll. Med vissa spel var jag rent tvungen att slå av SLI helt och hållet, annars gick det inte alls.

Sen har väl DX 12 stöd för att använda fler än en gpu, utan SLI, men det kräver en hel del av spelutvecklarna och jag har faktiskt inte hört något om det på länge nu?

Jag har hitills aldrig dragit nytta av crossfire i något spel ännu. Har två stycken rx480. köpte de visserligen inte för att spela, men satan vad besviken man hade varit om man hade gjort det.

Permalänk
Medlem

Vad hände med priserna, även i shopparna har det ökat markant.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Hjälpsam
Skrivet av ipac:

5. De som känner sig säkra på att 10 GB kommer bli för lite i spel.

De också.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av hakd:

Vad hände med priserna, även i shopparna har det ökat markant.

Allt går enligt nvidias plan, släppa en paper release med få kort till lågt pris sedan höja priset på alla kort pga "brist" och sedan dra in stora slanten, win för nvidia då hypen om hur prisvärda 3000 serien är redan har slagits fast.

Permalänk
Medlem
Skrivet av BeardedRobot:

Ja tyvärr verkar också 3090 kortens tillgänglighet vara betydligt mindre än 3080 av informationen på nätet att döma.

Hmm ok. Ja, får jag inte tag i ett och 3080 ti verkar komma snabbt får jag väl försöka klara mig ett tag och sedan köra dubbla 3080 ti som plåster på såren

Visa signatur

SPELA: 13900K - Gaming X Trio 4090
LEVA: OnePlus 12 - MacBook Air M2 13"
PLÅTA: Canon C70, R3, 1DX mkII, BMPCC6K
LYSSNA: KRK Rokit RP8 G4, Beyerdynamic DT 1990 PRO
FLYGA: DJI FPV, Avata

Permalänk
Medlem

hmm då jag misstänker att 3080ti kommer ligga under 3090 för att inte iritera 3090 kunderna så lär TI varianten vara rätt tråkig och dyr den med

Permalänk
Viking
Skrivet av HinFoo:

hmm då jag misstänker att 3080ti kommer ligga under 3090 för att inte iritera 3090 kunderna så lär TI varianten vara rätt tråkig och dyr den med

Det är ju mycket möjligt att 3080 Ti blir exakt som ett 3080 men med mer VRAM, eller bara lite fler CUDA-kärnor.

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | LG OLED 27GS95QE 240Hz

Permalänk
Medlem

@Donnerstal:

nej Faktiskt inte jag foldar för world Community Grid Cancer forskning samt covid-19 mm beräkningskraften från dubbla kort gör det enklare jobb också för mig.

Visa signatur

[Intel Core i9@13900KF Raptor Lake@5,5Ghz Oc][Asus ROG Z790 HERO[G-Skill RGB 32GB 6600Mhz cL34][WD Back 2TB NvMe][2TB Samsung 970 Evo + 2x8Tb Samsung 870 Qvo spel disk][Msi RTX 4090 Gaming Trio-X][ASUS ROG Swift OLED PG48UQ][Windows 11][1000/1000Mbits Telia fiber][Razer Ornata Tangentbord.

Permalänk
Medlem

Lite fattiga siffror här faktiskt.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Viking
Skrivet av pytonOrm:

@Donnerstal:

nej Faktiskt inte jag foldar för world Community Grid Cancer forskning samt covid-19 mm beräkningskraften från dubbla kort gör det enklare jobb också för mig.

Antar att Nvidia anser att du lika gärna kan köra 3090 i SLI då.

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | LG OLED 27GS95QE 240Hz

Permalänk
Medlem

Ganska väntat men ff besviken. Hade hoppats på 20% iaf och uppgradera runt BF.
Får väl vänta in 3080(ti) med mer minne då.. 2021?

Visa signatur

Technörd

Permalänk
Medlem
Skrivet av Shrudder:

Väntat med tanke på att det är ersättaren till Titan. Det är faktiskt större skillnad än mellan Titan RTX och RTX 2080 Ti.

Har också tidigare varit inne att den är ersättare för Titan. Kanske, kanske inte säger jag nu. Den kanske ska ses som istället för 3080ti.. allt mer tyder att det är så. Då kan vi prata om prishöjning från 2080ti. Varför de pratade om att det skulle vara "titan" ersättare och att "vanliga" konsumenter nu kan köpa "Titan class card" är för att Titan av 30 serien inte kommer alls. Det går inte helt enkelt. Hur ska de kunna sänka till 250w och samtidigt klå 3090 i prestanda?

Så det är helt enkelt ett 3080ti som döpts om till 3090 med prat om att det är Titan, vilket det inte är. Den här generationen har aldeles för hög strömförbrukning helt enkelt till förhållande med prestandan. Så gott folk, vill ni ha ett "3080Ti så får ni allt punga ut mkt mer än för förra generationens extremt dyra 2080ti.

Helt enkelt.. det är typisk Nvidiastyle att trolla med namnen och "ändra" för att sen tuta i oss något det inte är men som vi vill ha och kostar skjortan alltmedans ägarna gnuggar händerna o fyller sina konton.

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av Hybe:

Ganska väntat men ff besviken. Hade hoppats på 20% iaf och uppgradera runt BF.
Får väl vänta in 3080(ti) med mer minne då.. 2021?

Det finns inte plats för ett 3080Ti... hur ska du tränga in den mellan 3080 och 3090? 3090 ÄR "3080Ti" kortet denna generation.

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Datavetare
Skrivet av pytonOrm:

@Donnerstal:

nej Faktiskt inte jag foldar för world Community Grid Cancer forskning samt covid-19 mm beräkningskraften från dubbla kort gör det enklare jobb också för mig.

Om du foldar via Folding@home så fungerar deras multi-GPU stöd på ett sätt som inte använder NVLink. Har din dator flera GPUer kan alla användas.

Rent generellt så kan man använda flera Nvidia GPUer i CUDA utan NVLink, fungerar bra så länge som problemet går att dela upp i helt oberoende delar där varje dels "working-set" får plats i respektive korts VRAM.

NVLink adderar extra funktioner, primärt betydligt högre bandbredd mellan GPUer än PCIe samt betydligt effektivare sätt för GPU#A att få tillgång till VRAM hos GPU#B. Kritiskt i vissa lägen, men spelar ingen roll just i de fall du listar ovan.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Donnerstal:

Antar att Nvidia anser att du lika gärna kan köra 3090 i SLI då.

vore faktiskt intressant att se hur mycket extra performance man kan få ut genom sli i 3090 serien, men problemet för mig med denna setup är helt klart värmen, har redan en brutal threadripper propp som ligger på 250tdp tror jag, kombinera detta med x2 3090 och det kanske blir rätt tungt för även ett 1000w seasonic platinum psu att hänga med

Permalänk

80K 60fps?

Visa signatur

Fractal Design Define C, ASUS PRIME Z370-A
Intel Core i7 8700K 3.7 GHz 12MB
HyperX Predator DDR4 3200MHz 16GB( PC4-25600 CL16 16-18-18 )
Palit GTX 1070 TI, Samsung NVMe SSD 960 EVO M2
Seasonic Focus+ 750W 85+ GOLD PSU

Permalänk
Medlem
Skrivet av dakke:

Allt går enligt nvidias plan, släppa en paper release med få kort till lågt pris sedan höja priset på alla kort pga "brist" och sedan dra in stora slanten, win för nvidia då hypen om hur prisvärda 3000 serien är redan har slagits fast.

Ja det verkar som det ryktet stämmer tyvärr.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem

good good, bli avskräckta så jag kan i lugn o ro knipa mig ett kort på torsdag. Behöver det för rendera rule34 content, viktiga grejor.

Permalänk
Datavetare

Lite glädjande nyheter för de som önskar strid på kniven. TSMC har ju haft enorm hjälp av att Apple nästan uteslutande använt dem för att tillverka kretsarna till Iphone, det har gett TSMC massor med inkomst då Apple hela tiden haft stora volymer tillverkade på de senaste och därmed dyraste noderna. Ovanpå det har Qualcomm också valt TSMC för toppmodellerna av Snapdragon.

Samsung behöver något liknande, räcker nog inte att enbart tillverka massor med minnen. Konsumentversionen av Nvidia Ampere tillverkas ju på Samsung 8 nm, enligt rykten* ska tydligen Samsung också kammat hem Qualcomm för kommande toppmodellen av Snapdragon (en krets jag ser fram emot då både Snapdragon 875 samt Exynos 1000 blir först ut med ARM Cortex X1, ARMs första CPU-design där absolut prestanda varit prio#1, även om man inte når Apple A13/14 tar man ett rejält kliv upp på ~A12 nivå fast med färre transistorer och då rimligen bättre perf/W).

Går ingen nöd på TSMC då de har Apple på sin 5 nm nod och AMD på 7 nm, men om Qualcomm nu faktiskt valt Samsungs borde man rimligt får ordning på sina tidigare EUV-problem (en mobil SoC lär knappast köra Samsung 8 nm år 2020/21).

Kanske många underskattat Samsung 8 nm? Datacenterkorten för Ampere, A100, tillverkas ju på TSMC 7 nm och når lägre frekvenser ~1,4 GHz mot de ~1,7 GHz som GA102/GA104 når. Uppenbara fördelen med TSMC 7 nm är ju den högre densiteten, Nvidia har ju i praktiken maxat respektive process sett till hur stora kretsar som är möjligt att tillverka. Trots HBM i A100, drar kortet ~400 W (GDDR6X drar rejält mycket mer ström än HBM, tyvärr är HBM långt dyrare).

*GSM-arena rapporterar samma sak, där anges även någon kinesisk sida som referens.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av MinpinStudios:

Amd har väl heller inget som liknar dlss? Känns som att om fler spel får stöd för dlss 2.0 så kan man köra 4k 60fps ultra i många år framöver med både 3080 å 3090?

Eller om man sitter på en skärm med vsync

Permalänk
Medlem
Skrivet av anon321099:

Snälla gott folk göda inte Nvidia 3090 i onödan. Vänta tills AMD släpper sitt också. Stötta gärna AMD om ni kan acceptera att de är kanske 5-10 % sämre?

I mitt fall så fick jag uppgradera från mitt gamla flera år gamla 1080 p.g.a. fabriksfel, till RTX 2080 och gav bara ca: 1000 kr i mellanskillnaden så jag fick en offer I could not refuse. Jag fick inte välja AMD kort!

Varför skulle man köpa en sämre produkt? Komiskt dock att dina 2 senaste Gpu varit nvidia också.

Permalänk
Medlem

@EvonS:

Klart de gör. Precis på samma sätt som i tidigare generationer. (3090 = titan)
Oavsett namn, pekar väl de mesta på att 3080 kommer med mer minne. Ganska illa bevarad hemlighet..

Visa signatur

Technörd

Permalänk
Medlem

12000kr är alltså en mer rimlig prissättning för detta kort

Visa signatur

E2160 @ 3,2 , scyte infinity, p35 ds3, 4gb corsair 800mhz, Sapphire 5850 1gb. Intel x-25 V 40gb, 1x western digital black. /laptop amd x2 2.2ghz 3gb 5730.

Permalänk
Avstängd
Skrivet av Rico01:

Funderade att köpa 3090 men om dessa siffror stämmer blir det nog ett 3080 i alla fall. Men... tiden får utvisa. Just nu känns det mest som en cirkus så jag sitter på sidlinjen eftersom jag inte sitter i sjön tack o lov. Mitt 2080 tuffar på alldeles utmärkt.

Jag sitter på ett 1070 och det känns fortfarande inte som om det är lönt att uppgradera... spelar mest 5-8 år gamla spel.

Permalänk
Medlem
Skrivet av Ejziponken:

Förstår inte ens poängen med 3090 om detta stämmer. Den som köper ett 3090 måste ju bli idiotförklarad?

Jag skulle vilja ha en banner på SweC som permanent rullar meddelandet:

"Många använder grafikkort för andra saker än spel, och där har minnesmängden ibland mycket stor betydelse!"

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

Jag skulle vilja ha en banner på SweC som permanent rullar meddelandet:

"Många använder grafikkort för andra saker än spel, och där har minnesmängden ibland mycket stor betydelse!"

+2000

Visa signatur

SPELA: 13900K - Gaming X Trio 4090
LEVA: OnePlus 12 - MacBook Air M2 13"
PLÅTA: Canon C70, R3, 1DX mkII, BMPCC6K
LYSSNA: KRK Rokit RP8 G4, Beyerdynamic DT 1990 PRO
FLYGA: DJI FPV, Avata

Permalänk
Medlem
Skrivet av cyklonen:

Jag skulle vilja ha en banner på SweC som permanent rullar meddelandet:

"Många använder grafikkort för andra saker än spel, och där har minnesmängden ibland mycket stor betydelse!"

Jupp, t.ex. 3D-rendering och GPU accelererade simuleringar. 10GB äts till frukost i sådana applikationer.

Permalänk
Medlem
Skrivet av cyklonen:

Jag skulle vilja ha en banner på SweC som permanent rullar meddelandet:

"Många använder grafikkort för andra saker än spel, och där har minnesmängden ibland mycket stor betydelse!"

Ja det är duktigt tröttsamt med alla som tror att FPS alltid är måttstocken på hur bra någon produkt är. Brukar ju vara samma visa när ex. Threadripper siffror dyker upp, "Men min 9900K ger ju fler FPS, varför skall jag lägga 25000 på den CPUn ?"