Ampere är här – Geforce RTX 3080 dubblerar prestandan hos RTX 2080

Permalänk
Medlem

Stämde inte 10K cuda? Eller är det inte uppdaterat än?

Visa signatur

Gilla min Guide till sweclockers tävlingen! :D : #12510535

Min Sweclockers-låt som aldrig deltog i Jultävlingen. Enjoy! https://www.youtube.com/watch?feature=player_embedded&v=g7gof...

Permalänk
Medlem

Hm. Så PCIe 4.0.. Måste jag uppgradera moderkortet då alltså för ett 3080?

Visa signatur

Case: Fractal Design Torrent Solid Black MOBO: ASUS ROG STRIX X670E-A GAMING WIFI CPU: AMD Ryxen 7 7800X3D CPU cooler: Noctua NH-D15 RAM: G.Skill Trident Z5 Neo DDR5 6000MHz CL30 32GB GPU: MSI RTX 3080 GAMING Z TRIO 12G PSU: ROG Strix 1000W Gold Aura Edition M2: Kingston Fury Renegade 2TB Fans: 4x Noctua NF-A12x25
Monitor: ASUS ROG Swift PG27AQDM 27" 240Hz 1440p OLED QHD Mouse: Razer DeathAdder v3 Pro Wireless
Mousepad:
InfinityMice Speed V2 Keyboard: Wooting Two HE Headset: Audeze Maxwell Mic: Blue Yeti X

Permalänk
Medlem
Skrivet av BeardedRobot:

Jag tror att Nvidia lyckats med att tillverka kylning som överträffar aftermarket versionernas. Det återstår självklart att se men jag tror att den enorma mängden energi ampere kräver också behöver en ny kyllösning och inte samma design som förut. Jag lär nog köpa FE denna gång.

Jag tänker precis som du. Gillade verkligen designen på den nya kylaren, det verkar smart som tusan. Vi får se om det funkar lika bra i praktiken också, tänker avvakta tester innan jag slår till.

Visa signatur

Fractal Define 7, Aorus X570 Xtreme, Ryzen 5950X, Fractal Celsius+ S36, 64GB TridentZ Neo CL14/3600 RAM, MSI RTX 3090 Suprim X, 5TB NVMe SSD + 12TB SATA SSD + 64TB Seagate IronWolf Pro HD, Fractal Ion+ 860W Platinum, LG 32GP850 + LG 42C2 OLED

Permalänk
Medlem
Skrivet av BeardedRobot:

Väldigt imponerad av det Nvidia gjort med denna nya generation, speciellt RTX I/O som de nämde lite under sändningen. Jensen hävdar att den eliminerar laddningstider i spel, vilket är i princip PS5:s huvudattraktion. Om Nvidia redan lyckats tillföra PC det som skulle göra PS5 unikt innan konsollen ens har släppts så är det svårt att inte bli imponerad. Extremt ambitiöst.

Absolut, blir spännande
Däremot faller det halvt ändå på att spelen måste utvecklas för alla som inte har hårdvaran. Så det bromsas likt förbannat. På PS5 kan spelen designas helt utifrån att alla har tillgång till hårdvaran. Så vissa fräna grejer på exklusiva spel till PS5 kommer vi inte få se på år och dagar på andra plattformar. Men det kommer ju ändå tillföra godis till de som kör ett 3xxx-kort i form av snabbare laddningstider osv Bara det att spelen i sig inte kan designas kring det.

Permalänk
Medlem
Skrivet av Donnerstal:

Hahahahaha. Du menar väl att 3080 har 8704 CUDA-kärnor, och att 3090 har 10496?

måste vara felskrivning av nvidia inte fan har 3090 kortet 10496 cuda heller

Visa signatur

[Intel Core i9@13900KF Raptor Lake@5,5Ghz Oc][Asus ROG Z790 HERO[G-Skill RGB 32GB 6600Mhz cL34][WD Back 2TB NvMe][2TB Samsung 970 Evo + 2x8Tb Samsung 870 Qvo spel disk][Msi RTX 4090 Gaming Trio-X][ASUS ROG Swift OLED PG48UQ][Windows 11][1000/1000Mbits Telia fiber][Razer Ornata Tangentbord.

Permalänk
Medlem

350W! Jösses. Kanske folk snart får användning för sina 600W+ nätagg

Visa signatur

Core i7 7700K | Titan X (Pascal) | MSI 270I Gaming Pro Carbon | 32 GiB Corsair Vengeance LPX @3000MHz | Samsung 960 EVO 1TB

Permalänk
Medlem

Alltså blev riktigt positivt överraskad för en gångs skull, inte ens i mina best case scenarior kunde jag ha trott detta. Sen slog realisten i mig till och tänkte detta är nog säkert bara i raytracing prestanda i specifika fall osv men sen dök CUDA cores mängden fram och man fick en riktigt WTF moment, finns ju nån hopp då att det faktiskt kan stämma. CUDA kärnorna kanske bytt lite skepnad dock och Nvidia kanske grovt tolkar kärnorna på något tvistat sätt kanske (host 3.5GB = 4GB? host). Bara spekulationer men tror alla fick lite WTF moment feeling när de läste CUDA kärnor antalet.

Mindre imponerande är såklart form faktorn och förbrukningen men 3070 är ändå skapligt ok på den punkten också och presterar ju ändå rätt hyffsat också, för mig personligen är det ingen fara men finns ju flera SFF enthusiaster som vill ha så kompakt som möjligt som lär va åtminstone lite besvikna.

Visa signatur

Intel® Core i7-13700K @ 5.7/5.6GHz | ASRock Z690 Extreme | G.Skill Trident Z 32GB @ DDR4-3400 CL14 | Samsung EVO series M.2 + Sata SSDs 2TB | Intel Arc A750 | SuperFlower Titanium 1000W | Gigabyte M32Q 32"/1440p 165Hz | Arctic Freezer II 360 AIO | Phanteks P500A D-RGB | Windows 10 & 11 x64 Professional

Permalänk
Medlem
Skrivet av Ejziponken:

Hm. Så PCIe 4.0.. Måste jag uppgradera moderkortet då alltså för ett 3080?

Nej. Rent tekniskt är det kompatibelt. Sannolikt gör det relativt liten prestandaskillnad också, men tekniken "RTX IO" kan bevisa motsatsen sen när det finns implementerat i praktiken i någon speltitel (håll inte andan).

Visa signatur

i7-2700K 5GHz | 32GB DDR3-1600 | ASUS Maximus V Gene | GTX 980 2-way SLI

Permalänk
Medlem
Skrivet av Ejziponken:

Hm. Så PCIe 4.0.. Måste jag uppgradera moderkortet då alltså för ett 3080?

nej den är kompatibel med pci-e 3.0 så klart

Visa signatur

[Intel Core i9@13900KF Raptor Lake@5,5Ghz Oc][Asus ROG Z790 HERO[G-Skill RGB 32GB 6600Mhz cL34][WD Back 2TB NvMe][2TB Samsung 970 Evo + 2x8Tb Samsung 870 Qvo spel disk][Msi RTX 4090 Gaming Trio-X][ASUS ROG Swift OLED PG48UQ][Windows 11][1000/1000Mbits Telia fiber][Razer Ornata Tangentbord.

Permalänk

Varför tänker inte folk ett extra varv gällande prestanda och förbrukning?

Ett RTX 3080 drar 320W medan vanliga RTX 2080 drar 215W och RTX 2080 Super drar 250W. Det är en ofantlig skillnad och just varför det prestandamässigt förmodligen kommer vara mycket snabbare än ett 2080 Ti som också det drar 250W.

Det är en hel del extra värme och också en anledning till att de var tvungna att göra en helt ny typ av kylare. Det rena prestandaökningen från 2xxx generationen till 3xxx generationen kommer fortfarande vara 30% eller runt däromkring.

Permalänk
Datavetare
Skrivet av Chris_Kadaver:

Stämde inte 10K cuda? Eller är det inte uppdaterat än?

Det borde stämma, från Nvidia officiella sida

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ejziponken:

Hm. Så PCIe 4.0.. Måste jag uppgradera moderkortet då alltså för ett 3080?

det är väl det ingen som direkt vet, om " äldre pcie 3 " kommer flaska de nya rtx korten. men inte omöjligt.

Visa signatur

Chassi Fractal design R6 USB C, Skärm LG UltraGear 38GN950 38" Moderkort ASUS ROG STRIX X570-E GAMING CPU 5800X3D RAM G.Skill 4x8 DDR4 3600MHz CL16 Ripjaws SSD 1 Samsung 970 EVO Plus 250GB SSD 2 CRUCIAL MX500 2TB. SSD 3 WD SN770 2TB,SSD 4 SAMSUNG 970EVO 512GB, GPU Gigabyte Geforce RTX 3080 10GB AORUS XTREME NON LHR. Nätagg Corsair RM1000x.

Permalänk
Medlem

3070 kommer INTE vara snabbare än 2080 Ti i vanliga spel.

Det är BARA i spel med Raytracing och DLSS...

Så det är ganska fult marknadsfört...

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Viking
Skrivet av pytonOrm:

måste vara felskrivning av nvidia inte fan har 3090 kortet 10496 cuda heller

Jadu, det är inte ändrat än iaf.

Visa signatur

RTX 3080 Gaming X Trio | Ryzen 7 5800X | TridentZ Neo 32GB @3600MHz CL16 | Asus X470-F ROG Strix | Lian Li PC-O11 Dynamic Svart | NZXT Kraken Z73 | 9x Phanteks T30 | LG OLED 27GS95QE 240Hz

Permalänk
Medlem
Skrivet av Yoshman:

Det är nog ingen felskrivning givet att man nämner detta på Nvidias sida
https://i.imgur.com/zfox2cP.png

Frågan är bara hur man uppnått denna fördubbling i kapacitet per SM. Vi lär veta mer när Nvidia släpper sitt whitepaper runt Ampere, det kanske kommer i samband med lansering av 3080.

Precis. De har gjort något med deras SMs. 2x FP 32 alltså stämde läckorna i princip. 2 x 5248 = 10 496 st osv. Så nVidia räknar det dubbla mot läckorna.

3070 har 5 888 st. Alltså 5888/2= 2 944 st vilket inte är en full GA104 som borde ha 3072 cores. Eller som nVidia räknar: 3072x2= 6 144st. Bör alltså komma ett 3070Ti/super lite senare.

Visa signatur

Dator 1: Meshify S2 Vit | RM750x | B550-E | 5700X | 32Gb Lpx 3600 | 3060Ti Gaming X Trio | 970 Evo Plus 1TB + 850 Evo 500GB|
Dator 2: FD Define R5 Vit | RM750x | B550-F Wifi | 3800X | 32Gb Lpx 3200 | SN850 1TB+850 Evo 500GB+Sandisk Plus 960GB | 1070 Gaming Z - Playstation 5 | Wii U | Nintendo Switch

Permalänk
Medlem
Skrivet av andreas_dock:

Precis det jag hade hoppats på med, då jag ville ta klivet till 4k@120hz med chroma 4:4:4, men inte nödvändigtvis ha absoluta topp-korten då jag spelar äldre / mindre krävande spel.

Edit: Såg nu att sidan hos Nvidia är uppdaterad med korrekta spec’s!
HDMI 2.1 på samtliga 3090, 3080 och 3070

nja korrekta info helt fel inte om cuda cores iaf på korten way to far

Visa signatur

[Intel Core i9@13900KF Raptor Lake@5,5Ghz Oc][Asus ROG Z790 HERO[G-Skill RGB 32GB 6600Mhz cL34][WD Back 2TB NvMe][2TB Samsung 970 Evo + 2x8Tb Samsung 870 Qvo spel disk][Msi RTX 4090 Gaming Trio-X][ASUS ROG Swift OLED PG48UQ][Windows 11][1000/1000Mbits Telia fiber][Razer Ornata Tangentbord.

Permalänk
Medlem

DP 1.4a ... har jag förstått det rätt att det inte går att köra 4K @ 120 utan DSC med den standarden? Synd i så fall, men DP 2.0 är väl förstås alldeles för nytt, så det hann inte med.

HDMI 2.1 verkar fixa 4K @ 144 med HDR utan DSC, så det är ju trevligt, men det förutsätter ju att det kommer vettiga skärmar med HDMI 2.1 också.

Skrivet av MarkSix:

Själv så kommer jag troligtvis att ge bort mitt.

Sambon kommer ärva mitt 2080 Ti, så får hon en trevlig bump upp från sitt 1080.

Visa signatur

5950X, 3090

Permalänk
Medlem

Äntligen!!!
RIP till orimliga begagnatpriser på 1080 / 1080 Ti-korten, dvs 4000kr+ för det senare.

Permalänk
Medlem

Undrar om inte FE kommer få bekymmer i vertikal potision. Om det nu finns trippeslot i vertikal det vill säga, för 3090.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Avstängd
Skrivet av Juus1:

Glad att jag fick sålt mitt 2080 innan denna streamen.

//C

Tänker skicka tillbaka kortet, den är trasig 😬

Permalänk
Medlem

Det borde bli dubbla prestandan när man jämför 3090 mot 1080Ti?

Visa signatur

13900K - NH D15 - Maximus Z790 Hero - 32gb G-Skill 7200Mhz - Intel 900P 480Gb -Kingston Renegade 2Tb -Samsung 980 PRO 2TB - Samsung 980 PRO 1TB - Gigabyte RTX 4090 GAMING OC - AX 1600i - Phanteks P600s -Alienware AW3423DW - Beyerdynamic T5 MK III - Creative Sound Blaster GC7 - ROG Strix SCAR 16 (2023) - G634JZ-NM015W.

Permalänk
Medlem

Vackert! Frågan är om man ska satsa på 3070 eller vänta in eventuella 3060 / Big Navi för 144Hz/1080p.

Visa signatur

5800X3D @Kombo Strike 3 / 32GB DR RAM @3800MHz,CL16 / 3090 Turbo @1695MHz,0.750V

Permalänk
Medlem
Skrivet av danielwerner:

Jag blir mest fundersam om man ska köra på FE eller aftermarket.

Ni som har varit med förut har garanterat bättre koll än jag, men jag har fått känslan - iaf historiskt - att FE nästan är i lite demonstrationssyfte. Man får ett grundkort men kylning och optimering kan vara lite sisådär.

Har FE både på mitt och ena sonen har ett 2070 FE, är nöjd med ljudnivå och så, men framförallt att det i 2000-generationen var 2-slots kort som ser bra ut. ”Alla” 3dje-partskylare ser ju ut som plast-party/transformers och tar mer plats.

Grymt spännande att se hur 3080 presterar gentemot 2080ti på riktigt! Märkligt med 10GB VRAM, ”borde” ha varit 12-16GB på 3080 och 24GB på 3090.

Visa signatur

Dator: Mac

Permalänk
Datavetare
Skrivet av Dinkefing:

Varför tänker inte folk ett extra varv gällande prestanda och förbrukning?

Ett RTX 3080 drar 320W medan vanliga RTX 2080 drar 215W och RTX 2080 Super drar 250W. Det är en ofantlig skillnad och just varför det prestandamässigt förmodligen kommer vara mycket snabbare än ett 2080 Ti som också det drar 250W.

Det är en hel del värme och också en anledning till att de var tvungna att göra en helt ny typ av kylare.

Det är tyvärr också en förväntad utveckling givet hur noderna nu skalar sedan "Dennard scaling" havererade. Tyvärr verkar trenden bara accelerera.

D.v.s. transistordensiteten ökar mycket snabbare än energieffektiviteten. Dennard scaling sa i princip att W/mm² höll sig relativt konstant vid krympningar, det stämmer allt sämre för varje krympning.

De flesta är överens om att CPU sidan, möjligen även GPU-sidan, kommer behöva börja skruva ned frekvenserna på 5 nm och framåt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Dizzö:

3070 kommer INTE vara snabbare än 2080 Ti i vanliga spel.

Det är BARA i spel med Raytracing och DLSS...

Så det är ganska fult marknadsfört...

Med tanke på de nya cuda core specsen är det inte alls förvånande om den är kraftfullare, får se i tester.

Permalänk
Inaktiv
Skrivet av edson:

Äntligen!!!
RIP till orimliga begagnatpriser på 1080 / 1080 Ti-korten, dvs 4000kr+ för det senare.

Förhoppningsvis även 2000-serien. Dessa kommer man nog nästan få ge bort.

Permalänk
Medlem

så det dröjer innan butikerna listar korten ? varför är inte 3070 ti kortet framlyft än. eller kommer den senare efter december tro ?

Visa signatur

[Intel Core i9@13900KF Raptor Lake@5,5Ghz Oc][Asus ROG Z790 HERO[G-Skill RGB 32GB 6600Mhz cL34][WD Back 2TB NvMe][2TB Samsung 970 Evo + 2x8Tb Samsung 870 Qvo spel disk][Msi RTX 4090 Gaming Trio-X][ASUS ROG Swift OLED PG48UQ][Windows 11][1000/1000Mbits Telia fiber][Razer Ornata Tangentbord.

Permalänk
Medlem
Skrivet av jorgen69:

Det borde bli dubbla prestandan när man jämför 3090 mot 1080Ti?

Jensen nämnde att 3080 var dubbla prestandan mot 2080 som är kraftfullare än 1080 Ti så....

Permalänk
Medlem

Nu är jag med på poängen med den skumma kylaren, men jag vet inte om jag tycker det verkar särskilt bra med tanke på att den kommer blåsa varmluft rakt upp i cpu-kylaren, om man kör luftkylt.

Max 350W för 3090 säger mig att det kan tänkas bli VARM luft rakt upp i cpu-kylaren.

Men visst, det kan ju vara att majoriteten av värmen sticker ut direkt ur chassit via den andra fläkten, även om jag tror det först när jag ser ett oberoende test som bekräftar det.

Visa signatur

5950X, 3090

Permalänk
Medlem
Skrivet av BenjiBE:

Tänker skicka tillbaka kortet, den är trasig 😬

Absolut inte. 🙃

//C

Visa signatur

Jonsbo D31 Mesh
MSI B450M Mortar
AMD Ryzen 5800X3D
Corsair LPX 2x16Gb 3600MHz
AMD Radeon 7800XT Nitro +