Nvidia-grafikkort med 7 552 CUDA-kärnor i prestandatest

Permalänk
Avstängd

Det är knappast ett gamingkort! Förmodligen ett Tesla

Permalänk
Medlem

Vilken tur att man avskyr nvidia, är inte en av dem som låter mig mjölka av deras kannibalism produkter

Permalänk
Medlem
Skrivet av Oneone:

haha ja... men hoppas på att AMD lyckas med sitt kommande graffekort så att det blir lite konkurens...

Tror AMD också kommer med något riktigt giftigt. Verkar tyda på att RDNA 2 är riktigt bra. Krysslådans grafik kommer t ex troligen hamna nära 2080ti i prestanda t ex och då kan vi mest troligt vänta oss ett kort till pc konsumenter som är ruskigt bra. Bara hoppas priset blir vettigt också

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem

Jag är säker på att det är ett grafikkort för HPC marknaden ett Tesla och det kan möjligtvis jämföras mot kommande AMD Arcturus även fast dessa kort inte bör jämföras så utan i kompletta noder efter uppgift, effekt och kylning.
Jag tror Ampere är som volta och inte avsett för konsumenter.

Permalänk
Medlem
Skrivet av EvonS:

Tror AMD också kommer med något riktigt giftigt. Verkar tyda på att RDNA 2 är riktigt bra. Krysslådans grafik kommer t ex troligen hamna nära 2080ti i prestanda t ex och då kan vi mest troligt vänta oss ett kort till pc konsumenter som är ruskigt bra. Bara hoppas priset blir vettigt också

Väntar otåligt på ett riktigt vasst AMD-kort här å. Vill pensionera GTX1070't och ta klivet från 1440p till 4k.

Det borde välan ploppa upp rykten om detta nya AMD-kort snart.

Permalänk
Medlem

@brillorm: 5:e mars tror jag AMD skulle annonsera någonting.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Snusfri

48GB kortet skulle sitta riktigt fint.
Behöver mycket VRAM.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem

Inte alltid prisvärt med nVidia men hittills alla kort och drivrutiner fungerat bra, hoppade dock över Turing vars prestanda och funktioner inte kändes motiverat för priset. Men med Ampere blir det nog uppgradering fast det ska till ordentligt prestandalyft och effektiv och tyst partnerkylare.

Visa signatur

CPU: Intel i9-12900K Cooler: Asus TUF Gaming LC 240 ARGB MB: Asus TUF Gaming Z690 Plus Wifi D4 GPU: Asus TUF GeForce RTX 3080 Ti 12GB Case: In Win D-Frame HD: Intel Optane 900P 280GB, WD Black SN850 1TB Mem: Kingston Fury Beast RGB 3600MHz CL17 32GB PSU: Corsair AX760 OS: Win11 Pro

Permalänk
Datavetare

OBS: total spekulation följer, enbart baserat på observation kring hur Nvidia brukar segmentera sina kretsar.

Det är 118 SM i läckan. Sällan fulla kretsar redan från start, vidare så är blir inte 118 multiplicerat med 2/3 ett heltal. x04 kretsen har varit exakt 2/3 av största kretsen hos i alla fall Maxwell, Pascal och Turing.

En full krets skulle kunna vara 120 SM, vilket ger en x04 krets med 80 SMs och en x06 med 60 SMs.

Om man sedan antar att Nvidias uttalande om 50 % högre prestanda avser flyttalskapacitet ska vi nog ändå räkna med lite lägre klockfrekvenser.

Klockfrekvensen för 2080 Ti är 1545 MHz för maxboost, 50 % högre rå beräkningsprestanda nås då ~1300 MHz.

50 % snabbare till halva strömförbrukningen känns ändå lite väl. Men om det är lägre frekvens lär nog ändå perf/W skruvats upp en hel del.

Angående chiplet GPUer. Det är tydligen rejäla tekniska hinder kring detta, men Intel har ju sagt att de kommer lansera något sådan 2021.

Nvidia har en hel del forskning på det ämnet, samt sommaren 2019 visade man upp en prototyp för maskininlärning baserad på hela 32 chiplets.

Frågetecken som kvarstår är om MCM "GPUer" kommer fungera bra för traditionell 3D-grafik, eller om det primärt kommer användas för den nu snabbt framväxande GPGPU-användningen...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av EvonS:

Tror AMD också kommer med något riktigt giftigt. Verkar tyda på att RDNA 2 är riktigt bra. Krysslådans grafik kommer t ex troligen hamna nära 2080ti i prestanda t ex och då kan vi mest troligt vänta oss ett kort till pc konsumenter som är ruskigt bra. Bara hoppas priset blir vettigt också

Tror vi behöver påminna oss om att Microsoft nästan bara pratar om Series X och inte deras lägre presterade Series S, medan Sony gör tvärt om och pratar om PS5 men inte ännu nämnt Pro.

Ska bli intressant och se hur allt faller ut. Jag tror på SS < PS5 < SX < PS5P men att Pro kommer senare, kanske året efter?

Permalänk
Medlem
Skrivet av Yoshman:

--snip--

Frågetecken som kvarstår är om MCM "GPUer" kommer fungera bra för traditionell 3D-grafik, eller om det primärt kommer användas för den nu snabbt framväxande GPGPU-användningen...

GPGPU kunder köper gladeligen chiplets då de redan fixar separata grafikkort, machine learning/inference är mer beroende av datalokalitet (speciellt på komplexa nätverk med många slumpmässiga hopp), men inte lika mycket som vanlig 3d grafik där latensen är viktigast.

I princip finns det inget som gör att man inte kan lösa problemet som ryzen där minne/IO sitter på en separat krets (borde också ha LLC för GPUer), då skulle det bli lättare att lägga upp program som renderar sin del av skärmen.

Det skulle dock skapa overhead och inte bli fullt lika effektivt som en monolitisk lösning.

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Medlem
Skrivet av wowsers:

Det skulle dock skapa overhead och inte bli fullt lika effektivt som en monolitisk lösning.

Mmm, men samtidigt gör det kanske att man kan slänga så mycket mer rå beräkningskraft på en krets för samma pengar, att det ändå går plus.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Datavetare
Skrivet av wowsers:

GPGPU kunder köper gladeligen chiplets då de redan fixar separata grafikkort, machine learning/inference är mer beroende av datalokalitet (speciellt på komplexa nätverk med många slumpmässiga hopp), men inte lika mycket som vanlig 3d grafik där latensen är viktigast.

I princip finns det inget som gör att man inte kan lösa problemet som ryzen där minne/IO sitter på en separat krets (borde också ha LLC för GPUer), då skulle det bli lättare att lägga upp program som renderar sin del av skärmen.

Det skulle dock skapa overhead och inte bli fullt lika effektivt som en monolitisk lösning.

Att chiplets fungerar i många nuvarande GPGPU fall vet vi just som du påpekar detta skalar även med multi-GPU.

Fast finns en fundamental skillnad mellan hur problemet är löst i Ryzen och hur man måste angripa problemet för 3D-grafik: en naiv lösning kräver direkt brutal bandbredd mellan chiplets, är just den punkten jag förstått att forskningen är riktad mot då man måste ha en annan lösning här.

Intel pratar om att deras "OneAPI" innehåller den massage av problemen som krävs för att hantera de GPGPU-fall som idag inte skalar bra mellan GPU-kretsar. Frågan är hur lätt det är att behålla DX/Vulkan APIet och ändå köra det på något vettigt sätt över chiplets.

Rykten gör ju gällande att kretsen efter Ampere kommer heta Hopper och att det är en chiplet-design. Om det nu är sant kvarstår frågan om Hopper är en generell GPU eller om det enbart riktar sig mot datacenter.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

En chiplet-design som skulle skala bra för spel idag är att ha en större chiplet för raster-beräkningar och flera små och billigare chiplets för raytracre-beräkningar.
Raster skalar inte så bra medan raytrace skalar nästintill perfekt, ev. att ha 2 raster chiplets om nvidia lyckas använda en generell lösning som inte kräver något från spelutvecklarna.

Permalänk
Medlem
Skrivet av Yoshman:

Att chiplets fungerar i många nuvarande GPGPU fall vet vi just som du påpekar detta skalar även med multi-GPU.

Fast finns en fundamental skillnad mellan hur problemet är löst i Ryzen och hur man måste angripa problemet för 3D-grafik: en naiv lösning kräver direkt brutal bandbredd mellan chiplets, är just den punkten jag förstått att forskningen är riktad mot då man måste ha en annan lösning här.

Intel pratar om att deras "OneAPI" innehåller den massage av problemen som krävs för att hantera de GPGPU-fall som idag inte skalar bra mellan GPU-kretsar. Frågan är hur lätt det är att behålla DX/Vulkan APIet och ändå köra det på något vettigt sätt över chiplets.

Rykten gör ju gällande att kretsen efter Ampere kommer heta Hopper och att det är en chiplet-design. Om det nu är sant kvarstår frågan om Hopper är en generell GPU eller om det enbart riktar sig mot datacenter.

AMD har också lagt ganska mycket jobb som indirekt hjälper MCM GPUer.

Vega 10/20 har två "separata" L2 cache block, varav halva GPUn har snabb access till den närmaste och saktare till längre bort. Pga detta renderar dessa GPUer bilder i två separata halvor, vilket exakt är den typ av beteende som MCM arkitekturer behöver, men även här ser man begränsningar som dålig prestanda med oskärpsfilter som behöver logiskt nära data som fysiskt är långt bort.

Navi lade till en till cache nivå och har jobbat med datakomprimering för att fixa bandbreddskraven till VRAM vilket även skulle hjälpa till i MCM scenarion, och de har patent på minneshantering som "smart" kan välja närmaste cache/rammodul latensmässigt baserat på inbakad data i minnestaggar (som då dessutom delas ut globalt), detta kan potentiellt också vara det AMD gjort för att "ena" flera CCX i Zen3.

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Medlem
Skrivet av Wipen:

Håller med, sitter på exakt det problemet. Man vill kunna trycka ut 300fps på valfri AAA-titel med höga inställningar då det finns skärmar i den upplösningen med 240hz. Men grafikkorten kostar 13tkr idag och ger en knapp 30% ökning, vilket ändå är långt ifrån den fps man vill ha på fina titlar.

Vad pratar du om? Du ska få 80 fps i normala spel(Max allt) och utan Rtx.