Nvidias nästa generations grafikkylare sägs bli en dyr pjäs

Permalänk
Medlem
Skrivet av Nekrol:

nja, det verkar ju ligga runt 300 watt.
Ett 2080ti kan ju dra runt 280-300 watt så de verkar ha fått ner power draw som fan.
Jag kör på ett Evga G3 850 just nu, 9700K på 5GHz och ett 2080ti. Fungerar fin fint, kanske inte kommer köra någon extrem överklockning men lite OC på kortet klarar det nog av också.

2080Ti har en TDP på 250W och här listas TDP på 320W, så de nya korten kommer troligtvis kunna dra nära max för PCIe (2st 8-pin på 150W vardera plus 75W från moderkortet ger 375W max). Jag förstår inte hur du får det till att de fått ner power draw som fan. Prestanda per watt kanske blir lägre men det ser ut att bli riktigt törstiga kort, som kommer utveckla massor av värme.

Permalänk
Medlem
Skrivet av Daemon85:

@Nekrol: mina personliga kriterier? Jag ser inte meningen med en ny generation om det är samma prestanda för samma pengar

Alla resonerar inte i bang for buck när de ska köpa en dator.
Korten var fortfarande 30-50% starkare än pascal.
Jag som gick från 970 till 2080ti fick en redig performance jump, vilket var roligt.

Permalänk
Medlem
Skrivet av DasIch:

2080Ti har en TDP på 250W och här listas TDP på 320W, så de nya korten kommer troligtvis kunna dra nära max för PCIe (2st 8-pin på 150W vardera plus 75W från moderkortet ger 375W max). Jag förstår inte hur du får det till att de fått ner power draw som fan. Prestanda per watt kanske blir lägre men det ser ut att bli riktigt törstiga kort, som kommer utveckla massor av värme.

Googlade bara faktiskt powerdraw på ett 2080ti och inte specad TDP.
Men ja, ligger deras ref kort på 2500MHz som ryktena säger med en TDP på 320W så skulle jag nog påstå att de har ökat sin effektivitet avsevärt.

Permalänk
Medlem
Skrivet av DasIch:

2080Ti har en TDP på 250W och här listas TDP på 320W, så de nya korten kommer troligtvis kunna dra nära max för PCIe (2st 8-pin på 150W vardera plus 75W från moderkortet ger 375W max). Jag förstår inte hur du får det till att de fått ner power draw som fan. Prestanda per watt kanske blir lägre men det ser ut att bli riktigt törstiga kort, som kommer utveckla massor av värme.

Det är för att dom gått på dom stora chippen, dessa kommer att ha galet många transistorer istället för att dra mindre ström

edit. OCH dom kommer att klockas högt, trots stora chip, det är därför det kommer att krävas mer kylning än vanligt. Kanske vi får börja prata om Dustbustern igen? Men vem bryr sig, så länge det är snabbare än något annat

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av HenrikM:

@blade80: nu måste väll spelmakarna designa sina spel för den breda massan och inte de som har ett 24GB grafikkort för 15 000 kr.
Jag vet inte hur stor utvecklingsbudget jag hade lagt på en så liten del av marknaden.

Exakt.. Så är det. Det är därför spel ofta tar större kliv när nya konsoler släpps. Sonys lagrings-lösning kommer i sig bara det innebära PS5-exlusiva spel som inte kommer ha något motsvarande på PC.

Ett tips är att kika på Linus "förlåt-video" han la upp nyligen där han ber redigt om ursäkt och även går igenom hur genial Sonys lösning är. Så visst, flera av oss har feta datorer, med råge. Men det kvittar, när spel designmässigt ändå måste utvecklas för den breda massans datorer..

Det ska bli intressant att se vilka exklusiva spel PS5:an kommer få de närmsta åren.

Permalänk
Medlem

Kylaren får kosta en miljard om den så vill, för jag kommer inte att köpa den, så länge som det kommer något annat från tredjepart som är bättre (tystare och effektivare). Vilket alltid har inträffat hittills.

Personligen ser jag ingen poäng med den udda designen (funktionsmässigt alltså, för utseendemässigt skiter jag fullständigt i), men det kanske visar sig att det är smartare än det verkar. Jag tvivlar.

Visa signatur

5950X, 3090

Permalänk
Medlem
Skrivet av the squonk:

Det är för att dom gått på dom stora chippen, dessa kommer att ha galet många transistorer istället för att dra mindre ström

edit. OCH dom kommer att klockas högt, trots stora chip, det är därför det kommer att krävas mer kylning än vanligt. Kanske vi får börja prata om Dustbustern igen? Men vem bryr sig, så länge det är snabbare än något annat

2080Ti bygger ju på motsvarande krets från den generationen, alltså TU102 mot denna GA102.

Det ser inte ut att bli en rolig historia för temperaturerna i datorn. Kanske blir så att man kommer behöva referenskylaren om man inte vattenkyler. Liksom, hur kul blir det när all den där värmen dumpas i chassit?

Permalänk
Medlem
Skrivet av Vaneriuz:

Exakt.. Så är det. Det är därför spel ofta tar större kliv när nya konsoler släpps. Sonys minnes-lösning kommer i sig bara det innebära PS5-exlusiva spel som inte kommer ha något motsvarande på PC.

Ett tips är att kika på Linus "förlåt-video" han la upp nyligen där han ber redigt om ursäkt och även går igenom hur genial Sonys lösning är. Så visst, flera av oss har feta datorer, med råge. Men det kvittar, när spel designmässigt ändå måste utvecklas för den breda massans datorer..

Det ska bli intressant att se vilka exklusiva spel PS5:an kommer få de närmsta åren.

Så länge man har en nvme disk så verkar allt vara lugnt dock.
En dator med ett 2070 och nvme disk kör ju tydligen demot bättre än en PS5. Och då var ju ändå demot skapat för just PS5 i samarbete med Sony. Och den informationen kommer ju ändå från en top dog hos EPIC.
Återstår att se hur imponerande den här lösningen faktiskt är.

Häftig teknologi hur som helst, och nu på torsdag får vi ju se första glimten av PS5 spel in action.

Permalänk
Medlem

Förbaskat roligt med en ny kyldesign, blir spännande att se jämförelseresultat när benchmarks kommer ut, och först blir det väl Nvidias egna argument (och förhoppningsvis bevis) för lösningen. Blir en spännande sensommar/höst med båda AMD och Nvidia!

Permalänk
Medlem
Skrivet av Nekrol:

Så länge man har en nvme disk så verkar allt vara lugnt dock.
En dator med ett 2070 och nvme disk kör ju tydligen demot bättre än en PS5. Och då var ju ändå demot skapat för just PS5 i samarbete med Sony. Och den informationen kommer ju ändå från en top dog hos EPIC.
Återstår att se hur imponerande den här lösningen faktiskt är.

Häftig teknologi hur som helst, och nu på torsdag får vi ju se första glimten av PS5 spel in action.

Ja absolut, när det gäller demot. Men det där demot är mer ett smakprov på motorn än på PS5:an.

Och ja, hoppas på fint godis på torsdag

PS. Av nån outgrundlig anledning skrev jag "Sonys minnes-lösning"... Jag menade såklart "Sonys lagrings-lösning" 😅
Har korrigerat i ursprungskommentaren.

Permalänk
Medlem

Blir helt klart en RDNA2 nästa kort... om inte annat så bara för att markera mot Nvidia och deras "Apple" priser... OOOM nu inte AMD hakar på prishajktåget de också...

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem

Hoppas verkligen att priserna sjunker, tyckte mitt 1080 var dyrt när jag betalade strax över 5k för det..

Visa signatur

Laddar upp lite spelvideos på Youtube
Livestreamar ibland på Twitch

Permalänk
Medlem
Skrivet av medbor:

Nej, inte för gaming 8-10 kan man fylla idag, men 12 ligger utanför alla spel idag i 4K.

Antar att de vill få företag att använda dessa för att accelerera andra saker?

Det har jag svårt att tänka mig. Varför få företagen att köpa 15 000 kronors spelgrafikkort för 15 000 kr när man kan få dem att köpa samma kort för 80 000 kr istället, bara man skickar med lite upplåsta drivrutiner? Ja, lite extra VRAM med ECC kan de ju vara bussiga att skicka med också för den lilla extra slanten.

Permalänk
Medlem

En fundering bara... lite spånande.
Tänk om 3000 serien är en "refresh" av 2000 serien? Man har gått ner till 7nm. TDP ökar rejält till en bra bit över 300W. En ny kylarlösning för att kunna kyla kärnkraftverket. Varför? Nvidia har väl varit nöjd med ca 250w TDP max på sina toppkort? Varför nu 320-350W? 7nm borde ju leda till mkt lägre strömförbrukning och behåller man 250w TDP så blir det prestandaökning. Men kan va så att Nvidia vet nåt vi inte vet och är lite skraj? För vad? RDNA2. De har troligen uppgifter hur starka de korten är. Hur ska de då kunna behålla ledningen om de håller gränsen på 250W TDP och det räcker inte. Höja gränsen, rättare sagt slopa den helt och göra en "GTX480". (GTX480 var det snabbaste kortet och tog kronan av AMDs 5000 serie en gång i tiden. Hur de gjorde det var att de sket fullständigt i strömförbrukningen och gjorde ett kort som du kunde smälta tenn på )...
Kan vara att Nvidia gör en refresh helt enkelt på 2000 serien med små förbättringar samt mkt bättre raytracing men de har upptäckt att det räcker inte mot vad AMD kommer med.. så då slopar man sin TDP "gräns", fixar en fet kylare för att kunna behålla prestandakronan.
Jag vet inte.. bara lite spånande ang varför höja TDP gräns etc etc..
BTW toppkorten lär kosta en förmögenhet om de lyckas behålla 1a platsen prestandamässigt.

Redigerat..
hittade den här på tuben.. ganska bra resonemang om varför vad osv. En del ungefär det jag flurade om.
https://www.youtube.com/watch?v=BMMiP6z7-00

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av DasIch:

2080Ti har en TDP på 250W och här listas TDP på 320W, så de nya korten kommer troligtvis kunna dra nära max för PCIe (2st 8-pin på 150W vardera plus 75W från moderkortet ger 375W max). Jag förstår inte hur du får det till att de fått ner power draw som fan. Prestanda per watt kanske blir lägre men det ser ut att bli riktigt törstiga kort, som kommer utveckla massor av värme.

1080Ti har också en TDP på 250W, och min burk i sign drog ~530W från väggen när jag körde f@h på den, 850W lär fortfarande räcka till gott om prestanda även med 3000-serien/RDNA2 och Ryzen 4000

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av sweisdapro:

1080Ti har också en TDP på 250W, och min burk i sign drog ~530W från väggen när jag körde f@h på den, 850W lär fortfarande räcka till gott om prestanda även med 3000-serien/RDNA2 och Ryzen 4000

Jaha, men tänk om jag vill köra en 10900K överklockad? Det är över 350W bara där.

Nu var jag förvisso inte helt seriös angående nätagget. Jag vet att det räcker långt. Desto jobbigare lär det däremot bli att få bort värmen.

Permalänk
Medlem
Skrivet av DasIch:

Jaha, men tänk om jag vill köra en 10900K överklockad? Det är över 350W bara där.

Nu var jag förvisso inte helt seriös angående nätagget. Jag vet att det räcker långt. Desto jobbigare lär det däremot bli att få bort värmen.

Trolige kör man ett kärnkraftverk till cpu om man ska ha ett extremt grafikkort... ingen mening med ena eller andra annars.. så. ja Du får uppgradera huvudsäkringarna i huset en nivå upp och ägna några dagar att få en bra deal med nåt elbolag Det positiva är att du troligen kan sänka kostnaderna lite för uppvärmning och köra luftvärmepumpen på lite lägre nivå. Kan dock va bra med ett ljudisolerat rum som datorrum om uppgifterna om Nvidias nya GPU stämmer.... lär låta mer än vanligt också då den belastas.

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av EvonS:

Trolige kör man ett kärnkraftverk till cpu om man ska ha ett extremt grafikkort... ingen mening med ena eller andra annars.. så. ja Du får uppgradera huvudsäkringarna i huset en nivå upp och ägna några dagar att få en bra deal med nåt elbolag Det positiva är att du troligen kan sänka kostnaderna lite för uppvärmning och köra luftvärmepumpen på lite lägre nivå. Kan dock va bra med ett ljudisolerat rum som datorrum om uppgifterna om Nvidias nya GPU stämmer.... lär låta mer än vanligt också då den belastas.

Man kanske borde bygga en frys i källaren och sen streama över 1Tb ethernet?

Permalänk
Medlem
Skrivet av DasIch:

2080Ti bygger ju på motsvarande krets från den generationen, alltså TU102 mot denna GA102.

Det ser inte ut att bli en rolig historia för temperaturerna i datorn. Kanske blir så att man kommer behöva referenskylaren om man inte vattenkyler. Liksom, hur kul blir det när all den där värmen dumpas i chassit?

2080Ti ja, nu pratar vi om vanilla 3080 som kommer att få samma krets, om än nedskalad. Det har inte hänt sen GTX480.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av the squonk:

2080Ti ja, nu pratar vi om vanilla 3080 som kommer att få samma krets, om än nedskalad. Det har inte hänt sen GTX480.

Jo, fast jämförelsen som gjordes var mot 2080Ti, eller 250W TDP mot 320W.

Permalänk
Medlem
Skrivet av Reiker:

Kliver du upp till 4K upplösning så är det 2,25ggr mer pixlar än 1440p, alltså cirka 6,5x2,25=15Gb VRAM vid maxade spel som krävs.

Ahm, thats not how it works...

Tror du att det enda ett grafikkort allokerar är framebuffer? Och tror du att buffrar för 1440p kräver 6.5 GB?

Permalänk
Medlem
Skrivet av Daemon85:

då gissar jag att det blir samma sak när 3000 serien släpps som när 2000 serien släpptes. Man får typ ingen mer prestanda för samma pengarna... än en gång värdelöst nvidia

Jag gissar att du har fel.

Permalänk
Medlem
Skrivet av Fulci:

Så där fungerar det inte. Grafikkortsdata som textures med mera ökar inte i storlek för att man höjer upplösningen. Om nu inte spelet har extra höguplösta texturer för 4K läge, men det lär vara väldigt sällsynt om det ens finns.

Det som ökar i storlek är frame buffer där bilden rendreras för visning på skärmen. Det kan röra som om några hundra MB till kanske upp till en eller att par GB mer, beroende på typ av anti aliasing och andra faktorer.

Här är ett test t.ex.
https://www.tweaktown.com/tweakipedia/89/much-vram-need-1080p...

Skrivet av ipac:

Ahm, thats not how it works...

Tror du att det enda ett grafikkort allokerar är framebuffer? Och tror du att buffrar för 1440p kräver 6.5 GB?

Nej jag vet att det var ett kraftigt förenklat exempel, men se vad diskussionen kom igång av lite "killgissning"

Jag citerade @Ahlen som angav att hans system med 1440p drog som mest 6,5Gb VRAM när han maxar spel och gjorde då en linjär skalning utifrån pixelantalet i 1440p och jämförde det med pixelantal i 4K och 8K.

Visa signatur

Ryzen 7 5800X3D || Powercolor AMD Radeon RX 6800 16Gb || G.Skill Flare X 16GB 3200MHz CL14 || Gigabyte B550I Aorus Pro AX || LG 27GL850 QHD IPS 144 Hz || Samsung SSD 970 EVO Plus 1TB || Samsung SSD 960 EVO 250GB || Corsair SF600 || Louqe Ghost S1 Limestone || 2xMedium Tophat med 2xNF-F12 + 2xNF-A12x25 || Noctua NH-L12

Permalänk
Medlem

Och jag var blind och missade Fulcis inlägg. Ber om ursäkt för ekot.

Hur mkt dagens spel allokerar är förövrigt inte så intressant. Next-gen med dubbelt så mkt minne (delat system/grafik-minne, jag vet) är snart här. Påverkar rimligtvis även hur mkt next-gen spel "behöver" på pc.

Permalänk
Master of Overkill
Skrivet av EvonS:

Trolige kör man ett kärnkraftverk till cpu om man ska ha ett extremt grafikkort... ingen mening med ena eller andra annars.. så. ja Du får uppgradera huvudsäkringarna i huset en nivå upp och ägna några dagar att få en bra deal med nåt elbolag Det positiva är att du troligen kan sänka kostnaderna lite för uppvärmning och köra luftvärmepumpen på lite lägre nivå. Kan dock va bra med ett ljudisolerat rum som datorrum om uppgifterna om Nvidias nya GPU stämmer.... lär låta mer än vanligt också då den belastas.

Så länge man inte uppe på 1700-2500W från väggen så äre chil om man är ensam dvs.
Jag körde mitt maxade system 4x Titan och 3960X runt 2400W från väggen och funka utmärkt.

Kanske dock inte ska PCn i köket

Jag har sänkt övervåningen några gånger men då va det 2-3 PCs igång och TV då gick säkringen! när jag maxa 3dmark.

På vintern kunde jag ha 30c i mitt rum pga värmen av PCn under långa gaming seasions om jag inte öppna dörren....
Ljudet löser du med VK

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

Värt att nämna är att Nvidia tänker förbättra minnes komprimeringen ännu en gång, så man kan inte jämföra minnesmängd med föregående gen rakt av.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Kan vi kommentera mer on designen istället?
Ser helt puckat ut. om du frågar mig.

Flänsarna sitter för tätt, skulle behöva tok för hög statisk lufttryck för att trycka luften igenom allt.
Finns inget som visar hur flänsarna är anslutna till komponenten som behöver kylas.
Strömförsörjningen verkar gå på ett mindre kretskort som ansluts till huvudkretskortet?
Vad är mening med flänsarna på framsidan om luftvägen blokeras av kretskortet för strömförsörjningen?
Om jag tolkar enligt bilden så ligger fläktarna på 1 PCI slot som tjocklek, inget mer än det vi redan har nu men ändå tok för litet.

Permalänk
Medlem
Skrivet av mrwu:

Kan vi kommentera mer on designen istället?
Ser helt puckat ut. om du frågar mig.

Flänsarna sitter för tätt, skulle behöva tok för hög statisk lufttryck för att trycka luften igenom allt.
Finns inget som visar hur flänsarna är anslutna till komponenten som behöver kylas.
Strömförsörjningen verkar gå på ett mindre kretskort som ansluts till huvudkretskortet?
Vad är mening med flänsarna på framsidan om luftvägen blokeras av kretskortet för strömförsörjningen?
Om jag tolkar enligt bilden så ligger fläktarna på 1 PCI slot som tjocklek, inget mer än det vi redan har nu men ändå tok för litet.

Du tror alltså att Nvidia som är världsledande i utvecklingen av grafikkort inte har ingenjörer kompetenta nog att bygga en effektiv kylare? Annars får man ju förmoda att de testat olika lösningar och valt något som funkar bra.

Permalänk
Medlem

Tur att jag inte ska köpa nytt kort, har inget intresse för dyra referenskylare de åker i regel i soporna ändå 😁

Permalänk
Medlem
Skrivet av trattjaevel:

Vet inte om du bara vill peka på "fel" eller om du verkligen inte förstod vilken av ovan nämnda jag syftade på då jag skrev 165hz efter.
Men jag trodde iaf det var rätt uppenbart.

Det var inte alls uppenbart för mig men jag kanske saknar grundkunskaperna som behövs.