Inlägg

Inlägg som pa1983 har skrivit i forumet
Av pa1983
Skrivet av hellmix:

Quadro korten så ingår 24/7 support från Nvidia så företagen som köper korten betalar ju inte bara för hårdvaran även för mjukvara + support.

Det är väl igen hemlighet att Quadro korten kommer med fler garantier, ska fungera med olika mjukvaror dom är certade för osv.

Men kostnaden att tillverka dom är bara marginellt högre än Svensson ditot och vad vi sett av Nvidias vinster så är kort riktade mot företag mer lönsamma oavsett mer RnD, QA och eventuellt Support.

Av pa1983
Skrivet av Dinoman:

Den kylaren vid maxeffekt = tinnitus

Varför tror du det? Nvidia har sedan GTX570 och upp haft vapor chamber och klarat 250-300W på sina blower kort med ca 2400rpm.

Fins gott om openairkort som ligger på 2400rpm eller mer och låter mer.

Nej Nvidias FE blowers är relativt tysta, hörs under max last ja men inte mer än att låg volym på ett par högtalare dränker ut dom helt.

Dom är perfekta till en ljudisolerad låda, finns gott om exempel där en blower varit tystare än ett openairkort för man slipper ala chassifläktar, allt som behövs är att fronten är lite perforerad tex så sköter kortet resten.

Själv kör jag bara blowers, vägrar openairkort, ger massa hål i lådan som släpper ut flältljudet, behövs fler fläktar för venilation som genererar ljud och släpper ut det via hålen dom behöver.

Ett blower system i öppen testbänk kanske låter mer men det skiner som mest i ett chassi som är "tätt" och ljudisolerat och sedan tillåter det flera kort, 2-4st, nåt openairkort inte är lämpade för då dom kommer överhetta.

Folk tyvärr har totala missuppfattningar om blowers.
Det är oftast den mest kompakta och effektiva kylarlösningen, därför man ser det i laptops, tar minst volym och bygger minst på höjden och har en fläkt som orkar högre flöde vid belastning då radialfläktar totalt äger axialfläktar på statiskt tryck.

Men folk tror ofta radiela fläktar och blowers är sämre, men varför en laptop låter har inget med fläkten att göra utan att man valt minsta möjliga fläns som man kommer undan med för att göra laptopen så liten som möjligt.
Du får samma problem med en axialfläkt om du prioriterar minimal kylar lösning.

Går utmärkt att göra helt tysta system runt radialfläktar och blowers, men som sagt blowers används ofta för dom ger bäst prestanda vid en given volym, det misstolkas som att dom är sämre.

Men hade dom varit sämre hade laptops och grafikkort workstations inte använt dom.

Och man kan inte jämföra en 2 slots blower mot ett 4 slots openairkort, åter igen helt olika volym på dom.

Tyvärr har hatet mot blowers mer eller mindre raderat det valet på grafikkorts fronten, så inte nog med att grafikkort i dag kostar 10-25K så igen har råd, vi har bara 300 smaker vanilj av openairkort med så även om man hade råd så finns det inget för många av oss att köpa som inte vill ha överdimentionerande PCB knäckade openairkylare.

Av pa1983
Skrivet av Dem8n:

Löjligt pris. 😂

Well lite skumt är det ju att ett Quadro för 10 år sedan lätt kunde kosta 110KKr i sverige, varierar ju beroende på model men top of the line, för mig Inet faktiskt hade några inne för det priset, dustin nästan garanterat.

Så 87K i dag är ju halva priset än för 10 år sedan, samtidigit kostar gamer kort 2-3x mer...

Som sagt tror Nvidia bryr sig mer om att sälja maximalt till företag än gamers då det första har grovt mycket högre marginaler så man kan skystera priset efter behov och det gamers inte vill köpa pga för högt pris kan man flytta över till Enterprise även om man kanske får sänka priset lite.

Oavsett 100KKr+ Quadro kort är inget nytt.

Av pa1983
Skrivet av mastrovious:

En nyfiken amatör undrar - hur hade detta kort betett sig för spel?

Troligen några procent lågsammare än 4090, bara kolla der8uers vide på TDP begränsat 4090 till runt 250-300W, precis vad en dual slot blower klarar med rimlig ljudnivå.
Men runt 90-95% prestanda kan man nog då uppskatta, extra VRAM gör inget för spel, moddade KANSKE men måste vara ett jävla texture pack då XD

Av pa1983

Synd att Blowers i princip bara är workstation kort numera.

Vist har inte råd till RTX4090 ändå MEN kylaren skulle ju lätt kunna fungera med 4060 och 4070ti också.

Sedan för dom som undrar så kostar 1Gb VRAM runt 20-30€ per chip på ebay så troligen under 20€ styck.
Köpte till mitt 2080 för 160Kr/st sedan moms och frakt.

Så extra VRAM på detta är runt 20USD per Gig så 480USD, sedam samma GPU som RTX 4090.

Orsaken jag säger detta är att i dag konkurrerar GeForce kort inte med Radeon kort utan med Enterprise kort från Nvidia och företagskunderna som köper detta.
Nvidia kan få mycket mer betalt för i princip samma kisel och extra ram minnet betalar sig självt med råge.
LTT tex epanderade ju så mycket nu att dom hade slut på workstation kort och som Linus sa, gör kortet pengar så spelar det igen roll att det är dyrt.

Och redan när Quadro introducerades med GeForce 256 så blev snart Quadro den del som gav mest vinst då företag betalar mer för i grunden samma hårdvara, i dag är det väl Tesla i datacenter som ger pengar.
Men förr i tiden var spel kort runt 1/3 av vinsten och Quadro resten, numera Data center kort då.

Så ja det anser jag är orsaken till att Nvidia kan ta ocker priser, köper inte gamers korten så köper företagen allt som tillverkas, Nvidia har ju febrilt försökt sälja så mycket dom kan till Kina innan export embargona där tar effekt.

Så vanliga Gamers och konusumenter går upp mot företag där 80K kort är nåt som i slutändan gör mer vinst än det kostade.

Av pa1983
Skrivet av Aeig:

Bra att Sweclockers uppdaterar denna nyhet

Givetvis var det från början osannolikt att det berodde på den officiella drivrutinen från AMD. Jag räknar kallt med att det finns begränsningar/spärrar i VBIOS som omöjliggör skador på grund av drivrutiner i den utsträckning som först uppvisades.

Mvh

Det finns ju information i bios om frekvenser, fläkt kurvor, spänningar mm, han talar om det i videon tex.
Jag TROR många kommer missuppfatta nya videon dock då gemensamma nämnaren var drivers först MEN det betyder ju inte att det är problemet.

Varför testar han drivers, jo för att drivers KAN ändra Vcore, TDP, fläktar osv, också varför han säger att allt är "default" ingen AUTO OC och annat.

Sedan logar man alla korten via I2C för att logga data från kontroller kretsarna som styr VRM's osv och jämför gamla och nya driversen.

När han konstaterar att nya driver inte ändrar något, alltså Vcore, frekvenser, fläktar mm så kan man konstatera att drivern inte dödar kortet, däremot betyder det inte att en driver INTE kan döda ett kort OM drivern hade ändrat säg VRM'ens beteende men som sagt inga förändringar loggadesdärmed uteslöts driver in "detta fallet".
SÅ viktigt att skilja på att i detta fallet ändrade drivern inget på hårdvarunivå, drivern skulle kunna vara ett problem i nåt annat senario, tex har vi förr sett VRM's brinna upp på refernskort, där man patchat drivern för att begränsa kortet mer.

Fukt i chip som han nämner kan delaminera eller då ge blåsor på förpacknigen, epoxy laminatet tex, har råkat tut för det själv när jag skulle ha av en GPU.

Precis som han säger bör man torka chip eller tom hela kort i en ugn i minst 24h på max 80C innan chip löds av eller på.

Moderna GPU'er kan ju nå 105C under drift, vatten blir ånga vid 100C så jag tror också att han ogillar temperaturer då de kan orsaka samma problem som man får när man löder av eller på chip.

Hårdvara som går svalare, säg 80C eller lägre bör inte ha lika stora risker att få problem som dessa.

Men som sagt drivers kan helt klart överskrida fläktkurvor och annat, själv köpte jag RX5700 på release dagen, reviews sa att blower fläkten var tyst i idle, ca 800rpm och det stämde. Mycket tyst och jag var nöjd.
Några veckor senare patchar AMD drivern så nya idle är 1200rpm, man kunde dock fortfarande manuellt dra slidern ner till 800rpm, när folk gjorde det patchade AMD ut även detta.

Orsaken, AMD tyckte nog korten gick för varmt IDLE, kanske tom redan visste det men tog positiva reviews om tyst fläkt vid idle och sedan tyst patchade drivern i efterhand.

Som sagt i detta fallet ändrade drivern inget men drivern kan om tillverkaren vill.

Men misstänker att folk kommer missuppfatta videon lite.
Vad han gjorde var att utesluta drivern som orsaken till problemet i detta fallet, inget annat.

Det hade ju hjälpt om kortets kylare och bios eller drivern hållet kortet runt 80C max då hade det nog torkat upp själv utan destruera sig.
det var väl också mest AMD refernskort och som han sa dom gick mycket varmare än partnerkorten.

Men jag undrar lite vad som gjorts med korten, kallt rum om ventilerat bör vara torrt, luftfuktigheten ökar ju bara med temperaturen så vintern är ju torrast.

Av pa1983
Skrivet av andra94:

Och vad var msrp i dollar då ? Idag är kronan historiskt svag men vad korten kostar rent msrp mässigt har inte ökat enormt. Räkna om med dollarkursen på 6.5kr så ser du att det inte är så farligt.

MSRP för 480 8Gb var 239USD enligt tehcpowerup.
https://www.techpowerup.com/review/amd-rx-480/

Lite trött på argumentet du kör som försvara företag.
Tror du resten av oss är inkompetenta när det kommer till matte?
Någon drog exemplet att mjölk är 20% dyrare, ja det har vi märkt men grafikkort är 200% dyrare för samma "nivå", antigena det är low eller mid tier.

Grafikkort kostar mer i dag är dom borde oavsett inflation, tillverkningskostnader osv.

Tillverkarna av GPU'er tar ut mer marginaler än tidigare, så enkelt.

Av pa1983
Skrivet av heatm:

Hmm... läser jag rätt om jag fattat det som "3070-prestanda till 3070-pris"?

Inflation hit och inflation dit... tror inte kortet kommer gå hem i stugorna för det, men ska man uppgradera vad kan man välja när Nvidia slutar tillverka 3070?

Hoppas på att bli positivt överraskad. Inte för att jag är intresserad av ett kort med 8 GB Vram... det har jag redan i mitt RX580 och vägrar fan att uppgradera till samma flera år senare. För ca 7000 spänn dessutom? Nähädu!

Min far köpte ett RX480 8Gb för många år sedan för 2599Kr på inet med Doom 2016 som då precis släppts och kostade 600Kr på steam.
Man får fan inte mö för pengarna i dag det är säkert.

Av pa1983
Skrivet av peterholm1:

12år gammalt grafikkort.

Jupp och fixen var en driver uppdatering som reducerar lasten på VRM delen genom att hålla tillbaks kortet lite, så mjukvarufix för undermånlig VRM.

Och nvidia har inte slutat göra så, alla nvidia kort sedan dess och fram tills i dag är det främst drivers och skyddar kortet och GPU'erna i dag är ofta kapabla att dra mer än VRM'en faktiskt skulle klara.

Många Nvidia referns design, inte kort men designer AIB partners använder eller baserar sina kort på har Power stages med allt från över spänning skydd till över ström och annat MEN nvidia använder inte funktionerna utan förlitar sig på drivers.

Var ju också därför RTXS 3000 serien som 3090 har så sjukt höga transient spikes för Nvidia kollar inte efter strömspikar så man såg transients på 2-3x nominel effekt,
Dom kollar efter snitt förbrukning över en viss tid (ett fönster) och överskrids den trippar kortet men så länge en spik plus övriga förbrukninge inte är över satta gränsen så kan spiken vara hur jävla hög som helst.
Därför många nätdelar trippade istället när folk byggde typ 3090 med Threadripper trots 1KW PSU eller mer i bland för spikarna ignoreras totalt av nvidia kort och PSU'erna i princip tyckte det var kortslutning.

Sedan har Nvidia kort extremt brusig strömförsörjning, deras GPU'er clock strechar istället, i princip sjunker Vcoren en microsecund så sträcker den ut clocksignalen till vcoren gått upp igen, och överskjuter Vcore en stund så boostar den, så ofta mycket rippel på Nvidia GPU'er.
Och clock sträcknigen är inget du kan se för det är inte den frekvens som rapporteras av kortet.
Du ska kunna mäta det tror jag om du tex överclockar och VRM'en är extremt usel, typ skit AIB kort och kortet börjar få extremt rippel så kan effekten blir lite att prestandan sjunker trots kanske nåt högre frekvens rapporterad.

Vill du ha kort med undermånlig och billig VRM utan några HW skydd så köp Nvidia, jag har köpt nvidia i 20 år för dom har bra funktioner och mjukvara men man ska fan inte inbilla sig att korten är "kvalitativt" designade.

Jag har AMD som main kort nu sedan 2019 för att testa, RX5700 referns, AMD är totalt usless på featurs, mitt GTX 970 krossar det i video redigering tex så det saknar jag MEN RX5700 referens från AMD med blower har typ en VRM så överdesignad att den räcke till 3 GPU'er dock omöjligt i praktiken att kyla i ett sånt hypotetiskt senario.
Dyra jävla SMD kondingar istället för billigre trotughole polymer många AIB kör (folk verkar desutom tro torughhole polymer är bra, dom ger mer rippel, SMD polymer är bättre för att ha långa ben är skit) så referenskorten är dyra men idialiska var dom för OC på vatten pga bättre VRM och smd kondingar av hög kvalite.

AMD har generellt sett mer säkerhetsfuktioner implementerat i hårdvara och förlitar sig i alla fall historiskt inte som Nvidia helt på drivern ska se till att kortet inte exploderar.

Du kan kolla På Buildzoid på YT för breakdowns av AMD och Nvidia grafikkort, sällan han säger nåt bra om Nvidia och deras VRM design men AMD referenskort år ofta lovord för "onödigt påkostad".
Men dom säljs ju ofta bra första månaden i begränsad upplaga så.

Sedan är det så mycket annat fail i denna tråden med experter på Nothing, folk som aldrig reballat eller lagat ett grafikkort och vet nåt men bara tror sig veta.
Jag har själv använt denna youtuberns videos för att byta ut trasigt ram på mitt RTX 2080ti, han är en expert, han gör även RTX 4090 GPU och ram reballing, finns ju folk som sumpar garantin på nya kort pga mod och annat.
Kris är en riktig reparatör med seriöst företag, igen amatör, och det finns ett par av dessa på YT, och ja man hör ofta om svenskar som skickar in kort när jag kollat videos, jag vet igen isverige som lagar grafikkort där GPU och RAM bytts eller reballas.

Folk på swec tror att New World dödar grafikkort men att drivers inte kan det, bokstavligt talat tvärt om.

Nej sjukt mycket fail av folk i denna tråden, han får ju in kort från alla möjliga personer världen över, han tar kort från hela världen.
Du skapar en ticker och skickar in kortet, finns på han sida.
YT är ju ett sätt för folk att hitta honom och se vad han gör, eller lära sig att göra vad han gör själv.

Faktiskt jävligt nice att dom talar om hur man gör, ner till programen man behöver och var man hittar dom, Tech Cemitary har guides på sånt tex, en annan repratör av grafikkort.

Kan ju också tillsägas att Nvidia tex godkänner alla AIB partners kort, finns dom att köpa har Nvidia godkänt dom och det finns RTX4090 med så kass VRM (bortagna faser och billiga kondingar) att vissa experter tvivlar på att dom överlever garantiperioden, och dom korten är stenhårt låsta till 450W eller då nvidias 100% ström budget för VRM delen skulle troligen inte överleva länge med nån form ökad effekt.
Finns en vattenkyld modell som är så uselt designad. Sedan har jag sett en till som är ännu mer strippad.

Av pa1983
Skrivet av hellmix:

Något säger mig att de korten kommer att verkligen låta som en jetmotor som får *gaminglaptops* ljud att låta som en ljuva bris vid jämförelse.

Om det låter ej beror ju helt på hur bra omplemnterad kylaren är, spelar igen roll om det är openar kylare med axialfläktar eller om det är blower kylare med radialfläkt. Finns usla lösningar av båda slagen.

Skrivet av Ozzed:

Extra påkostade kort, ja. Blower, nej.

Antar att bredden är för att kunna klara en större fläkt vilket borde medge lägre ljudnivå men det lär ändå låta väldigt mycket jämfört med vanliga grafikkort.

Angående påkostade kort så är det bara kul om priset också är det. Annars kan det kvitta. Varenda kort idag kostar ju som den västra värstingmodell med extra allt och lite till gjorde förr.

Större diameter på en radialfläkt ökar statiska trycket exponentielt sisst jag kollade datablad. Radiella fläktar är totalt överlägsna axiala fläktar vad det gäller statist tryck och det är därför blower har dom då luften färdas lägsta vägen genom flänsen och därmed högst motstånd, nåt en axial fläkt inte klarar, hade man satt det på kortet då hade det fört mycket oväsende då den hade fått gå på än högre varvtal. Stoppar dock inte tillverkare av blowers att periodvis sätta axialfläktar där med, antigen för att dom sjävla är inkompetenta (ofta väldigt gimiky kylarlösning visuelt då med) eller för att dom tror att folk kommer köpa den om dom ser en axialfläkt på en blower.

Oavsett är det bra att det finns blowers fortfarande, tyvärr är utveckligen låg och valen få.
Som referens kommer Quadro versionen av RTX4090 med 48Gb ram ha en 2slot blowers.
Men vi vet ju att Ada i princip kan ge 90% prestanda runt 250-300W och det klarar en Nvidia referns blower utan problem med vapor chamber med runt 2200rpm på fläkten.

Skrivet av Teddis:

Fan vad bra.

Ni som inte vill ha dem behöver inte köpa dem. Ni har GOTT om alternativ. Välj vilket 4-slots grafikkort som passar er.

Men vi som vill ha in dessa i HP workstations där de ska samsas med andra kort som 10Gbit NICs, blackmagickort etc vill åtminstone ha EN modell riktad mot oss.

Ja vist är det bra med valfrihet och slippa all jävla Vanilj (openairkylare)
För mig nästan totalt omöjligt att få tag i ett modernt kort med blower numera så man får vara tacksam att någon gör dom fortfarande.
Tänker inte byta ut min fina låda mot nåt störe, klumpigare, fullt med hål och stora fläktar bara för att få plats med ett monster till openairkort som sedan dushar mitt CPU kylare i varmluft.

Och jo folk har extremt negativ attityd till blowers.

Mitt GTX780 är nästan ljudlöst full last, samma sak var mitt GTX570, mitt GTX970 är det nästan med och ändå snålade MSI in och tog bort vapor chambern, finns inte ett heatpipe i hela den kylare ändå är det kortet tyst.

Mitt RX5700 är sådär, ser man till att GTX780 med Nvidia referns drar 100W mer på GPU'n och ligger runt 2200rpm full last så ligger detta runt 2400rpm full last och har också sämre "akustisk" karaktär så AMD gör bara mediokra blowers men trots det totalt krossar det kortet min fars Openair kylda RX480 som fick sättas i "standard" bios då OC bioset var default och fläktarna gick typ 2600rpm två av dom och du blev hörselskadad 3 meter bort, det låter fotfarande mer än mina blowers.

Väldigt synd att folk "tror" blowers suger, EVGA gjorde tidigare en av dom bästa vid med GTX 680 som var lägre, bredare och hade större fläkt, matchade dom bästa openairkorten på sin tid i öppen testbänk, där blowers regerar är i en ljudisolerad låda då dom inte kräver chassifläktar, enbart ett hål stort nog när fläkten för att ta in luft.

Alla mina burkar kör blowers, enda vettiga sättet att designa kylare, openair är vad folk efterfrågat pga massa missumfattninga, blowers var desutom rätt dyra att tillverka då mycket matrial gick åt så win win för tillverkarna men dagens openairkort är så massiva att det helt klart skiftat andra hållet.

Lite synd dock att det inte fins 3 och 4 slots blowers för dom som vill ha upp till 600W kort med kylning för OC.

Jag kom över ett RTX 2080 Ti med openairkylare, inte direkt tystare och jag varken får in det i en låda eller kommer kunna kyla det kortet i existerande lådor.
Med lite tur kanske jag en dag kan byta det mot ett med en blower på.

Av pa1983
Skrivet av SuperNova:

Jo jag har sett filmen.
Bara så jag förstår ditt resonemang nu...
Du menar altså att denna GPU är den enda produkt som throttlar på marknaden och därför är defekt?

Min uppfattning att throttling och "varierande prestanda" numera tillhör vardagen. Undervoltning nämns ju i var och varannan mening där ordet GPU och CPU finns med.

Ni verkar inte förstå vad jag säger dock.
AMD har ju bekräftat fall där det varit fel och skall åtgärda det. Fel uppstår alltid och en viss procent räknar man med.
Vissa har högre procentuell andel än andra.

Men det betyder inte att kylaren är felkonstruerad.
Hade AMD sagt att fläktarna aldrig skall gå över 1234rpm och temperaturen aldrig gå över 80 grader (påhittade siffror så klart) och att kortet alltid håller en specifik frekvens vid en specifik belastning och verkligheten är att mycket sällan är fallet så kan man tala om en ren felkonstruktion.

Så verkar det inte vara i detta fall då man helt enkelt inte lovat detta. I och med att man inte lovar detta så har det med största sannolikhet inte varit ett krav vid designen av kylanordningen heller.

Idag är nästan alla CPUer och GPUer mer "flytande" gällande prestanda. De optimerar sig själva både upp och ner en och throttling blev ju ett stort fenomen för typ 20år sedan så de är ju inget nytt.

Som sagt det är JÄTTETRÅKIGT med dåliga kylare! Jag håller med till 100%! Men så har det alltid varit i princip.

Det jag stör mig på/vänder mig emot är när man hävdar att hela kyllösningen är feldesignad baserad på premisser som aldrig utlovats. Bara det, inget annat.

Problemet med dit resonemang är att det tyvärr blir uppenbart att du inte förstod videon och vad debu8er kom fram till, inget illa menat med det utan det var nog inte helt uppenbart heller. Tror han tänkt sig en del 2 där han går djupare på det.

Så han kunde sagt det tydligare i videon men testet där han flyttar tillbaks ett överhettat kort från horisontellt till vertikalt läge och problemet kvarstår tyder på "dry out" i "vapor cahmbern".
Detta beror på att kortet och kylaren redan är för varm mest troligen och vätskan kan aldrig kondensera sig ordentligt igen.

En vapor chamber är bara ett platt och stort heatpipe och alla heatpipes har en maximal kapacitet, sedan dunstar all vätskan och kondensarer inte igen och då tappar heatpipet sin förmåga att flytta värme.
Vi ser även detta som debu8er visar där effekten sjunker, för kylaren har nu reducerad termisk ledningsförmåga då vapor cahmbern (heatpipen) inte lägre gör sitt jobb då allt eller mycket av vätskan är i gas form och så förblir.

Troligen är det fråga om lokala dry outs, alltså hela ytan kislet täcker på kylarens bas är inte torr på insidan men vissa delar är det och Hotspot är just varmaste delen.

Så nej kylaren är trasig för den klarar inte effekten kortet drar när det boostar och när dry out sker så återställs inte kyleffekten när kortet throttlar ner.

Lite som du har en 300W kylar men när du behöver 300W så får du bara 200W efter en stund när den kommit upp i stabil tempratur och den stannar där tills du drar avsevärt mindre, tex stänger av spelet och går idle så vätskan kondenseras i heatpipet igen.

Så nej detta är inte frågan om normalt boost beteende, normalt sett klarar kylare en viss effekt och den reduceras inte för att GPU/CPU når max temperatur.

Denna videon har jag timestampat men där pratar Nvidias ingenjör om just dry out i vapor chambern som orsakar hotspots på GPU'n OM kylaren är feldesignad.

Värt att kolla hela videon men det faktum att AMDs referenskylare beter sig olika vertikalt och horisontell och att delar av GPU'n går 30-40C varmare och når 110C vilket dessutom är högsta du kan då pga throttling så teoretiskt skulle deltat kunna vara högre.

Men faktum kvarstår att allt tyder på att delar av Vapor chambern torkar ut permanent ovanför GPU'n och då fungerar ett heatpipe/vapor chamber inte lägre och tempraturerna skenar för förmågan att leda bort värme energin reduceras i princip till materialet heatpipen eller vapor chambern är gjord av och dessa leder värme mycket sämre än en konstant kokande och åt återcirkulerande vätska.
Nvidia ingenjören förklarar rätt tydligt i videon jag länkade hur dom motverkat dry outs som kan påverka en mycket liten del av GPU'n, men självklart bestämmer varmaste delen prestandan då man inte kan köra ens en liten del för varmt, tex över 110C.

Så nej dit argument håller tyvärr inte då kylaren inte klarar lasten utan att lider av dry out som orsakar hotspots så det är inte GPU'n som har sådana extrema skillnader i effekt från ett område till ett annat för att skapa temperaturskillnaden, det är kylaren som har en extrem skillnad i hur väl den kyler ett område från ett annat pga dry outs.
Hade GPU'n nåt sin max temperatur utan dry out i vapor chambern så hade man argumenterat att kylaren fungerade normalt men så är inte fallet, bara en del av GPU'n överhettar och det tyder på lokala dry outs (se GN video).

Dry out är nåt heatpipes kan råka ut för, tex vid extrem OC, men också om man designa kylaren fel.
Du kan också ha motsatta effekt, extremt kallt inne och låg last kan göra att vätskan aldrig dunstar så heatpipes är inte bra när det är för kallt heller.

En kylare ska normalt sett inte lida av dry out så detta beteende är inte normalt.

I en varm låda på sommaren är nog risken ännu högre för att detta problem uppstår då kyleffekten reduceras ännu mer då förmågan att kondensera gasen tillbaks till vätska rimligen sjunker.
Detta var ju öppen testbänk och jag tror han har AC, i alla fall har han inte sommar temperaturer.

Av pa1983
Skrivet av DasIch:

Nvidia har haft en nedåtgående trend i nettomarginalerna sedan Turing. Fjärde kvartalet 2018 låg den på ~38% (Turing lanserades i slutet av September. Därefter gick det nedåt fram till en skjuts från pandemin och Ampere. Nu är den nere runt 21%. Och det här är för hela företaget där bland annat deras satsningar på datacenter har gått över förväntan.

Hämtat från macrotrends:

<Uppladdad bildlänk>

BRA! Är ju svårt att sälja sånt igen vill betala 16000Kr för!

Nvidia har ju själva uteslutit sin kundbas, jag har köpt nvidia kort över 20 år men det är slut på det med dessa priser.

Det finns bara så många som kan betala vad nvidia begär.

Det faktum att nvidia tar mer betalt för mindre men ändå fuckar upp är Nvidias problem och inte kunden.
Jag röstar med plånboken genom att inget köpa.

Av pa1983
Skrivet av roxkz:

Nog för att jag gärna ser billigare GPUer, men får mindre? Mindre än vad, och när?
Vilket kort har varit snabbare än 4080 och billigare? Problemet är att prislappen har börjat skala med prestandan...

Inte så att 1080 ti gav mer prestanda per krona när det var nytt...

Och att prislappen börjar skala med prestandan är ju problemet så alltså bekräftar du vad jag sa.

Så ska det så klart inte vara.

Varje generation ska ge mer prestanda för samma eller mindre peng, så utvecklingen sett ut i hela dator historians tid.

Av pa1983
Skrivet av Dreas89:

Dags att sluta titta bakåt och se vart vi är. Inflation och fan och hans moster påverkar priserna och det är här vi är.

Sett till prestandan bör vi ligga över 10’ med det som finns på marknaden. Sluta var butthurt och kom in i matchen. Annars har du inget att hämta i den nya komponentvärlden(vilket blivit sjukt dyr).

Utifrån dagens förutsättningar så jo.

Har aldrig förstått mig på människor som dig som självmant höjer priserna åt företagen.

Att folk inte fattar att dom får mindre för mer pengar i dag är helt sinnessjukt!

Nvidias konstant ökande vinster och marginaler senaste åren borde varit nog av en ledtråd men tydligen inte för vissa,

Tyvärr sådana som du som gör att nvidia tar priserna för ni har inte vett att skita i att köpa för ockerpriser.

Av pa1983
Skrivet av str8forthakill:

Yep computersalg är en solid retailer, men deras prissättning

Allt som länkades är lågaktuella modeller, extremt överpris, eller suspekt försäljare (amazon/elgiganten marketplace), suget efter 4090 är enormt, hur kan det vara svårt att förstå? Nvidia håller inte tillbaka några leveranser heller. Varför skulle de göra något sådant dumt?

Folk vill ha högre prestanda, så är det bara.

Vad vi vet har Nvidia mest troligen skiftat över RTX 4090 produktionen mot mer Enteprise inriktade GPGPU'er.

En orsak är att motsvarande kisel mångfaldigt ökar vinsten per såld produkt.

Orsaken är både att företag betalar mer men också att nya export restriktioner mot kina tex enbart ger Nvidia och andra företag som gör stora chip en liten lucka att leverera allt Kina kan tänkas vilja köpa.

Det har även sagts att kvalitén på dessa GPU'er inte är av samma mått då både Kina vill köpa allt nvidia kan leverera.
https://www.tomshardware.com/news/nvidia-reportedly-shifts-ba...

Så som sagt varför tror folk här att Nvidia bryr sig om "Gamers" och "entusiaster" ?
Ni är INGET för Nvidia, dom bryr sig bara om vem som betalar mest och det är företagen som köper Nvidias lösningar.
Det är också deras legala skyldighet att maximera vinsten för sina investerare.

Så nej bristen på RTX 4090 beror inte på att Nvidia inte kan producera dom, det beror på att Nvidia får bättre betalt av företag i Kina tex, men vist har du 125K att spendera kan du säkert få köpa RTX 6000 när den släps för 9999USD, ett RTX 4090 med 48Gb ram i princip.

Dagen då "Gamers" var målrgruppen för att sälja in sitt Varumärke bland konsumenter och framtida företags kunder är över.
Nvidia säljer bara till er vad dom behöver för att främja sitt varumärke som det ser ut nu, och sedan säljer dom gårdagens teknik till MSRP 2 år senare, kul utveckling va.

Av pa1983
Skrivet av Swedishchef_90:

Jag kommer inte bemöda mig att svara då du jämför transistor pris från 89 med dagens priser.

Skillnaden på priset mellan 2015 - 2023 per transistor är försumbar och därför mer jämförbar.

Sen är Moores law död, swec hade en bra nyhetsartikel om det under sommaren.

Oavsett så önskar jag dig en riktigt trevlig jul

Mores Law kanske kommer dö en dag, en atom är ju bara så lite.
MEN inget stoppar en från att Stacka i 3 dimentioner så blir det lita anorlunda.

Jim Keller som designat mycket så som Ryzen ser inget stop i sikte vad det gäller krympning eller ökad densitet.

Så att säga att Mores lag är död som nåt absolut det låter lite löjligt, och bara för Nvidia skriker det gör det ju inte sant.

Av pa1983
Skrivet av Nätokraten:

Jag säger *gäsp* till denna symboliska prissänkning från Nvidia. Inväntar istället glatt ett Radeon 7900XTX.

Även dessa kort är ju rätt dyra, 899-999USD MEN chiplet designen halverar ju typ vad GPU'n kostar, AMD sa inte det rakt ut men dom visade att en monolitisk Ryzen kostar ca 2.25x mer än dagens chiplet design så att anta att deras NAVI3 kostar typ hälften av nvidias monolitiska dies av motsvarande storlek är nog rimligt.

Detta gör ju att AMD kan priskonkurrera intel mycket hårdare, så hårt att när Nvidia teoretiskt gör förlust så gör AMD vinst på korten fortfarande.

Frågan är dock om AMD kommer vilja ge besparingen till kunderna, tror inte det, i alla fall inte helt vilket vi ser på priserna dom satte ut.

Men ja NAVI3 ser himla intressant ut för framtiden för grafikkort och bara hoppas intel hoppar på chiplets med.

Men så länge Nvidia är så dominanta, dom har i min mening dom mest attraktiva funktionerna men ja i dag är ju priset problemet så man får kanske räkna med att köpa sitt andrahandsval när plånboken sätter stop så då är NAVI3 intressant, Intel med för den delen med AV1.

Av pa1983
Skrivet av Swedishchef_90:

Fast man kan inte jämföra storleken på dien mot pris.... Mindre nod avsevärt mera transistorer etc per mm2 i nyare gen.
Rykten säger att 4080 kostar ~4k att tillverka utan påslag för forskningen och vinsten som ett exempel.

1080 7.2 miljarder transistorer 314mm2 (23M/mm2)
2080 13.6 miljarder transistorer 545mm2 (25M/mm2)
3080 28 miljarder transistorer 628mm2 (44.5M/mm2)
4080 45.9 miljarder transistorer 379mm2 (121.1M/mm2)

Som du kan se så är det ca 6x så många transistorer på samma ungefär area mellan 1080 och 4080...

Nu är 4080 prissatt åt hel***te men det är en avsevärt förbättring mellan transistor/mm2 och ett pris runt 10-12k vore rimligt med våran dollar kurs och dess prestanda

Och man kan inte räkna pris per transistor, en 486 CPU har ca 1 miljon transistorer och kostade 500 USD åt 1989,
4070ti har 35,800 miljoner så då blir ju priset 17.9 Miljoner.
Sannigen som jag sa ligger där i mellan vilket Mores första och Andra lag säger.
Lag 1, antal transistorer dubblas på samma area var 24 månad.
Lag 2, priset för tillverkning ökar exponentiellt.

Så nej jag köper inte dit argument för SÅ mycket dyrare blir det inte.
Nvidias vinster visar ju att det finns goda marginaler helt klart.
Jag vet att nyare noder kostar mer men det förklarar inte varför en 296mm² die kostar 3x vad en 470mm² gjorde 2009 med rästen av kortet inräknat.
Dessutom hade man ju 576mm² dies till 200 serien innan dom krymptes till 470mm² så Adas 600mm² om än imponerande är inte så mycket större men visst klart dyrare att tillverka men sedan har jag inte fullt lika mycket problem med RTX 4090 pris som jag har med 4080 eller 4070 då dom två är avsevärt mindre chip och mindre komplexa kretskort.

Vi vet också att AIB's förlorar pengar på "high end kort" som 80 och 90 serien det kom ju ut som ett faktum när EVGA drog sig ur.
Nvidia anser ju att partners ska tjäna in det på 50, 60 och 70 seriens kort eller sälja annan skit som exploderande nätag vid sidan om.
Så ja den enda som blir rik är Nvidia, både AIB's och Kunder blöder pengar på dessa dumma kort.

Sedan borde jag lagt till att Nvidia borde försöka att optimera chipens storlek efter va konsumenter är villiga att betala.
Men Nvidia verkar gillar BIG DIES på 600mm men även ta hutlöst betalt för små dies.
Navi3 med chiplet design gör ju att man kan producera samma "storlek" med 7 chiplets till halva priset typ.
Kan ju vara ett klassiskt fall av att Nvidia inte väljer den vägen då folk betalar vad Nvidia begär så det inte är lönt.
AMD har ju insett att det är lönt, deras kalkyl för Ryzen var att en monolitisk die kostar 2.25x mer än deras nuvarande chiplet design.
Minnes kontrollers så I/O delaran skalar sämst på små noder så därför görs sådana chiplet för Ryzen och NAVI3 på äldre noder då det ger samma resultat för en lägre kostnad.

Vad det gäller pris borde ett RTX 4080 kosta 499 USD och det blir i svenska pengar med moms 6435Kr.

10-12K är rena skämtet och visar bara hur normaliserat Nvidias "The more you buy, the more you save" mentalitet har penetrerat Entusiastens acceptans för absurda priser.

Jag som konsument tänker inte betala nvidias feta vinst marginaler.
Får bli begagnat och laga sina kort eller köpa trasiga och laga istället, inte så dyrt med reservdelar.

Dessutom kräver ju få spel dessa snabbar 3000 eller 4000 seriens kort. Jag kör 21:9 1440 på ett RX5700 (non XT) utan problem.
Väldigt få spel som inte ger hög fps på det.

Nej Nvidia får allt satsa på att bygga korten mer ekonomiskt och inte bara skyffla över både kostnaden av kortens tillverkning plus deras feta vinster på konsumenten.

Av pa1983
Skrivet av wargreymon:

Var hittar folk på såna här fantasisummor? 4500:- är $350 innan skatt, inte ens 1070 var så lågt. Du får gå tillbaka till 970 för att komma till den summan, och då har jag inte räknat med inflation. Eller ska du vänta tills kronan är något extremt stark?

Och man kan lika väl vända på argumentet och fråga sig varför folk som du tror ett kort som ett 4070 ska vara värt mer än 349USD?
Vi vet inte ens vad 4070 kommer ha för spec men det blir ju sämre än 4070ti som har en 296mm² die så jävligt liten med dagens mått och även väldigt liten mätt med 10-15 år gamla mått.
Sedan en 192bit small minnesbuss på köpet, kort med 512bit har tillverkats för för 13-14 år sedan för överkomliga priser.
Du kunde köpa ett GTX260 med en 470 mm² stor die med en 448bit bus 2009 för svenska priset 1395Kr så som GTX260 nytt och ja det betyder ganska exakt 256 extra kulor på GPU'ns förpakning för data banor och lika många extra traces.
Faktiskt rätt intressant hur en 13-14 år gammal GPU har samma eller fler kontakter för minne än dagens.

Det är helt okej att argumentera för att TSMC's nyare noder är dyrare men som sagt fortfarande ett relativt litet chip, PCB'n för ett kort som detta är inte nåt komplicerat som inte kunnat fabriceras senaste 10 åren för skit och inget.

Det är också okej att argumentera för att moderna kort har fler och dyrare power stages, kondingar, mosfets osv.

Men allt detta sammanslaget förklarar inte varför dagens kort kostar 899-1599USD när ett kort 2009 kostade ca 500 USD och gav dig dual GPU med 2st 448bit bussar, 2st chip på 470 mm², totalt 28 minnes chip, utöver 2st GPU'er hade 3st support chip.

500USD 2009 är 694USD i dag för ett flaggskepp, i Sverige i dag är det med moms 8950Kr för ett flaggskepp,
Samtidigt kostade GTX 260 i dagens pengar 1787Kr.
När det släpptes i staterna var det ett MSRP på 299 USD, dollar kursen kan vi inte göra mycket åt men det ger oss ett hum om vad ett kort ca 4 plats från top kostade så ett RTX 4070 bör kosta ca 349 USD i dag.

Man kan nog argumentera att ett GTX295 var en rätt avancerad produkt, speciellt jämfört med något så banalt som ett 296mm² 4070 med 192bit buss.

Vi vet dessutom rätt bra vad tex minnen som mest kostar, har minnen på väg till mitt RTX2080 som ska lagas.
Priserna på GDDR6 verkar liga runt 150-200Kr NOS till vanlig dödlig per chip, vad företag betalar vet vi ju inte exakt men garanterat mindre än vad du eller jag får pröjsa med diverse mellanhänder.
Nvidia säljer Minne + GPU'er i paket till partners och det är här nvidia tjänar pengarna då dom i princip kan garantera sig själva största delen av vinsten genom att lägga på så mycket marknaden är villig att pröjsa för deras GPU'er.

Korten kostar inte så satans mycket som Nvidia begär, PCB, Minne eller ens fabricering av GPU.

Utvecklingskostnader finns så klart men det har alltid funnits och Nvidia har ju tjänat rekordbelopp år på år.

Så ja varför folk tror att nåt som kommer vara sämre än ett RTX 4070ti ska vara värt mer än 349 USD när det mer historiskt varit ett 149-299 USD produkt beroende på var i livscykeln kortet är om det sålts för 13-14 år sedan så med inflation inräknad en 249USD produkt i dag.

399 USD är nog mer vad 4070ti borde kosta och RTX 4070 ca 349USD kanske men vi vet ju inte vad 4070 ens är för nåt än.

Nvidia tar betalt så mycket dom bara kan för i praktiken finns det inte mycket konkurens, och dom som har djupast fickor i dag är företagen där ett Nvidia RTX 6000 48Gb Kostar bara 9999USD, det är ett 4090 med 2x mer ram och företagen köper dessa, därför det inte finns 4090 i lager.
RTX 6000 kostar så klart mer att fabricera men även om vi säger att minnes chipen kostar 40 USD styck och du nu har 2x fler inte fan blir kortet över 800USD dyrare för det.

Dagens Gamers konkurrerar med serverhallar och stora företag som behöver GPGPU'er, det är inte som förr där Nvidia konkurrerade mot ATI eller AMD om att vinna marknadsandelar på konsumentmarknaden, alla vet vem Nvidia är och Nvidia är nu i Enterprise segmentet sedan länge.

Oavsett förstår jag inte folk som jämför ett hypotetiskt 4070 med ett 1070 i pris när 1070 på papper har större chip och bredare buss och hade ett MSRP på 379 USD, så då är ju 349 USD rätt rimligt för et 4070 klassens kort.

Sedan att korten i dag inte säljs till MSRP och inte landar under MSRP efter 2 år på marknaden gör ju inte saken ett dugg bättre heller.

Men ja alla verkar "köpa" nvidias prissättning phun intended!

Ett annat problem jag ser med Nvidia är att många inom press världen har noterat att Nvidia är väldigt stolta över sina produkter och hur dom gör saker och ogillar om recensenter och press inte presenterar deras kort så som Nvidia vill.
Kollar vi på RTX 4000 seriens kort ser vi ju att Nvidia tex pressade upp TDP rätt högt för några extra procent prestanda.
Det kostar både i power stages och kylare så onödig kostnad för minimal prestanda vinst.
Vi ser partnerkort av RTX 4080 med en 600W kylare på 300W kort, blir onödigt dyra kort då koppar är dyrt.
Även Nvidias kort tillverkas ju som dom är en Apple iPhone, absolut imponerande produkter men Nvidia verkar extremt fokuserade på att "spendera" vad köparen måste pröjsa på saker som kanske inte behövts.
Tyvärr leder det också till vist snåleri där AIB partners försöker spara pengar och tar bort power stages och använder trough hole kondensatorer istället för överlägsna SMD varianter, låser power target till 450W (pga färre power stages) för att ha råd med vattenblocket kortet kommer med och som resultat kan du inte överklocka för det fins igen strömbudge, allt för att få till det där priset Nvidia vill att dom ska ha då Nvidia dikterar AIB partners priser.
Denna inflexibilitet leder ju till både dyra skit produkter och dyra överbyggda produkter istället för valfrihet mellan "bra nog" och "premium".

Som jag ser det får gamers antigenen sluta köpa kort för 3x vad dom är värda och hoppas att Nvidia och som resultat AMD dumpar priserna för att återfå kunderna eller så bestämmer sig Nvidia för att bara sälja till företag som betalar många gånger mer vad korten egentligen kostar så får vi gå tillbaks till IGP ungefär som man fick köra mjukvaru renderad grafik innan 3D acceleratorn blev överkomlig nog.

Priserna på GPU'er kan inte bara stiga, för då har igen råd, men det kanske blir så att streaming av spel blir det enda folk har råd med i framtiden för det är resultatet av kapitalismen, en fri marknad och brist på relevant konkurrens.

Av pa1983

NH-D14, köpte min så fort den kom ut och har haft den på 2st i7:or, en Xeon och nu en AM4 prolle. Den fick nya 140mm noctua fläktar för ett tag sedan.

Har halt funderat på en NH-D15 men inte mycket till uppgradering och jag använder inte ram med flänsar så då är NH-D14 trevligare vars flänsar går hela vägen ner.