AMD: Höga temperaturer i Radeon RX 5700-serien är "inom specifikationerna"

Skrivet av Frispel:

Har du lust att vidareutveckla detta påståendet en aning? På vilket sätt ger högre temperatur högre effekt? Och på vilket sätt påverkar kyllösningen strömförbrukningen?

Kretsar (framförallt komplicerade saker som CPU/GPU'er) blir effektivare ju lägre temp dom har.
Kretsarna "läcker" mindre ström när temperaturen är lägre.
Så bara genom att förbättra kylningen kan man få ner strömförbrukningen och därmed "vinna" ännu lägre temperaturer.
Fast tillverkarna har såklart fin data som talar om för dom exakt vilken temperatur dom bör designa efter för att inte kosta på för mycket på en kylare.

@Adam901: ja, det är ju galet att de sänkt tempsen med ca 30 grader och dessutom håller högre frekvens. visar ju vilket bottennapp deras blåsare var...

Skrivet av Frispel:

Då blir ju följdfrågan - är detta något som på ett påtagligt sätt påverka med de förutsättningar och temperaturer som gäller här? Hur många watt extra omvandlas till värme om exempelvis temperaturen är 100 grader istället för 70 grader på det varmaste stället i kretsen?

Då vi inte vet om det egentligen är några väsentliga temperatur skillnader (mer än att man har bestyckat med fler sensorer för att mäta hotspots) så går det inte att svara på, kan hoppas att nvidia väljer att göra motsvarande mätningar. Eller att AMD hade varit lite tydligare det är ju i deras intresse blir lätt dålig PR annars

Tror inte heller att det är helt lätt att räkna på även för dom som kan då det är många faktorer att ta hänsyn till, tror nästan man måste förlita sig på tillverkarens information/ dimensionerat för / inom
specifikationerna, etc men det är intressanta frågaställningar. Jag sitter och kämpar med grunderna för tillfället så kan ha helt fel

En sak man märker med nyare hårdvara är ju att ju fler temp sensorer tillverkarna låter oss övervaka ju större blir paniken bland konsumenterna
Framförallt VRM temp verkar ju vara ett vanligt orosmoment, kretsar som utan vidare kan köras i 150 grader i 24/7.
Modern hårdvara är ju designad för att köras mot tempgränsen.

Ingen oroade sig ju över GPU/CPU temp när den inte enkelt kunde mätas

Skrivet av Svensktiger:

En sak man märker med nyare hårdvara är ju att ju fler temp sensorer tillverkarna låter oss övervaka ju större blir paniken bland konsumenterna
Framförallt VRM temp verkar ju vara ett vanligt orosmoment, kretsar som utan vidare kan köras i 150 grader i 24/7.
Modern hårdvara är ju designad för att köras mot tempgränsen.

Ingen oroade sig ju över GPU/CPU temp när den inte enkelt kunde mätas

Well, båda är ju okunskap? Sen innebär det ju inte att bara för att en komponent tål 150 grader så är det helt ok om den ligger nära maxvärdet. Blir det såpass varmt så värmer det ju upp kort/burk.

Nej, det blir väl svårt att oroa sig över saker man inte kan mäta eller vet om att det kan vara en risk. 3,6 Roentgen, not great, not terrible.

Skrivet av Svensktiger:

En sak man märker med nyare hårdvara är ju att ju fler temp sensorer tillverkarna låter oss övervaka ju större blir paniken bland konsumenterna
Framförallt VRM temp verkar ju vara ett vanligt orosmoment, kretsar som utan vidare kan köras i 150 grader i 24/7.
Modern hårdvara är ju designad för att köras mot tempgränsen.

Ingen oroade sig ju över GPU/CPU temp när den inte enkelt kunde mätas

Detta är exakt vad jag uppmärksammar också. Folk får panik för att dom nu har möjligheten att läsa av temperaturen, innan dom kunde läsa av den så var det minsann lugna puckar och det fanns inga värmeproblem.

Alla kort som någonsin skapats har garanterat haft lokala temperaturer mycket högre än den sensorn som normalt visas. Det syns ju tydligt på recensioner där de tar en infraröd-bild på GPUn, oftast så brukar tempen ligga runt 105C för varmaste punkten oavsett vilket kort eller tillverkare det är.

Skrivet av trickeh2k:

Sen innebär det ju inte att bara för att en komponent tål 150 grader så är det helt ok om den ligger nära maxvärdet. Blir det såpass varmt så värmer det ju upp kort/burk.

För att vara petig så är det ju inte temperaturen i sig som avgör hur mycket den värmer upp. Det är effekten som avgör det, ett nålshuvud på 150 grader värmer ju inte i närheten av så mycket som en stekpanna på 70 grader exempelvis.

Precis samma sätt fungerar grafikkortet, en liten isolerad punkt kan ju vara hur varm som helst utan att det påverkar datorns eller kortets totala temperatur alls.

@Jackbob: Ok, tack för klargörandet! Mer kunskap är alltid bra, tyvärr var det ju inte bara isolerat till vrm denna gång.

Förstår inte hur man kan försvara dessa temperaturer. Ju lägre desto bättre, simple as that.

Varför har vi annars fläktar? Varför undervoltar vi?

Temperaturen är hög pga för höga frekvenser, i jakt på prestanda.

@LPG: Jajemen, sitter med ett 290X och den springer upp till 95 grader men där börjar den throttla

Edit: Hade varit skoj att veta vad hotspotsen ligger på för den, hehe

Skrivet av Duktig:

Absolut kortet ska kunna hantera denna temperaturen. Men personligen känner jag att den genererar mycket värme, som måste ur chassit. Ha en gpu som är 100 eller 70 grader varm inte svårt att välja tycker jag!

Skickades från m.sweclockers.com

Att temperaturen är hög hos grafikkortet behöver inte betyda att chassit blir varmt. Grafikkortets uppvärmning av chassit har enbart med kortets effektutveckling att göra.

Ett enkelt exempel är att vi har en värmefläkt i hemmet. En liten kupefläkt till bilen kan avge 2 kW. Denna fläkt blir lätt väldigt varm eftersom fläkten som blåser iväg värmen i den är liten. Ifall vi istället köper ett större konvektorelement som också är på 2 KW blir själva elementets temperatur lägre. Båda avger dock precis lika mycket värme i hemmet.

Tycker helt klart att det är bra att AMD är extra ärliga med sina temps, precis som @pa1983 skrev så undrar man ju hur varmt det blir på Nvidias junction temperature. Fram för mer redovisning!

Skrivet av norrby89:

Fast samtidigt, hur stor nytta har man idag av en cpu från 2009 idag? Sure 1366 plattformen funkar fortfarande någorlunda men allt annat är mer eller mindre skräp och oanvändbart till allt utom surf/video. Och på gpu fronten så har vi 4890 och gtx 285, äldsta sonen har ett gtx 580 och klarar knappt fortnite i 1080p.

Så fortsätter denna trend så är livslängd över 6-7 är meningslöst då korten ändå är mer eller mindre oanvändbara då (sure "retro rigg" för äldre spel funkar men hur intressant är de liksom)

Skickades från m.sweclockers.com

Ja, precis min poäng

Skrivet av Ryzer:

Förstår inte hur man kan försvara dessa temperaturer. Ju lägre desto bättre, simple as that.

Varför har vi annars fläktar? Varför undervoltar vi?

Temperaturen är hög pga för höga frekvenser, i jakt på prestanda.

AMD ljuger ju i alla fall inte om detta genom att gömma det som Nvidia gör.

Skrivet av Ryzer:

Förstår inte hur man kan försvara dessa temperaturer. Ju lägre desto bättre, simple as that.

Varför har vi annars fläktar? Varför undervoltar vi?

Temperaturen är hög pga för höga frekvenser, i jakt på prestanda.

Fast nvidia har juuh förmodligen samma temp. Skillnaden är att på en krets vi säger övre högra hörn blir 110c så är nedre vänstra kanske 97c! Hos nvidia så visas då 97c medans amd nu väljer att visa 110c då dom har fler punkter där dom kan avläsa temperaturen.

Skickades från m.sweclockers.com

Skrivet av Ryzer:

Förstår inte hur man kan försvara dessa temperaturer. Ju lägre desto bättre, simple as that.

Varför har vi annars fläktar? Varför undervoltar vi?

Temperaturen är hög pga för höga frekvenser, i jakt på prestanda.

Allt annat lika så ja, då är lägre temperatur bättre (typ, oftast).

Skrivet av Bernd_P1:

AMD ljuger ju i alla fall inte om detta genom att gömma det som Nvidia gör.

Förstår inte ens varför du tar detta till en AMD -vs- Nvidia diskussion.
Som du kan se i testen så används fortfarande den så kallade ''fusktemperaturen'' av båda tillverkarna.

Det är väl folk som köpt AMD för första gången som nojjar. AMD har så länge jag kan minnas tidvis haft produkter som gått väldigt varma men också kunnat hantera denna värme.

Höga temperaturer och elektronik har aldrig varit en bra kombination (ja, om man inte vill ha en lampa, föfr då kan man skicka höga strömmar genom tunna ledningar)

Skrivet av Nyhet:

Efter lanseringen av grafikkorten i Radeon RX 5700-serien höjdes oroade röster över de höga standardtemperaturerna, något AMD nu menar är inom ramen för vad grafikkorten kan hantera.

Läs hela artikeln här

Naturligtvis, för att de har en turbin utan utan kopparrör.

Skrivet av Ryzer:

Förstår inte ens varför du tar detta till en AMD -vs- Nvidia diskussion.
Som du kan se i testen så används fortfarande den så kallade ''fusktemperaturen'' av båda tillverkarna.

Varför har AMD bestyckat med extra sensorer som enligt dig visar fusktemperaturer (nvidia har inte motsvarande sensorer), menar du att 110C limit'en man har satt på dom extra sensorerna för att optimera är fusktemperaturer och korten går mycket varmare? Hur vet du att motsvarande kort hos Nvidia inte går lika varma?

Senast redigerat 2019-08-14 13:36
Skrivet av lappen81:

Varför har AMD bestyckat med extra sensorer som enligt dig visar fusktemperaturer (nvidia har inte motsvarande sensorer), menar du att 110C limit'en man har satt på dom extra sensorerna för att optimera är fusktemperaturer och korten går mycket varmare? Hur vet du att motsvarande kort hos Nvidia inte går lika varma?

Jan har ingenstans sagt att det är någon fusktemp. Det var en annan användare som använde det uttrycket.
Som du kan se i testet, förutsatt att du öppnar dina ögon så ''idlar'' de nya RX korten högre än något annat, samt att XT har högst fusktemp. (dvs gamla vanliga sättet att mäta)

https://www.sweclockers.com/test/27832-amd-radeon-rx-5700-och...

Saxat från Nvidias hemsida.
NVIDIA GPUs are designed to operate reliably up to their maximum specified operating temperature. This maximum temperature varies by GPU, but is generally in the 105C range (refer to the nvidia.com product page for individual GPU specifications). If a GPU hits the maximum temperature, the driver will throttle down performance to attempt to bring temperature back underneath the maximum specification. If the GPU temperature continues to increase despite the performance throttling, the GPU will shutdown the system to prevent damage to the graphics card. Performance utilities such as EVGA Precision or GPU-Z can be used to monitor temperature of NVIDIA GPUs. If a GPU is hitting the maximum temperature, improved system cooling via an added system fan in the PC can help to reduce temperatures.

Senast redigerat 2019-08-14 14:22

@Ryzer: Ditt inlägg började med att det är dåliga temperaturer, sen gick det till fusktemperaturer som båda tillverna specifierar om du har citarat andra visst, men då dom så kallade fusktemperaturerna i idle skiljer sig 4grader mot ett 1080ti

Även nvidia specen som du hänvisar till/max fusk temperaturen på 105C så throttlar kortet ner, det finns ju ingenting som säger att att det inte är 110C eller 120C i verkligheten om det hade mätts på samma sätt, skillnaden är oavsett minimal

Skrivet av lappen81:

@Ryzer: Ditt inlägg började med att det är dåliga temperaturer, sen gick det till fusktemperaturer som båda tillverna specifierar om du har citarat andra visst, men då dom så kallade fusktemperaturerna i idle skiljer sig 4grader mot ett 1080ti

Även nvidia specen som du hänvisar till/max fusk temperaturen på 105C så throttlar kortet ner, det finns ju ingenting som säger att att det inte är 110C eller 120C i verkligheten om det hade mätts på samma sätt, skillnaden är oavsett minimal

Jag, 4 grader mot ett 2.5åt gammalt kort byggt på 16nm. Jag är inte imponerad.
Det jag har sagt hela tiden är att ju lägre temperatur ju bättre mår kortet, och det finns mer utrymme för överklockning.

Sen om vi inte ska mäta temperaturer på gammalt vis eller inte bryr jag mig inte om. Men båda tillverkarna använder i detta fall de traditionella mätpunkterna, samt att AMD lagt till Junker. Vilket jag inte har något emot.

@Ryzer: Ja jag vet inte vad du imponeras av men tog ett 1080ti då dom ligger nära varandra prismässigt, nyare kort 6-8C 2080ti, fortfarande små skillnader men du får betala 7-10000SEK extra, vill du ha ett litet kort 7nm får du kika på RX5700, Radeon VII, sen kommer ju resten på 12nm och uppåt

Ja det vore ju bra om alla tillverkare kunde presentera data på ett liknande sätt , skulle underlätta.

Senast redigerat 2019-08-14 17:31
Skrivet av Ryzer:

Förstår inte hur man kan försvara dessa temperaturer. Ju lägre desto bättre, simple as that.

Varför har vi annars fläktar? Varför undervoltar vi?

Temperaturen är hög pga för höga frekvenser, i jakt på prestanda.

Jag kommer ihåg att jag för länge sedan nojjade på grund av att min Duron-processor hade en temp på cirka 67 grader vid belastning. Jag trodde den skulle smälta eller något. Utvecklingen gör att hårdvaran pressas mer för varje år som går..

Fast om man tittar på Gamersnexus test så når ju minnet till exempel sin max temp med referens kortet i öppen test bänk, skitsamma om det är Nvidia eller AMD det gäller det ska finnas mer utrymme än så i stock utförande.

Skrivet av pa1983:

Att folk är paranoid över höga temperaturer har inget att göra med att AMD's nuvarande kort går varmare än äldre eller att Nvidias tex går svalare.

AMD har numera valt att redovisa varmaste delen av kislet och det är just detta folk nojjar sig över då man jämför ett nytt sätt att mäta med gamla sätt att mäta.
Temperaturen på ett chip kan variera titoals grader från en punkt till en annan så det finns igen homogen temperatur på ett chip.

Förut vad det gällde GPU och CPU:er fick vi EN temperatur, den kunde komma från vilken del av kislet som helst.
Ta intel som exempel som satte sensorn i den svalaste delen av processor vilket ger tröstande temperaturer till användaren , nu får alla relativt låga temps och är nöjda.

Nvidia's GPU:er går inte svalare än AMD's dito förutsatt likvärdig kylning för sitt effektförbrukning, Nvidia väljer bara att inte redovisa den varmaste punkten i chipet utan kör på en mer traditionell normaliserad metod, man mäter tex ett specifikt ställe eller ger någon form av medel temperatur.

Problemet är inte hårdvaran i detta fallet utan det mänskliga Psyket som inte klarar av att hantera mer information, företag vet detta och att inte upplysa konsumenter om saker dom kan "oroa" sig över är faktiskt rätt smart.
Så man kan snarare ifrågassätta varför AMD valde att ge användaren så mycket information, jag personligen har inget problem med det men det är uppenbart att många har svårt att hantera informationen och det hade nog varit smartare av AMD att bara redovisa den traditionella normaliserade temperaturen snarare än också max temperaturen på en given del av chipet.

Kollar man på youtube kanaler som benchar mycket grafikkort, AMD eller Nvidia så påpekar dom ofta hur AMD's sätt att redovisa temperaturerna skiljer sig mot tidigare metoder, och att man inte ska psyka upp sig över det.

Lägre temperaturer är alltid bättre men man kan inte jämföra olika GPU:er när tillverkarna mäter och redovisar temperaturer olika.

Vi kan ju med ganska hög säkerhet säg att vi inte vet hur varm tex den varmaste delen är i ett Nvidia kort, eller i en Intel CPU MEN vi kan med ganska hög sannolikhet säga hur varm den varmaste delen i AMD's senate GPU:er är då dom valt att visa detta.

Jag tycker att du förklarar allt så väl att jag egentligen inte har något att tillägga.
Tråkigt att AMD valde att visa "Junction hot spot temperature", många användare är uppenbarligen oförmögna att förstå vad det handlar om.
Jag har själv, ett antal gånger, försökt förklara att man inte kan jämföra "Junction hot spot temp" mot vanlig temp, men det verkar oftast som att folk inte verkar vilja läsa vad man skriver, kunskapen sjunker inte in.

Skrivet av Ryzer:

Jan har ingenstans sagt att det är någon fusktemp. Det var en annan användare som använde det uttrycket.
Som du kan se i testet, förutsatt att du öppnar dina ögon så ''idlar'' de nya RX korten högre än något annat, samt att XT har högst fusktemp. (dvs gamla vanliga sättet att mäta)

https://www.sweclockers.com/test/27832-amd-radeon-rx-5700-och...

Saxat från Nvidias hemsida.
NVIDIA GPUs are designed to operate reliably up to their maximum specified operating temperature. This maximum temperature varies by GPU, but is generally in the 105C range (refer to the nvidia.com product page for individual GPU specifications). If a GPU hits the maximum temperature, the driver will throttle down performance to attempt to bring temperature back underneath the maximum specification. If the GPU temperature continues to increase despite the performance throttling, the GPU will shutdown the system to prevent damage to the graphics card. Performance utilities such as EVGA Precision or GPU-Z can be used to monitor temperature of NVIDIA GPUs. If a GPU is hitting the maximum temperature, improved system cooling via an added system fan in the PC can help to reduce temperatures.

Idle temp på 38 grader är ganska ointressant, den ligger långt under max temp.
91 grader för XT är inte speciellt högt, vi pratar inte om ett febersjukt barn, vi pratar om en halvledare.

Vanligt att refkortens kylare kyler GPUn lite sämre men att den kyler VRMr och minnen bättre, än vad tredjepart gör.
Rätt så ointressant med tredjepart kylare som pressar GPU tempen till 75 grader, om den låter VRMer sticka till 120 grader.