AMD lanserar förfinade Polaris och Radeon RX 580, RX 570, RX 560 och RX 550

Permalänk

Jag kan helt och hållet förstå varför folk klagar på AMD hela tiden. Men AMD jobbar en hel del i motvind(Försöker dock inte dölja att att AMD har problem att tävla i vissa områden)

Men AMD jobbar i motvind, det kan ingen säga emot. nVidia har större "mindshare" runt om i världen, folk köper helt nvidia utan att ens tänka över det oavsett pris just då.

AMD har ett väldigt dåligt stigma bland folk, mycket för grejer som hänt för länge sedan.

Även när AMD låg bättre till så köpte den stora massan inte AMD/ATi(4xxx serien) även när den var överlägsen nvidia på alla punkter.

Det ledde ju till att amd inte tjäna så mycket pengar. Korten såldes mycket billigare och andelen som köpte dom var inte lika stor som andelen som köpte nvidia.

Inga pengar är lika med; Mindre budget att fixa fram något nytt och bättre.

Det kvittar vad AMD hade tagit fram idag(inga power fantasier) så hade inte stora massan köpt de.

Jag är en entusiast ingen "Fanboy" på något vis. Det finns inget företag jag gillar mer eller mindre. Pengarna talar för mig, inte märket!

Men jag gillar inte den positionen som där är på marknaden idag, ingen borde göra det. det gynnar inte oss konsumenter.

Det verkar dock som att den dumma massan har segrat.

*Går och lägger mig i ett hörn med whisky flaskan och drar en till mina tårar.*

Visa signatur

12900K, 48GB DDR5, RTX 3070Ti

Permalänk
Medlem
Skrivet av SwedenVirre:

Jag kan helt och hållet förstå varför folk klagar på AMD hela tiden. Men AMD jobbar en hel del i motvind(Försöker dock inte dölja att att AMD har problem att tävla i vissa områden)

Men AMD jobbar i motvind, det kan ingen säga emot. nVidia har större "mindshare" runt om i världen, folk köper helt nvidia utan att ens tänka över det oavsett pris just då.

AMD har ett väldigt dåligt stigma bland folk, mycket för grejer som hänt för länge sedan.

Även när AMD låg bättre till så köpte den stora massan inte AMD/ATi(4xxx serien) även när den var överlägsen nvidia på alla punkter.

Det ledde ju till att amd inte tjäna så mycket pengar. Korten såldes mycket billigare och andelen som köpte dom var inte lika stor som andelen som köpte nvidia.

Inga pengar är lika med; Mindre budget att fixa fram något nytt och bättre.

Det kvittar vad AMD hade tagit fram idag(inga power fantasier) så hade inte stora massan köpt de.

Jag är en entusiast ingen "Fanboy" på något vis. Det finns inget företag jag gillar mer eller mindre. Pengarna talar för mig, inte märket!

Men jag gillar inte den positionen som där är på marknaden idag, ingen borde göra det. det gynnar inte oss konsumenter.

Det verkar dock som att den dumma massan har segrat.

*Går och lägger mig i ett hörn med whisky flaskan och drar en till mina tårar.*

Håller med i det du säger.

Men det som jag undrar: är det en Lagavulin du går och lägger dig med?

Skickades från m.sweclockers.com

Visa signatur

SpelDator: | Asus ROG Strix XG438Q 4K 120hz| AMD Ryzen 5 5600X 3.7 GHz 35MB| B450 I AORUS PRO WIFI| MSI Radeon RX 6800 16GB | Corsair Force MP510 1920GB M.2 NVMe | Samsung EVO 860 2TB | Seagate Guardian BarraCuda 2.5 5TB| Corsair 32GB (2x16GB) DDR4 3600MHz CL18 Vengeance LPX Svart| Ghost S1 MK2| Corsair SF750 750W 80+ Platinum| Logitech MX Sound| WD My Passport V2 USB 3.0 4TB| Buffalo Mediastation Ultra-Thin Portable Blu-Ray writer| Logitech Logitech G604 Lightspeed

Permalänk

@Bewise: Nej, dessa priserna på marknaden har lämnat mig med Johnny Walker Red Lable

Visa signatur

12900K, 48GB DDR5, RTX 3070Ti

Permalänk

Det var bättre på det glada 90 talet när man hade 2-3 kort per ca 5 år att välja på ,tex Voodoo graphics eller matrox mystique. Samt att det knappt fanns något internet som gjorde tester utan man fick genom självutnämda dator experter till kompisar höra vilket kort som var bäst. Shit man börjar bli gammal....

Visa signatur

AMD Ryzen 9 5900X /Radeon RX 6950XT / Gigabyte X570 AORUS ULTRA / 32gb Corsair Vengeance RGB PRO DDR4 3600MHz /, EVGA Supernova G2 850W PSU/ Lian-li O11 Dynamic /M.2 Samsung 950pro,WD BLACK SN750 /EKWB Watercooling 240+120mm radiator /Corsair Hydro X Series XC7 RGB / Corsair K70 RGB / Phillips 27" G-sync + 2st 27" AOC .

Permalänk
Moderator
Testpilot
Skrivet av Bewise:

Håller med i det du säger.

Men det som jag undrar: är det en Lagavulin du går och lägger dig med?

Skickades från m.sweclockers.com

Lagavulin avnjuter man. Det är Jack man går och lägger sig med.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Snark, ge oss vega.

Permalänk
Medlem

Yess!!! Äntligen!

Visa signatur

Intel i7-4790K | Palit GeForce GTX 1080 Super Jetstream | Noctua NH-D15 | Corsair Vengeance Low Profile 32GB DDR3 PC3-12800 | Samsung SSD 840 EVO 250 GB | Asus Z97-A

Permalänk
Trollfabrik 🫶🏻
Skrivet av trickeh2k:

Om det inte hade varit för introducerande av dx12, hade ni bemödat er att göra något annat ån en snabbtitt på detta oerhört ointressanta släpp?

Sannolikt! Det är trots allt lite mer än en omdöpning (till skillnad från ex. stora delar av 200-serien och 300-serien) då strömförbrukningen vid idle ska vara lägre samt att kretsarna kan nå högre klockfrekvenserna än tidigare.

Skrivet av Nioreh83:

Kommer ni testa Titan Xp också? Eller har jag helt missat om det redan kommit ett test på den?

I dagsläget finns det inte på agendan, men då vi har en ny testsvit snart klar kan vi köra kortet om vi får tag på ett.

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Hjälpsam

@Jacob: Kommer testsviten vara mer automatisk?
Tex ett skript som drar en massa tester under några timmar.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Trollfabrik 🫶🏻
Skrivet av Ratatosk:

@Jacob: Kommer testsviten vara mer automatisk?
Tex ett skript som drar en massa tester under några timmar.

Vi har i dagsläget inga planer på att automatisera testandet. Att vi testar produkterna i fråga ger oss viktiga erfarenheter vi kan ta med oss när vi skriver testerna. Det är inte mer komplicerat än att vi testar om allt med färska drivrutiner och uppdaterar de spel och benchmark vi använder.

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem
Skrivet av SeF.Typh00n:

Vilket gör det extremt tydligt hur fullkomligt onödigt detta kortet är. Jag trodde inte man kunde göra en sämre refresh än med Hawaii, jag blev motbevisad.

Det är verkligen enbart för att stilla behovet av "nya" komponenter hos OEM-tillverkare. Inget annat.

@Dallebull: Javisst, för allting AMD gör måste berömmas.

hehe, det finns lite värre rebrands/refresh än denna från bägge lagen, här är en länk till en bra video som förklarar detta.

https://www.youtube.com/watch?v=NPUTa8_L8L0

ATI första rebrand/refresh var 17/10-2001 (detta är världens första rebrand/refresh av GPU) och nvidia var 2/2-2002 (men denna var lite värre då man nyttjade ett chip 2gen senare Geforce2MX blev Geforce4MX).

Allt detta finns med i denna video och länkar till sidor finns med.

http://www.anandtech.com/show/875/6

Visa signatur

Rʏᴢᴇɴ 5800X3D / Tᴀɪᴄʜɪ X570 / 64Gʙ DDR4/ RX 6950XT Mᴇʀᴄʜ 319

Permalänk
Medlem
Skrivet av Ortovox:

Även om jag personligen gillar AMD så tycker jag det känns lite tråkigt med denna lanseringen, det hade känts helt ok om de släppt dem som RX 485, RX 475 och RX 465. Och att sen i pressmaterialet jämföra med en generationen innan den aktuella generationen är lite pinsamt (R7 380, GTX 960 osv). Jag hoppas att det stämmer att finns bra överklockingspotential för att göra dem lite intressantare.

Däremot ska RX550 bli intressant att kolla på till min HTPC då de inbyggda GPU:er är rätt begränsade när det gäller HDR, 4K 60Hz över HDMI osv och det blir billigare att uppgradera grafikkortet bara.

Sen till er som skriver kommentarer utan substans som "Dagens första gäspning...." mm, jag tycker bara synd om er .

De byter ju namn/gen då tillverkningsnoden går från LPP till LPC (har ingen länk som jag hitta nu om detta), de säger ju själva att det är 3:e gen av 14nm med i all reklam.

Visa signatur

Rʏᴢᴇɴ 5800X3D / Tᴀɪᴄʜɪ X570 / 64Gʙ DDR4/ RX 6950XT Mᴇʀᴄʜ 319

Permalänk
Medlem
Skrivet av Alotiat:

Så sammanfattningsvis kan man säga att:

  • RX 580 kommer prestera lite sämre än GTX 1060 och kosta ungefär lika mycket som RX 480.

  • RX 570 kommer att prestera lite sämre än RX 480 och ha en prislapp snäppet under.

Någon får gärna rätta mig om jag har fel!

Skrivet av Viochee:

580 / 480 kommer prestera ungefär som ett GTX 1060, beroende på spel kommer ena vara sämre än den andra...

* Tittar man på utvecklingen sedan 480 släpptes så har RX 480 knappat in och i flera fall gått om GTX 1060 i prestanda, särskilt i nyare spel och DX12. (Jag köpte själv ett GTX 1060 i höstas och tvekar lite på om jag valde fel ur prestandasynpunkt. Tröstar mig med att det i alla fall drar mindre effekt än ett RX 480 och inte hörs.)
* RX 570 hamnar nog mycket nära RX 480 med 4GB minne, både i pris och prestanda.
* Prestanda och effektförbrukning hos RX 580 kontra RX 480 ser ut som det gör för att man höjt GPU-frekvensen utan att öka minnesbandbredden. RX 570 vinner mycket mer i prestanda gentemot RX 470 eftersom man där höjt minnesfrekvensen.

Jag tror det smartaste man kan göra med en RX 580 är att underklocka GPU ner mot 480s frekvens, för att på så sätt kraftigt minska effektförbrukningen utan att nämnvärt sänka prestandan.

Permalänk
Medlem
Skrivet av Olle P:

* Tittar man på utvecklingen sedan 480 släpptes så har RX 480 knappat in och i flera fall gått om GTX 1060 i prestanda, särskilt i nyare spel och DX12. (Jag köpte själv ett GTX 1060 i höstas och tvekar lite på om jag valde fel ur prestandasynpunkt. Tröstar mig med att det i alla fall drar mindre effekt än ett RX 480 och inte hörs.)
* RX 570 hamnar nog mycket nära RX 480 med 4GB minne, både i pris och prestanda.
* Prestanda och effektförbrukning hos RX 580 kontra RX 480 ser ut som det gör för att man höjt GPU-frekvensen utan att öka minnesbandbredden. RX 570 vinner mycket mer i prestanda gentemot RX 470 eftersom man där höjt minnesfrekvensen.

Jag tror det smartaste man kan göra med en RX 580 är att underklocka GPU ner mot 480s frekvens, för att på så sätt kraftigt minska effektförbrukningen utan att nämnvärt sänka prestandan.

Jaha så om jag förstått rätt så menar du att:

RX 570 < GTX 1060 < RX 480 (kan variera kraftigt men om vi håller oss till de flesta nyare spelen)
samt att:
RX 480 < RX 580 < GTX 1070 => lägre prestande men lägre prislapp, såklart

Så om man underklockar RX 580 till samma frekvenser som RX 480 så vinner man stort i effekt men behåller samma prestanda? Är inte så insatt men borde inte frekvensen och effekten ha ett proportionerligt samband? (ungefär)

Permalänk
Medlem
Skrivet av Novdid:

@Kilroy:

Det finns fler variabler. Jag tycker att Freesync/G-sync är det bästa sedan skivat bröd. Har man lite stram budget kan 1000-3000 kr extra för en G-syncskärm kontra en liknande med Freesync göra att en RX480 ser mer attraktiv ut än GTX 1060.

Freesync är en sak där jag är riktigt irriterad på Nvidia och en av anledningarna till att jag är hejar på AMD, så jävla idiotiskt att använda en låst teknik som kostar massa extra. Nvidia hade kunnat stöda Freesync med en liten enkel uppdatering av drivrutinerna.
Hatar när vi har teknologin att göra något bättre men när företag låter bli av helt idiotiska och samhällsdestruktiva anledningar.

Skrivet av Novdid:

Sedan antar jag att du hade ett R9 Nano innan Nvidia släppte 1xxx-serien om energieffektivitet är prio 1 för dig?

Nej, jag hade ett AMD 5850. Jag köper inte grafikkort så ofta.
Just nu har jag ett 1080 i min nya dator och ett 1060 i min gamla dator.

Skrivet av _Merc_:

Nvidias dåliga Drivare som de har haft och DX12 prestandan.

DX12 prestandan var bättre i andra spel än jag hade sett hos dom jag kollat på.

Vad får dig att säga att Nvidias drivrutiner är dåliga?
Jag ser ofta att det klagas på drivrutiner i dom olika lagen, jag hade aldrig problem med AMD drivrutiner då dom fick väldigt mycket skit och jag har aldrig haft problem med Nvidias drivrutiner hittills.

Eller, min Llano HTPC har haft problem med AMDs grafikdrivrutiner, med senare drivrutiner slutar ljudet via HDMI att fungera och jag måste använda gamla drivrutiner. Det är lite irriterande.

Skrivet av GilbertG:

Lägre pris. Crimson ReLive. Freesync.

4xx-serien har längre pris nu men den kommer ju att ta slut snart, om 5xx-serien sjunker i pris när 4xx-serien är borta från marknaden så ja, med mycket knaper budget kan man spara ett par hundralappar.

Vad är fördelen med Crimson ReLive gentemot Nvidias Shadowplay?

Freesync är mycket bra, men är det värt 100% mer strömförbrukning?
Om man tycker det så ja, då finns det anledning att köpa AMD kort.

Permalänk
Hjälpsam

@Alotiat: Effekten tenderar att öka med kuben på frekvensen över en visst värde, det är en orsak till att det inte går att klocka Rx400/Rx500, speciellt mycket.
Innan dess ökar den betydligt beskedligare.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Ändrar mig från snark till skräp, verkar inte vara mer än någon %. De flesta fabriksklockade korten brukar ge en bättre boost, pinsamt är bara förnamnet AMD.

Permalänk
Medlem

@Peterrrrr: Spelar ju ingen roll ändå sämre kort. Bra mycket sämre. Även om man tar AMD egna siffror ( Nypa salt ) .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Hjälpsam

@ramlösa: det är så det är, även för Nvidia, 10% högre klock, ger bara några få procent bättre prestanda.
Det är därför det oftast inte lönar sig att klocka.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Ratatosk:

@Alotiat: Effekten tenderar att öka med kuben på frekvensen över en visst värde, det är en orsak till att det inte går att klocka Rx400/Rx500, speciellt mycket.
Innan dess ökar den betydligt beskedligare.

Ok nu är jag med i matchen. Då lärde man sig något nytt idag, tack för klargörandet!

Permalänk
Moderator
Testpilot
Skrivet av Alotiat:

Jaha så om jag förstått rätt så menar du att:

RX 570 < GTX 1060 < RX 480 (kan variera kraftigt men om vi håller oss till de flesta nyare spelen)
samt att:
RX 480 < RX 580 < GTX 1070 => lägre prestande men lägre prislapp, såklart

Så om man underklockar RX 580 till samma frekvenser som RX 480 så vinner man stort i effekt men behåller samma prestanda? Är inte så insatt men borde inte frekvensen och effekten ha ett proportionerligt samband? (ungefär)

Jag ska inte låtsas som att jag förstår mig på detta ämnet helt och hållet men för att frekvens och effekt skall ha ett perfekt samband så måste du ha ett medium (kisel) som är perfekt, ju varmare kisel blir desto mindre resistens och därmed högre värmeutveckling och halvledaren börjar "läcka" som det populärt kallas. Halvledaren blir helt enkelt mindre effektiv vid ju högre värmeutvecklingen blir för att atomerna börjar skaka mer och mer och metallen kan inte hålla dom i schack lika effektivt så att säga. Atomerna börjar helt enkelt krocka med varandra, istället för att ta sig till sin tänkta destination direkt.

Vid absoluta nollpunkten; 0K så hade en halvledare skalat perfekt mellan effekt och frekvens.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Alotiat:

Jaha så om jag förstått rätt så menar du att:
RX 570 < GTX 1060 < RX 480 (kan variera kraftigt men om vi håller oss till de flesta nyare spelen)

Inte riktigt:
Nu: RX 570 = RX 480 (4GB) = RX 580 (4GB) < GTX 1060 (3GB) < RX 480 (8GB) = RX 580 (8GB) = GTX 1060 (6GB)
Om ett år: GTX 1060 (3GB) < RX 570 = RX 480 (4GB) = RX 580 (4GB) < GTX 1060 (6GB) < RX 480 (8GB) = RX 580 (8GB)
Likhetstecknen ska ses som "marginella skillnader".

Skrivet av Alotiat:

samt att:
RX 480 < RX 580 < GTX 1070 => lägre prestande men lägre prislapp, såklart

RX 580 << GTX 1070.
Två RX 480 i CrossFire når i dagsläget GTX 1070 prestanda i vissa spel.

Skrivet av Alotiat:

Så om man underklockar RX 580 till samma frekvenser som RX 480 så vinner man stort i effekt men behåller samma prestanda? Är inte så insatt men borde inte frekvensen och effekten ha ett proportionerligt samband?

Tittar man på en enskild krets så är den elektriska effekten nästan rakt proportionell mot frekvensen, ja.
EDIT (andra hann publicera nya inlägg när jag skrev detta): Klart att termiska effekter spelar in också. Rak proportionalitet råder vid konstant temperatur.
Ett grafikkort består av många kretsar, och de olika involverade frekvenserna varieras vid olika belastning. Då blir sambandet mellan inställd maximal frekvens hos en delkomponent och total effektförbrukning inte alls lika rättframt.

Tittar man på likheter och skillnader mellan grafikkorten RX 480 och RX 580 (i referensutförande) så finner man:
* Essentiellt samma RAM (storlek, frekvens, bandbredd).
* Essentiellt samma GPU, sett till hårdvara.
* Olika (maximal) GPU-frekvens.
* RX 580 drar mindre effekt vid låg belastning.
* RX 580 drar markant högre effekt vid hög belastning, men uppvisar bara marginellt högre prestanda. (Prestandan begränsas av minnesbandbredden, som är samma för båda korten.)

Sänker man den maximala frekvensen för GPU hos RX 580 så sänks den maximala effektförbrukningen för kortet.
Samtidigt bibehålls den fina effektiviteten vid låg belastning.
Det är möjligt/sannolikt att en sänkning av maxfrekvensen kan kombineras med en sänkt drivspänning, vilket i så fall ökar effektiviteten ytterligare!

Vill man öka prestandan hos ett RX 580 är det bättre att utifrån referensvärdena öka minneshastigheten snarare än GPU-frekvensen.
(Notera: Inget av de fabriksöverklockade tredjepartskorten kommer med snabbare minne, så det är nog relativt svårt att öka denna frekvens!)

Permalänk
Medlem

Tråkig lansering men dessa kort är faktiskt de självklara kungarna i mellansegmentet. AMD är ikapp Nvidia i DX11 och lite snabbare överlag i DX12. Så nu behöver man inte fundera på GTX 1060 vs RX 480. RX 580 är bäst nu och troligen kommer bli ännu bättre i takt med att fler DX12 titlar släpps och kanske kan drivrutinsuppdateringar fortfarande ge ytterligare några procent.

Permalänk
Medlem

Lite mer filosoferande...

Utifrån vad vi nu vet tycker jag att AMD kunde valt en annan approach.
I stället för att döpa om härket till RX 580 kunde man nöjt sig med RX 480 2nd Ed eller något i den stilen.

Skillnader mot referens RX 480:
* Lägre effektförbrukning vid låg belastning.
* Marginellt höjd frekvens, typ från 1120 till 1150 MHz, mest för syns skull.
* Bibehållen 150W TDP.
* Bättre fördelning av effektuttaget: 8-pin PCIe-kontakt som (vid behov) belastas med 100-120W, resten från moderkortet.
* Övrigt förbättrad stöd för "andra funktioner".

"Samma prestanda och i övrigt bättre" (effekten av förslaget ovan) känns mer lockande än "marginellt bättre prestanda och i övrigt en blandad kompott" (så som RX 580 är).

Permalänk
Medlem
Skrivet av scara:

... AMD är ikapp Nvidia i DX11 och lite snabbare överlag i DX12. ... RX 580 är bäst nu och troligen kommer bli ännu bättre...

Sett till ren prestanda håller jag med fullständigt.

GTX 1060 (6GB) drar dock märkbart lägre effekt, så om målet är att hålla datorn effektiv (och tyst) är det i alla fall inte ännu lika självklart vad man ska välja.

Permalänk
Medlem

Är det verkligen någon som skulle kunna säga på ljudnivån i två likadana lådor om det finns ett kort som drar ett par extra watt i den ena? Jag antar att det är kylningen folk är oroliga för, att fläktarna behöver dra igång snabbare?

Låt säga att jämförelsen skulle göras med det tystaste 1060 och det tystaste 480/580 t.ex.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av Dinoman:

Jag ska inte låtsas som att jag förstår mig på detta ämnet helt och hållet men för att frekvens och effekt skall ha ett perfekt samband så måste du ha ett medium (kisel) som är perfekt, ju varmare kisel blir desto mindre resistens och därmed högre värmeutveckling och halvledaren börjar "läcka" som det populärt kallas. Halvledaren blir helt enkelt mindre effektiv vid ju högre värmeutvecklingen blir för att atomerna börjar skaka mer och mer och metallen kan inte hålla dom i schack lika effektivt så att säga. Atomerna börjar helt enkelt krocka med varandra, istället för att ta sig till sin tänkta destination direkt.

Vid absoluta nollpunkten; 0K så hade en halvledare skalat perfekt mellan effekt och frekvens.

Som sagt är jag inte så insatt, men det du säger låter väldigt logiskt!

Skrivet av Olle P:

Inte riktigt:
Nu: RX 570 = RX 480 (4GB) = RX 580 (4GB) < GTX 1060 (3GB) < RX 480 (8GB) = RX 580 (8GB) = GTX 1060 (6GB)
Om ett år: GTX 1060 (3GB) < RX 570 = RX 480 (4GB) = RX 580 (4GB) < GTX 1060 (6GB) < RX 480 (8GB) = RX 580 (8GB)
Likhetstecknen ska ses som "marginella skillnader".
RX 580 << GTX 1070.
Två RX 480 i CrossFire når i dagsläget GTX 1070 prestanda i vissa spel.
Tittar man på en enskild krets så är den elektriska effekten nästan rakt proportionell mot frekvensen, ja.
EDIT (andra hann publicera nya inlägg när jag skrev detta): Klart att termiska effekter spelar in också. Rak proportionalitet råder vid konstant temperatur.
Ett grafikkort består av många kretsar, och de olika involverade frekvenserna varieras vid olika belastning. Då blir sambandet mellan inställd maximal frekvens hos en delkomponent och total effektförbrukning inte alls lika rättframt.

Tittar man på likheter och skillnader mellan grafikkorten RX 480 och RX 580 (i referensutförande) så finner man:
* Essentiellt samma RAM (storlek, frekvens, bandbredd).
* Essentiellt samma GPU, sett till hårdvara.
* Olika (maximal) GPU-frekvens.
* RX 580 drar mindre effekt vid låg belastning.
* RX 580 drar markant högre effekt vid hög belastning, men uppvisar bara marginellt högre prestanda. (Prestandan begränsas av minnesbandbredden, som är samma för båda korten.)

Sänker man den maximala frekvensen för GPU hos RX 580 så sänks den maximala effektförbrukningen för kortet.
Samtidigt bibehålls den fina effektiviteten vid låg belastning.
Det är möjligt/sannolikt att en sänkning av maxfrekvensen kan kombineras med en sänkt drivspänning, vilket i så fall ökar effektiviteten ytterligare!

Vill man öka prestandan hos ett RX 580 är det bättre att utifrån referensvärdena öka minneshastigheten snarare än GPU-frekvensen.
(Notera: Inget av de fabriksöverklockade tredjepartskorten kommer med snabbare minne, så det är nog relativt svårt att öka denna frekvens!)

Tack för info! Då har jag då två följdfrågor:

1. När du skriver "Om ett år: GTX 1060 (3GB) < RX 570 = RX 480 (4GB) = RX 580 (4GB) < GTX 1060 (6GB) < RX 480 (8GB) = RX 580 (8GB)", så undrar jag hur ett RX 570 kan prestera lika bra som ett RX 580 (4GB) OCH RX 480 (4GB)? Förstår inte det resonemanget/biten.

2. När du skriver "RX 580 << GTX 1070", menar du 4GB versionen då? För det finns t.ex. den här för 3300 kronor som jag tänker/trodde skulle ligga snäppet under ett GTX 1070 i prestanda, iom den prisklassen. Men AMD kanske vill släppa ett kort som är: GTX 1060 < RX 580 Nitro (8GB) < GTX 1070?

Eller skulle du säga att GTX 1070 är på en helt annan nivå?

Angående effekten: Man utnyttjar alltså RX 580 fina effektivitet vid lägre frekvenser och sänker maxfrekvenser där det tenderar att skena iväg? Är ökningen i maxfrekvensen de där 6% alla pratar om? Citat från artikeln: "Skillnaderna märks istället i klockfrekvenserna, där Radeon RX 580 har basläget 1 257 MHz med maximalt turbo på 1 340 MHz. Det här resulterar i en teoretisk prestandaökning om 6 procent jämfört med RX 480".

Permalänk
Medlem

Som sagt. Freesync. Typ "gratis".

Tittar man på en totalpris exkl allt annat krimskrams i en dator.

Asus MG248Q + RX 580 8 GB @ 5600 kr
...mot...
Asus PG248Q + GTX 1060 6GB @ 7200 kr

1600 kr fördel röda. Samma lika, fast i stort sett vad en Samsung EVO 850 500 GB SSD kostar. Man kan säga att till samma prestanda får man den bästa SSD'n på köpet beroende på vilket val man gör

Visa signatur

Vinterdatorn 2016 (。◕‿◕。)
| Fractal Design Define S | Asus Z170 Pro Gaming > i5 6600K > Noctua U14S | RX480 4GB + RX570 4GB | EVO850 250 + 512 GB SSD'er | 2x8GB Corsair 3000MHz | Supernova G2 650W | AOC G2460PF 24" |

Permalänk
Medlem
Skrivet av ClintBeastwood:

Är det verkligen någon som skulle kunna säga på ljudnivån i två likadana lådor om det finns ett kort som drar ett par extra watt i den ena? Jag antar att det är kylningen folk är oroliga för, att fläktarna behöver dra igång snabbare?

Låt säga att jämförelsen skulle göras med det tystaste 1060 och det tystaste 480/580 t.ex.

Den tystaste 1060 bör under belastning göra att hela datorn blir tystare, allt annat lika. en 480 dumpar ut ca 50w mer värme i datorn.

Dock ska det sägas att baserat på de tester jag sett är Sapphires, MSI:s och Asus lösningar av RX580-korten oerhört tysta. generellt har grafikkortskylarna från olika AIB blivit enormt bra. Jag har ett MSI Gaming X 1080 och jag tycker mitt system är enormt tyst även under belastning, och ett 580 drar ungefär lika mycket och har i MSI:s fall samma kylare. Bra ventilation är nyckeln.

Permalänk
Medlem
Skrivet av TurboFreak68:

hehe, det finns lite värre rebrands/refresh än denna från bägge lagen, här är en länk till en bra video som förklarar detta.

https://www.youtube.com/watch?v=NPUTa8_L8L0

ATI första rebrand/refresh var 17/10-2001 (detta är världens första rebrand/refresh av GPU) och nvidia var 2/2-2002 (men denna var lite värre då man nyttjade ett chip 2gen senare Geforce2MX blev Geforce4MX).

Allt detta finns med i denna video och länkar till sidor finns med.

http://www.anandtech.com/show/875/6

Ack och ve, hade ett geforce mx 200 och köpte mig ett mx 460 för min första sommarjobbspeng och så blev skillnaden gott som ingen. Men det var nog för att jag hade en celeron 700...

Skickades från m.sweclockers.com

Visa signatur

SpelDator: | Asus ROG Strix XG438Q 4K 120hz| AMD Ryzen 5 5600X 3.7 GHz 35MB| B450 I AORUS PRO WIFI| MSI Radeon RX 6800 16GB | Corsair Force MP510 1920GB M.2 NVMe | Samsung EVO 860 2TB | Seagate Guardian BarraCuda 2.5 5TB| Corsair 32GB (2x16GB) DDR4 3600MHz CL18 Vengeance LPX Svart| Ghost S1 MK2| Corsair SF750 750W 80+ Platinum| Logitech MX Sound| WD My Passport V2 USB 3.0 4TB| Buffalo Mediastation Ultra-Thin Portable Blu-Ray writer| Logitech Logitech G604 Lightspeed