Inlägg

Inlägg som heyon har skrivit i forumet
Av heyon

Tack för svaren, jag har faktiskt haft datorn ett kort tag nu då jag beställde M3 Air 16/512 10C GPU.

Jag baserade beslutet på:

- 120 HZ skärm är klart bra och coolt. Men inget jag behöver eller har någon praktisk nytta av i det jag gör. Jag har det på jobbdatorn och även om jag gillar det gör det som sagt ingen praktisk skillnad för mig.
- M3 Air har väldigt bra SC prestanda och det är troligen det som jag kommer ha mest nytta av i mitt use case. Det är väldigt sällan jag kommer utsätta datorn för någon större kontinuerlig last över lång tid så throttling är jag inte väldigt orolig över.
- Jag tror M3 Air kommer ha ett väldigt bra andrahandsvärde och mjukvarusupport många år fram.

Det finns lite andra fördelar med den:

- Svart dator!
- Modernare funktioner i GPU'n
- En bättre NPU

Jag vet inte hur hur stor roll de två sistnämnda punkterna kommer spela. Skulle dock förvåna mig om det inte dyker upp en del nytt om "on-device" AI under WWDC.

Men det är inget lätt val, hade nog varit väldigt nöjd med en M1 Pro också.

Såhär långt är jag väldigt nöjd med datorn, den är mycket snabbare än den högljudda i7-11370H-baserade laptopen jag använder i jobbet och batteritiden går inte att jämföra.

Av heyon
Skrivet av Yoshman:

Du nämner också AI. Vissa (men långt ifrån alla) AI-fall vill ha mycket brandbredd mot RAM, för sådana fall kommer M1 Pro vara bättre än M3.

Men det är alltid väldigt trevligt att ha så mycket CPU-kraft man kan få vid programmering, framförallt är ST-prestanda guld för snabba iterationer. M3 kommer vara 25-30 % snabbare, ungefär samma fördel M1 Pro lär ha sett till GPU. Nu är Golang guld i hur otroligt snabbt det kompilerar, är helt OK-ish att jobba med på hyfsat enkla CPUer...

M3 MBA kan drivar två externa skärmar, något M1/M2 inte var kapabel till. M1 Pro kan driva totalt 3 skärmar, två externa och den interna (M3 kan driva en andra extern skärm eller den interna skärmen).

Jag kommer nog ladda ner en hel del färdigtränade AI modeller och konvertera dem till CoreML för att integrera dem i applikationer. Förhoppningen är att maskinen duger till den typen av arbete.
Träna får jag göra i molnet istället om jag vill ge mig på det.

Det är en bra poäng om SC prestanda, och det har jag nog mer nytt av än något annat egentligen. För mig är det viktigt att datorn är responsiv.

Den skall kopplas in till en Ultrawide 1440p så även där borde det ju klara sig utan problem 🙂

Av heyon

Tack för alla tankar kring köpet, jag sov på saken och funderade lite på vad jag egentligen kommer använda datorn mest till. Då insåg jag att jag nog inte kommer spela mycket, om än alls på den.

Kollade lite mer tester också och GPU prestandan för t.ex AI skall t.om vara högre i något test(tror det var Geekbench, är det raytracing stödet eller något annat nytt i GPUn tro?). Så GPUN är nog inte så långt efter trots allt. Dessutom har den en bättre AI motor vilket är viktigt vid inferance, har jag förstått. Och i slutet av dagen kanske inte någon av dessa datorerna är jätteoptimala för att träna stora AI modeller i alla fall.

Det tillsammans med att den troligen har mjukvarusupport längre fram gjorde att det landade på Air 13 M3. Återkommer gärna med intryck och lite benchmarks när jag fått den om det är intressant.

Av heyon

M1 Pro 14 eller M3 Air 13?

Tjenare,

Jag tänkte äntligen få tummen ur och skaffa mig en ny laptop vilket jag velat göra sen M1 först släpptes, min instinkt var direkt att M3 Air är det självklara valet. Den kostar dock ca ~21000, damn u inflation! Men nu såg jag att man kan hitta M1 14" Pro för ungefär samma pengar. Jag gjorde lite research och fann att prestandan enligt Geekbench 6 var ungefär densamma för MC men en 20-25% fördel för M3 Air i SC. Och cirka 20-25% fördel för M1 Pro på metal compute(GPU).

I övrigt verkar de ha ungefär samma batteritid, M1 Pro har nog rätt bättre bibehållen MC CPU prestanda över tid dock, eftersom Air inte kyls aktivt. M1 Pro har även en skärm med adaptiv refresh rate upp till 120hz och miniled vilket jag tycker är en stor fördel.

Specarna på maskinerna är:

13.*" M3 Air med 512GB lagring, 16GB minne och 10 GPU Cores
14" M1 Pro med 512GB lagring, 16gb minne och 16 GPU Cores

Jag kommer använda datorn till allt man använder en laptop till: bankärenden, ehandel etc. Men även en del hobbyprogrammering inom C#, Golang och annat jag kan tänka mig att labba med(med IntelliJs IDE'er). Det kan även komma till att bli en del AI arbete i den mån det är möjligt på en sån här dator.

Är det dumt att offra single core prestandan i m3 för bättre GPU och den bättre skärmen? Hur länge kan man räkna med att Apple kommer stödja M1 maskinerna med uppdateringar?

{{ Gå till inlägget för att se omröstningen }}

Av heyon

Det kanske blir ett fall för EU framöver, jag tycker personligen öppen källkod borde vara obligatoriskt för en standard som denna. Bara att lagstifta!

Hur är det med USB-C? Är allt kring det öppet och fritt?

Av heyon

Självklart skall allt material som används för AI-träning kräva tillåtelse/licens för det. Jag förstår inte varför folk får för sig att med just det vi råkar kalla AI skall man inte behöva bry sig om immateriella rättigheter.

Av heyon
Skrivet av ronz:

Jag håller inte med men vi får tycka olika.
Och det är väl just därför den fick "Bra produkt" och inte "Toppklass" eller "Utmärkt"
Gör man om det till en betygskala så blir det 2 av 4 Swecpoäng.

Hur man än vrider och vänder så är det en bra produkt. Den presterar väldigt bra. Vilket är det absolut viktigaste för många (men inte alla).
Om den varit billigare och haft lägre strömkonsumtion hade det nog varit en Utmärkt produkt.
Hade den även haft bättre prestanda så hade det nog varit en Toppklass produkt.

Ja det får vi göra, jag förstår dock ditt resonemang om man utgår från att detta skulle innebära en 2a av 4. Mitt problem med detta handlar då mer om att man ger en utmärkelse för en 2a.

Skrivet av Pantburk:

@heyon

Du kanske får bättre fps med x3d cpuerna men jätte många användare på Amd forumet mm lider av allvarliga stutters mm som Amd inte lyckats lösa än och de vet om problemet.
@Swedishchef_90
Pratade om detta i någon tråd.

Man kanske borde ta bort bra spel prestanda på
Amd produkter tills det är åtgärdat men de kanske inte gör detta då prestandan kanske sjunker enormt.

Borde stå att stutters ingår och förstör spelupplevelse.

Mvh

Vill understryka att jag inte på något sätt gör någon värdering av produkten i sig, min kommentar handlar om sitens val att sätta en "Bra produkt" stämpel baserat på mitt intryck av recensionen i övrigt och de för och nackdelar man radar upp. Produkten kan förstås vara hur bra eller dålig somhelst oavsett vad som skrivs en recension.

En produkt är ju också bra för någon och dålig för en annan beroende på vad de värderar och använder produkten till. Denna är säkert bra för många.

Av heyon
Skrivet av ronz:

Det är en Bra Produkt då den presterar Bra. Vilket är dess huvudsyfte. Att prestera.
Detta är också generation tre till en redan existerande plattform. Det är alltid trevligt när det kommer uppdateringar till redan existerande plattformar. Har Intel någonsin släppt tre generationer på en och samma plattform? Detta är ett steg i rätt riktning även om den faller ganska platt. Recensionen har detta som både en Positiv och Negativ punkt vilket kanske är rimligt.

X3D är dock deras största fiende och om inte Intel kommer med något liknande snart så ser det mörkt ut när det gäller processorer för spel.

En fundering (inte bara riktad mot dig jag citerar): Hade detta släpp varit bättre och fått mindre kritik om de döpt processorerna till 13650K / 13750K / 13950K ?

Skrivet av Dinoman:

Jag kan tycka att den utmärkelsen är helt perfekt avvägd i detta fallet. Många nackdelar och omständigheter att ta i beaktning men det går samtidigt inte att komma ifrån att det är en processor som hör hemma i absoluta toppskiktet. Kundgruppen i det segmentet är oftast inte priskänsliga och kan också tänka sig att lägga pengar på exotisk kylning.

Jag tycker nog man skall prestera lite över förväntan för att få en badge som "Bra produkt". Jag tycker också argumentet att kundgruppen som vill ha en snabb cpu inte är priskänslig är irrelevant. Produkter måste bedömmas i relation till pris, annars blir recensioner hyffsat meningslösa eftersom pris är den begränsning man alltid jobbar mot. Tar vi bort den finns inget tak, annat än fysikens lagar själv. Strömkonsumtionen kommer med massor av andra problem: ljudnivå, storlek på låda, kapacitet på nätaggregat, kostnad för kyllösning. En bra produkt behöver fler egenskaper än bara prestanda.

Skrivet av ronz:

En fundering (inte bara riktad mot dig jag citerar): Hade detta släpp varit bättre och fått mindre kritik om de döpt processorerna till 13650K / 13750K / 13950K ?

Det hade nog inte spelat mig någon roll, men jag hade tyckt det var ärligare att kalla dem det. Jag förstår dock att Intel vill marknadsföra detta som något annat än vad det är för att sälja på. Och det kan man göra så länge recensenter och kosumenter sväljer det.

Av heyon

Ang 14900k: Är detta verkligen kriteriet för en "Bra produkt"? Så många listade nackdelar i relation till fördelar, utöver det är den inte bättre för gaming än konkurrentens 2500kr billigare cpu (7800X3D).

Den riskerar också sälja in folk på en plattform som snart går ut. Visst finns det kanske en liten skara användare på plattformen som istället för 13900K bör uppgradera till 14900K om de nu tvunget behöver uppgradera inom ett år. Men är inte det en ganska klen ursäkt för "Bra produkt"?

Inget ont om Intel som så, de rebrandar 13900K och tweakar lite vilket är rimligt ur ett affärsstrategiskt perspektiv. Men denna generationen är inget teknologiskt steg framåt och för de allra flesta är det mest rimligt att undvika den.

Av heyon

Är staden hon bor i så pass liten att hennes identitet röjs om du skriver ut stadens namn? Kanske finns en chans att någon på forumet har kontakter att kan leda till ett jobb.

Annars vet jag inte vad man kan göra då jag är dåligt på sånt här. Men kudos till dig som stöttar folk som behöver det.

Av heyon

Från Microsofts sida tror jag att detta är det ett strategiskt smart drag. Men som gamers tror jag vi blir de stora förlorarna i längden.

Det är runt 600(!!!) miljarder man kunde lagt på att ta fram nya IP's och spel. Det hade räckt till 12+ Cyberpunk 2077, nästan 25 The Last Of Us 2 eller runt 60 The Witcher 3.

Hade Microsoft valt att gå den vägen istället hade man satt press på hela marknaden(även Activision Blizzard) att konkurrera med dessa nya titlar och IP'n vilket gynnar konsumenterna. Nu väljer man istället att köpa en bit av den existerande kakan vilket är tråkigt då det inte gör något för konsumenterna.

Av heyon
Skrivet av Yoshman:

Har använt MacOS samt MacMini M1 och MBP M1Pro till bl.a. att köra Linux och greja med ML.

Så länge du inte tänkte fippla med in-kernel saker i Linux-kärnan skulle jag använda Docker för att köra Linux. Det går att köra både Linux/ARM64 och Linux/x86_64 program den vägen, men har egentligen bara testat att det senare fungerar så kan inte säga hur bra/dålig prestandan är.

Kör man Linux/ARM64 under Docker är prestanda väldigt bra, är egentligen inget som emuleras utan det körs ju direkt fast med den overhead man kan förvänta sig av en modern VM. Man kör ju en Linux-kärnan i en VM precis som man gör med Docker på Windows, är bara på native Linux som det är i stort sett noll overhead med Docker.

Bra idé, Docker direkt i MacOs blir ett mycket smidigare sätt att hosta homelab tjänster. Tror det täcker nästan allt jag skulle vilja köra Linux på den för. Behöver jag labba med något annat kan jag alltid sätta upp en virtuell maskin för just det, men det skulle nog vara undantaget. Vet du vad Docker använder för virtualiseringsmotor i bakgrunden på MacOS?

Jag läste att man numera kan köra Rosetta 2 i Linux för att exekvera X86 binärer om man virtualiserar genom Apple's virtualization framework:

https://developer.apple.com/documentation/virtualization/runn...

Det är ju ändå rätt häftigt

Skrivet av Yoshman:

Har egentligen bara använt ML via PyTorch. Dels genom att direkt programmera PyTorch själv, och dels via stable-diffusion front-ends som under huven kokar ned till att använda PyTorch.

PyTorch har sedan ett par versioner tillbaka "native" stöd för GPU och NPU på Apple Silicon. Av de benchmark jag sett är GPUn i M2-serien rätt mycket snabbare än den i M1-serien, skillnaden är klart större för GPGPU jämfört med 3D-grafik.

Ett exempel är Blender benchmark där 16 GPU-kärnors M1 Pro får ~510 poäng medan 16 GPU-kärnors M2 Pro får ~840 poäng (då är 16 GPU-kärnor max antal för M1 Pro medan det är "budget-versionen" för M2, finns en med 19 kärnor också).

I en MacMini har du valet att köra endera M2 eller M2Pro, för ditt use-case kan den senare nog vara värt det givet att GPUn där kan vara mer än dubbel så snabb (lite beroende på användarfall).

Spännande, då verkar det ju gå i alla fall, sen hade jag kanske tänkt att satsa på en lite enklare variant för att spara ner lite på kostnaden så jag får se hur jag gör där. Idén har varit att köra en non pro variant med 24gb minne.

Jag har också en Linux maskin med Ubuntu 23.10 Beta just nu, i den sitter ett 7900XT men jag har inte haft större framgång att använda den för AI. Jag har iofs inte lagt jättemycket tid på det heller så det kanske vorre på sin plats att göra ett nytt försök. Det är dock lite av en djungel att reda ut vilket mjukvarupaket som skall användas till vad i Linux med AMD och vad det har för effekt på andra användningsområden. Men det borde klart gå att reda ut och lösa. Får jag igång det på AMD kortet räcker troligen den billigare M2 varianten för mina andra användningsområden.

Skrivet av Yoshman:

Håller inte på jättemycket med .NET, men har ändå kör den del på MacOS både i Unity (som numera fungerar utmärkt på Apple Silicon) men också med "vanliga" .NET-core.

Fram till förra hösten skulle säga att stödet för ARM64 var bedrövligt i .NET. De saker jag testade fungerade i.o.f.s., men prestanda var uselt jämfört relativt vad man såg med Java, Go, C++ etc ställd mot x86. Microsoft var uppenbarligen själva väldigt medveten om detta, för de pekade just på att de jobbat rejält med att optimera ARM64 prestanda till lanseringen av .NET 7 (antagligen inte helt orelaterat till att de numera har ARM64 instanser på Azure...).

Skulle forfarande säga att man inte riktigt är på samma nivå som de andra jag nämnde, men det är inte jättelångt borta och funktionellt finns inget att klaga på.

Har mest kör VS Code + Microsoft .NET plugin, även den har blivit betydligt bättre med tiden. Annars finns även JetBrains Rider som definitivt är att föredra om man vill pillra med Unity!

Det stämmer överrens med vad jag hört, läste också att .NET 8 skall komma med ytterligare prestandaförbttringar när det släpps i November. Det behöver inte vara snabbast för mitt labbande heller, och till fritids gillar jag att testa andra språk och ramverk. Där Go, Rust och Elixir väl är de språk som främst väcker mitt intresse. I mindre projekt brukar jag nöja mig med VIM, eller NeoVIM för att vara specifik. Och det är i stort sett alltid mindre projekt jag labbar med hemma.

Av heyon

Mac Mini M2 för homelab och AI hobbyprojekt

Hejsan,

Jag är ute efter en liten homelab server som jag också kan använda till en del AI experiment. Det handlar främst inte om att träna modeller utan om att testa bygga applikationer kring existerande modeller från www.huggingface.co. Tanken är att köra dem lokalt på Apple Neural Engine mha CoreML.

Jag kan inte jättemycket om AI utan jobbar som utvecklare och lösningsarkitekt inom andra fält. Jag vill dock testa olika modeller, lära mig hur de fungerar och vad de kan användas till. Till stor del eftersom det är viktigt i min yrkesroll men också för att jag tycker det är ett spännande område.

Utöver detta vill jag ha en homelab server för lite olika verktyg som t.ex en https://appflowy.io/ server eller dyl. För detta tänkte jag inte använda MacOS direkt utan installera Linux på en virtuell maskin, vad jag förstått finns det lite olika alternativ för att virtualisera ARM Linux på Apple silicon med en mindre prestandaförlust. Apples virtualization framework verkar vara ett intressant alternativ men jag vet väldigt lite om det.

Är det någon som testat en Apple silicon Mac för något av dessa användningsområdena? Är det en rimlig investering för detta?

En bonus med en Mac Mini är att jag också kan testa olika mjukvarustackar på ARM arkitektur för att förstå hur det jag jobbar med skulle kunna dra nytta av ARM. Jag jobbar med .NET och vet inte alls hur det lirar på Apple silicon och ARM idag.

Av heyon

Förra årets chip stödjer bara usb2 hastigheter som många redan förklarat. Apple använder som sagt den till iPhone 15.

Det är troligtvis för dyrt att designa en helt ny soc för att då lite bättre USB hastigheter. Och A17 Pro är ju en ny nod, vi vet inte hur yields ser ut eller vad mer Apple vill göra med noden(M3?).

Skulle vara kul att se lite statistik över hur många som överför från telefonen via kabel.

Av heyon
Skrivet av Kolsvart Katt:

Sällar mig till skaran, det är nog det första mer "high end"-kortet jag köpt (enda som passar 4K-skärm, lite beroende på vad man spelar). Har kört Deadfire och Planetfall i 60fps utan avbrott hittills, är nöjd(alltså hållt sig på 60fps). Runt 300W som mest i spel (60fps) för hela maskinen, kontra 230W för rx 6700 xt, i gengäld ett kort som är mer gjort för 4K och det har inte fallit under 60fps en gång hittills.

Till
från

Väldigt trevligt 4k60-kort hittills.

Hallå igen,

Du frågade vad jag tyckte om kortet i min "köptråd" så jag tänkte att jag svarar när det kommit, försändelsen blev lite sen så det kom först igår. Såhär långt är jag dock nöjd, det fungerar bra i det spelet jag spelar just nu (Resident Evil 2 Remake). Tempen kan vara lite hög under load, men jag tror stor del beror på att jag kör chassifläkten bak långsamtd eftersom luften som kommer ur är påtagligt varm.

Skall också testa att dra ner lite på spänningen men vad jag förstått efter kort research så är kontrollerna väldigt begränsade med linuxdrivarna fortfarande. Det borde dock låsas upp framöver allt eftersom AMD jobbar vidare på dem.

Kul att höra att du är nöjd med ditt också

EDIT: Glömde fråga, använder du också Linux?

Av heyon
Skrivet av Dreas89:

Massa folk har köpt via NR Info på brädan.

Kollade mer reviews på dem på Amazon de, de har ju fått bra omdömme så det blev ett köp därifrån till sist. Strax under 10000 med frakt efter valutaomvandling landade det på.

Skrivet av Kolsvart Katt:

Jepp, så är det, tyvärr bara de längre varianterna som fått lägre pris. Runt 10300 för ett MBA rx 7900 XT är det lägsta jag sett, för nån vecka sen på compumail, i sen jag startade prisbevakning på två mba-modeller för tre-veckor till en månad sedan så har de gått upp i pris, närmast 11k överallt nu. Ärligen vet jag ej om dessa priser någonsin kommer att sjunka. Ett RX 7900 XT tror jag vore great för 4K60Hz. Kanske får bli ett sånt i juli, för 13k eller vad de kostar då.

(Har ingen lust att stödja Amazon)

Var också tveksam att bestämma från Amazon om jag skall vara ärlig, ville egentligen beställa från Inet då jag gärna stödjer dem men de säljer inte korta 7900XT så det fick bli Amazon denna gång.

Kanske lägger upp bilder på både gamla och nya kortet installerat(före,efter) för storleksjämförelse om det är av intresse.

Tack för hjälpen till er som varit involverade i tråden

Av heyon
Skrivet av ekhyddan:

Rekommenderad effekt på PSU enligt AMD är 850w för 6950 XT. https://www.amd.com/en/products/graphics/amd-radeon-rx-6950-x...
Men de brukar räkna på värsta scenario med en törstig processor och nätaggregat av sämre kvalitet.

Nu har du en processor som behöver lagom mycket watt samt ett nätagg med bra kvalitet så det borde funka bra.
Här är en tråd på forumet som är läsvärd:
https://www.sweclockers.com/forum/trad/1685558-6950xt-med-750...

Tack, den tråden var väldigt bra exakt på detta ämnet. Efter mycket läsande har det dock landat på ett 7900XT.

Skrivet av Dreas89:

7900 XT - Prestandan kommer öka, du har lite nytt godis. Du hittar 7900 XT på Amazon.de för under 10000. XFX.

Det droppar ibland under 870 euro i pris: https://www.amazon.de/-/en/Radeon-7900-MERC310-Black-20GB/dp/...

Jag kollade på Amazon.de, men blev lite tveksam när jag såg att säljaren var en NR INFO och Amazon endast agerade ombud. Kanske är superseriösa, vad vet jag. Men för ett såhär stort köp är lite extra trygghet trots allt värt något ifall fel skulle uppstå.

Skrivet av Jalle64:

En undran: Vad menar du med "gått tillbaka till Linux då gamingstödet är bra nog idag" vilket/vilka spel stödjer detta system bra nog? Nyfiken bara för jag har ingen aning alls,

Valve har gjort ett jättearbete med att bygga ett kompabilitetslager för Windowsspel på Linux som de kallar Proton och släpper dessutom sina egna spel native till Linux. Detta har mycket att göra med att Steam deck använder sig av Linux. Just nu spelar jag Red Dead Redemption 2 och det fungerar bra.

Det finns en databas som samlar användares upplevelse av Proton för olika spel: https://www.protondb.com/

Skrivet av Kolsvart Katt:

Det är 34,4cm långt.

Jag har lite samma problematik som OP med kortlängd och har övervägt samma som OP av samma anledning.

Det verkar som att AMD's referensdesign är kortare: 276mm för att vara exakt. Se t.ex: https://www.inet.se/produkt/5413225/gigabyte-radeon-rx-7900-x...

Jag har landat i att det är ett sådant jag vill ha. Även XFX, Sapphire och Powercolor släpper kort med den designen. Det är dock inte de korten som verkar vara mest premierade i handeln.

Här är ett exempel på ett sådant som går väldigt billigt just nu:

https://www.amazon.de/-/en/Radeon-7900XT-Gaming-Graphics-RX-7...

Men det är via säljaren som heter NR INFO och inte via Amazon DE.

Av heyon

Nytt kort, PSU-krav kortlängd mm 6950XT kontra 7900XT

Hejsan,

Jag funderar på att efter en uppgradering av processorn även skaffa ett bättre grafikkort. Det på grund av två olika anledningar:

  • Mitt nyvarande kort (ASUS GeForce RTX 3070 Dual 8GB V2) har tyvärr bara 8gb vram vilket verkar vara ett problem i många nya titlar. Jag spelar i ultrawide 1440p vilket inte hjälper även om det inte är så illa som full 4k.

  • Jag är en Linux-användare, har efter en detour gått tillbaka till Linux då gamingstödet är bra nog idag, NVIDIA har sina problem med drivrutiner i Linux som inte alltid är roliga att bråttas med. Förhoppningen är att AMD's drivare fungerar bättre.

Det står mellan två olika kort:

  • Reference AMD Radeon 6950XT

  • AMD Radeon 7900XT i en kortare variant. T.ex XFX.

Saken är den att jag har ca 1.5cm tillgodo från min radiator till mitt nuvarande kort. Detta är enligt specifikationen 26.7cm medans t.ex Sapphire 7900XT specas till 27.64. Så det borde gå, men kan man lita på att de mäter likadant?

Reference AMD Raden 6950XT är ännu kortare så där borde det verkligen inte vara några problem oavsett hur de mäter.

I datorn sitter också ett 750W nätagg(https://www.inet.se/produkt/6903699/seasonic-focus-gx-750w), kommer detta funka om jag väljer ett 6950? Utöver grafikkortet innehåller datorn en Ryzen 7 5700X cpu, 32 gb minne, Kingston A2000 1TB nvme drive samt en Phantek 280 AIO kylare till CPUn.

Prestandan är ju lätt att jämföra dem emellan via recensioner och kan jag alltid kolla vad jag får dem för (8999 för 6950XT och ~10900 för 7900XT). Då är det lätt att förstå prestanda per krona.

Av heyon
Skrivet av CooingPendulum:

Du kan ju försöka ställa in en negative all core på PBO2 curve optimizer inuti bios.

Personligen har jag ställt in min 5800X3D på -30 all core och därutöver också ställt in PPT TDC and EDC värdena.

Vet inte vad för värden som brukar fungera på 5700X. Tanken är att nå samma prestanda till lägre förbrukning och därmed lägre värmeutveckling => möjligt att ställa fläktarna lägre.

Jag testade sätta curve optimizern till -30 all cores som du gjort. Det ökade frekvensen under stress med ca 200-300mhz med samma fläktkurva och 65C throttlegräns.

Väldigt fin optimering och ett superbra resultat minst sagt. Så stort tack för tipset

Av heyon

5700X - PBO, Temp, fläktkurva och påtvingad throttling

Hejsan

Jag har nyligen köpt en ny CPU (5700X) och labbar lite med att få rätt balans i temp, ljudnivå och prestanda. Detta är konfigurationen i sin helhet:

Hårdvara

  • 32GB DDR5 3600MHZ RAM (Kingston HyperX)

  • Ryzen 7 5700X

  • ASUS TUF Gaming B550M Plus

  • Themal Grizzly Kryonaut Kylpasta

  • PHANTEK GLACIER ONE 280MP (280MM AIO)

  • Asus Dual 3070

OS
Ubuntu 22.04.1 (Kernel 5.19.0-38)

BIOS

  • PBO Aktivt (Throttle på 65C)

  • RAM 3600MHZ

Fläktkurva

  • 20% upp till 35C

  • 40% vid 65C

  • 100% vid 75C

Eftersom det är en kurva så den ligger någonstans mellan 20% och 40% vid 45C t.ex.

Under last ligger tempen då på 65C som förväntat med throttlen, idle ~35C. Klockfrekvensen pendlar mellan 4100-4300 under last upp från de ~3850 jag observerade med PBO helt avslaget.

Benchmark(Phoronix NAMD) visar då prestanda mellan 5800X och 5700X (PBO OFF) samtidigt som det är hyffsat tyst även under last. Så jag är i stort nöjd och glad. Men då till mina frågor:

  1. Finns det något att förlora på att låta tempen gå till 70C under last och tona ner fläktkurvan ännu mer för att ytterligare dämpa ljudnivån? (När påverkar värmen hållbarheten på CPUn?)

  2. Är throttling rätt verktyg för att styra prestanda/värmeutveckling eller kan det få oväntade sidoeffekter? T.ex genom att en större variation i frekvens vid last orsakar framedrops i spel?

  3. Vad mer kan jag göra för att optimera för ljudnivå och prestanda? (Utan att investera i mer hårdvara)