Ny dator för spel och Keras/Tensorflow

Permalänk
Medlem

Ny dator för spel och Keras/Tensorflow

Mest tänkt att användas för datorspel samt Keras/Tensorflow. Är även intresserad av VR i framtiden.

Bygget är utan grafikkort, helt enkelt köper jag det om två månader eller så, ska använda datorn nu till simuleringar (som ej kan köras på GPU!) så CPU behövs bara. Lär nog köpa ett 3090 senare om jag är seriös med maskininlärningen.
Tycker ni jag borde köra 7800X3D eller 7950X3D? Vill kunna överklocka CPU, har jag rätt kylare för det?
Någon input på kundvagnen som den är nu? Finns det något att spara in på?

https://www.inet.se/kundvagn/visa/Y9goAQbZhIha561JlfC89wvv4xA/forslag

[URL="https://www.inet.se/kundvagn/visa/Y9goAQbZhIha561JlfC89wvv4xA..."]

[/URL

Visa signatur

Jag är inte intresserad om jag har rätt eller fel, jag gillar diskussion :)

Permalänk
Medlem
Skrivet av Alexander7938:

Mest tänkt att användas för datorspel samt Keras/Tensorflow. Är även intresserad av VR i framtiden.

Bygget är utan grafikkort, helt enkelt köper jag det om två månader eller så, ska använda datorn nu till simuleringar (som ej kan köras på GPU!) så CPU behövs bara. Lär nog köpa ett 3090 senare om jag är seriös med maskininlärningen.
Tycker ni jag borde köra 7800X3D eller 7950X3D? Vill kunna överklocka CPU, har jag rätt kylare för det?
Någon input på kundvagnen som den är nu? Finns det något att spara in på?

https://www.inet.se/kundvagn/visa/Y9goAQbZhIha561JlfC89wvv4xA/forslaghttps://cdn.inet.se/img/tiny/forum-divider.png[URL="https://www.inet.se/kundvagn/visa/Y9goAQbZhIha561JlfC89wvv4xA..."]https://www.inet.se/kundvagn/bild/Y9goAQbZhIha561JlfC89wvv4xA/forslag[/URL

Moderkort är onödigt dyrt ett billigare X670E moderkort duger eller B650/B650E X670E är bara vettigt ifall du behöver PCI-e Lanes och M.2 portar.

MSI MAG X670E Gaming Plus WiFi för 2790 kr duger

7800X3D och alla X3D CPU går inte att överklocka och ifall Keras/Tensorflow kan utnyttja fler känor effektivt så är det ett bra köp annars så spelar det ingen roll i spel så är 7800X3D något bättre.

Ifall du behöver mer RAM så kan besparingen på moderkort gå till mer RAM istället.

NH-DH15 duger till 7800X3D men till 7950X3D så kanske du vill köra på en AIO istället Arctic Liquid Freezer III 360 har fått bra betyg.

Visa signatur

i5 10600K, Z490 Tomahawk, Corsair RMX750, GTX 1060 6GB

Permalänk
Medlem
Skrivet av Anders9110:

Moderkort är onödigt dyrt ett billigare X670E moderkort duger eller B650/B650E X670E är bara vettigt ifall du behöver PCI-e Lanes och M.2 portar.

MSI MAG X670E Gaming Plus WiFi för 2790 kr duger

7800X3D och alla X3D CPU går inte att överklocka och ifall Keras/Tensorflow kan utnyttja fler känor effektivt så är det ett bra köp annars så spelar det ingen roll i spel så är 7800X3D något bättre.

Ifall du behöver mer RAM så kan besparingen på moderkort gå till mer RAM istället.

NH-DH15 duger till 7800X3D men till 7950X3D så kanske du vill köra på en AIO istället Arctic Liquid Freezer III 360 har fått bra betyg.

Tusen tack för input, tror jag satsar på B650 då

Gällande PSU räcker det även där med lite billigare? Säg 850W?

Visa signatur

Jag är inte intresserad om jag har rätt eller fel, jag gillar diskussion :)

Permalänk
Medlem
Skrivet av Alexander7938:

Tusen tack för input, tror jag satsar på B650 då

Gällande PSU räcker det även där med lite billigare? Säg 850W?

850W funkar utan större problem till ett RTX 4090

Visa signatur

i5 10600K, Z490 Tomahawk, Corsair RMX750, GTX 1060 6GB

Permalänk
Medlem

Drygt 19 000 kr är dyrt sett till prestandan tycker jag. Här är ett prisvärt alternativ.

Permalänk
Medlem
Skrivet av Alastor Moody:

Drygt 19 000 kr är dyrt sett till prestandan tycker jag. Här är ett prisvärt alternativ.

https://komponentkoll.se/bild/AObYP.png

Håller med när jag ser ditt förslag...
Tror jag hamnat närmare ditt prisförslag, just chassi är jag lite petig med faktiskt, kanske hoppar ner till en simplare fläkt dock!

https://www.inet.se/kundvagn/visa/i9koAYjGE5jDw8pLhW7Goic42RE/forslag

Visa signatur

Jag är inte intresserad om jag har rätt eller fel, jag gillar diskussion :)

Permalänk
Medlem
Skrivet av Alexander7938:

Håller med när jag ser ditt förslag...
Tror jag hamnat närmare ditt prisförslag, just chassi är jag lite petig med faktiskt, kanske hoppar ner till en simplare fläkt dock!

https://www.inet.se/kundvagn/visa/i9koAYjGE5jDw8pLhW7Goic42RE/forslaghttps://cdn.inet.se/img/tiny/forum-divider.pnghttps://www.inet.se/kundvagn/bild/i9koAYjGE5jDw8pLhW7Goic42RE/forslag

Ser bra ut men jag hade bytt till snabbare RAM-moduler.

https://www.inet.se/produkt/5306757/kingston-64gb-2x32gb-ddr5...

Permalänk
Medlem
Skrivet av Alastor Moody:

Ser bra ut men jag hade bytt till snabbare RAM-moduler.

https://www.inet.se/produkt/5306757/kingston-64gb-2x32gb-ddr5...

Alright låter smart!

Landar på följande då

https://www.inet.se/kundvagn/visa/0dkoAcvECypc8XdAo6sKWo91DGY/forslag

Visa signatur

Jag är inte intresserad om jag har rätt eller fel, jag gillar diskussion :)

Permalänk
Medlem

Kanske värt att betala 300 kr extra för PCIe 5.0-stöd även om det lär dröja länge innan man har någon nytta av det.

https://www.inet.se/produkt/1903880/asus-rog-strix-b650e-f-ga...

Permalänk
Medlem
Skrivet av Alastor Moody:

Kanske värt att betala 300 kr extra för PCIe 5.0-stöd även om det lär dröja länge innan man har någon nytta av det.

https://www.inet.se/produkt/1903880/asus-rog-strix-b650e-f-ga...

Låter topp, ändrade moderkort o la till lite kringutrustning, order lagd!

Tack för hjälpen

Visa signatur

Jag är inte intresserad om jag har rätt eller fel, jag gillar diskussion :)

Permalänk
Datavetare

Nu har du redan lagt orden, men skriver ändå om någon annan vill göra samma optimering.

Beroende på hur mycket du optimerar för spel och hur mycket du optimerar för Keras/Tensorflow känns 7800X3D som ett frågetecken.

Håller själv på en hel del med ML/AI (primärt i PyTorch, men det gör ju i grunden samma sak som Tensorflow).

Har testa flertalet saker på grabbens speldator som har just ett 7800X3D, tänkte att den stora L3-cachen kanske kan vara fördelaktig. Det har den inte varit, tvärtom tycker jag 7800X3D presterar förvånansvärt dåligt för just detta.

Backar man ett steg kanske det ändå finns en logisk förklaring: många ML-fall har så stort "working-set" att de inte kommer få plats i cache ens på en 7800X3D. En nackdel med massor med cache som ändå inte används är att det försämrar latens mot RAM något, många ML-fall skalar hyfsat väl med RAM-hastighet.

T.ex. är 7800X3D marginellt snabbare jämfört med Ryzen 7840U och 7800X3D är bara ungefär hälften så snabb som den nu rätt gamla M1 Pro (när alla kör helt på CPU).

Givet att 7800X3D i praktiken inte ens i spel kommer ha någon fördel mot t.ex. 7700X utanför RTX4090 i 1080p (grabben bytte från 5600X till 7800X3D, noll skillnad i de flesta spel givet att han bara har ett 4070Ti och kör i 1440p).

För att optimera för Keras/TF hade det här varit bättre att lägga pengarna på 7700X+så snabbt RAM som man kan få fungera alt. 7900X/7950X (vissa ML-fall skalar med CPU-kärnor, men här beror det väldigt mycket på hur just ditt fall ser ut för finns stor variation).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Nu har du redan lagt orden, men skriver ändå om någon annan vill göra samma optimering.

Beroende på hur mycket du optimerar för spel och hur mycket du optimerar för Keras/Tensorflow känns 7800X3D som ett frågetecken.

Håller själv på en hel del med ML/AI (primärt i PyTorch, men det gör ju i grunden samma sak som Tensorflow).

Har testa flertalet saker på grabbens speldator som har just ett 7800X3D, tänkte att den stora L3-cachen kanske kan vara fördelaktig. Det har den inte varit, tvärtom tycker jag 7800X3D presterar förvånansvärt dåligt för just detta.

Backar man ett steg kanske det ändå finns en logisk förklaring: många ML-fall har så stort "working-set" att de inte kommer få plats i cache ens på en 7800X3D. En nackdel med massor med cache som ändå inte används är att det försämrar latens mot RAM något, många ML-fall skalar hyfsat väl med RAM-hastighet.

T.ex. är 7800X3D marginellt snabbare jämfört med Ryzen 7840U och 7800X3D är bara ungefär hälften så snabb som den nu rätt gamla M1 Pro (när alla kör helt på CPU).

Givet att 7800X3D i praktiken inte ens i spel kommer ha någon fördel mot t.ex. 7700X utanför RTX4090 i 1080p (grabben bytte från 5600X till 7800X3D, noll skillnad i de flesta spel givet att han bara har ett 4070Ti och kör i 1440p).

För att optimera för Keras/TF hade det här varit bättre att lägga pengarna på 7700X+så snabbt RAM som man kan få fungera alt. 7900X/7950X (vissa ML-fall skalar med CPU-kärnor, men här beror det väldigt mycket på hur just ditt fall ser ut för finns stor variation).

Spännande läsning! Är den extra fördröjningen helt enkelt p.g.a. den extra tid det tar att besöka varje minnescell i L3?

Bygget rullar på fint tur nog Har liten erfarenhet av biblioteken för ML / AI, gjorde Kex i Keras men det var ett tag sen nu och byggt egna modeller från grunden i Python (skolarbete) men även där försökte vi optimera med CUDA vilket var förgäves.

Jag hade för mig att ML nyttjar GPUn mycket bättre? Eller är det ett samspel mellan CPU och GPU som sker? Som jag förstått är stor mängd VRAM att föredra för GPUn, typ ett 3090 eller kanske 4700ti super med 16GB iaf

Visa signatur

Jag är inte intresserad om jag har rätt eller fel, jag gillar diskussion :)

Permalänk
Datavetare
Skrivet av Alexander7938:

Spännande läsning! Är den extra fördröjningen helt enkelt p.g.a. den extra tid det tar att besöka varje minnescell i L3?

Bygget rullar på fint tur nog Har liten erfarenhet av biblioteken för ML / AI, gjorde Kex i Keras men det var ett tag sen nu och byggt egna modeller från grunden i Python (skolarbete) men även där försökte vi optimera med CUDA vilket var förgäves.

Jag hade för mig att ML nyttjar GPUn mycket bättre? Eller är det ett samspel mellan CPU och GPU som sker? Som jag förstått är stor mängd VRAM att föredra för GPUn, typ ett 3090 eller kanske 4700ti super med 16GB iaf

Jobbar man med relativt stora modeller kommer framförallt träningen av dessa modeller köra långt snabbare på GPU.

Något man märker med ML är att det kan varar väldigt stor varians mellan fall, så även var saker kör bäst. Det är relativt vanligt att inference-steget går snabbare (ibland väsentligt snabbare) på CPU. Exakt resultat beror på flertalet faktorer, primärt

  • hur många fall för man inference på samtidigt (typiskt, hur många element har du i första dimensionen på din input-tensor), kör få element kommer det nästan alltid vara snabbare på CPU, kör man väldigt många kommer det tilta över mot GPU förutsatt att nätet är "tillräckligt stort"

  • Ju fler vikter man har i modellen, ju sannolikare är det att GPU är fördelaktigt

I både x86 och ARM64 har man stoppat in en rad rätt specialiserade instruktioner just för att accelerera "AI", både träning och inference blir snabbare men ofta är bandbredd mot RAM rätt snabbt en flaskhals i träning så effekten från dessa instruktioner spelar ingen roll. Och här blir GPUer långt snabbare då de har långt högre bandbredd mot RAM.

Är i fallet där RAM börjar bli flaskhals jag gissar att X3D CPUerna blir slagna av sina syskon utan den extra cachen. Väldigt stor cache har två primära nackdelar: det tar väldigt många transistorer och det ökar latens mot RAM vid cache-miss.

"AI" är på många sätt en rejäl outlier i vad som är flaskhals, vilket i.o.f.s. spel också är.

"AI" får enorm acceleration av "udda" instruktioner som AVX-VNNI / AVX-512, samt har i många fall enorm skalning med RAM-hastighet (då primärt bandbredd, latens spelar mindre roll). Att t.ex. en M1 Pro är typ dubbelt så snabb som 7800X3D på att köra LLMs på CPU beror nog väldigt mycket på att den förra har betydligt bättre bandbredd mot RAM (4 kanaler mot 2 kanaler).

Spel är ju en annat klart avvikande fall, det är egentligen det enda fall där den stora cachen i X3D CPUerna hjälper till. Vissa andra fall verkar se lite förbättring vid större L1/L2-cache, men större L3-cache påverkar i praktiken inte alls.

Sen är det (tyvärr?) så att konsolerna rätt mycket ser till att spel har blivit allt mindre CPU-bundna, de är rätt CPU-svaga jämfört med moderna PC.

CPU-kraftberoende är rätt svårt att skala i ett spel medan det är rätt enkelt att skala grafiknivån. Därför man idag i praktiken behöver köra ett 4090 i 1080p eller 720p om man vill se någon skalning med CPU. Spel har historiskt varit mer CPU-bundna än de är idag (men självklart finns alltid avvikande fall). Historisk var CPU-delen i konsolerna, i alla fall vid release, klart konkurrenskraftiga med samtida PC, men idag är konsolerna i praktiken en nedskalad PC redan vi släpp (fast de har nog bättre GPU idag relativt samtida PC).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Jobbar man med relativt stora modeller kommer framförallt träningen av dessa modeller köra långt snabbare på GPU.

Något man märker med ML är att det kan varar väldigt stor varians mellan fall, så även var saker kör bäst. Det är relativt vanligt att inference-steget går snabbare (ibland väsentligt snabbare) på CPU. Exakt resultat beror på flertalet faktorer, primärt

  • hur många fall för man inference på samtidigt (typiskt, hur många element har du i första dimensionen på din input-tensor), kör få element kommer det nästan alltid vara snabbare på CPU, kör man väldigt många kommer det tilta över mot GPU förutsatt att nätet är "tillräckligt stort"

  • Ju fler vikter man har i modellen, ju sannolikare är det att GPU är fördelaktigt

I både x86 och ARM64 har man stoppat in en rad rätt specialiserade instruktioner just för att accelerera "AI", både träning och inference blir snabbare men ofta är bandbredd mot RAM rätt snabbt en flaskhals i träning så effekten från dessa instruktioner spelar ingen roll. Och här blir GPUer långt snabbare då de har långt högre bandbredd mot RAM.

Är i fallet där RAM börjar bli flaskhals jag gissar att X3D CPUerna blir slagna av sina syskon utan den extra cachen. Väldigt stor cache har två primära nackdelar: det tar väldigt många transistorer och det ökar latens mot RAM vid cache-miss.

"AI" är på många sätt en rejäl outlier i vad som är flaskhals, vilket i.o.f.s. spel också är.

"AI" får enorm acceleration av "udda" instruktioner som AVX-VNNI / AVX-512, samt har i många fall enorm skalning med RAM-hastighet (då primärt bandbredd, latens spelar mindre roll). Att t.ex. en M1 Pro är typ dubbelt så snabb som 7800X3D på att köra LLMs på CPU beror nog väldigt mycket på att den förra har betydligt bättre bandbredd mot RAM (4 kanaler mot 2 kanaler).

Spel är ju en annat klart avvikande fall, det är egentligen det enda fall där den stora cachen i X3D CPUerna hjälper till. Vissa andra fall verkar se lite förbättring vid större L1/L2-cache, men större L3-cache påverkar i praktiken inte alls.

Sen är det (tyvärr?) så att konsolerna rätt mycket ser till att spel har blivit allt mindre CPU-bundna, de är rätt CPU-svaga jämfört med moderna PC.

CPU-kraftberoende är rätt svårt att skala i ett spel medan det är rätt enkelt att skala grafiknivån. Därför man idag i praktiken behöver köra ett 4090 i 1080p eller 720p om man vill se någon skalning med CPU. Spel har historiskt varit mer CPU-bundna än de är idag (men självklart finns alltid avvikande fall). Historisk var CPU-delen i konsolerna, i alla fall vid release, klart konkurrenskraftiga med samtida PC, men idag är konsolerna i praktiken en nedskalad PC redan vi släpp (fast de har nog bättre GPU idag relativt samtida PC).

Coolt! Helt enkelt det fysiska utrymmet som L3 cachen kräver ökar latensen? Kan tänka mig att RAM blir en flaskhals, speciellt vid L3 miss och så blir det säker en hel del TLB miss med. Man hade ju faktiskt kunnat tro att L3 borde hjälpa till men antar att det inte spelar så stor roll där heller, cachen måste bytas ut rätt ofta ändå.

Just för övervakat lärande av en ANN är ju backpropagation det mest beräkningsintensiva steget som växer med antalet lager och noder, just när det växer kan jag tänka mig att det blir viktigt med stort VRAM på GPUn. Har tänkt att försöka mig på att modellera ett datorspel och se om jag kan skapa en ML modell för det. Tror även det passar riktigt bra för reinforcement learning och vore kul att få en modell som använder sig av bayesisk regularisering.

Visa signatur

Jag är inte intresserad om jag har rätt eller fel, jag gillar diskussion :)