Omröstning; hur mycket arbetsminne har din dator.

Skrivet av Sveklockarn:

@Mordekai: Någon dag snart ska jag ta upp mitt programmeringsintresse igen och försöka bli testare. Det var någon kul kille som tog livet av det intresset sent 90-tal med Boringland TurboPappskall... så jag har nog lite att ta igen.

japp vilken skit, skrev mitt specialarbete i 9:an i Pascal på en Mac för sannolikhetskalkyler.

Skrivet av Sveklockarn:

@Mordekai: Någon dag snart ska jag ta upp mitt programmeringsintresse igen och försöka bli testare. Det var någon kul kille som tog livet av det intresset sent 90-tal med Boringland TurboPappskall... så jag har nog lite att ta igen.

Det var iofs senare än det språk som fick mig att bli utvecklare men det där var mitt favoritspråk och kompilerare genom årtiondena. Vet inte varför jag föredrog Pascal framför C men så blev det. Stannade kvar länge i team turkos och jobbade med Delphi i många år.

Också den bästa programmeringsbok jag läst, på den tiden man fortfarande läste papperslitteratur, var en tjock bok om Pascal som spenderade mer tid på att lära ut algoritmer än språket i sig.

On topic: 16gb på väg att bli 32gb i nästa burk (trots att jag aldrig behövt mer )

16GB då jag endast använder datorn till spel.

Skickades från m.sweclockers.com

Skrivet av Mordekai:

Jag tolkade det som att någon påstod att för att kunna dra nytta av fler kärnor behöver man mer minne och just så är det. Tror ingen talade om adressutrymmet. För maximal trådprestanda bör varje tråd kapslas in och arbeta med helt eget arbetsminne. Detta är just svårigheten med multitrådning som gör det svårt för de flesta arbetsuppgifter att få ut vettig prestanda ur multitrådning annat än när data som skall bearbetas är stort och statiskt och resultatet lätt kan delas in i sektioner utan överlappning.

Precis. I mitt exempel ovan så är det Microsofts Visual Studio som drar igång många länkningsoperationer när man har många kärnor. Varje operation drar igång en instans av länkarprocessen som tar upp sitt eget arbetsminne. De kan kanske i teorin dela på vissa ytor, men det skulle öka komplexiteten extremt för relativt liten vinst eftersom det är 200+ olika datamängder som ska behandlas i mitt fall.

Skickades från m.sweclockers.com

64 GB. Använder sällan över 20 GB men har varit och nosat upp kring 50 GB vid några tillfällen då det redigerats stora bildfiler.

På min bärbara har jag 16 GB vilket räcker för det mesta men hade gärna haft mer för just de tillfällen då jag redigerar bilder på den.

32 GB sedan många år tillbaka, det är lite av en sweetspot för mig, har än så länge inget egentligt behov av mer. Spelande, massiva mängder fönster och flikar i Firefox, virtuella maskiner och Visual Studio. Men inte allt samtidigt, spelandet är exklusivt (och där skulle utan problem 16GB räcka).

Har 16GB i dagsläget men nästa gång det är dags för ny CPU blir det garanterat även 32GB.
Kollar jag förbrukning så har jag nosat på 15.2GB som mest i användning sedan förra omstarten, just nu används 11GB.

Skrivet av SCORPIUS:

Jag klarar mig jättebra på 16GB. Fler av er kanske borde prova Standby Memory fix?
Finns en hel del tweaks för minnesanvändning. Säger inte att något kommer funka för just er, så läs på innan ni provar.

https://www.thenerdmag.com/how-to-fix-micro-stuttering-in-bat...

Hittade inte den jag använde, men denna (och andra) listas när ni söker på Standby Memory på youtube.

Jag testade de där och tyvärr så blev BF3 ospelbart. Dock gick det att ta bort smidigt i schemaläggaren.

PS. Har 32 GB Ballistix 3000 Mhz CL16

Skrivet av mrvision:

Jag testade de där och tyvärr så blev BF3 ospelbart. Dock gick det att ta bort smidigt i schemaläggaren.

PS. Har 32 GB Ballistix 3000 Mhz CL16

Det var märkligt. Så ska det inte bli. Har faktiskt inte hört om någon som fått sådant problem.
Som mest har jag läst att det inte blev någon skillnad. Inte att det stört något spel.

Vad hände egentligen med BF3 då?

1x8GB har dock 2x4GB liggandes men då mitt moderkort är väldigt kinkigt med minne kör jag på med 8GB tills jag behöver mer

Skrivet av Knotvillage:

Trodde 32 skulle vara nya standarden med tanke på priserna. Inte många kronor extra.

Skickades från m.sweclockers.com

Du trodde alltså att i princip alla här skulle ha mindre än ett år gamla datorer? Min är två och det var väldigt dyrt då med minnen.

Skrivet av trickeh2k:

Du trodde alltså att i princip alla här skulle ha mindre än ett år gamla datorer? Min är två och det var väldigt dyrt då med minnen.

Jag har haft 32 GB RAM i datorerna jag köpte 2012 (DDR3), 2015 och 2019 (DDR4). Visst, när jag åkte på att köpa 4x8 GB DDR4 två gånger år 2015 för att Intel/Asus inte kunde fixa sin minneskompatibilitet på Z170 inom rimlig tid så kändes det väl lite motigt, men många lurar ju sig på hur mycket RAM de behöver eller använder tack vare att paging är såpass väl integrerat i Windows.

Skrivet av Knotvillage:

Trodde 32 skulle vara nya standarden med tanke på priserna. Inte många kronor extra.

Skickades från m.sweclockers.com

Tar inte moderkortet mer än 8 GB så hjälper det inte ens om minnet är gratis, så måste bli ny burk i så fall.

Skrivet av Mordekai:

Ehh va? Var har du fått det ifrån? Två trådar kan inte dela minne.

Beror ju på var trådarna gör... Det som står under "SHR" nedan kan potentiellt delas mellan flera trådar/applikationer. Gör programmet fork() så delas allt minne initialt, bara det minne en tråd ändrar allokeras nytt. Gäller Linux

top - 19:04:36 up 5:47, 8 users, load average: 1.43, 1.47, 1.65 Tasks: 229 total, 1 running, 228 sleeping, 0 stopped, 0 zombie Cpu(s): 7.2%us, 0.9%sy, 0.0%ni, 79.1%id, 12.7%wa, 0.0%hi, 0.0%si, 0.0%st Mem: 8159472k total, 7895852k used, 263620k free, 736172k buffers Swap: 8388604k total, 0k used, 8388604k free, 5241792k cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 6793 tn 20 0 2475m 1.4g 59m S 27 18.1 149:00.21 firefox 5416 root 20 0 4620 576 488 D 22 0.0 0:09.94 md5sum 67 root 20 0 0 0 0 S 1 0.0 4:32.93 kswapd0 1172 root 20 0 181m 86m 28m S 1 1.1 9:41.41 X 1417 tn 20 0 11648 7620 2404 S 0 0.1 0:10.82 vncviewer 1422 tn 20 0 493m 17m 10m S 0 0.2 0:51.78 xfce4-terminal 5419 tn 20 0 19604 1428 996 R 0 0.0 0:00.01 top 1 root 20 0 4352 688 588 S 0 0.0 0:00.55 init 2 root 20 0 0 0 0 S 0 0.0 0:00.00 kthreadd 3 root 20 0 0 0 0 S 0 0.0 0:15.58 ksoftirqd/0

Skrivet av Sveklockarn:

@janzzon: Du kanske missade detta med "din dator". Hyrserver räknas nog inte dit.

Jodå, det är ju bara som vilken dator som helst på avbetalning!
Prestanda man inte behöver så ofta är praktiskt att bara kunna "vrida på kranen".

Bra poll iaf och inte helt överraskande resultat.

Skrivet av Sveklockarn:

Jag fascineras över alla hemmaingenjörer som ska överlista Microsoft och lägga en massa timmar på att laborera (och ofta få ett instabilt system) när de t.ex. skulle kunna skippa månadens krogbesök och dubbla minnesmängden i datorn.

Men jag är väl en tråkig gubbe, antar jag.

Förstår folk till stor del, under den period med höga minnespriser vi haft.
Men har funnits perioder med skitlåga priser, då många ändå inte passat på att uppdatera och även avråtts från det!
Det är nästan som att det varit självförhävelse att ha mycket minne, ansågs att man skulle lägga sig på gränsen.
Nu verkar det till sist om att de flesta fattar att det är bra att har marginalen på sin sida, inte kul när minnet börjar ta slut.
Mycket minne, gör att PC:n går mjukt, som varmt smör.
Med dagens priser, är det en uppdatering som ofta lönar sig, även på lite äldre maskiner.

Skrivet av incido:

Det var iofs senare än det språk som fick mig att bli utvecklare men det där var mitt favoritspråk och kompilerare genom årtiondena. Vet inte varför jag föredrog Pascal framför C men så blev det. Stannade kvar länge i team turkos och jobbade med Delphi i många år.

Också den bästa programmeringsbok jag läst, på den tiden man fortfarande läste papperslitteratur, var en tjock bok om Pascal som spenderade mer tid på att lära ut algoritmer än språket i sig.

On topic: 16gb på väg att bli 32gb i nästa burk (trots att jag aldrig behövt mer )

Jag har inte svårt att förstå det, C kan har ett visst berättigande som ett hårdvarunära språk, att utgå från C för att skapa ett objektorienterad språk är vansinne!
C++ är en styggelse.
Fanns många fina versioner av Pascal, Delphi var definitivt en av dem, man kunde skapa färdiga applikationer på kort tid, Applikationer med lättläst kod lätt att underhålla.
Har själv jobbat mycket med Ada, som tyvärr har förlorat mot C++, jag skrattar förbittrat, när C++ folket skryter om funktioner i senaste versionerna av C++, funktioner som fanns i Ada 1983!

Sorry för Off Topic!

Senast redigerat 2019-07-21 13:09
Skrivet av Ratatosk:

Förstår folk till stor del, under den period med höga minnespriser vi haft.

Om man tycker att priset är högt hänger nog åtminstone delvis ihop med hur högt man prioriterar att äga en snabb dator. Min merkostnad för att köpa 32 GB istället för 16 GB har varit 400 kr (2012), 1500 kr (2015) och 650 kr (2019), vilket blivit mindre än 10% högre kostnad på systemet för en tämligen viktig komponent.

Jag använder min dator ett flertal timmar per dag, så utslaget per timme blir kostnaden ändå liten.

Skrivet av Sveklockarn:

Om man tycker att priset är högt hänger nog åtminstone delvis ihop med hur högt man prioriterar att äga en snabb dator. Min merkostnad för att köpa 32 GB istället för 16 GB har varit 400 kr (2012), 1500 kr (2015) och 650 kr (2019), vilket blivit mindre än 10% högre kostnad på systemet för en tämligen viktig komponent.

Jag använder min dator ett flertal timmar per dag, så utslaget per timme blir kostnaden ändå liten.

Ja, du behöver inte övertyga mig, jag lovar.
Onekligen värt att nämna, varför köpa en dator för 20 000 och nöja sig med en minnesmängd som ligger på gränsen.
Och inte använt minne, används som diskcache!

Skrivet av SAFA:

Beror ju på var trådarna gör... Det som står under "SHR" nedan kan potentiellt delas mellan flera trådar/applikationer. Gör programmet fork() så delas allt minne initialt, bara det minne en tråd ändrar allokeras nytt. Gäller Linux

top - 19:04:36 up 5:47, 8 users, load average: 1.43, 1.47, 1.65 Tasks: 229 total, 1 running, 228 sleeping, 0 stopped, 0 zombie Cpu(s): 7.2%us, 0.9%sy, 0.0%ni, 79.1%id, 12.7%wa, 0.0%hi, 0.0%si, 0.0%st Mem: 8159472k total, 7895852k used, 263620k free, 736172k buffers Swap: 8388604k total, 0k used, 8388604k free, 5241792k cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 6793 tn 20 0 2475m 1.4g 59m S 27 18.1 149:00.21 firefox 5416 root 20 0 4620 576 488 D 22 0.0 0:09.94 md5sum 67 root 20 0 0 0 0 S 1 0.0 4:32.93 kswapd0 1172 root 20 0 181m 86m 28m S 1 1.1 9:41.41 X 1417 tn 20 0 11648 7620 2404 S 0 0.1 0:10.82 vncviewer 1422 tn 20 0 493m 17m 10m S 0 0.2 0:51.78 xfce4-terminal 5419 tn 20 0 19604 1428 996 R 0 0.0 0:00.01 top 1 root 20 0 4352 688 588 S 0 0.0 0:00.55 init 2 root 20 0 0 0 0 S 0 0.0 0:00.00 kthreadd 3 root 20 0 0 0 0 S 0 0.0 0:15.58 ksoftirqd/0

Ja min förenkling var ju inte helt sann, det är ju såklart mer komplicerat än så. Prestandaoptimerad multitrådning bör använda total kapsling av minne. Det är därför det är så viktigt att skilja på multitrådade realtidsapplikationer och exempelvis renderingar. Min poäng är att folk investerar i en massa kärnor utan att ta hänsyn till ökade behov av bandbredd och arbetsminne. Fler trådar betyder inte automatiskt bättre prestanda.

Skrivet av Jink:

Hur många firefox-tabbar pratar vi om? Har aldrig stött på ett spel som tillsammans med OS nyttjar med än ca 8GB.

Hade redan svarat på det. Men 5-150 är en vanlig dag. Det viktiga är ju innehållet i tabbarna. Youtube/twitch tabs tar ju lätt upp till 2GB styck.

Skrivet av BergHa:

Hade redan svarat på det. Men 5-150 är en vanlig dag. Det viktiga är ju innehållet i tabbarna. Youtube/twitch tabs tar ju lätt upp till 2GB styck.

Testade att gå in på youtube med en 4K-video...har just nu bara 4 flikar inkl youtube-fliken uppe och hela webläsaren tar ~500 MB, så vet inte var du får 2GB ifrån

EDIT: Okej, kom upp i 800MB som mest men pausar jag den går det ner till typ 500 igen

EDIT2: Med tre 4K-videor spelandes samtidigt kom jag upp i knappt 1,5GB

Skrivet av Sveklockarn:

@Mordekai: Någon dag snart ska jag ta upp mitt programmeringsintresse igen och försöka bli testare. Det var någon kul kille som tog livet av det intresset sent 90-tal med Boringland TurboPappskall... så jag har nog lite att ta igen.

Att jobba som testare är intressant man får mycket systemkunskap och lärs sig mycket om utvecklingsmetodik, det finns ofta ett stort behov av testare.
Nackdelen är att många projektledare inte förstår hur mycket jobb och tid test tar och finns det ingen planering för test från början, kan det bli snudd på omöjligt att få bra testteckning.

32 GB

Hade jag vart ekonomiskt oberoende så skulle jag maxa ut mammaplankan vilket skulle bli totalt 512 GB :'D

Jag hostar en minecraftserver på min primärdator så extra ram är alltid välkommet

Skrivet av CeeJaySWE:

32 GB

Hade jag vart ekonomiskt oberoende så skulle jag maxa ut mammaplankan vilket skulle bli totalt 512 GB :'D

Jag hostar en minecraftserver på min primärdator så extra ram är alltid välkommet

Har för mig att Minecraft har minnesläckage, då lönar det sig med en skapligt stor swapfil

Inte helt säker på exakt vilken av mina datorer som "jobbar hårdast", men kvittar då alla de jag använder som desktop-system för arbete är utrustade med samma mängd RAM: 16 GB.

Kör med 16 GB på mina bärbara sedan 2014, det har inte blivit en flaskhals än. Den bärbara jag skriver detta på säger så här om minne

MemTotal: 16304388 kB MemFree: 1473696 kB MemAvailable: 10012584 kB Buffers: 782848 kB Cached: 8009860 kB

Rätt gott om RAM så här på semestern när det bara är webbläsaren, lite spridda småprojekt (kör Emacs och VS Code som IDE:er lite beroende på programmeringsspråk).

För de tyngre lyften finns andra system...

$ cat /proc/meminfo MemTotal: 131701672 kB MemFree: 10471036 kB MemAvailable: 110782052 kB Buffers: 25433776 kB Cached: 70267108 kB ... $ cat /proc/cpuinfo |grep CPU|wc -l 72

Inte under någon hård last just nu, totalt 70 GB disk-cache...

Som det står i signaturen. Men väntar på att WS-maskinen ska bli klar också, då blir det 128 gigabyte ram i maskinen. Den maskinen kör på Asus zenit extreme MB thredripper och en rejäl ramdisk.

64 GB skulle nog räcka i båda maskinerna (för mig), men man har ju alltid för lite(n).

Skrivet av Loxus:

Testade att gå in på youtube med en 4K-video...har just nu bara 4 flikar inkl youtube-fliken uppe och hela webläsaren tar ~500 MB, så vet inte var du får 2GB ifrån

EDIT: Okej, kom upp i 800MB som mest men pausar jag den går det ner till typ 500 igen

EDIT2: Med tre 4K-videor spelandes samtidigt kom jag upp i knappt 1,5GB

Det är vad flikarna brukar ligga på efter några dagar/veckor. Tills jag stänger saker pga brist av ram eller uppdatering av fx.
Om du har tid över kan du ju köra 40h+ 1080p youtube i en flik och se om den drar iväg i minne. Eller använda samma flik för twitch i några dagar.

Mina 16 GB räckte bra tills jag försökte slå ihop ca 25 exponeringar à 36 megapixels i Lightroom till ett panorama. Då storknade datorn. Så när jag köpte ny drämde jag i med 64 GB. Det kan vara overkill, men... det kändes bra.

Skrivet av BergHa:

Det är vad flikarna brukar ligga på efter några dagar/veckor. Tills jag stänger saker pga brist av ram eller uppdatering av fx.
Om du har tid över kan du ju köra 40h+ 1080p youtube i en flik och se om den drar iväg i minne. Eller använda samma flik för twitch i några dagar.

Varför gör man så?