Inlägg

Inlägg som Oegat har skrivit i forumet
Av Oegat
Skrivet av serafim:

Så måste det ju vara, finnarna är (enligt sig själva) världens lyckligaste folk, i alla fall enligt FN:s ”World happines report”.
Men ingen har förstått varför.

Skrivet av anon347775:

https://www.omvarlden.se/nyheter/finland-fortfarande-etta-pa-...

"Mätningarna bygger på frågor som ställts till 1 000 personer i 146 länder. Medborgarna har graderat, på en skala mellan noll till tio, hur de uppfattar sin livssituation." [...]

Går skalan från 0 = "Biter ihop" till 10 = "Kan inte klaga"?

Som norrbottning blir jag skeptisk till alla former av självrapporterad lycka. Min fördom är att Finland är mer likt norra Sverige, man klagar inte i onödan. Jag tror iofs samma gäller för hela Norden, mer eller mindre. Bara en sån sak som att "soligt väder" på TV-svenska benämns "uppehåll" (paus i regnet)

Av Oegat
Skrivet av Timmy Fox:

Går att kolla i deras ark-databas! https://ark.intel.com/content/www/us/en/ark/products/series/2...

...Verkar tyvärr som att ECC-stöd uteblir.

Går att söka också på de processorer som har stöd, med diverse andra filter (t.ex. om det säljs till konsumenter): https://ark.intel.com/content/www/us/en/ark/search/featurefil...

Aha! Jag hittade dem inte i ARK när jag sökte bara härom dagen. Vi får se om det dyker upp en ECC-variant för 150% av priset framöver.

Av Oegat

Har något sagts om ECC-stöd för dessa? Isf vore det väldigt relevant för NAS och enklare servrar, som arvtagare till Atom C2000.

Av Oegat

Tror jag vet vilket du menar, men har inte stött på det annat än på restaurang.

Fyrkantig i tvärsnitt, närmare Malaxlimpa än Danskt rågbröd i sötma, och fluffigare än de båda?

Av Oegat

Loggar du in med keypair eller lösenord? Jag vill minnas att det var lite olika sätt att adressera servern beroende på hur man ansluter.

Jag har en aktiv anslutning som jag når med keypair, och som adresseras med

\\sshfs.kr\oegat@host\

Det kritiska tror jag var [kr] som fungerar som växlar till sshfs-protokollet, "k" betyder key-based authentication, "r" stod för nåt annat som jag inte minns. Det fungerar för mig iaf. Så det kanske du kan testa när du skaffat en ny /etc.

Av Oegat

Låter ju som ett bra läge i livet för att testa, tror inte du behöver oroa dig för inte att få jobb i din bransch. Norrmännen är mer vana vid svenskar i arbetslivet, än svenskar i Sverige är med norrmän (delvis en funktion av att det finns dubbelt så många svenskar, men också av att fler svenskar söker sig till norsk arbetsmarknad än tvärtom). Jag bor i Norge och har gjort en liknande flytt som du överväger, frun fick jobb här och jag flyttade med. Flytten var strax innan pandemin, så jag kunde fortsätta mitt svenska jobb härifrån en period - men sedan ett år jobbar jag också i Norge. Vi har köpt hus och räknar med att stanna.

En sak att tänka på är såklart levnadsomkostnaderna, som äter en del av löneskillnaden mot Sverige - men det är nog inget att oroa sig för så länge man inte glömmer det och bara ser lönen. Som du redan fått veta kan du inte behålla din svenskreggade bil, och att äga (norsk) bil är betydligt dyrare här. Se till att skaffa Autopass för vägtullarna, annars får ni pappersfakturor och det blir fort dyrt. Som andra påpekat är matutbudet inte fullt detsamma som Sverige, men det är inte så mycket ett problem i Oslo som på mindre orter. Vissa saker får man leta lite extra efter, t.ex. vettig hämtpizza.

Med en 2-åring så känns det också som att ni har 3-4 år på er att ångra er utan att det ställer till skolgången alltför mycket.

Edit:

Skrivet av SpiikeN^:

Jag hade inte tvekat. Min mor lärde mig en bra sak när jag var 18 år gammal och oroade mig inför en flytt till en ny stad. "Det är inte längre hem, än vad det var dit".

Så är det, men i många avseenden upplevs avstånd olika beroende på hur man känner platserna och hur mycket information som flödar mellan dem - till flyttens fördel i detta fall. Jag upplever att det är närmare från Norge till Sverige nu, än jag upplevde att det var från Sverige till Norge innan jag flyttade. (Undantaget under pandemin, då Norge i princip stängde gränsen en period.) Norrmän har mycket bättre koll på Sverige än svenskar har på Norge, och norsk media rapporterar mycket mer om Sverige än tvärtom. Det märks att Sverige är ett större land, och vi har dessutom en historia av imperiebygge som gjort att vi svenskar kulturellt påverkat våra grannländer mer än vi tänker på (på gott och ont). Så jag tror inte att sträckan Oslo-Västerås kommer att kännas fullt lika lång efter en flytt. Sen har Norge vissa isolationistiska drag som ni kommer att märka, men på det hela taget upplever jag inga problem med rörligheten (undantaget under en del av pandemin då).

Av Oegat
Skrivet av Det Otroliga Åbäket:

Mer eller mindre rätt: en del webbläsare tvingar fram en begränsad livstid även på funktionella kakor. Det betyder att man då och då behöver logga in på nytt, och det betyder precis som du skriver att man får upp godkänningsformuläret för kakor då och då.

Jag får kakfrågan då och då även i webläsare som jag är inloggad på Swec från, senast nyss. Ofta sker det när jag använder en webläsare som jag inte använt på någon vecka. Men jag är alltså inloggad samtidigt som kakfrågan kommer upp, enbart baserat på att jag klickat i "håll mig inloggad" när jag loggade in långt tidigare. Jag vet inte om det är normalt eller speciellt för Swec.

Skrivet av KAD:

Jag tror ni bryter mot gällande bestämmelser i det avseendet som TS nämner, dvs att det ska vara lika lätt att neka cookies som att godkänna dem.

I mitt surfande känns det som att de flesta inte följer den principen (lagligen eller ej). Det vanligaste jag kommer ihåg (med reservation för att man mest minns sådant som irriterar) är att man brukar få valet att tacka ja direkt, eller gå vidare till en sida där man i bästa fall kan tacka nej. (hos Swec tillåter jag alla kakor, så där slipper jag bli irriterad).

Av Oegat
Skrivet av snajk:

Allt det säger är att ett dåligt master password är dåligt, och att hur säker ens data i denna läcka är är beroende av hur bra eller dåligt det är. Det borde inte vara några nyheter.

Jag reagerade likadant på 9to5mac-länken, men det finns lite mer substans i genomgången som länkas (bloggen "Almost Secure"): https://palant.info/2022/12/26/whats-in-a-pr-statement-lastpa...

Den tar upp tidigare brister i lösenordspolicyn, som kan ha resulterat i att användare har sämre lösenord än nödvändigt ännu idag.

I övrigt ser mycket ut att vara upprepning av tidigare kritik, oberoende av läckan. En del av kritiken är ganska orättvis imo (kursiv text = citat av Lastpass pressmeddelande):

Skrivet av Almost Secure (blogg):

These encrypted fields remain secured with 256-bit AES encryption and can only be decrypted with a unique encryption key derived from each user’s master password using our Zero Knowledge architecture.

Lots of buzzwords here. 256-bit AES encryption, unique encryption key, Zero Knowledge architecture, all that sounds very reassuring. It masks over a simple fact: the only thing preventing the threat actors from decrypting your data is your master password. If they are able to guess it, the game is over.

Min fetning. Detta säger väl sig självt? De kanske menar att nu efter läckan så kan man räkna ut övriga användaruppgifter, men att lita på att de hålls hemliga är ju redan security-through-obscurity. En hacker som redan har en målperson kan ju ofta lätt räkna ut eller testa sig fram till detta.

Skrivet av Almost Secure (blogg):

As a reminder, the master password is never known to LastPass and is not stored or maintained by LastPass.

Unless they (or someone compromising their servers) decide to store it. Because they absolutely could, and you wouldn’t even notice. E.g. when you enter your master password into the login form on their web page.

But it’s not just that. Even if you use their browser extension consistently, it will fall back to their website for a number of actions. And when it does so, it will give the website your encryption key. For you, it’s impossible to tell whether this encryption key is subsequently stored somewhere.

None of this is news to LastPass. It’s a risk they repeatedly chose to ignore. And that they keep negating in their official communication.

Detta är ju skillnaden mellan zero-knowledge och zero-trust som jag tog upp ovan. Men det följer ju av licensmodellen (closed-source klient) och det faktum att de alls har ett webbgränssnitt, jag förstår inte vad Lastpass skulle ha gjort annorlunda givet att vi redan visste att de valt closed source. Borde de lägga till att "vad vi skriver är bara relevant i den mån du litar på oss"? Även detta är lite för självklart för att lyfta som kritik, särskilt som många andra tjänster gör likadant

Av Oegat

En av mina ursäkter för att inte ännu ha skaffat lösenordshanterare har varit att sprida riskerna. Hur säkert det nu är, så finns det ett lösenord som låser upp allt så kan den som på något vis kommer över det lösenordet (keylogger etc.) ställa till maximal skada. Medan om jag har separata lösenord så kan varje intrång göra mer begränsad skada. Det är dock inget starkt argument, för det finns ju många nackdelar med en massa olika lösenord också.

Skrivet av B.Linder:

Well, exakt samma sak kan ju likväl hända bitwarden(minus URLerna då), Kunduppgifter av samma sort har ju dom också utanför användarens valv. "Zero knowledge" används väl av alla lösenordshanterare värda namnet, inget unikt för bitwarden. Att open-source skulle bidra positivt till säkerheten är inte heller något givet.

Skrivet av Homdax:

Har tänkt samma. De visar all kod, vem som helst kan se fel och rätta, men illvilliga får ju reda på exakt hur det funkar och kan klura ut hur man kringgår det. Är inte säker på att jag köper okompilerad öppen kod som något säkrare än kompilerad sluten kod. Fast många påstår ju det...

Är hemlig programkod säkrare än icke-hemlig programkod? Jag tror att svaret i alla praktiska sammanhang är nej, här kommer grunden för varför jag tror så.

Kod är bara så säker som den är skriven. Dåligt skriven kod som är full av säkerhetshål blir ju inte säkrare av att vara öppen, då är det såklart bättre om en anfallare måste gissa sig till säkerhetshålen än om de kan utläsa dem ur koden. Problemet är att kod som är så dåligt skriven kan aldrig bli acceptabelt säker utifrån moderna standader, hur hemlig den än är. För det går alltid att reverse-engineera eller gissa sig till säkerhetshålen. Så även om svaret i detta fall blir ja, så är det inte praktiskt relevant.

Om vi teoretiskt tänker oss ett program som är skrivet enligt konstens alla regler, där säkerheten inte bygger på några hemligheter från koden, utan alla hemligheter lagras separat i form av kryptonycklar eller liknande. Är inte sådan kod fortfarande säkrare om den är hemlig, eftersom det kan finnas buggar som programmeraren missat? Ja, i teorin. Nej, i praktiken, eftersom

  1. På samma sätt som öppen kod kan läsas av anfallare, så kan den läsas av vänligt inställda som kan hjälpa till med att hitta samma buggar. Då open-source-projekt ofta utvecklas organiskt, så hinner många buggar hittas innan mjukvaran fått sådan spridning att en anfallare har något att vinna på att attackera den. Det är en välkänd mekanism som många nämner.

  2. Vad färre tänker på, är att man skriver bättre kod om man vet att jämnbördiga eller bättre programmerare kommer att läsa den. I valet mellan att leta buggar och utveckla nya features skulle de flesta att välja det senare, för ingen gillar att säkra kod i efterhand, eller att lägga till de där röriga if-satserna som hanterar randvillkoren till ens snygga oneliner. Det är otroligt lätt att vänta med buggfixandet med ursäkten att koden ändå inte kan granskas av en anfallare. Sen glöms det bort, programmeraren slutar, och den temporära koden blir legacy. Medan i open-source-fallet vet man att såväl hackers som andra programmerare man respekterar kan se ens misstag och slarv i klartext, och då har man inget annat val än att fixa säkerheten direkt.

Sen finns det ytterligare en aspekt av säkerhet som inte har med kodens kvalitet och funktionsduglighet att göra, och det är att man också måste kunna verifiera säkerheten. Det kan man bara om man kan kontrollera vad programmet gör. Samma sak kan också förstås i termer av tillit. Länken som @Yatagarasu postade ovan nämner både Zero-Knowledge och Zero-Trust. Zero-knowledge går att få till med sluten mjukvara, men inte Zero-trust. För kan du inte läsa koden så måste du lita på att skaparen inte lagt in bakdörrar, vare sig det är pga illvilja, lagkrav eller påtryckningar. Medan om koden är öppen, då behöver utvecklarna inte ens bekymra sig för påtryckningar då sådana skulle vara verkningslösa.

Av Oegat
Skrivet av dauit:

[...]

Att ignorera funkar inte så bra pga dom t ex pratar om det under fikat/lunchen, har försökt be dom lite snällt att inte prata om sådant hela tiden. När det t ex visat sig att det dom har pratat om inte stämmer för fem öre i efterhand viftar dom bara bort det.

Skrivet av serafim:

Det finns olika sätt att ignorera folk. Det bästa är att börja prata om något helt annat, som om man inte hört att de pratar. Kom överens med andra som är lika trötta på gubbarna så att ni har ämnen ni kan dra upp så fort gubbarna börjar. Visa totalt ointresse istället för att argumentera emot.

+1 på @serfafim s strategi. De (likt vi alla gör mer eller mindre) letar efter information som bekräftar den egna värlsbilden. Om världsbilden innehåller att "alla andra är lurade", så blir det faktum att du och andra argumenterar emot bara ytterligare "bevis" för att de har rätt. När någon väl kommit in i en sådan spiral är det väldigt svårt att bryta den med argument.

Att ni tar upp andra ämnen kan också vara nyttigt för personerna själva, det är bra för dem att påminnas om att det finns andra saker i livet än deras "hobby".

Av Oegat
Skrivet av Haglund:

Folk som inte dyker upp på avtalad tid, eller ännu värre, inte dyker upp alls. Respektlöst! Senaste exemplet:

.... ung kvinna ...

Jag gissar att det var någon som studerar och ännu har väldigt vaga begrepp om hur arbetslivet fungerar. Det är ändå ganska underligt hur vanligt det verkar vara att man antar att alla andra är lika flexibla som (man uppfattar att) en själv är.

Citat:

Det är som när man väntar på en hemleverans som inte kommer den dag man fått information om att den ska komma, i vissa fall har man ju tagit ledigt för att vänta på det. Skithuvuden!

Det är bland det värsta, ett relaterat problem är när leverantören är amerikansk och vana vid att de måste hålla vad de lovar till varje pris för att inte få brallorna "avstämda". Då vågar de aldrig ge en gissning på när paketet realistiskt kommer att köras ut, de ger bara det allra sista datum som de lovat enligt tjänsten som avsändaren köpt, som kan vara 3 veckor framåt. Detta trots upprepade förklaringar om att det viktiga är om jag alls kan vara hemma, inte deras interna deadline. Sen har man en halvarg lapp från underleverantören (ofta någon lokal budfirma) om att man inte var hemma när de varit förbi, och att de ska försöka igen "senare".

Många av de större budfirmorna (FedEx, GLS mfl.) tycks operera med förutsättningen att alla mottagare antingen 1) är ett företag med bemannad reception, 2) är hemmafru, 3) har hemmafru (min fördom om deras fördomar är att "hemmaman" inte är ett alternativ).

MEN det är också stor skillnad på hur flexibla deras lokala underleverantörer är, en del förstår problemet från början och kontaktar en direkt.

Av Oegat

Den förutsägbara yttrandefrihetsdiskussionen...

Frågan är hur relevant begrepp som yttrandefrihet är i vår rådande uppmärksamhetsekonomi. Minst tre saker styr din och min möjlighet att göra oss hörda:

  1. Vad du kan säga utan repressalier från staten, eller vem som nu råkar ha våldsmonopolet där du befinner dig

  2. Vad du har möjlighet att få publicerat, antingen genom att äga en kanal (tryckpress, social media etc.) eller hålla dig väl med någon som äger en

  3. Vem och hur många som faktiskt kommer att se eller bry sig om ditt inlägg, samt plattformarnas olika "relevans"-filter

Tvärtemot vad man kan få för sig av diskussionen här är (1) och (2) idag i stort sett inga hinder. Möjligheten att bli publicerad utan nämnvärd kostnad eller risk för repressalier är större för alla oss som skriver här i tråden, än för någon tidigare levande generation. Dessutom kan de som lever i diktaturer och utsätts för åsiktsförtryck enligt (1), ofta hitta kanaler via Internet för att publicera sig anonymt. Idag har vi istället det omvända "problemet": det är så lätt och så billigt att nå ut med sitt budskap, att våra flöden översvämmas med budskap av varierande kvalitet. Information har gått från att vara säljarens marknad, till köparens.

Det är på sätt och vis djupt ironiskt att (3) ovan har seglat upp som ett problem, enbart tack vare att (1) och (2) slutat vara det!

Vad blir då konsekvenserna av det enorma utbudet av information?

En del är att vi alla (i rollen av mottagare av information) blir bättre på att sålla, men det räcker bara så långt. Försöker man ta varje idé man stöter på i offentligheten på allvar, så kommer man snart att påminnas om att man också måste sova, äta, försörja sig. Livet är för kort för den mängd kritiskt tänkande som går åt till att värdera all information man nås av.

Den andra delen är att plattformarna redan hjälper oss med sållandet, genom att sortera våra flöden utifrån "relevans". Detta är troligen helt nödvändigt om det alls ska vara möjligt att använda ett medium som t.ex. Youtube, men det sker med hemliga algoritmer som bestämmer vad just du får se och inte. Dessa har parallella, ekonomiska syften som går ut på att maximera ditt användande av plattformen, t.ex. genom att ge dig informationen du får en dopaminkick av att höra, snarare än den du kanske hade haft mest nytta av att höra. Mängden information som sorteras bort är enorm, men vi ser väldigt lite kritisk diskussion om detta när censur och sociala medier kommer på tal.

Man bör ställa sig frågan: vad är värst, att ens potentiellt intressanta budskap blir bannat/bortmodererat/demonetized, eller bortsorterat av en hemlig algoritm?

Att bli bortmodererad eller bannad känns, det laddar på nedärvda känslor kring social exkludering som hjälpt oss överleva otaliga gånger i människans historia. Det gör folk upprörda. Men då vet man åtminstone att man utsatts, och har man en bra idé (och kanske farlig för rådande maktstrukturer) så kan man hitta en annan kanal för den. Att bli ghostad av en algoritm vars mål och syften vi inte ens helt känner till - det känns knappt alls, och är svårt att verifiera eller åtgärda. Som mottagare accepterar vi obekymrat att algoritmerna "censurerar" i våra flöden (i samma bemärkelse av "censur" som använts för att beskriva moderering), eftersom det bidrar till ständiga dopaminkickar. Där har vi dilemmat - "censuren" är ständigt närvarande på sociala medier, men vi reagerar bara de få gånger då den känns.

---

Här är ett exempel på en annan, inte så uppenbar konsekvens av det nya medialandskapet:

Skrivet av Nozomi:

Desinformation är endast ett problem för att folk uppenbart har haft dålig uppfostran eller utbildning genom livet och därmed tror på allt de läser. Källkritik är ju en viktig del och vi lär väl oss det redan i årskurs 2 eller 3..

Utbilda folk bättre. Så blir desinformationen inte längre något problem, [...]

Skrivet av Kwirek:

Ett problem med källkritik är att de flesta saknar kompetens att faktiskt värdera en källa utöver den ytligaste granskning. Och de som har det har inte kompetensen utanför sitt eget område, vilket blir farligt när de tror sig ha det.

Källkritik hjälper tyvärr dåligt mot desinformation, inte enbart för att tiden inte räcker till (se ovan). Professionella desinformatörer har noll intresse av att vi ska tro på deras lögner, deras metod är att få ut så många olika versioner av sanningen att den trovärdiga informationen drunknar i allt brus. Vår naturliga instinkt till källkritik spelar dem snarare i händerna - målet är att vi ska bli så källkritiska av all motstridig information att vi ger upp hoppet om att lyckas reda ut vad som är sant, och slutar försöka. Desinformatörerna vinner när vi avvaktar från beslut i väntan på mer information, då hålls vi passiva medan de kan agera.

Någon självklar lösning på problemet känner jag inte till (censur hjälper inte heller), men vi bör ha en klar bild över problemet för att inte bli mer lurade än nödvändigt.

Av Oegat
Skrivet av Ryssen:

Får följande:
root@DESKTOP-C3RGUGH:~# gedit /etc/default/grub
-bash: gedit: kommandot finns inte

Ok jag förutsåg den möjligheten, men ville inte ta upp det och riskera att krångla till saker innan det behövdes

En lösning som bör fungera är:

nano /etc/default/grub

- då får du en editor som kör i terminalen, efter att du redigerat kan du avsluta med ctrl-X och då får du frågan om att spara ändringar.

Av Oegat
Skrivet av Ryssen:

Jag får åtkomst nekas..

root@DESKTOP-C3RGUGH:~# /etc/default/grub
-bash: /etc/default/grub: Åtkomst nekas

Du ska redigera den, så du måste köra som i instruktionen du fick länkat "gedit /etc/default/grub".

Jag gjorde detta på debian för inte så länge sen, vad jag minns så funkade allt på samma sätt som det beskrivs i länken. Edit: eftersom du redan är inloggad som root så utelämnar du "sudo" från alla kommandon, enligt föregående postare.

Av Oegat

Fint att du kunde lösa det så! Lade du till en vdev till den befintliga, eller tog du backup på allt och byggde om arrayen? (det senare kan vara lite bättre för prestanda, men det varierar hur stor roll det spelar)

En sak jag tänkte på efter mitt tidigare inlägg var att ashift spelar roll även för mekaniska diskar. Du bör ha ashift=12 för de allra flesta utom de mest antika HDD, för att undvika write amplification. WA påverkar inte livslängden på HDD samma sätt som på SSD, men det påverkar prestandan av samma skäl som jag beskriver ovan. Den märkbara prestandaskillnaden av ashift är större för HDD än för SSD i de flesta fall. Vet du vad du har för ashift, eller kan du kolla? (enklast är 'zpool get ashift <poolnamn>', eller om proxmox web-GUI listar det)

Om ashift=9 så kan det vara värt att bygga om arrayen med ashift=12, men om det känns aktuellt ska vi först kolla exakt vilka diskar du har, för säkherhets skull.

En annan sak som kan ställa till det för ZFS-prestanda är om diskarna har SMR-teknik. Sådana diskar har en intern blockstorlek som är så stor att ingen realistisk ashift hjälper, och dessa är därför inte rekommenderade för ZFS. Men jag tror att risken för det är liten med 1Tb-diskar, detta är mest en grej för större diskar.

Av Oegat

Rensade luftfiltren på innedelen av luft-luft-värmepumpen, något jag inte vet när det gjordes senast (inflyttad sen ett halvår).

Ingen aning om hur mkt det gjorde, men utan att ha mätt så upplevde vi att rummet blev varmare, vilket tyder på att elradiatorerna som "täcker upp" får jobba mindre. Kostnad: 0, verkan: okänd men > 0.

Av Oegat
Skrivet av RPGWiZaRD:

Nvidia med andra ord har hittat "rätt nivå" då scalpers inte lyckas göra nån business på att scalpa längre? Marknaden har nog inte helt oväntat hittat en toppnivå va gäller pris nu troligtvis.

Skrivet av Buulaa:

Nvidia ville ha scalperkakan denna gång så vem som håller i batongen spelar mig liten roll.

Skrivet av Pepsin:

Inte så konstigt med tanke på priserna. Nvidia out-scalped the scalpers...

"The way you were meant to be scalped"

Av Oegat

Just Corsair brukar väl märka sina kablar? Det brukar stå om det är "Type 3", "Type 4" etc. på kontakten som ska in i nätagget. (Förutsätter att det står på nätagget också)

Av Oegat

Svarar utifrån ZFS generellt då jag inte testat proxmox. Ja, utan att fråga vad du har för CPU så kan jag instämma i att det är snurrdiskarna och inget annat som är problemet. Om lagringsbehovet endast är 1Tb så borde det inte bli snordyrt att byta ut diskarna mot t.ex. 2x 1Tb SATA-ssd.

Ang:

Skrivet av DoDaN:

[...] skulle detta kunna avhjälpas av tex 4st ssd i en zfs raidz2?

Det finns få scenarier där 4st ssd i raidz2 är att föredra över 4st ssd i en pool av 2x 2-vägs mirrors. Förvisso klarar raidz2 att vilka 2 enheter som helst rasar, medan 2x2 mirrors klarar att tappa en i varje spegel (men inte båda). Men raidz2 belastar cpu mer och gör det svårare att optimera utrymmet, pga halvkomplexa mekanismer som beskrivs här: https://www.delphix.com/blog/delphix-engineering/zfs-raidz-st... - med mirrors blir allt enklare och du vinner prestanda främst vid läsning. "Space efficiency" (mängd data du kan lagra per Tb diskutrymme) är i teorin densamma i dessa två scenarier, men blir i praktiken något sämre med raidz2 pga. mekanismerna som beskrivs i länken. Sen har vi också fenomenet write amplification som ofta blir värre med raidz.

Citat:

Och sista frågan, då Google säger lite olika. Är det någon idé att prova vanliga konsument sata ssd eller kommer de ”skrivas sönder” direkt?

Det beror mycket på vad dina VMs gör. Jag körde under ett par år en gaming-VM med Windows 10 på en zpool bestående av en ensam 1Tb Samsung 860evo. TBW drog inte iväg nämnvärt, detta var med ashift=12 och zvols med volblocksize=16k om jag minns rätt (förklarar inställningarna strax, och rekommenderar numera högre ashift). Men då skrev den inte så mycket i dagligt användande.

Resten är utifrån teori, enligt min bästa förståelse av att ha läst mig in, och inte min så mkt egen testning:

TL;DR: zpools bestående av ssd:er bör, för bästa livstid, skapas med ashift = minst 12, gärna 13.

Något som är viktigt att ha koll på är orsakerna till write amplification - dvs. när skrivningar sker i mindre chunks än minsta adresserbara storlek som stöds av lagren under. Principen är att om jag skriver 4k, men disken som tar emot skrivningen bara kan adressera 8k i taget, ja då måste den läsa in 8k, modifiera 4k av dessa, och skriva ut alla 8k = 2x write amplification. Med zfs kan detta ske på flera nivåer, t.ex. mellan NTFS i VM och den underliggande zvol (eller fil i ett dataset) som den ligger på, eller (och det är värre) mellan zfs och den underliggande hårdvaran. Det sista är inte mätbart med zfs-verktyg (t.ex. 'zpool iostat') eftersom det sker internt i SSD:n.

Det största problemet här, särskilt med konsument-ssd:er, är att de ofta ljuger om hur stora "chunks" av data disken kan adressera åt gången, dvs. deras interna blockstorlek. Moderna ssd:er adresserar i regel minst 4k bytes som minsta enhet, ofta 8k eller mer. Detta dokumenteras inte av tillverkarna, samtidigt som diskarna av kompatibilitetsskäl kommunicerar att de kan adressera betydligt mindre enheter, ibland så smått som 512 bytes. Om man skriver 512b till en disk som egentligen addresserar 8k, då måste den läsa in 8k, ändra 512b, och skriva ut 8k =16x write amplification! I praktiken är detta inte så farligt som det låter för vanliga filsystem när de ligger direkt på disken. T.ex. NTFS och ext4 skriver alltid i chunks om minst 4k, och aggregerar skrivningar i större chunks. Så om ssd:n har en intern blockstorlek på 8k, så kommer alla skrivningar <=8k att leda till write amplification, men det blir i praktiken bara ett problem för små filer. Större filer delas upp i betydligt större chunks än 8k när de skrivs ut till disk.

Men för ZFS blir det annorlunda. ZFS försöker optimera allt utifrån diskens kommunicerade interna blockstorlek - det som konsumentdiskarna normalt ljuger om. Om disken säger att dess blockstorlek är 512b, så kommer ZFS att försöka optimera allt till 512b skrivningar. Det leder till write amplification även för skrivningar av betydligt större mängder data (jag har inte exakt koll på mekanismerna här och om detta gäller för alla skrivningar, men det är så jag förstått det). Lösningen på detta är att override:a ZFS gissning om diskens layout, och det görs med ashift - en inställning som bara kan göras då en ny zpool skapas ('zpool create -o ashift=...'). Det står för "alignment shift" och bestämmer vilken minsta blockstorlek ZFS kommer att jobba med, enligt formeln (blockstorlek i bytes) = 2^ashift. Då har vi att 512b motsvarar ashift=9, 4k <=> ashift=12, 8k <=> ashift = 13. Vill man veta vilken ashift en existerande zpool har, så framgår det av 'zdb | grep ashift'.

Det är som sagt odokumenterat för de flesta SSD:er hur de fungerar internt. Men någon slags konsensus på nätet verkar vara att den faktiska blockstorleken för moderna diskar är minst 4k, för Samsung ska den vara 8k. Men har ingen säker källa på detta, detta kommer delvis av folks spekulationer. Fördelen är att det är relativt liten förlust att ha för stor ashift, jämfört med för liten. Därför är den generella rekommendationen att mycket write amplification kan avhjälpas med ashift=13, evt. räcker det med ashift=12. Men aldrig ashift=9 dvs 512b, har man en zpool av ssd:er med ashift=9 så bör man bygga om den.

När man väl har valt en vettig ashift så har det viss betydelse hur man organiserar lagringen för sina VMs. ZFS har som du kanske vet också en egen blockstorlek som bestämmer hur läsning, skrivning och checksummor organiseras, den kallas 'recordsize' för datasets, och 'volblocksize' för zvols. Oavsett om man lagrar sina VMs på zvols eller i filer (qcow2 eller raw) på datasets så kommer denna parameter att spela in, då den bestämmer hur stora skrivningar som tas emot av lagret ovanför, dvs. filsystemet i VM. Här är det frestande (utifrån resonemangen om write amplification) att sätta den till samma som blockstorleken enligt ashift, men det är inte rekommenderat, för då tappar man fördelar med t.ex. ZFS inbyggda komprimering. För liten volblocksize/recordsize leder också till mer metadata, vilket också leder till fler extra skrivningar! Här kan det vara värt att tänka på sin workload, hur stora skrivningar väntar jag mig normalt i min VM? Det brukar ofta rekommenderas att optimera för det.

En åldrande men bra och concis guide är denna: https://jrs-s.net/2018/08/17/zfs-tuning-cheat-sheet/

Också värt att tänka på att zfs komprimering opererar "mellan" volblock/recordsize å ena sidan, och blockstorleken enligt ashift å andra sidan. Ingen skrivning kan komprimeras till mindre än 8k på en drive med 8k sektorer (ashift=13). Säg att du har volblocksize=16k vilket är default för zvol:s, då kommer ett 16k block att komprimeras till ett 8k block bara om komprimeringsgraden är 50%, vilket den sällan är. Det kan vara skäl att öka volblocksize för en zvol ovanpå en pool av 8k-diskar.

Tänker man på allt ovanstående och optimerar någorlunda därefter (ffa ashift, det är den enda parametern som är verkligt kritisk), då klarar man sig i min förståelse långt på konsument-ssd:er för ZFS, i vart fall för "konsument"-workloads. Med det sagt så går det också att hitta relativt billiga begagnade enterprise-ssder med rejäl livstid kvar, särskilt i storleksordningen 480Gb < 1Tb. Vet säljaren vad de pysslar med så brukar de kommunicera TBW och smart-värden.

En sista sak att tänka på med konsument-ssd:er är Power-Loss Protection (PLP). Det handlar om att SSDer kan, beroende på kontroller, ha ett fönster där de kan bekräfta skrivningar (till OS) innan data skrivits ut från DRAM-cache till flash. Tappar man strömmen vid fel tillfälle för dessa diskar, så tappar man data, och får kanske ett inkonsistent filsystem. Det går inte att lita på sin mirror här, eftersom alla diskar i en maskin kan drabbas samtidigt. UPS hjälper en bit här, men inte t.ex. mot en fallerande PSU. Dokumentationen för ZFS on Linux går igenom det, och har en lista på ssd:er som antas vara säkra: https://openzfs.github.io/openzfs-docs/Performance%20and%20Tu...

I den länken kan man också läsa:

Citat:

Discussion of power failures bricking NAND flash SSDs appears to have vanished from literature following the year 2015.

Men det är värt att hålla koll på, särskilt om man shoppar äldre enheter. Jag har också sett exempel i närtid på när båda (relativt nya men billiga) diskarna i en raid1-spegel dör samtidigt, vilket i detta fall tycks ha berott på en power-spike pga. dåligt elnät eller psu: https://forum.level1techs.com/t/anyone-else-having-failure-is...

Så även om SDD och ZFS i all väsentlighet är säkert så har SSD:er, särskilt billigare, lite knepigheter som inte HDD har. En tanke om du prövar med en SSD-pool men är osäker på hur säker den är jämfört med HDD, är att behålla din HDD-mirror i maskinen, och göra täta backuper från SSD till HDD-poolen. T.ex. en snapshot 1 gång i timmen, den mängden läsning bör inte påverka din prestanda nämnvärt förutsatt att du gör inkrementella backups.

Av Oegat

Kul koncept, visuellt snyggt, och engagerande! Det hade varit fint med någon förklaring av vad man ska göra även om det gick ganska fort att gissa, men det har du kanske redan planerat att lägga till.

En tanke är att om du specifikt vill träna skrivhastighet, så verkar den begränsas av den visuella sökförmågan, åtminstone på "normal". Jag som förmodligen genomsnittlig tangentbordsanvändare använder mer tid till att skifta uppmärksamheten mellan olika vattendjur för att hitta nästa omgång bokstäver, än att hitta bokstäverna på tangentbordet. Så jag är inte säker på att det är tangentbordsrelaterade förmågor som egentligen tränas i mitt fall, snarare visuell sökning. Det försvåras särskilt av att djuren rör sig i olika riktningar, och kanske till viss del att de har olika färger.