Inlägg

Inlägg som xxargs har skrivit i forumet
Av xxargs

Ta ur Toshibadisken om du kan och sätt i en USB-docka och göre en zerofill på denna med typiskt "dd if=/dev/zero of=/dev/sdx bs=1024k status=progress" - sdx är här någon av /dev/sda, /dev/sdb etc. och letas fram med lsblk precis innan man kör kommandot - gör övningen på _rätt_ disk!!!

Som nämnt kan diskarnas ordningsföljd i avseende sda, sdb, sdc etc. flyttas om för var boot/start då det är något som numreras upp av BIOS/PCIe-systemets POST efter ordningen när enheterna signalerar sig klara - och ordningsföljden kan alltså bli olika per start.

---

Slutar post 198 att räkna upp efter detta och post 197 blivit 0 igen och när den är resilvrad i din NAS igen så är problemet löst och disken håller förmodligen många år till.

En zerofill av en krånglande snurrdisk kan göra mer nytta än någon av diskens egna självtester då när den skriver kontinuerligt med data så skriver det över det gamla datan utan att försöka tolka det som var innan och då får man nya och fräscha sektorer med hög signal över brus skrivna på diskytan.

Att en sektor kan vara vek beror oftast inte på att magnetkornen på ytan skulle ha tappat någon magnetism över tiden utan snarare att skrivhuvudet var lite off track och vinglade i sin tänkta spår av tex. mekanisk stöt eller vibration när datat skrevs och vid senare läsning så är en del av magnetspåret lite på sidan av spåret den läses och signalstyrkan lägre just där läshuvudet läser med kanske bara halva spårbredden kvar av det skrivna datat innan.

Det är ordentligt avancerad servosystem för att flytta läshuvudet mekanisk inom mindre än 10 nm rätt centrerat i spårets bredd (gissningsvis mindre än 70 nm bredd idag och ligger kant i kant med spåren brevid) och det fins situationer där det inte hinner att centrera spåret precis rätt i alla lägen pga. vibrationer och stötar mm. samtidigt under tex. skrivning

Av xxargs

hp42s är det som gäller man vill ha fysisk räknare i handen - på mobil och dator används free42.

På den fysiska räknare byter man batteri per 5-10 år, den fungerar alltid även när nallens batteri är slut och laptopens batteri är tom.

Av xxargs
Skrivet av anthra:

innan man diskuterar mjukvarulösning för backup tycker jag det är mer intressant att diskutera hårdvarulösning och sedan anpassa mjukvarulösningen efter det.

När det gäller btrfs så är det inte ett "färdigt" filsystem - det som saknas är RAID5.
Men både RAID0 och RAID1 fungerar.
RAID1 är speglade diskar, men det förutsätter att du sätter upp hårddiskarna i disk-par.
Skulle en disk rasa i ett par, finns den andra disken kvar intakt och ingen data har gått förlorad.
Men det förutsätter att du väljer den hårdvarulösningen.

Den saknar inte RAID5/6 i BTRFS - den finns att använda om man vill men det är ingen som går i god att den är idiotsäker på samma nivå som typ ZFS (och ändå är det problem med dessa ZFS-volymer på katastrofal nivå med risk för filsystemhaveri om man använder SMR-diskar... - men det blir inte katastrof när SMR-diskar används med BTRFS) - personligen har jag haft mer problem med mdadm-RAID efter flera strömavbrott kort efter varandra än en BTRFS i RAID5 och då har jag ändå kört på 7-diskars RAID5 på en server-järn inklusive diskhaveri och utkickad disk...

Du kan när som helst konvertera mellan olika RAID-moder i BTRFS med 'balance' och filsystemet är online under tiden - det klarar inte ZFS... och även lägga till eller ta bort diskar under drift och tex. RAID-formen är tillräckligt smart att fördela data på så många diskar det fortfarande fins plats kvar på.

tex. har man en uppsättning med 2 st 1TB diskar och 3 st 2TB diskar i en RAID5 så kör BTRFS RAID5 med 5 diskar tills 1TB-diskar är fyllda och sedan fortsätter med RAID5 på de 3 2TB-diskar med plats kvar vid vidare påfyllning tills även 2TB-diskarna är fyllda. Detta görs dynamisk på chunknivå och då skapas stripe med så många diskar med tillräcklig plats för en chunk och sedan sätter man RAID5 på dessa chunk i stripen med antalet diskar man fick tillgång till individuellt på chunknivå.

---

Eftersom skit kan hända oavsett hur mycket hängslen, svångrem och fallskärmar man har (vilket de som köpte WD-red ovetandes om att de plötligt blivit SMR-diskar, plötsligt fick uppleva omfattande haverier i sina ZFS-filsystem när disk efter disk kickades ut för att disken inte svarade inom 8 sekunder) så bör man alltid se till att ha en hyffsad uppdaterad backup på annan lagring - oavsett BTRFS eller ZFS.

Av xxargs

Skall man långtidslagra/arkivera med lång tid mellan varje inkoppling så är det fortfarande och kommer att gälla länge än, att lagras på snurrdiskar!!

SSD/USB-stickors risk att tappa data är väldigt avhängigt med vilken temperatur de förvaras i och det räcker med 3-4 grader upp eller ned för att fördubbla eller halvera lagringstiden till att de första läsefelen dyker upp - medans en snurrdisk är dimensionera att hålla sin data kvar läsbar på skivan vid +55 grader C i minst 10 år - eftersom det kan vara liknande temperaturer i utrustning och maskiner som går år efter år i 24/7 och många av sektorerna skrivs aldrig om någonsin sedan disken var ny.

att låta en USB-sticka ligga på fönsterbrädan och solen lyser på den på sommaren eller ligger i skrivbordslådan kan vara helt avgörande om den skall vara läsbart 1-2 år senare medans en snurrdisk så kvittar det vilket.

Av xxargs
Skrivet av Night Prowler:

Inte så mycket jag kan göra åt bruset då?

har du uteslutit andra källor som kan läcka in eller överhöras in - så nej, tyvärr.

Av xxargs
Skrivet av Night Prowler:

Okej. Det stör inte så mycket så jag kan leva med det.

Brusnivå vid helt neddragen volym är en ganska viktig kvalitesmarkör på bra eller mindre bra designad ljudkedja och slutsteg som allt för få uppmärksammar i samband med sina ljudapparatinköp.

Att bygga ett slutsteg med 116 dB dynamik mellan dess märkeffekt och dess tomgångsbrus är väldigt mycket mer kostsammare än att göra en dito med 102 dB dynamik mellan sin märkeffekt och tomgångsbrus.

problemet är att ju högre uteffekt slutsteget har, ju mer brus brukar de ge ut på sina utgångar då dynamiken har inte ökat i motsvarande grad i designen. Ofta matchar man detta i paketbyggen med högtalare som istället har lägre känslighet för att bruset inte skall skrika ut i hela rummet... det ser bra ut med 200 eller 400 Watts uteffekt på kartongen de kommer med men högtalarena är inte mycket mer känsliga än elelement typ som brummar lite...

Av xxargs

Precis - USB-stickorna och SD-minnen tar den flashen som inte går att sälja till mer krävande kunder, vilket gör att det också är samma typ av flash-tekniker och generation som används i rådande produktion av SSD/NVMe eftersom det är sådana i sekundär och ännu sämre kvalitet fins att köpa i stor mängd billigt hos de olika flashminnestillverkarna. dvs tillverkas det stora mängder QLC-minnen hos flashtillverkarna så kommer snart de mindre lyckade exemplaren också finnas i köpta USB-stickor och SD-minnen - och dessa skriver heller inte vad det är typ av flashminne i USB-stickan och nästa månadens batch hos en noname är kanske av annan tillverkare av flashminnena, beroende på vad man lyckades köpa på spotmarknaden ungefär...

Nu finns det nivåer på det här helvetet också och köper man från Samsung som nämnda Samsung BAR, från Kingston etc. med en lägsta ribba kvalitetsmässigt så är det inte bottenskrapet som stoppas in i dessa medans köper man USB-minne från Wish så är det risk att man får flashminnen som verkligen är längst ned i trash-bin hos flashtillverkarna...

Jag provade att mäta lite på mina +5 år gamla Samsung Bar 64 GB - med lite annan kapseldesign än dagens. Till min smula förvåning så fungerar UASP på denna och den accepterar unmap-kommandot (motsvarande TRIM) utan dumma, krascha eller ger error som Sandisk extreme-stickorna gör

Läshastigheten var runt 115 MB/s och skrivhastigheten runt 34 MB/s när jag skrev med 40 GB med slumpvärden (alltså ej komprimerbart) då stickan hade en del data i sig redan, vilket i princip uppfyller TS krav. - men skrivhastigheten gäller bara en gång, innan man har skrivit skrivmängden som motsvarar hela stickans lagringsvolym - efter det går det inte fort då stickan måste börja reallokera och radera flashblock och skrivhastigheten kan gå under 1 MB/s för lite större filer och det skriver väldigt ryckigt.

Och där blir den kvar med usel skrivprestanda om man inte kör TRIM/unmap-kommandon över UASP, för USB-stickorna som stöder det över huvud taget, gärna också i kombination med 'zerofill' - dvs. göra jättefil fylld med enbart '0' för att ta allt ledigt utrymme som är kvar på USB-stickans filsystem och sedan radera denna och efter det kör man fstrim (i linux) - både zeroskrivningen och fstrim gärna i 2 omgångar då när fstrim körs så skickas det förvisso mängder med unmap/TRIM-kommandon men stickan verkar bara ta en del av dessa och ignorerar resten för att den har inte kapacitet att hantera det när alla kommer på en gång. - tyvärr fins ingen 'smoth'-mode där den skickar ut TRIM-kommando i små grupper över längre tid i Linux - vilket windows gör när den städar med TRIM efter en raderad större fil.

Man kan undra varför man i dylika prestandatester inte skriver flashminnet fullt med minst 2 gånger flashminnets volym med slumpdata innan man börja med prestandamätningarna?? För det är där folk hamnar förr eller senare när USB-stickan har använts ett tag! - eller så hoppas man på att stickan tappats bort innan den fulla volymen på stickan har skrivits - ibland känns det lite så...

Slutsatserna är att stickorna kan ge den utlovade skrivhastigheten - men bara tills man skrivit upp stickans hela datavolym (dvs. skrivit 64 GB i datamängd på en sticka som är 64 GB stor sedan stickan öppnades ur förpackningen ) - efter det så kommer skrivprestandan vara ynklig tills man gör TRIM-operationer över USB-bussen och kanske i flera omgångar innan all ledig utrymme blivit raderat igen för snabb skrivning.

Problemet är att de allra flesta OS-miljöer skicka ingen TRIM över USB, inte ens linux (inte den versionen jag kör i alla fall) även om det går att slå på med lite filskriving och instrurerar udev att göra detta¹.

Jag har inte koll på win11 men räkna inte med att windows gör det heller då det räcker inte med att få den att använda UASP-protokollet över USB mot USB-stickan i dataöverföringar (istället för att använda den äldre USB-protokollets BOT-protokoll) - utan den skall också rekognosera USB-stickan som antingen en SATA-disk via AHCI eller som en SCSI-disk innan TRIM vid filradering börja fungera på USB-stickan, heter det något annat så körs det ingen trim alls.

Det här gäller all inkopplad flashminne över USB - gör man inte TRIM/unmap då och då så kommer skrivprestandan att sjunka när lagringen har skrivits med hela sin lagringsvolym i mängden skrivningar. - det gäller också eSSD som samsung T-serien

- jag spelar ibland in videoströmmar i runt 200MB/s klassen med SDR-mottagare och har man inte kört fstrim på filsystemet på T7 innan så kommer inspelningen att misslyckas efter en tids inspelning och det börja stalla och hacka - på SSD/NVMe-lagring som skryter med 900 MB/s i skrivhastighet - och det vill man inte ha vid en realtidsinspelning. Detta märks inte direkt utan kanske kommer efter 1 timme och en 4 timmarsinspelning visade sig bli 8 timmar innan disken är full för att skrivningen av eSSD gått ned ordentligt och videoinspelningen är svårt söderhackad tidsmässigt. - ibland fungerar det bättre att köra på en stor snurrdisk med nyformaterad filsystem - nej, jag skojar inte...

¹ hur man i Linux aktivera TRIM/unmap över USB mot inkopplade eSSD och USB-stickor i UASP-protokoll och som har unmap-support.

cd /etc/udev/rules.d

i denna skapar man en ny textfil (om inte filen redan existerar) i en texteditor med filnamnet "50-usb-ssd-trim.rules"

i denna skriver man (som en rad):

ACTION=="add|change", ATTRS{idVendor}=="090c", ATTRS{idProduct}=="1000", SUBSYSTEM=="scsi_disk", ATTR{provisioning_mode}="unmap"

har man fler enheter så skriver man motsvarande för den i en rad under.

idVendor och idProduct kan letas fram med 'lsusb' för just _din_ USB-lagring, ovan gäller för samsung BAR tillverkad för ~5 år sedan och kan vara annat idag.

spar textfilen och se till att ägare, group samt rättigheter är samma som de andra filerna i mappen.

efter detta kan man ansluta sin lagring och då bör 'fstrim' fungera på enhetens filsystem om enheten i slutändan supporterar detta.

Av xxargs

Det flesta USB-stickor - även de som marknadförs som snabba som Sandisk extreme - är faktiskt rätt usla och pengar i sjön och är inte alls snabba efter några år eller när man skrivit några fulla USB-volymer i skrivmängd på stickan - faktiskt långsammare än noname i många fall och det fins ingen väg att köra TRIM på dessa eller en zerofill hela volymen (som alternativ för TRIM) i försöken att få dessa snabbare igen. jag har 2 stycken sandisk extreme köpta vid olika tillfällen med över 1 års mellanrum och storlek och båda är urursla när de är några år gamla.

problemet med USB-stickor är att de är i hög grad är batchberonde och tillverkas av batcher av överbliven flashminne som ingen annan vill köpa - därför vågar inte tillverkarna lova något då två månader senare kan vara helt andra egenskaper under samma varunamn och artikelnummer... tom. gamla disketter hade jämnare och säkrare kvalitetsnivå mellan olika tillverkare och över tid än vad USB-stickor är idag.

---

skall man ha något snabbt och kunna skriva större volymer utan att det tacklar av för fort i skrivhastighet och som håller sig över tiden så är det att titta på tex. samsung T7 och dess olika varianter och motsvarande av andra tillverkare - men de är inte USB-stickor utan eSSD med fullflödig kontroller i sig och man har sladd mellan enheten och anslutningen - men farten är det ingen fel på och T7 kan skriva uppemot 900 MB/s om man har dator med USB som klarar farten. Samsung T7 har full UASP-protokoll och det går att skicka TRIM/discard-kommandon över USB (via UASP) för att den skall bibehålla full skrivhastighet även för större filer.

---

när det gäller stickor i mindre storlek och inte så höga skrivfartskrav (30 MB/s klarar en USB2-protokoll av) så håller jag med om att Samsung BAR har varit väldigt stryktåliga mekaniskt och stabila i avseende att lagrad data är läsbar felfritt även efter lång tid sedan sista inkopplingen.

Av xxargs

Inget jag skulle orka bråka om övriga SATA-värden verka rimliga då "Offline uncorrectable sectors" är ingen parameter som ger 'prefailure warning' oavsett hur högt värdet är - hade det däremot varit uppräkning på '5 Reallocated sector count' så skulle jag nog ha försökt och då brukar också 'prefailure warning' ganska snart ge SMART-varning redan vid några få uppräkningar.

Av xxargs

Hård-tvålar är något annat än pumptvålar och schampo och jag skulle tro att det sammansättningsmässigt inte skiljer sig allt för mycket mellan en hårdtvål för handfatet och en hårdtvål för duschen mer än de vanliga variationerna med vilka fetter man kokade tvålen på och överfettningsgrad samt parfymeringen - till det påverkar också hur länge den får ligga och mogna innan det går till salu - en nytillverkat tvål är mer alkalisk och kan upplevas slita mer på huden av akalit än en som lagrats länge - gäller speciellt om man provar att köpa hemtillverkade hårdtvålar från hantverksmässor mm. att de mår bra att lagras en tid innan användning.

Jämför man med en hårdtvål och en pumptvål så är det definitivt skillnad då en pumptvål och schampo bestå till stor del av sockertensider och alkoholtensider samt sulfatbaserade tensider med fetter från palmolja/fett och kokosolja/fett medans en hårdtvål av bättre kvalitet består mest av en natriumsalt av fettsyror som ricinolja, oliv, olika nöt och rapsoljor i olika förhållande samt mer eller mindre mängd icke förtvålningsbar olja för överfettningen efter tvålmakaren smak, ambitioner och pris på råvarorna medans massproducerad tvål är också gjorda av palm, soja och kokosolja modell billigaste man kan komma över och eventuellt mindre inblandning av olivolja...

Använda fetter och oljor, dess smältpunkter och fördelningen mellan mättade, omättade och fleromättade fettsyror påverkar också hur lättlöddrig och vilken 'feeling' hårdtvålen får.

En sak till som påverkar om en hårdtvål upplevs fungerar väldigt bra för en brukare medan andra inte upplever samma sak är vattnets hårdhet. Tvål i hårt vatten fälls ut som otrevlig kalktvål tills kalcium och magnesium har förbrukats i vattnet och är varken löddrande eller tvättande (och ger smutsranden på badkaret, sölar ned handfatet och dusch-kabinens väggar) och det kan gå åt betydligt mer av tvålen innan man får den eftertraktade löddret och i obehandlad brunnsvatten som i Falubygden/Gotland med knasterhårt vatten knappt något alls ens då utan väldigt mycket gnuggande/masserande på tvålen, medans pumptvål och schampo med sockertensider och alkohol-tensider samt sulfatbaserade tensider är mindre känslig för hårt vatten.

jag växte upp med sådant hårt vatten och mins än idag hur perplex jag var över hur länge man fick skölja efter tvåltvagningen innan tvålhalkan försvann när jag första gången tvättade med tvål i mjukt vatten.

Av xxargs
Skrivet av grogt:

Tyvärr är det uppförsbacke att börja använda btrfs med snapshots och subvolymer. Det kräver att man sätter sig in i hur det fungerar för att det ska bli riktigt bra.

Tycker dock inte att BTRFS är så krångligt som det låter ovan.

det är typ 3 haranger man behöver komma ihåg - under förutsättning att man är på en lagring som är BTRFS.

"btrfs su create mappnamn"

för att göra en ny tom subvolym där man kan lägga in mappar och filer

"btrfs su snap mappnamn_1 mappnamn_2"

skapar en ny subvolym av en redan existerande subvolym mappnamn_1 till ny subvolym "mappnamn_2" med exakt samma innehåll som mappnamn_1 - det är detta som brukar kallas för "snapshot" och är en process som går på typ 1 sekund att utföra och kanske tar 50 kByte extra i diskutrymme. Obs! det kan bara göras inom samma logiska BTRFS-volym - vill man ha skrivskyddat så lägger man till "-r" i kommandosträngen och då kan inget alls inom den skapade subvolymen mappnamn_2 ändras - inte ens tidsstämplar när man läser filer... Snapshot på denna sätt tar allt inom subvolymen utom andra ytterligare subvolymer i mappträdet som är inlagda inom aktuella subvolym och dessa lämnas bara som en mappnamn utan innehåll i sig i filträdet i den nyskapade subvolymens mappträd.

- detta möjliggör att om man inte har någon skapad subvolym alls i sin BTRFS-lagring och redan lagt en massa filer där - så kan man göra en subvolym med allt innehåll som redan inlagt i roten till en kopia som subvolym (snapshot) med "btrfs su snap . mappnamn_3" och allt som fanns på BTRFS-volymens root finns nu också i mappnamn_3 utom det som ligger i subvolymer.

Roten på BTRFS-filsystemet är nämligen också en subvolym med namnet "."

Som överkurs man man i samband med monteringen av BTRFS-volymen välja med option vilken av alla subvolymer som skall bli BTRFS-volymens root.

Den sista kommandot som man kanske använder lite mer ofta är:

"btrfs su delete mappnamn_2"

- det är som den säger - den tar bort subvolym mappnamn_2 med hela underliggande mappträdet i ett blink , det fins ingen ånger eller räddningsmöjlighet eller extra fråga när det väl exekveras utan subvolymen är bort för alltid på ett ögonblick, och den tar också bort skrivskyddade subvolymer utan varning!!.

Vill man tömma normala filträn tex. efter en rsync-spegling med tex "rm -r -d mappnamn" och hårdlänkade filer mellan en uppsättning mappar med backupfiler (också skapade med 'rsync' tidigare) så vet de som provat att det kan kan ta åtskillig tid få bort mappträdet när det handlar om hundratusentals till miljoner filer och det är kanske över TB med data att radera - med att lägga rsynckopian på en subvolym så tas trädet bort på en sekund¹ när den är förklarad inaktuell.

En sak att tänka på är att hårda länkar kan inte kopplas mellan olika subvolymer då var subvolym är i princip en egen virtuell logisk lagring/filsystem med sin egna inoder etc. och därför kan inte hårda länkar peka mellan olika subvolymer i BTRFS - bara inom själva subvolymen.

Det fins ingen rangordning eller hierarki (mer än rent numerisk internt för att skilja dessa åt) mellan subvoymerna i BTRFS till skillnad från ZFS utan skapade subvolymer kan raderas i helt annan ordning än ordningen de skapades i - dessa är alltså inte beroende av någon 'master' eller 'dataset' att utgå ifrån och varje subvolym (om de inte är skrivskyddade) kan modifieras, ändras, tömmas eller fylla på med ny data helt fritt utan att det påverkar någon annan subvolyms mapp och fil-innehåll.

I BTRFS finns det en del grejor som är svår att vara utan när man väl vant sig vid det - och en av dem att kunna kopiera väldigt stora filer (läs diskimages) mellan subvolymer utan att kopiera mer än dess metadata, vilket gör att en 1TB-stor fil tar inte mer än max några sekunder att kopiera och utan att det tar mer plats på disken. I terminal med 'cp' så är det "cp --reflink=always filnamn1.img filnamn2.img" och det görs metadata för den nya filer som pekar på samma datablock som orginalet istället för att kopiera allt till dubbel upplaga av data och ta upp dubbla diskutrymme i plats samt tar tid att utföra med kopiering av data. - tyvärr är inte 'reflink' defaultbeteende i cp lika lite som 'sparse'

Kör man i CLI-terminal Midnight Commander så sker det automatiskt 'reflink' vid kopiering av filer när det går och jag var väldigt förvånad första gången när jag skulle kopiera ett filträd på flera hundra GB och kanske 100000 filer - när det var klart 30 sekunder senare istället för kanske över timmen senare och det tar inte upp någon extra diskplats mer än för den nya metadatan det skapade för filerna...

BTRFS erbjuder också att kunna komprimera filerna medans det sparas på volymen och vill man ha en specifik komprimerande mapp (och det behöver inte vara en separat subvolym) så använder man 'chattr +c mappnamn' på en skapad eller existerande mapp och allt som senare läggs i denna mapp och alla undermappar som skapas kommer att komprimeras utan speciellt stor upplevd prestandakostnad (komprimeringen är multitrådad på kernelnivå när den arbetar) - det går att att välja typ av kompressionsalgoritm och kompressionsgrad - men det är annan historia - men jag har använt zstd på låg kompressionsgrad för tex. videoflöden från SDR-mottagare med typisk kompressionsgrad 50% vilket är viktigt båda i avseende bandbredden mot lagringen (istället för 350 MB/s går ned till 175 MB/s kontinuerligt under timmar) och det faktum att man får in dubbelt med datamängd på samma lagring.

- lagrar man tex. (RAW) diskimages tagna från SSD/NVMe-lagring med tex 'dd' eller 'ddrescue' så kan filsystemkompression spara väldigt mycket diskutrymme utan att behöva koda om dessa i format som VHDx eller andra format som diskimageprogram gör i windows, eller att komprimera dessa separat med lämplig kompressionsprogram - och här med fallen SSD/NVMe-lagring utnyttar man att windows kör 'TRIM' på filer som raderas och den vägen är blocken som höll den raderade datan tidigare utlästa som '0'-fyllda block i SSD/NVMe och lätta att komprimera. Lagrar man diskimagen dessutom med '--sparse' i samband med 'dd, ddrescue' så spars inte 0-fyllda blocken i diskimagen alls utan hanteras bara i metadatat och man spar lite ytterligare utrymme då 0-fyllda blocken inte behöver komprimeras alls.

---

BTRFS har inte inbyggd deduplicering men man kan köra dedupliceringsprogram som 'bees' som sidokanalsprogram och på låg nivå, under den synliga filsystemet deduplicerar med variabel block-storlek och ned till 4-K block dynamisk (även typ 1 GB med RAM fast disken är 18 TB stor) samt gör sparse-sekvenser på filer med bara 0-fyllda sektorer och den vägen kan göra att lediga utrymmet i filsystemet kan öka dramatisk när man tex. hanterar många diskimages och givetvis fungerar detta också på komprimerande mappar.

I många fall ger deduplicering betydligt större frigjord lagringsyta än att tex köra med kompression. Det har dock en kostnad - tex. linjärt skrivna filer som diskimage - kan efter att 'bees' körts, ge mycket läshuvudarbete på mekaniska diskar när det läses ut igen då filen i fråga blivit fragmenterad då mer eller mindre stora partier av filkroppen har kopplats ihop med andra likadana block på andra filer på helt annan plats på disken och det kan bli mycket sökningar - detta är en kostnad som gäller i de flesta sammanhang när man har deduplicering på blocknivå.

¹ efter att 'btrfs su delete' har körts så är det en 'garbage collector' i BTRFS som härja runt på lagringen en stund - men det är fortfarande mycket, mycket mindre med läshuvudrörelser på en mekanisk disk än om man skulle ta bort samma filträd med tex. 'rm -r -d mappnamn'

Av xxargs

Det är väl den _enda_ fördelen att ligga bakom CG_NAT är att den typen av skanning utifrån är inte möjlig att utföras...

alla som har fiberkonverter och dessa ha publik adress (ännu) från ISP så skall man inte koppla in sig direkt i dess portar utan det enda som kopplas in är en egen router till fiberkonvertern och sedan kopplar man in sina grejor till denna router - annars får man den typen av uppvaktningar som TS började med i tråden när det portscannas ute ifrån för att leta efter hack-bar utrustning för olika typer av DDoS-angrepp i framtiden eller komma åt NAS/datorer och plantera in virus i dessa .

nu är Router inte helt felfria heller över tiden med i framtiden upptäckta angreppsvägar, eller av konfigurations-misstag av användaren, men man har reducerat angreppsytan för olika attacker i sitt bakomliggande nät väldigt mycket, speciellt om man har gammal utrustning som olika skrivare, NAS eller webbkameror som är ökända att levereras med för 'alla' kända default-password på en eller flera av sina portar (typ telnet/ssh-porten) eller i windowsvärlden olika svagheter som de aldrig riktigt lyckas få bort.

Av xxargs

Om Nasen av andra orsaker inte svarar - tex för att dess kontrollerkort inte gör som det skall längre, så är hårddisken inne i denna med stor sannolikhet formaterat med ext3 eller ext4 som filsystem och denna kan läsas av med vilken Linux som helst via en USB-docka/USB-adapter eller ansluten direkt på datorns SATA-anslutning och helst innan dess¹ bör man ha bootat tex. Ubuntu-iso laddad på en USB-sticka och kör i dess -'live'-läge/prova på-läge utan att installera något. dess grafiska gränsnitt auto-monterar inkopplade diskar och det blir diskikoner på skrivbordet och har mappar på samma sätt som windows så du kommer inte ha problem att orientera runt filsystemet på disken

¹ det för att när windows ser en disk som den inte känner igen så föreslår den att den skall formateras - och klickar man 'ja/ok' där av misstag så sabbar den hela disken för vidare dataräddning...

Av xxargs

Hade nog lite tur där - men även om man skulle vilja göra karriär inom försvaret så är jag lite för nära utgångsdatum numera...

Av xxargs

Om det är viktiga filer så bör man ha en uppsättning/kopia av dessa på lagring som man har egen kontroll över. - dvs det som är utdelat är alltid en kopia av någon original som man har på egen lagring - aldrig tvärt om!

Om dessa filer är de enda exemplaren så är man helt händerna på leverantörens godtycke och den typen av bekymmer att man bara kan få med sig delar av uppsättning och det kräver flera omgångar innan man får med sig de flesta filerna och att några verka 'orubbliga' med leverantörens egna verktyg är helt oacceptabelt och man bör allvarligt titta efter andra lösningar.

500 filer i antal är ingen stor bibliotek i mina ögon, värre hade det varit om det var tiotusentals filer lagrade och man har samma typ av bekymmer...

---

Om det fortsatt knöligt att komma åt filerna och vill ha hem dessa så kanske man får experimentera med 'rclone' som har protokollstack för rätt många olika typer av molntjänstprotokoll (inklusive sharepoint vid en enkel kontroll) - och den kan också montera molntjänstlagring till mappar eller enhetsnamn lokalt på burken du arbetar ifrån om man vill det och hämta filerna den vägen.

rclone skall finnas i versioner som fungerar under windows och då arbetar man i typ powershell då det är CLI-program

Av xxargs
Skrivet av izzie:

Varför skulle en flaska t-sprit självantända menar du? Reningstabletter fungerar rent mekaniskt, men vattnet kommer att smaka klor. Inte så roligt i längden.

Klorsmaken går att bort med mycket lite knivsudd askobinsyra eller några droppar citronsaft från en citron, så det är inget reellt problem om man preparerar en smula innan med en påse askobinsyra tillsammans med resten av kryddpåsarna, askobinsyre-påsen håller i många år, men när det börja bli bruntonade kristaller i påsen så är det dags att byta till nytt - ren askbinsyra oxideras sakta i luft.

En burk chock-klor granulat för poolbruk (har samma aktiva ämnen som vattenreningstabletter) och några påsar askobinsyra så kan du rena kubikmetrar med vatten och avklora mycket av vattenmängden efteråt till kostnad som under promille-delar i vad det kostar att köpa vattenreningstabletter och dito avklorningstabletter för samma volym vatten.

---

Nä det gäller förbränning brännbart bränsle så är förmodligen campingasolflaskor och större gasolflaskor (propan) och med dito passande gasolkök bland det säkraste man kan ha hemma.

Slabb med bensin, T-spritbränslen och fotogenbränslen/lampoljor är betydligt mer benägen till brandskadeolyckor om man ser till den faktiska utfallet.

T-sprit och Trangia kök har varit ett problem och det beror på T-spritångor har precis lagom utblandning i luft i typiska utomhusteperaturer vid plusgrader för att kunna brinna och även brinnande smita in i flaska och kan få luftvolymen inne i flaskan att flasha till och av trycket som blir av detta får resten av spriten i flaskan att pressas ut och det blir eldhav. Därav säkerhetsflaska så fort man hanterar T-sprit (har smala gångar för avtappning av vätska som flamspärr) och tex. skall fylla spritbrännare i trangiakök med en sådan och inte originalflaskan som spriten levereras i.

Utomhus vid dagsljus och framför allt vid sol så brinner T-sprit med nära på osynlig låga och därmed hinner spill efter påfyllning av tex. trangiakök att brinna en stund och ta mer fäste innan det upptäcks.

Medans bensin så är det för rikt med brännbara gaser ovanför vätskeytan för att kunna brinna i behållaren, men kan brinna utanför behållaren, såvida man inte är nedåt -20 grader C då även bensinångor kan börja brinna inne i behållaren också, på samma sätt som T-sprit vid plusgrader.

för gasolflaskor fins det ingen luft inne i flaskorna som kan brinna ens när de har blivit tomma, dock är det tryckkärl och skall inte placeras eller användas så att det fins risk för att behållaren blir het (över 50 grader C) .

Av xxargs
Skrivet av Allexz:

Det finns ingen inbyggd funktion för detta.
Om man har dokumenten sparade i sin användares mappar och använder olika konton till datorn så blir de per automatik låsta till en specifik användare. Men då får man se till att den andra användaren inte är admin.

Fast det är ingen skydd om man botar sagda dator med en ubuntu på USB-sticka - linux bryr sig inte alls om UAC-mekanismerna i windows då det är en 'virtuell nivå' av hantering olika användare på programvarunivå utanför filsystemets rättighetsmatris och inget man behöver lyda eller bry sig om när man tittar på NTFS-filsystemet utifrån som tex. från Linux.

zip är heller inte bra då även om innehållet i filerna krypteras så är filnamnen fortfarande i klarspråk i dess katalog även när man kör zip med kryptering. vill man ha krypterad filkatalog så blir det att titta på 7zip - och glöm inte att bocka för rutan eller skicka med flaggan så att katalogen även krypteras då det av någon oklar orsak inte gör det default.

för filbaserad kryptering, kika på gocryptfs eller i windows-versionen kallas 'cppcryptfs' (för att windows saknar en mekanism som 'FUSE' där en användare kan emulera en filsystem körd helt i 'userland' utan att behöva några administrativa rättigheter)

med gocryptfs så kopplar man två mappar - tex. en som kallas 'cipher' och en annan som kallas 'plain'

När gocryptfs är igång så lägger man i sina känsliga filer i 'plain' mappen och dess krypterade version dyker upp i mappen 'cipher' där både filnamn och filen själv är krypterad - det som inte förvanskas är fildatum etc. och filnamns-längden och fillängden är bara något lite längre än orginalet. - är även den delen känsligt så får man titta på en containerbaserad kryptering som veracrypt.

när man avmonterar 'plain' (stänger av gocryptfs) så fins filerna bara i mappen 'cipher' i sin krypterade form.

gocryptfs har också en 'reverse-mode' där man koppla en mapp som redan är fylld med filer och den andra krypterande mappen visar samma filer i sin krypterade form och realtidsuppdateras när mappen med orginalfilerna förändras på något sätt. filerna i den krypterande mappen är då i read-only.

Detta kan vara användbart om man tex har en backupprogram som periodvis gör en backup av den krypterade mappen och skickar upp till en molntjänst och saken är att filen krypteras bara när den läses ur den krypterade mappen och med en smart sync-program som bara tar förändrade filer så blir det bara de filer som ändrats och tillagts som krypteras när dessa läses ut för backuppen/synkningen.

Av xxargs

Det är förmodligen din egna självsignerade certifikat från din VPS, detta för att https: skall fungera i din browser - skall du ha betrodd certifikat så måste denna skaffas/köpas av någon CA-authorities. letsencrypt kan ge ut sådan gratis på månadsbasis (och den måste göras renew på regelbundet) men jag har för mig att det krävs en egen domän att koppla denna emot - se vidare https://letsencrypt.org/sv/getting-started/

om du inte litar på din egna VPS så kanske du skall låta bli att ansluta dig

Av xxargs

Alla TLC (och QLC)-baserade SSD/NVMe blir slöa när de inte används eller har varit avstängda och varit strömlösa i längre tider - spelar ingen roll om det är Intel, Kingston, Samsung, Sandisk, Hynix och alla noname som finns.

Hanterar emellanåt en del SSD och även mot NVMe på jobbet och det är en pina att skicka tillbaka en ny diskimage med uppdaterade program på SSD och NVMe som har legat ett tag... man är inte överdrivet imponerad av SSD/NVMe efter en tid med dessa bulkskrivningar då det går bara fort precis i början av skrivningarna medans resten av skrivningen kunde göras fortare på en 2.5" laptopsnurrdisk - jag skojar inte, när man är nere på 40-50 MB/s i sekventiell skrivning mot en SSD/NVMe så inser man att det går fortare att skriva diskimagen på en modernare SATA-laptop-snurrdisk (som toppar över 110 MB/s) då det är i stort sett bara sekventiell skrivning från början till slut...

En del SSD/NVMe repar sig i hastighet om man läser hela volymen från börja till slut ett flertal gånger och dess logik inser att en del flash-block läses oerhört långsamt eller att det är extensiv användning av olika ECC-mekanismer innan rätt data har lästs ut. - det verkar också att man faktisk måste läsa blocken innan de skrivs om, om de är för långsamma - att bara strömsätta dessa innebär inte att de automatiskt tränas om för högre läshastighet eller att det tar väldigt tid innan de gör det - detta är typiskt saker i firmware som är dåligt uttestat och i många fall inte fungerar när det faktiskt behövs eftersom ingen tillverkare är villiga att vänta i 2 år på att se att sådant fungerar som det skall...

Senast testade jag på en dator som inte hade anslutits sedan flytt för drygt 1.5 år sedan, är att först efter den 3-4' fulla läsningen av en Samsung 840 EVO som det börja bli sprutt i dessa - dvs. över 300 MB/s (diskdockan klarade inte högre) och i mitt fall så startade det med 0.5 MB/s i den första läsningen efter att har varit strömlös i drygt 1.5 år - det räckte i det här fallet bara att läsa enheten upprepande (med typiskt 'dd if=/dev/sda of=/dev/null bs=10240k status=progress' i Linux). Det behövde inte skriva något på SSD:n för att återväcka den till bra hastighet och den läste också ut all data felfritt - utan IO-error - det gör inte alla SSD:er som har legat längre tider.

Här skiljer det också hur bra denna ECC är mellan olika modeller och fabrikat. Samsung skulle jag säga har väldigt bra felrättning med en mjukvaru-ECC ovanpå det som fins på själva flash-chippen, medans Sandisk får man IO-fel och det hänger sig hårt och krävde spänning av/på igen innan den syntes igen och förblev så med hängning igen när sagda sektor skulle läsas igen tills det skrevs över med ny data (11 månader i skrivbordslådan räckte i mitt fall) och det är olika nivåer på felrättningsförmåga och hur de beter sig om data inte går att läsa mellan märken och modellserier.

Att skriva och sedan radera på den lediga utrymmet kommer också att snabba upp framtida skrivningar på SSD/NVMe som legat till sig. Det bästa om man kan göra 'TRIM'/discard på all ledig utrymme (i Linux gör man det med 'fstrim') och tala om för diskkontrollerna att dessa minnesareor används inte längre och därmed kan kontrollen göra erase på dessa block - annars kan det ta väldigt tid att skriva ny data då gammal data på de LBA-adresser man precis tänker skriva över, skall hela tiden läsas in och ev. flyttas om till nya flashblock (alltså de blocken som inte har skrivorder på sig just då, även om de 64-1024 kbyte senare får en skrivorder - men det inser inte kontrollern just då... - framförhållning i skrivning på SATA-SSD kan vara så lite som 64 kByte-block av historiska orsaker i SATA-protokollet) - tex. TRIM-kommandon skickas ofta som en rad med block på max 64 kByte per 'order' till SSD:n och det fins begränsning i hur många sådana block man kan skicka i en batch innan det blir problem...

tex. när man i windows radera en väldigt stor fil på SSD/NVMe - så skickas det under en ganska lång tid TRIM-kommandon för sektorerna för filen i små portioner, dels för att inte få problem med buggiga SSD som inte kan ta för många sådana kommandon i kö på en gång, men också att i SATA-SSD så fryser disken var gång en TRIM-kommando körs (den blockerar IO-access när TRIM exekveras i SSD:n) och skickar man för många paket på en gång så kan hela OS frysa och hacka i väntan på att SSD skall svara igen medans TRIM körs på SSD:n - så, man smetar ut processen över tiden i små, små block så att hackandet/stutter inte blir så märkbar. I NVMe så är det definierat att lagringen inte skall frysa under en TRIM-kommando - av förekommen anledning från SATA-SSD...

Av xxargs

Förmodligen filer som under kopiering brutits eller hindrats på annat sätt att slutföras eller att disken kopplats ur innan all metadata är uppdaterat.

Detta är typisk OS och filsystemsrelaterat och inte att disken inte kan läsa data. För är det läsproblem för att disken börja bli gisten så är det i form av olika IO-fel.

Finns SD-media inblandat så kan det vara kameran som misslyckats i skrivning mot mediat vid tex. kyla (typiskt bit under 10 grader C) eller andra skriv/läsfel och filerna är just bara 0 byte stora som resultat. SD-media har ingen felrättning som är värd namnet och blockerar heller inte (dvs. ger IO-fel) när man börja läsa ut korrupt data.

Flashminne som USB-stickor och SD-minne fungerar inte bra i kyla om de inte förvärms innan med tex. att vara strömsatta (och regulatorn i lagringen värme upp det hela en bit) - vilket kan ge problem i produkter som stänger av lagring strömmässigt när det inte är just under användning i avsikt att spara batterier. - vi har mätinstrument som gör detta och det är ett skit att hantera detta i kyligt väder att hela tiden ta ur lagringen och ha i fickorna för att hålla värmen på dessa...