Tips på linux backups

Permalänk
Medlem

Tips på linux backups

Har ni några tips on vilken mjukvara av backup på en server? Är enbart cli som gäller. Jag fastnade för timeshift men verkar restriktion on att /home/* inte ska inkluderas.

Har egentligen bara 4 krav:
1. Finnas möjlighet att även inkludera /home/* i backupen samt andra sökvägar jag vill ska ingå.
2. Lättanvänt & ska innehålla någon sorts FAQ eller dokumentation samt något exempel på hur man använder det.
3. Kunna köras på Ubuntu
4. Kunna välja varr kopian av backupen ska sparas till. tex en specific hdd.

En annan fråga, som även den gäller backup.
i linux via cli, vad är det bästa förfarandet att separat göra en backup alla databaser från MariaDB?

Permalänk
Medlem

Sist jag körde Ubuntu så var dejadup/duplicity installerat by default, kolla om du inte har "Backup" bland dina installerade program, borde uppfylla dina krav.

Permalänk
Medlem
Skrivet av Xcorp:

Sist jag körde Ubuntu så var dejadup/duplicity installerat by default, kolla om du inte har "Backup" bland dina installerade program, borde uppfylla dina krav.

Varken dejadup/duplicity fanns installerade på servern.
Tog duplicity och snabbläste lite, skummade igenom så jag har inte läst allt så noga i manualen ännu.
Verkar vara lite svårare med commandon för återtällning än timeshift tex, där det bara var att köra "timeshift --restore" och sedan välja vilken kopia man ville köra. Sen en reboot & allt var klart.

Men ska läsa på lite närmare om duplicity.
dejadup har jag inte hunnit kolla upp än.

Permalänk

Bästa som finns är BorgBackup,

https://www.borgbackup.org/

och det bästa UIt (om man vill ha ett)till borg är Pika Backup

https://apps.gnome.org/PikaBackup/

förtydliga att borg är cli, pika är optional ui
Permalänk
Medlem

rsync?

Permalänk
Medlem
Skrivet av kvb3a:

Varken dejadup/duplicity fanns installerade på servern.
Tog duplicity och snabbläste lite, skummade igenom så jag har inte läst allt så noga i manualen ännu.
Verkar vara lite svårare med commandon för återtällning än timeshift tex, där det bara var att köra "timeshift --restore" och sedan välja vilken kopia man ville köra. Sen en reboot & allt var klart.

Men ska läsa på lite närmare om duplicity.
dejadup har jag inte hunnit kolla upp än.

Ah, sorry missade att det bara var CLI som gäller.
Är du ute efter just den funktionen i timeshift så skulle jag snarare kolla på filsystemet BTRFS och använda snapshots där.
Notera dock, snapshots är INTE backup.

Permalänk
Medlem

Ja du bör dumpa dina databaser en gång om dagen .

https://rsnapshot.org/ är min favorit för server backup.

Permalänk
Medlem
Skrivet av dlq84:

Har testat, men även när jag kör rsync manuellt där jag har excluderade folders så tas ignoreras det och tas med iaf. Så slutkontentan är att det blir en backup av en backup inne i en backup.

Men älskar rsync i övrigt.
Har du något underlag att peka mig mot hur jag verkligen kan få det att funka med rsync, där det inte ignorerar de exkluderade folders jag anger?

Permalänk
Medlem
Skrivet av BattleGeek:

Bästa som finns är BorgBackup,

https://www.borgbackup.org/

och det bästa UIt (om man vill ha ett)till borg är Pika Backup

https://apps.gnome.org/PikaBackup/

https://www.youtube.com/watch?v=W30wzKVwCHo&t=12

Tack ska ta mig en till på detta. GUI är uteslutet. Körs på en rackserver enbart cli där.

Permalänk
Medlem
Skrivet av Xcorp:

Ah, sorry missade att det bara var CLI som gäller.
Är du ute efter just den funktionen i timeshift så skulle jag snarare kolla på filsystemet BTRFS och använda snapshots där.
Notera dock, snapshots är INTE backup.

Ingen fara. Jag är bara ute efter en lösning där jag kan rulla tillbaka filer utifall en disk, låt oss säga är mountad på /home/ rasar och behöver återställa allt som fanns på tex /home/ i senaste backupen/snapshot'en.

Permalänk
Medlem

Om det är disk-ras du vill skydda dig mot är inte BTRFS ett alternativ

Permalänk
Medlem

Veeam agent för linux är riktigt trevlig.

https://www.veeam.com/linux-backup-free.html

Permalänk
Medlem
Skrivet av Xcorp:

Om det är disk-ras du vill skydda dig mot är inte BTRFS ett alternativ

Tack för infon.
Disk-ras är inte mitt problem jag försöker lösa. Vill bara kunna återställa alla filer som fanns på den disken, om det skulle bli disk-ras, filkorruption eller vad det nu kan vara. Så saker och ting inte går förlorat.

Permalänk
Medlem
Skrivet av kvb3a:

Har ni några tips on vilken mjukvara av backup på en server? Är enbart cli som gäller. Jag fastnade för timeshift men verkar restriktion on att /home/* inte ska inkluderas.

Har egentligen bara 4 krav:
1. Finnas möjlighet att även inkludera /home/* i backupen samt andra sökvägar jag vill ska ingå.
2. Lättanvänt & ska innehålla någon sorts FAQ eller dokumentation samt något exempel på hur man använder det.
3. Kunna köras på Ubuntu
4. Kunna välja varr kopian av backupen ska sparas till. tex en specific hdd.

En annan fråga, som även den gäller backup.
i linux via cli, vad är det bästa förfarandet att separat göra en backup alla databaser från MariaDB?

timeshift är inte avsett för backup då det bara duplicerar filer som ligger på systemroten (/). Med filsystemet btrfs så kopieras inte ens filerna utan flaggas som spökbackuper som enbart tar upp utrymme på precis så mycket som ändrats. timeshift är endast avsett att användas för att kunna rulla tillbaka till en föregående uppdatering. Trashar disken på något annat sätt där du inte kan starta OS så måste du ändå installera om.

En korrekt backup utförs med rsync (CLI), eller grsync (GUI frontend) om man känner att man fortfarande behöver en napp i munnen. rsync /grsync kan även hantera filerna över andra diskar samt även till andra datorer över dess demon.

rsync kan hantera backuper efter vissa kvalifikationer som storlek, checksumma, ändrade tider och man kan välja vilka attribut man tar med sig. Oförändrade filer kopieras inte. Det går även att säkerhetskopiera filer som uppdateras och man kan även provköra (dry run) för att få ett resultat av vad som händer med körningen utan att något genomförs. Då kan du se om det finns problem som exempelvis hinder i rättigheter. Du kan även välja om du ska köra med förhöjda rättigheter som rootanvändare.

Från grsync kan du grafiskt skapa det kommando som sedan kan köras som CLI.

Se följande manualer i terminalen (skriver du in alla kan du läsa dom en efter en varje gång du trycker "Q"):

man rsync grsync ssh

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon

Permalänk
Medlem
Skrivet av OldComputer:

timeshift är inte avsett för backup då det bara duplicerar filer som ligger på systemroten (/). Med filsystemet btrfs så kopieras inte ens filerna utan flaggas som spökbackuper som enbart tar upp utrymme på precis så mycket som ändrats. timeshift är endast avsett att användas för att kunna rulla tillbaka till en föregående uppdatering. Trashar disken på något annat sätt där du inte kan starta OS så måste du ändå installera om.

En korrekt backup utförs med rsync (CLI), eller grsync (GUI frontend) om man känner att man fortfarande behöver en napp i munnen. rsync /grsync kan även hantera filerna över andra diskar samt även till andra datorer över dess demon.

rsync kan hantera backuper efter vissa kvalifikationer som storlek, checksumma, ändrade tider och man kan välja vilka attribut man tar med sig. Oförändrade filer kopieras inte. Det går även att säkerhetskopiera filer som uppdateras och man kan även provköra (dry run) för att få ett resultat av vad som händer med körningen utan att något genomförs. Då kan du se om det finns problem som exempelvis hinder i rättigheter. Du kan även välja om du ska köra med förhöjda rättigheter som rootanvändare.

Från grsync kan du grafiskt skapa det kommando som sedan kan köras som CLI.

Se följande manualer i terminalen (skriver du in alla kan du läsa dom en efter en varje gång du trycker "Q"):

man rsync grsync ssh

Tack för ett utförligt svar.
Som jag nämnt tidigare så har jag testat rsync men även fast jag väljer exclude på specifiga foldrar/sökvägar så ignoreras det och det tas med iaf. Det är det enda problemet jag har med rsync som jag inte lyckats lösa. Har du ett finger och peka mig i rätt riktning utöver hänvisningen till manualen i terminalen? Behöver llite mer lättläst, annars kickar bieffekterna in av min adhd tyvärr med att hålla röda tråden & det man tidigare läst glömts bort.

Mvh

Permalänk
Medlem

Ang btrfs så kan det användas som bas för backuper mha send / receive. Send skickar ett skrivskyddat snapshot till receive som i sin tur skriver datat på tex en disk. Men det är inget som görs automatiskt. Med send-receive fungerar btrfs lite som rsync, men så klart annorlunda då man inte kan välja enskilda filer utan hela snapshots.

Såvitt jag förstår jobbar timeshift med btrfs och snapshots så jag blir lite förvånad att timeshift inte skulle kunna ta snapshots på /home. Nu har jag inte använt timeshift så jag vet inte hur det fungerar. Själv kör jag med snapper.

Tyvärr är det uppförsbacke att börja använda btrfs med snapshots och subvolymer. Det kräver att man sätter sig in i hur det fungerar för att det ska bli riktigt bra.
Som @OldComputer är inne på så frigörs inte diskutrymme om man tar bort en fil som det finns ett, eller flera, snapshot på. Ett snapshot garanterar att man kan återställa till exakt hur det såg ut när snapshottet skapades. Det innebär att ev. filer som tas bort måste sparas, även om det ser ut som de är borttagna.

Permalänk

Den här backuplösningen har jag trivts med i flera år.
https://github.com/bit-team/backintime

Permalänk
Medlem

Jag kör restic för backup av min server.
https://restic.net/

För backupper från andra datorer till servern använder jag rsync.
Nu sitter jag inte hemma så jag kan kolla exakt hur jag gjort men jag använder en textfil med regler vad som ska inkluderas och exkluderas av rsync.
https://wiki.archlinux.org/title/rsync#Advanced_usage_of_filt...

Permalänk
Medlem

Tack för alla tips, uppskattar det enormt!

Ställde frågan initialt utifrån en tanke av ett projekt jag vill göra på en av mina rackservers som tagits ur produktion & har inte riktigt hittat en färdig lösning. Inte hunnit läsa på helt 100% gällande rsync hela vägen än. Men jag har kommit en bit på vägen gällande backup av olika filer genom skrivna bash-scripts som körs via cronjobs Output'en verifieras så den inte är korrupt och rsyncas sedan till off-site.
Jag har en bra bit kvar med innan hela backup-delen för projektet är avklarad.

Rackservern som tagits ur produktion är fullt fungerande, bara utbytt mot en uppdaterad modell.
Därför tänkte jag använda den urtagna servern och sätta upp gratis webhosting inne på mitt företag som kör med redundant uppkoppling bland annat. för att erbjuda de i sverige gratis webhosting.

Så jag har bara börjat nysta i en liten bit än.

I framtiden dyker det säkert upp någon tråd om detta projekt där utvecklingen kan följas. Kommer troligtvis även bolla med Er i olika avdelningar som rör projektet & förhoppningsvis få det färdigt inom en snar framtid. Innan dess måste allt kontrolleras så att allt fungerar och hitta alla småfel på vägen.

Permalänk
Medlem
Skrivet av kvb3a:

Tack för ett utförligt svar.
Som jag nämnt tidigare så har jag testat rsync men även fast jag väljer exclude på specifiga foldrar/sökvägar så ignoreras det och det tas med iaf. Det är det enda problemet jag har med rsync som jag inte lyckats lösa. Har du ett finger och peka mig i rätt riktning utöver hänvisningen till manualen i terminalen? Behöver llite mer lättläst, annars kickar bieffekterna in av min adhd tyvärr med att hålla röda tråden & det man tidigare läst glömts bort.

Mvh

Använd --exclude-from=/sökväg/filnamn med en fil likt denna:

assets/ debug/ Backup/ignoreme/ *.gz ...

eller med parametrar:

--exclude='assets/' --exclude='debug/' --exclude='Backup/ignoreme/' --exclude='*.gz' ...

Permalänk
Medlem
Skrivet av grogt:

Tyvärr är det uppförsbacke att börja använda btrfs med snapshots och subvolymer. Det kräver att man sätter sig in i hur det fungerar för att det ska bli riktigt bra.

Tycker dock inte att BTRFS är så krångligt som det låter ovan.

det är typ 3 haranger man behöver komma ihåg - under förutsättning att man är på en lagring som är BTRFS.

"btrfs su create mappnamn"

för att göra en ny tom subvolym där man kan lägga in mappar och filer

"btrfs su snap mappnamn_1 mappnamn_2"

skapar en ny subvolym av en redan existerande subvolym mappnamn_1 till ny subvolym "mappnamn_2" med exakt samma innehåll som mappnamn_1 - det är detta som brukar kallas för "snapshot" och är en process som går på typ 1 sekund att utföra och kanske tar 50 kByte extra i diskutrymme. Obs! det kan bara göras inom samma logiska BTRFS-volym - vill man ha skrivskyddat så lägger man till "-r" i kommandosträngen och då kan inget alls inom den skapade subvolymen mappnamn_2 ändras - inte ens tidsstämplar när man läser filer... Snapshot på denna sätt tar allt inom subvolymen utom andra ytterligare subvolymer i mappträdet som är inlagda inom aktuella subvolym och dessa lämnas bara som en mappnamn utan innehåll i sig i filträdet i den nyskapade subvolymens mappträd.

- detta möjliggör att om man inte har någon skapad subvolym alls i sin BTRFS-lagring och redan lagt en massa filer där - så kan man göra en subvolym med allt innehåll som redan inlagt i roten till en kopia som subvolym (snapshot) med "btrfs su snap . mappnamn_3" och allt som fanns på BTRFS-volymens root finns nu också i mappnamn_3 utom det som ligger i subvolymer.

Roten på BTRFS-filsystemet är nämligen också en subvolym med namnet "."

Som överkurs man man i samband med monteringen av BTRFS-volymen välja med option vilken av alla subvolymer som skall bli BTRFS-volymens root.

Den sista kommandot som man kanske använder lite mer ofta är:

"btrfs su delete mappnamn_2"

- det är som den säger - den tar bort subvolym mappnamn_2 med hela underliggande mappträdet i ett blink , det fins ingen ånger eller räddningsmöjlighet eller extra fråga när det väl exekveras utan subvolymen är bort för alltid på ett ögonblick, och den tar också bort skrivskyddade subvolymer utan varning!!.

Vill man tömma normala filträn tex. efter en rsync-spegling med tex "rm -r -d mappnamn" och hårdlänkade filer mellan en uppsättning mappar med backupfiler (också skapade med 'rsync' tidigare) så vet de som provat att det kan kan ta åtskillig tid få bort mappträdet när det handlar om hundratusentals till miljoner filer och det är kanske över TB med data att radera - med att lägga rsynckopian på en subvolym så tas trädet bort på en sekund¹ när den är förklarad inaktuell.

En sak att tänka på är att hårda länkar kan inte kopplas mellan olika subvolymer då var subvolym är i princip en egen virtuell logisk lagring/filsystem med sin egna inoder etc. och därför kan inte hårda länkar peka mellan olika subvolymer i BTRFS - bara inom själva subvolymen.

Det fins ingen rangordning eller hierarki (mer än rent numerisk internt för att skilja dessa åt) mellan subvoymerna i BTRFS till skillnad från ZFS utan skapade subvolymer kan raderas i helt annan ordning än ordningen de skapades i - dessa är alltså inte beroende av någon 'master' eller 'dataset' att utgå ifrån och varje subvolym (om de inte är skrivskyddade) kan modifieras, ändras, tömmas eller fylla på med ny data helt fritt utan att det påverkar någon annan subvolyms mapp och fil-innehåll.

I BTRFS finns det en del grejor som är svår att vara utan när man väl vant sig vid det - och en av dem att kunna kopiera väldigt stora filer (läs diskimages) mellan subvolymer utan att kopiera mer än dess metadata, vilket gör att en 1TB-stor fil tar inte mer än max några sekunder att kopiera och utan att det tar mer plats på disken. I terminal med 'cp' så är det "cp --reflink=always filnamn1.img filnamn2.img" och det görs metadata för den nya filer som pekar på samma datablock som orginalet istället för att kopiera allt till dubbel upplaga av data och ta upp dubbla diskutrymme i plats samt tar tid att utföra med kopiering av data. - tyvärr är inte 'reflink' defaultbeteende i cp lika lite som 'sparse'

Kör man i CLI-terminal Midnight Commander så sker det automatiskt 'reflink' vid kopiering av filer när det går och jag var väldigt förvånad första gången när jag skulle kopiera ett filträd på flera hundra GB och kanske 100000 filer - när det var klart 30 sekunder senare istället för kanske över timmen senare och det tar inte upp någon extra diskplats mer än för den nya metadatan det skapade för filerna...

BTRFS erbjuder också att kunna komprimera filerna medans det sparas på volymen och vill man ha en specifik komprimerande mapp (och det behöver inte vara en separat subvolym) så använder man 'chattr +c mappnamn' på en skapad eller existerande mapp och allt som senare läggs i denna mapp och alla undermappar som skapas kommer att komprimeras utan speciellt stor upplevd prestandakostnad (komprimeringen är multitrådad på kernelnivå när den arbetar) - det går att att välja typ av kompressionsalgoritm och kompressionsgrad - men det är annan historia - men jag har använt zstd på låg kompressionsgrad för tex. videoflöden från SDR-mottagare med typisk kompressionsgrad 50% vilket är viktigt båda i avseende bandbredden mot lagringen (istället för 350 MB/s går ned till 175 MB/s kontinuerligt under timmar) och det faktum att man får in dubbelt med datamängd på samma lagring.

- lagrar man tex. (RAW) diskimages tagna från SSD/NVMe-lagring med tex 'dd' eller 'ddrescue' så kan filsystemkompression spara väldigt mycket diskutrymme utan att behöva koda om dessa i format som VHDx eller andra format som diskimageprogram gör i windows, eller att komprimera dessa separat med lämplig kompressionsprogram - och här med fallen SSD/NVMe-lagring utnyttar man att windows kör 'TRIM' på filer som raderas och den vägen är blocken som höll den raderade datan tidigare utlästa som '0'-fyllda block i SSD/NVMe och lätta att komprimera. Lagrar man diskimagen dessutom med '--sparse' i samband med 'dd, ddrescue' så spars inte 0-fyllda blocken i diskimagen alls utan hanteras bara i metadatat och man spar lite ytterligare utrymme då 0-fyllda blocken inte behöver komprimeras alls.

---

BTRFS har inte inbyggd deduplicering men man kan köra dedupliceringsprogram som 'bees' som sidokanalsprogram och på låg nivå, under den synliga filsystemet deduplicerar med variabel block-storlek och ned till 4-K block dynamisk (även typ 1 GB med RAM fast disken är 18 TB stor) samt gör sparse-sekvenser på filer med bara 0-fyllda sektorer och den vägen kan göra att lediga utrymmet i filsystemet kan öka dramatisk när man tex. hanterar många diskimages och givetvis fungerar detta också på komprimerande mappar.

I många fall ger deduplicering betydligt större frigjord lagringsyta än att tex köra med kompression. Det har dock en kostnad - tex. linjärt skrivna filer som diskimage - kan efter att 'bees' körts, ge mycket läshuvudarbete på mekaniska diskar när det läses ut igen då filen i fråga blivit fragmenterad då mer eller mindre stora partier av filkroppen har kopplats ihop med andra likadana block på andra filer på helt annan plats på disken och det kan bli mycket sökningar - detta är en kostnad som gäller i de flesta sammanhang när man har deduplicering på blocknivå.

¹ efter att 'btrfs su delete' har körts så är det en 'garbage collector' i BTRFS som härja runt på lagringen en stund - men det är fortfarande mycket, mycket mindre med läshuvudrörelser på en mekanisk disk än om man skulle ta bort samma filträd med tex. 'rm -r -d mappnamn'

Permalänk
Medlem

innan man diskuterar mjukvarulösning för backup tycker jag det är mer intressant att diskutera hårdvarulösning och sedan anpassa mjukvarulösningen efter det.

När det gäller btrfs så är det inte ett "färdigt" filsystem - det som saknas är RAID5.
Men både RAID0 och RAID1 fungerar.
RAID1 är speglade diskar, men det förutsätter att du sätter upp hårddiskarna i disk-par.
Skulle en disk rasa i ett par, finns den andra disken kvar intakt och ingen data har gått förlorad.
Men det förutsätter att du väljer den hårdvarulösningen.

Permalänk
Medlem
Skrivet av anthra:

innan man diskuterar mjukvarulösning för backup tycker jag det är mer intressant att diskutera hårdvarulösning och sedan anpassa mjukvarulösningen efter det.

När det gäller btrfs så är det inte ett "färdigt" filsystem - det som saknas är RAID5.
Men både RAID0 och RAID1 fungerar.
RAID1 är speglade diskar, men det förutsätter att du sätter upp hårddiskarna i disk-par.
Skulle en disk rasa i ett par, finns den andra disken kvar intakt och ingen data har gått förlorad.
Men det förutsätter att du väljer den hårdvarulösningen.

Den saknar inte RAID5/6 i BTRFS - den finns att använda om man vill men det är ingen som går i god att den är idiotsäker på samma nivå som typ ZFS (och ändå är det problem med dessa ZFS-volymer på katastrofal nivå med risk för filsystemhaveri om man använder SMR-diskar... - men det blir inte katastrof när SMR-diskar används med BTRFS) - personligen har jag haft mer problem med mdadm-RAID efter flera strömavbrott kort efter varandra än en BTRFS i RAID5 och då har jag ändå kört på 7-diskars RAID5 på en server-järn inklusive diskhaveri och utkickad disk...

Du kan när som helst konvertera mellan olika RAID-moder i BTRFS med 'balance' och filsystemet är online under tiden - det klarar inte ZFS... och även lägga till eller ta bort diskar under drift och tex. RAID-formen är tillräckligt smart att fördela data på så många diskar det fortfarande fins plats kvar på.

tex. har man en uppsättning med 2 st 1TB diskar och 3 st 2TB diskar i en RAID5 så kör BTRFS RAID5 med 5 diskar tills 1TB-diskar är fyllda och sedan fortsätter med RAID5 på de 3 2TB-diskar med plats kvar vid vidare påfyllning tills även 2TB-diskarna är fyllda. Detta görs dynamisk på chunknivå och då skapas stripe med så många diskar med tillräcklig plats för en chunk och sedan sätter man RAID5 på dessa chunk i stripen med antalet diskar man fick tillgång till individuellt på chunknivå.

---

Eftersom skit kan hända oavsett hur mycket hängslen, svångrem och fallskärmar man har (vilket de som köpte WD-red ovetandes om att de plötligt blivit SMR-diskar, plötsligt fick uppleva omfattande haverier i sina ZFS-filsystem när disk efter disk kickades ut för att disken inte svarade inom 8 sekunder) så bör man alltid se till att ha en hyffsad uppdaterad backup på annan lagring - oavsett BTRFS eller ZFS.

Permalänk
Medlem
Skrivet av anthra:

innan man diskuterar mjukvarulösning för backup tycker jag det är mer intressant att diskutera hårdvarulösning och sedan anpassa mjukvarulösningen efter det.

När det gäller btrfs så är det inte ett "färdigt" filsystem - det som saknas är RAID5.
Men både RAID0 och RAID1 fungerar.
RAID1 är speglade diskar, men det förutsätter att du sätter upp hårddiskarna i disk-par.
Skulle en disk rasa i ett par, finns den andra disken kvar intakt och ingen data har gått förlorad.
Men det förutsätter att du väljer den hårdvarulösningen.

RAID-1 i BTRFS är INTE diskspegling, det är 2 kopior av samma chunk på olika diskar. Har du en stor fil, flera GB, så kommer den delas upp i chunks, och varje chunk kommer skrivas på 2 olika diskar, och högst troligt kommer alla chunks inte skrivas på samma diskar. Detta förutsätter så klart att du har fler än 2 diskar i din pool.

Permalänk
Medlem

Jag är väldigt nöjd med Restic. Det är relativt enkelt att använda, fungerar bra och har varit pålitligt för mig i många år på många Linuxservrar. Jag kör mina privata backuper mot Backblaze B2 (S3-API) vilket fungerar fint. Tycker särskilt om hur smidigt det är att montera backupen från Backblaze direkt i filsystemet så man kan gå in o rota fram nån specifik fil från en specifik tidpunkt.

Permalänk

Kika på Borgbackup om du vill backa upp lokalt. Jag kör även Restic precis som ovan mot Backblaze då Borg inte har S3-stöd.

Ifall du senare vill ha GUI-stöd för dina borg backups på desktop så finns Pika Backup (GNOME) och Vorta (MAC OS och övrig Linux).

Visa signatur

Citera så hittar jag tillbaka!