Off site backup...

Skrivet av andreas_dock:

Vad backar du ifrån och vad har du för hastigheter då ?
Kostar en restore något Kr/datamängd ?

Två telefoner och en laptop. Har inte gjort några mätningar då jag ändå bara har 10Mbit hemma och har inga stora mängder data.

Skrivet av nick-li:

Vad ni än gör så är det rekommenderat att kryptera filerna förän ni skickar iväg data så endast ni kan själva läsa, oavsett vad som händer off-site.
Vet ju aldrig vad "kryptering" (eller avsaknad) de kör på anda änden

Vad kör folk för kryptering osv då ?
Tips är bra för alla här tror jag

Har använt ett halvt dussin olika molnlösningar, från SpiderOak till pCloud till iDrive m.fl.

Övergick till Tresorit i maj och är otroligt nöjd. Dyrt, men så oerhört mycket bättre än alla andra. Servrarna finns i Schweiz.

rclone med nästan vilken molntjänst man vill så kan man köra rclone mount och samtidigt kryptera allt.
Bara dra och släppa filer sen eller köra backups direkt på det mountade molnet som en hårddisk.
iaf så jag gör

edit: Innan det använde jag https://www.duplicati.com/

Senast redigerat 2020-07-20 21:16
Skrivet av Litenskit:

Jottacloud är enligt mig rätt trevligt, är förvisso norskt men jag litar mer på deras dataskyddslagar än våra(läs EUs) lagar.
Obegränsat utrymme för 75kr/månad eller 750kr/år.

Kör Jottacloud. Har haft det i 4-5 år nu. Kan inte klaga på någonting. Stabilt, bra upload/download, och kommer stadigt med nya features.

Skrivet av Krakkan:

rclone med nästan vilken molntjänst man vill så kan man köra rclone mount och samtidigt kryptera allt.
Bara dra och släppa filer sen eller köra backups direkt på det mountade molnet som en hårddisk.
iaf så jag gör

edit: Innan det använde jag https://www.duplicati.com/

Där fanns ju också en hyfsad liste med hostar: https://rclone.org/#providers

Skrivet av Homdax:

Där fanns ju också en hyfsad liste med hostar: https://rclone.org/#providers

Ja precis! Och det finns så otroligt mycket man kan göra med rclone som sync, backup eller mounta som hårddisk mm.

Men rsync/rclone gör bara det som sägs - synkar utpekad filträd mot annan filträd på (moln)lagring vilket inte är samma sak som görs med duplicati, duplicacy, borg-backup restic som komprimerar (ej restic tyvärr) och deduplicerar som gör att man får generationsbackuper men ändå friheten att radera vilken session som helst utan beroende av inbördes backup-ordning.

Duplicity (vanlig default i Linux-distrubitioner) är däremot klassisk modell med en huvudbackup och sedan diff eller inkrementell backup som kan spåras från magnet-bandstiden men också känslig för skador i kedjan med inkrementella backupper

- något som Algonet i början av 1990-talet fick känna på när AC:n för deras serverhallen i Sundbyberg med SUN-maskiner gick sönder dagen innan ny huvudbackup och hårddiskarna kokades och de måste köra tillbaka typ 30 inkrementella backup efter varandra efter huvudbackuppen innan man var tillbaka till status strax innan när det sket sig - det tog dygn och man fick insikt att den lösningen med inkrementella backupper håller inte och dessutom väldigt känsligt om någon av de inkrementella generationerna skulle ha fel, så kunde man inte fortsätta återställningen efter felet och det var att slänga alla dagar som var efter den felaktiga generationen...

Det med generationshantering får man inte med 'enkel' rsync eller rclone mellan olika filträd och eventuell generationshantering beror då på aktuella molnlagring eller lagring som gör bakgrunds-snapshot med lagom tät intervall antal dagar till veckor bak i tiden. Och generationshantering vill man ha om rsync/rclone precis skickat upp alla ransom-krypterade filer till molnlagringen under semestern och de okrypterade, friska filerna precis raderats...

---

Blackblaze:s backupprodukt har 30 dagars retension-tid medans kör man på B2 så kan man själv ställa in hur länge äldre filer skall finnas kvar i lagringen (och förstås betala för platsen dessa filer upptar till de går över tidsgränsen och försvinner) - det är sådan man skall kolla på sin molnlager när man kör icke versionshanterande program som rsync och rclone mfl. filsynkningsprogram.

Med andra ord om man kör synkning av filträd som 'backup' på molnet så måste man kolla om det finns någon retension/generations-backup - hur länge det är och om det gäller alla filer (tex. office365 så gällde generationshanteringen bara för office-produkternas filer men inte övriga filer - tror dock det är ändrat idag - men man måste ändå kolla upp sådant så att man inte lever i falsk säkerhet)

I min backup hemma kör jag spegel på filkälla A till filkälla B en gång om dygnet. Ingen versionering eller något sådant, det finns det inte plats till. Den jämför filerna, skannar de som är borta på A och tar bort dem från B, och lägger till nya från A till B.

Jag begriper att det kan anses vara lite vetenskap med olika typer av backup men det är inte mitt läge, kör inte utveckling med versionering på de data som berörs.

Versionering/generationer av filer är främst för att mota användarmisstag och angrepp som ransomware som annars krypterar upp allt du har om en synkning hinner utföras på de ofrivilligt krypterade dataseten på A-lagringen och alla friska filer på B-lagringen har ersatts med krypterade dito innan du upptäcker läget - det gäller också rclone och alla andra filträdssynknings-program och den bakomliggande molntjänsten (privat med tex. minio/ceph mha. S3 eller kommersiell) inte har en egen retension/versionering påslagen

(ser ut som att minio helt nyligen i dagarna nu kan hantera versioner och tidsbestämd 'ålder' på äldre versioner av samma filer innan datat försvinner och ger ledig plats på samma sätt som amazons AWS rensar ut gammal liggande 'inaktuell' data allt eftersom bästföredatumen passeras).

Har man på B-lagringens data liggande på en btrfs/zfs-filsystem och en schemalagd cron (eller snapper som många köpeNAS nu använder - dock väldigt förklätt bakom GUI) som gör daglig snapshot på sin 'synliga' filträd i B-lagringen så kommer versionering/generationer inte ta speciellt mycket extra plats - i princip ingen alls om datat på A-plats är rätt orörligt - att ha 30 dagars daglig snapshot kostar enstaka Mbyte i extraplats om din dataset på A-lagringen är helt orörlig.

Jepp, men denna filhantering sker inte automatiserat. När filerna hamnar på A har de redan blivit manuellt hanterade genom filsystemet på minst en dator, lagrats som bilaga eller öppnats / sparats på olika sätt.

Hittade du någon bra lösning för dig?

Funderar och jämför, återkommer, men JottaCloud är topp tre alla gånger....

Hittade denna site med recensioner av olika tjänster

https://www.cloudwards.net/

Mega ligger visserligen i Nya Zeeland, men de får höga recensioner och är förhållandevis billiga.

Testar nu Tresorit

Lyckades radera lokala filer i samband med att jag tog bort en sync i Tresorit.

När man sätter upp en synk och sedan raderar den verkar systemet uppfatta att både lokala och fjärr filer skall raderas. Man får inte ens upp frågan.

Verkar inte vara direkt idiot säkert om man säger så.