Program för Säkerhetskopiering

Permalänk
Medlem

Program för Säkerhetskopiering

Jag söker ett program för säkerhetskopiering, det är viktigt att programmet kan se vilka filer som redan finns på den externa hårddisken så att det inte blir dubletter på denna när jag kopierar filer från datorn till denna. Programmet ska inte bara söka på filnamn utan även storlek och annat för att dubletter verkligen inte förs över. Alla tips välkomnas.

Permalänk
Medlem

Finns många, men jag själv har fastnat för duplicati. För backup av en dator tycker jag det är good enough, och lättanvänt.

Permalänk
Medlem
Skrivet av danwi:

Finns många, men jag själv har fastnat för duplicati. För backup av en dator tycker jag det är good enough, och lättanvänt.

+1 på den.
Riktigt bra är det!

Permalänk
Medlem

Duplicati, borgbackup, duplicacy, restic är alla deduplicerande och bygger alla på en repository där man har ofta större antal packade och krypterade filer och en databashanterare som håller reda på alla dessa filbitar att samma filbit finns aldrig mer än en enda gång i repositoryt oavsett hur många backupgenerationer man och tex. för restic och duplicacy kan man också ha flera datorer dela samma repository.

Detta gör att man kan ta bort backupsessioner i valfri ordning och man behöver inte hålla reda på turordning/beroenden eller att man har multipla huvudbackupper och på varje sådan har stor antal inkrementella backupper som är de mer klassiska backupmetoderna tidigare. Huvudbackuppen gör man bara en gång - den första när man gör första backuppen till repositoriet

duplicati (gratis) och duplicacy (betala en mindre summa/år) skulle jag nog prova med och köra parallellt ett tag och se vilken man trivs bäst med - duplicacy har en månads prövotid gratis och båda hanteras via webbrowser och båda är relativt välintergerad att också kunna köra mot olika molntjänster förutom att lagra mot disk, nätverksvolym och mot ssh-konto.

---

En ytterligare man kan fundera att prova och har en lagringsserver med lite mer muskler (tex kör headless ubuntu server och har lagringen på BTRFS-filsystem eller ZFS) och stora diskar är att kika på urbackup - det är en serverstyrd backupsystem tänkt för främst windowsklienter på kontor mm. och har en feature man sällan ser någon annan stans - förutom filer så tar den också diskimage av klientdatorernas lagring med jämna mellanrum (använder klientens windows 'shadow copy' för att skapa dessa och också därför bara hanterar windowsdatorer fullt ut trots att backupsystemet ofta körs på en Linux.)

Till detta finns en USB-image att starta på för en 'bare metall-återställning' för en klientdator som förlorat sin lagring och laddar tillbaka senaste imagen och datorn är till den status som diskimagebackuppen gjordes.

Även urbackup har deduplicerings-processer på filnivå där en typ av fil inte lagras mer än en enda gång även om samma fil finns i många backupper och fördelad på många datorer. - kör man BTRFS med 'bees' eller ZFS med deduplicering med urbackup så blir dedupliceringen på också sektornivå - men det är tungt jobb och kräver både RAM och processorkraft i processen och dessutom kommer vara fullastad under långa tiden när dedupliceringen pågår.
.

Permalänk
Medlem
Skrivet av xxargs:

Duplicati, borgbackup, duplicacy, restic är alla deduplicerande och bygger alla på en repository där man har ofta större antal packade och krypterade filer och en databashanterare som håller reda på alla dessa filbitar att samma filbit finns aldrig mer än en enda gång i repositoryt oavsett hur många backupgenerationer man och tex. för restic och duplicacy kan man också ha flera datorer dela samma repository.

Detta gör att man kan ta bort backupsessioner i valfri ordning och man behöver inte hålla reda på turordning/beroenden eller att man har multipla huvudbackupper och på varje sådan har stor antal inkrementella backupper som är de mer klassiska backupmetoderna tidigare. Huvudbackuppen gör man bara en gång - den första när man gör första backuppen till repositoriet

duplicati (gratis) och duplicacy (betala en mindre summa/år) skulle jag nog prova med och köra parallellt ett tag och se vilken man trivs bäst med - duplicacy har en månads prövotid gratis och båda hanteras via webbrowser och båda är relativt välintergerad att också kunna köra mot olika molntjänster förutom att lagra mot disk, nätverksvolym och mot ssh-konto.

---

En ytterligare man kan fundera att prova och har en lagringsserver med lite mer muskler (tex kör headless ubuntu server och har lagringen på BTRFS-filsystem eller ZFS) och stora diskar är att kika på urbackup - det är en serverstyrd backupsystem tänkt för främst windowsklienter på kontor mm. och har en feature man sällan ser någon annan stans - förutom filer så tar den också diskimage av klientdatorernas lagring med jämna mellanrum (använder klientens windows 'shadow copy' för att skapa dessa och också därför bara hanterar windowsdatorer fullt ut trots att backupsystemet ofta körs på en Linux.)

Till detta finns en USB-image att starta på för en 'bare metall-återställning' för en klientdator som förlorat sin lagring och laddar tillbaka senaste imagen och datorn är till den status som diskimagebackuppen gjordes.

Även urbackup har deduplicerings-processer på filnivå där en typ av fil inte lagras mer än en enda gång även om samma fil finns i många backupper och fördelad på många datorer. - kör man BTRFS med 'bees' eller ZFS med deduplicering med urbackup så blir dedupliceringen på också sektornivå - men det är tungt jobb och kräver både RAM och processorkraft i processen och dessutom kommer vara fullastad under långa tiden när dedupliceringen pågår.
.

Har missat denna, intressant eftersom servern verkar kunna köra på en NAS eller dylikt. Bra tips!

Permalänk
Medlem
Skrivet av xxargs:

Duplicati, borgbackup, duplicacy, restic är alla deduplicerande och bygger alla på en repository där man har ofta större antal packade och krypterade filer och en databashanterare som håller reda på alla dessa filbitar att samma filbit finns aldrig mer än en enda gång i repositoryt oavsett hur många backupgenerationer man och tex. för restic och duplicacy kan man också ha flera datorer dela samma repository.

Detta gör att man kan ta bort backupsessioner i valfri ordning och man behöver inte hålla reda på turordning/beroenden eller att man har multipla huvudbackupper och på varje sådan har stor antal inkrementella backupper som är de mer klassiska backupmetoderna tidigare. Huvudbackuppen gör man bara en gång - den första när man gör första backuppen till repositoriet

duplicati (gratis) och duplicacy (betala en mindre summa/år) skulle jag nog prova med och köra parallellt ett tag och se vilken man trivs bäst med - duplicacy har en månads prövotid gratis och båda hanteras via webbrowser och båda är relativt välintergerad att också kunna köra mot olika molntjänster förutom att lagra mot disk, nätverksvolym och mot ssh-konto.
.

Ursäkta för lång svarstid:/
Jag har hittills fört över filer manuellt till externa hårddisken. Kan duplicati "känna av" vilka filer som redan finns på hårddisken om man bara sätter den på genomsökning? Du talar om huvudbackupper, man behöver alltså hålla reda på det? Finns det något program där jag enkelt kan koppla in hårddisken, klicka på genomsök och så ser programmet till att filer som ännu inte överförts hamnar i en ny mapp. Tar det gärna så enkelt det går. Finns det något program som man kan ladda ner till datorn som gör samma sak eller menar du att det sköts via molnet, som dropbox? Nån gång per halvår tänkte jag säkerhetskopiera.

Permalänk
Medlem
Skrivet av Teppi:

Ursäkta för lång svarstid:/
Jag har hittills fört över filer manuellt till externa hårddisken. Kan duplicati "känna av" vilka filer som redan finns på hårddisken om man bara sätter den på genomsökning? Du talar om huvudbackupper, man behöver alltså hålla reda på det? Finns det något program där jag enkelt kan koppla in hårddisken, klicka på genomsök och så ser programmet till att filer som ännu inte överförts hamnar i en ny mapp. Tar det gärna så enkelt det går. Finns det något program som man kan ladda ner till datorn som gör samma sak eller menar du att det sköts via molnet, som dropbox? Nån gång per halvår tänkte jag säkerhetskopiera.

Ett enklare men otroligt bra program är syncfolders, det använder jag för den dagliga backupen till en annan SSD och en annan dator. Kört det i flera år. Där kan man köra manuella backuper och ställa in om man vill ha gamla/raderade filer i annan mapp en viss tid och liknande. Fördelen och nackdelen är att filerna är filer fortfarande, inte en image eller system.

Om den externa hårddisken har plats så gör en ny mapp och kopiera allt igen för varje gång. Det kan ju hända att du får en korrupt bildfil och sedan kopierar du över den från din dator till externa hdn och vips så är backupen borta. jag har t.ex varit med om en ssd som tog bort filer och många filer vart "nollade" när det blev något överslag i datorn. Då räddade syncfolders mig genom att jag kunde se och kopiera in mina gamla filer igen från flera olika dagar/veckor bakåt.

Annars är ju mer "kompletta" backup riktigt bra också, men om man vill ha som du har idag med varje fil för sig fungerar det programmet bra. Hörde nyligen i en annan tråd om 3-2-1 metoden. den är vettig.

Visa signatur

7600X,Tomahawk B650,NH-U12A,32GB,RX6700,Black SN850 1TB,860Evo 1TB,RM850x, 27GL850,Torrent Compact

Permalänk
Hedersmedlem
Skrivet av Teppi:

Ursäkta för lång svarstid:/
Jag har hittills fört över filer manuellt till externa hårddisken. Kan duplicati "känna av" vilka filer som redan finns på hårddisken om man bara sätter den på genomsökning? Du talar om huvudbackupper, man behöver alltså hålla reda på det? Finns det något program där jag enkelt kan koppla in hårddisken, klicka på genomsök och så ser programmet till att filer som ännu inte överförts hamnar i en ny mapp. Tar det gärna så enkelt det går. Finns det något program som man kan ladda ner till datorn som gör samma sak eller menar du att det sköts via molnet, som dropbox? Nån gång per halvår tänkte jag säkerhetskopiera.

Nej, den kan inte känna av vilka filer som redan finns där, den kan känna av vilka filer den redan gjort backup på, men sökningen av dubbletter som du beskriver finns nog inget program som fixar.

Visa signatur

Använd gilla för att markera nyttiga inlägg!

Permalänk
Medlem
Skrivet av Teppi:

Ursäkta för lång svarstid:/
Jag har hittills fört över filer manuellt till externa hårddisken. Kan duplicati "känna av" vilka filer som redan finns på hårddisken om man bara sätter den på genomsökning? Du talar om huvudbackupper, man behöver alltså hålla reda på det? Finns det något program där jag enkelt kan koppla in hårddisken, klicka på genomsök och så ser programmet till att filer som ännu inte överförts hamnar i en ny mapp. Tar det gärna så enkelt det går. Finns det något program som man kan ladda ner till datorn som gör samma sak eller menar du att det sköts via molnet, som dropbox? Nån gång per halvår tänkte jag säkerhetskopiera.

Du får ladda ned och köra Duplicati och Duplicacy och se om det är något för dig - duger det inte så är det bara ta bort igen.

Det är lite svårt att kunna avgöra hur bra dessa program passar för din tänkesätt och procedur i hanterandet av filer, men moderna backupprogram som är nämnda är gjorda att inte kopiera och föra över mer filer än som behövs och de flesta har olika scanningstekniker för att se vilka filer som ändrats, flyttats, tagits bort och tillkommit sedan den förra sessionens körningen och då med databaser och med hashvärden på filerna och upphackade fildelar av större filer så att det känner igen om en ny fil eller delar av en större fil (som diskimage och databaser) redan finns och uppdaterar bara de fildelar som fattas i repositoriet.

tex om du flyttar en stor filträd med bildfiler till en annan plats på din dators filträd laddas inte filerna om igen utan den nya platsen noteras i databasen till skillnad från äldre backupprogram som inte såg sammanhanget att filerna som försvann i en mapp och dök upp i en annan mapp berodde på att filerna flyttades utan såg det som raderade filer och nya filer tillkom och allt detta skulle då laddas upp igen till backupprogrammets filförvaring - och den gamla platsens filers i sessionen innan försvann inte heller utan plötsligt hade man 2 upplagor av samma filer på olika platser i backuplagringen mellan 2 sessioner och det exploderar i diskförbrukning.