7600X,Tomahawk B650,NH-U12A,32GB,RX6700,Black SN850 1TB,860Evo 1TB,RM850x, 27GL850,Torrent Compact
Program för Säkerhetskopiering
Finns många, men jag själv har fastnat för duplicati. För backup av en dator tycker jag det är good enough, och lättanvänt.
Finns många, men jag själv har fastnat för duplicati. För backup av en dator tycker jag det är good enough, och lättanvänt.
+1 på den.
Riktigt bra är det!
Duplicati, borgbackup, duplicacy, restic är alla deduplicerande och bygger alla på en repository där man har ofta större antal packade och krypterade filer och en databashanterare som håller reda på alla dessa filbitar att samma filbit finns aldrig mer än en enda gång i repositoryt oavsett hur många backupgenerationer man och tex. för restic och duplicacy kan man också ha flera datorer dela samma repository.
Detta gör att man kan ta bort backupsessioner i valfri ordning och man behöver inte hålla reda på turordning/beroenden eller att man har multipla huvudbackupper och på varje sådan har stor antal inkrementella backupper som är de mer klassiska backupmetoderna tidigare. Huvudbackuppen gör man bara en gång - den första när man gör första backuppen till repositoriet
duplicati (gratis) och duplicacy (betala en mindre summa/år) skulle jag nog prova med och köra parallellt ett tag och se vilken man trivs bäst med - duplicacy har en månads prövotid gratis och båda hanteras via webbrowser och båda är relativt välintergerad att också kunna köra mot olika molntjänster förutom att lagra mot disk, nätverksvolym och mot ssh-konto.
---
En ytterligare man kan fundera att prova och har en lagringsserver med lite mer muskler (tex kör headless ubuntu server och har lagringen på BTRFS-filsystem eller ZFS) och stora diskar är att kika på urbackup - det är en serverstyrd backupsystem tänkt för främst windowsklienter på kontor mm. och har en feature man sällan ser någon annan stans - förutom filer så tar den också diskimage av klientdatorernas lagring med jämna mellanrum (använder klientens windows 'shadow copy' för att skapa dessa och också därför bara hanterar windowsdatorer fullt ut trots att backupsystemet ofta körs på en Linux.)
Till detta finns en USB-image att starta på för en 'bare metall-återställning' för en klientdator som förlorat sin lagring och laddar tillbaka senaste imagen och datorn är till den status som diskimagebackuppen gjordes.
Även urbackup har deduplicerings-processer på filnivå där en typ av fil inte lagras mer än en enda gång även om samma fil finns i många backupper och fördelad på många datorer. - kör man BTRFS med 'bees' eller ZFS med deduplicering med urbackup så blir dedupliceringen på också sektornivå - men det är tungt jobb och kräver både RAM och processorkraft i processen och dessutom kommer vara fullastad under långa tiden när dedupliceringen pågår.
.
Duplicati, borgbackup, duplicacy, restic är alla deduplicerande och bygger alla på en repository där man har ofta större antal packade och krypterade filer och en databashanterare som håller reda på alla dessa filbitar att samma filbit finns aldrig mer än en enda gång i repositoryt oavsett hur många backupgenerationer man och tex. för restic och duplicacy kan man också ha flera datorer dela samma repository.
Detta gör att man kan ta bort backupsessioner i valfri ordning och man behöver inte hålla reda på turordning/beroenden eller att man har multipla huvudbackupper och på varje sådan har stor antal inkrementella backupper som är de mer klassiska backupmetoderna tidigare. Huvudbackuppen gör man bara en gång - den första när man gör första backuppen till repositoriet
duplicati (gratis) och duplicacy (betala en mindre summa/år) skulle jag nog prova med och köra parallellt ett tag och se vilken man trivs bäst med - duplicacy har en månads prövotid gratis och båda hanteras via webbrowser och båda är relativt välintergerad att också kunna köra mot olika molntjänster förutom att lagra mot disk, nätverksvolym och mot ssh-konto.
---
En ytterligare man kan fundera att prova och har en lagringsserver med lite mer muskler (tex kör headless ubuntu server och har lagringen på BTRFS-filsystem eller ZFS) och stora diskar är att kika på urbackup - det är en serverstyrd backupsystem tänkt för främst windowsklienter på kontor mm. och har en feature man sällan ser någon annan stans - förutom filer så tar den också diskimage av klientdatorernas lagring med jämna mellanrum (använder klientens windows 'shadow copy' för att skapa dessa och också därför bara hanterar windowsdatorer fullt ut trots att backupsystemet ofta körs på en Linux.)
Till detta finns en USB-image att starta på för en 'bare metall-återställning' för en klientdator som förlorat sin lagring och laddar tillbaka senaste imagen och datorn är till den status som diskimagebackuppen gjordes.
Även urbackup har deduplicerings-processer på filnivå där en typ av fil inte lagras mer än en enda gång även om samma fil finns i många backupper och fördelad på många datorer. - kör man BTRFS med 'bees' eller ZFS med deduplicering med urbackup så blir dedupliceringen på också sektornivå - men det är tungt jobb och kräver både RAM och processorkraft i processen och dessutom kommer vara fullastad under långa tiden när dedupliceringen pågår.
.
Har missat denna, intressant eftersom servern verkar kunna köra på en NAS eller dylikt. Bra tips!
Duplicati, borgbackup, duplicacy, restic är alla deduplicerande och bygger alla på en repository där man har ofta större antal packade och krypterade filer och en databashanterare som håller reda på alla dessa filbitar att samma filbit finns aldrig mer än en enda gång i repositoryt oavsett hur många backupgenerationer man och tex. för restic och duplicacy kan man också ha flera datorer dela samma repository.
Detta gör att man kan ta bort backupsessioner i valfri ordning och man behöver inte hålla reda på turordning/beroenden eller att man har multipla huvudbackupper och på varje sådan har stor antal inkrementella backupper som är de mer klassiska backupmetoderna tidigare. Huvudbackuppen gör man bara en gång - den första när man gör första backuppen till repositoriet
duplicati (gratis) och duplicacy (betala en mindre summa/år) skulle jag nog prova med och köra parallellt ett tag och se vilken man trivs bäst med - duplicacy har en månads prövotid gratis och båda hanteras via webbrowser och båda är relativt välintergerad att också kunna köra mot olika molntjänster förutom att lagra mot disk, nätverksvolym och mot ssh-konto.
.
Ursäkta för lång svarstid:/
Jag har hittills fört över filer manuellt till externa hårddisken. Kan duplicati "känna av" vilka filer som redan finns på hårddisken om man bara sätter den på genomsökning? Du talar om huvudbackupper, man behöver alltså hålla reda på det? Finns det något program där jag enkelt kan koppla in hårddisken, klicka på genomsök och så ser programmet till att filer som ännu inte överförts hamnar i en ny mapp. Tar det gärna så enkelt det går. Finns det något program som man kan ladda ner till datorn som gör samma sak eller menar du att det sköts via molnet, som dropbox? Nån gång per halvår tänkte jag säkerhetskopiera.
Ursäkta för lång svarstid:/
Jag har hittills fört över filer manuellt till externa hårddisken. Kan duplicati "känna av" vilka filer som redan finns på hårddisken om man bara sätter den på genomsökning? Du talar om huvudbackupper, man behöver alltså hålla reda på det? Finns det något program där jag enkelt kan koppla in hårddisken, klicka på genomsök och så ser programmet till att filer som ännu inte överförts hamnar i en ny mapp. Tar det gärna så enkelt det går. Finns det något program som man kan ladda ner till datorn som gör samma sak eller menar du att det sköts via molnet, som dropbox? Nån gång per halvår tänkte jag säkerhetskopiera.
Ett enklare men otroligt bra program är syncfolders, det använder jag för den dagliga backupen till en annan SSD och en annan dator. Kört det i flera år. Där kan man köra manuella backuper och ställa in om man vill ha gamla/raderade filer i annan mapp en viss tid och liknande. Fördelen och nackdelen är att filerna är filer fortfarande, inte en image eller system.
Om den externa hårddisken har plats så gör en ny mapp och kopiera allt igen för varje gång. Det kan ju hända att du får en korrupt bildfil och sedan kopierar du över den från din dator till externa hdn och vips så är backupen borta. jag har t.ex varit med om en ssd som tog bort filer och många filer vart "nollade" när det blev något överslag i datorn. Då räddade syncfolders mig genom att jag kunde se och kopiera in mina gamla filer igen från flera olika dagar/veckor bakåt.
Annars är ju mer "kompletta" backup riktigt bra också, men om man vill ha som du har idag med varje fil för sig fungerar det programmet bra. Hörde nyligen i en annan tråd om 3-2-1 metoden. den är vettig.
Ursäkta för lång svarstid:/
Jag har hittills fört över filer manuellt till externa hårddisken. Kan duplicati "känna av" vilka filer som redan finns på hårddisken om man bara sätter den på genomsökning? Du talar om huvudbackupper, man behöver alltså hålla reda på det? Finns det något program där jag enkelt kan koppla in hårddisken, klicka på genomsök och så ser programmet till att filer som ännu inte överförts hamnar i en ny mapp. Tar det gärna så enkelt det går. Finns det något program som man kan ladda ner till datorn som gör samma sak eller menar du att det sköts via molnet, som dropbox? Nån gång per halvår tänkte jag säkerhetskopiera.
Nej, den kan inte känna av vilka filer som redan finns där, den kan känna av vilka filer den redan gjort backup på, men sökningen av dubbletter som du beskriver finns nog inget program som fixar.
Använd gilla för att markera nyttiga inlägg!
Ursäkta för lång svarstid:/
Jag har hittills fört över filer manuellt till externa hårddisken. Kan duplicati "känna av" vilka filer som redan finns på hårddisken om man bara sätter den på genomsökning? Du talar om huvudbackupper, man behöver alltså hålla reda på det? Finns det något program där jag enkelt kan koppla in hårddisken, klicka på genomsök och så ser programmet till att filer som ännu inte överförts hamnar i en ny mapp. Tar det gärna så enkelt det går. Finns det något program som man kan ladda ner till datorn som gör samma sak eller menar du att det sköts via molnet, som dropbox? Nån gång per halvår tänkte jag säkerhetskopiera.
Du får ladda ned och köra Duplicati och Duplicacy och se om det är något för dig - duger det inte så är det bara ta bort igen.
Det är lite svårt att kunna avgöra hur bra dessa program passar för din tänkesätt och procedur i hanterandet av filer, men moderna backupprogram som är nämnda är gjorda att inte kopiera och föra över mer filer än som behövs och de flesta har olika scanningstekniker för att se vilka filer som ändrats, flyttats, tagits bort och tillkommit sedan den förra sessionens körningen och då med databaser och med hashvärden på filerna och upphackade fildelar av större filer så att det känner igen om en ny fil eller delar av en större fil (som diskimage och databaser) redan finns och uppdaterar bara de fildelar som fattas i repositoriet.
tex om du flyttar en stor filträd med bildfiler till en annan plats på din dators filträd laddas inte filerna om igen utan den nya platsen noteras i databasen till skillnad från äldre backupprogram som inte såg sammanhanget att filerna som försvann i en mapp och dök upp i en annan mapp berodde på att filerna flyttades utan såg det som raderade filer och nya filer tillkom och allt detta skulle då laddas upp igen till backupprogrammets filförvaring - och den gamla platsens filers i sessionen innan försvann inte heller utan plötsligt hade man 2 upplagor av samma filer på olika platser i backuplagringen mellan 2 sessioner och det exploderar i diskförbrukning.
- Idag Microsoft Recall under lupp hos integritetsmyndighet 17
- Idag Testpilot: Komplett-PC Epic Gaming a230 Esport Edition – tryggt för spel 1
- Idag Snabbtest: 3DMark Steel Nomad – visuellt avancerat, förvånansvärt lättdrivet 22
- Idag DDR6-minne blir 142 procent snabbare 16
- Igår Sonos gör hörlursdebut med Sonos Ace 47
- Idag Se vilka spel som funkar på Windows på ARM 17
- Igår Grafikprestanda i Senua's Saga: Hellblade II – ett av de tyngsta PC-spelen någonsin 75
- 19 / 5 Ghost of Tsushima kan använda DLSS och FSR 3 samtidigt 11
- 17 / 5 27 år senare – Winamp får öppen källkod 45
- 17 / 5 Grafikprestanda i Ghost of Tsushima – en välpolerad PC-version 28
- Idag Open AI drog tillbaka röst efter hot från Scarlett Johansson 34
- Igår Studenter hittar sårbarhet i tvättautomater – företaget ignorerar varningar 20
- Igår Se Windows XP infekteras på minuter utan skydd 54
- 20 / 5 Detta gäller när HBO Max blir Max 92
- 20 / 5 Delning av skadlig kod via PDF-filer ökar 24
- Recall för Co-Pilot Plus från Microsoft spelar in allt som görs på datorn19
- Grafikprestanda i Senua's Saga: Hellblade II – ett av de tyngsta PC-spelen någonsin76
- Köpråd: LG C3 eller Samsung S90C (77")61
- Snabbtest: 3DMark Steel Nomad – visuellt avancerat, förvånansvärt lättdrivet22
- Är det kylpasta på CPU fläkten? Har för mig att den är mer mörkgrå?3
- Detta gäller när HBO Max blir Max92
- Köpråd bygga gamingdator, 30k budget13
- Plats för lite gubbgnäll9974
- Ubiquiti Unifi2797
- Är det lönt att uppgradera den här datorn för att spela D421
- Säljes Gamingdator
- Säljes LG C2 42'' OLED 4K
- Köpes köper 2070super eller 2080ti
- Säljes Asus X399 moderkort och några möbler.
- Köpes Köper 4080. Alt byte 4070 ti
- Säljes Garderobsrensning - diverse prylar
- Säljes Surface Pro 7
- Säljes WD My Book 8TB
- Säljes Varmilo VEM88 Moonlight V2 TKL EC Sakura
- Säljes Skrivbord 120x60cm Marmor
- Microsoft Recall under lupp hos integritetsmyndighet19
- Testpilot: Komplett-PC Epic Gaming a230 Esport Edition – tryggt för spel1
- Se vilka spel som funkar på Windows på ARM17
- Snabbtest: 3DMark Steel Nomad – visuellt avancerat, förvånansvärt lättdrivet22
- DDR6-minne blir 142 procent snabbare16
- Open AI drog tillbaka röst efter hot från Scarlett Johansson34
- Sonos gör hörlursdebut med Sonos Ace47
- Grafikprestanda i Senua's Saga: Hellblade II – ett av de tyngsta PC-spelen någonsin76
- Surface-tangentbord med AI-knapp kostar 5 000 kronor31
- Noctua lanserar Home – fläktlösningar för hemmet49
Externa nyheter
Spelnyheter från FZ
- Hunt: Showdown skippar PS4 och Xbox One i sommar idag
- Analys: 60 fps-patchen till Starfield har gett en Xbox-boost med 72 % idag
- Snabbkollen – Brukar du förhandsboka spel? idag
- Häng med under en dag i snutspelet The Precinct idag
- Gameplay och förstörelsefysik från fullkomligt vansinniga Kingmakers idag