Duplicati, borgbackup, duplicacy, restic är alla deduplicerande och bygger alla på en repository där man har ofta större antal packade och krypterade filer och en databashanterare som håller reda på alla dessa filbitar att samma filbit finns aldrig mer än en enda gång i repositoryt oavsett hur många backupgenerationer man och tex. för restic och duplicacy kan man också ha flera datorer dela samma repository.
Detta gör att man kan ta bort backupsessioner i valfri ordning och man behöver inte hålla reda på turordning/beroenden eller att man har multipla huvudbackupper och på varje sådan har stor antal inkrementella backupper som är de mer klassiska backupmetoderna tidigare. Huvudbackuppen gör man bara en gång - den första när man gör första backuppen till repositoriet
duplicati (gratis) och duplicacy (betala en mindre summa/år) skulle jag nog prova med och köra parallellt ett tag och se vilken man trivs bäst med - duplicacy har en månads prövotid gratis och båda hanteras via webbrowser och båda är relativt välintergerad att också kunna köra mot olika molntjänster förutom att lagra mot disk, nätverksvolym och mot ssh-konto.
---
En ytterligare man kan fundera att prova och har en lagringsserver med lite mer muskler (tex kör headless ubuntu server och har lagringen på BTRFS-filsystem eller ZFS) och stora diskar är att kika på urbackup - det är en serverstyrd backupsystem tänkt för främst windowsklienter på kontor mm. och har en feature man sällan ser någon annan stans - förutom filer så tar den också diskimage av klientdatorernas lagring med jämna mellanrum (använder klientens windows 'shadow copy' för att skapa dessa och också därför bara hanterar windowsdatorer fullt ut trots att backupsystemet ofta körs på en Linux.)
Till detta finns en USB-image att starta på för en 'bare metall-återställning' för en klientdator som förlorat sin lagring och laddar tillbaka senaste imagen och datorn är till den status som diskimagebackuppen gjordes.
Även urbackup har deduplicerings-processer på filnivå där en typ av fil inte lagras mer än en enda gång även om samma fil finns i många backupper och fördelad på många datorer. - kör man BTRFS med 'bees' eller ZFS med deduplicering med urbackup så blir dedupliceringen på också sektornivå - men det är tungt jobb och kräver både RAM och processorkraft i processen och dessutom kommer vara fullastad under långa tiden när dedupliceringen pågår.
.