Vilket filsystem för ubuntu server?

Permalänk
Medlem

Vilket filsystem för ubuntu server?

Hej

Jag har äntligen fått ihop servern och har börjat skapa en raid5 av 4x8tb diskar.
men då kom nästa sak, vad bör man använda för filsystem på denna raid?
den kommer användas för att streama video men även att ladda upp och ner textfiler osv

just nu står jag mellan ext4-xfs-zfs

jag vill ha data säkerhet då jag är dålig på att ta backupper men samtidigt inte tappa för mycket hastighet (ja jag vet raid är inte backupp)

Visa signatur

Om du lär dig älska din smärta kommer du känna dig älskad var dag.

Permalänk
Medlem

zfs all the way.

Permalänk
Medlem

Btrfs?

Visa signatur

Min Dator: AMD 3600 | GTX 680 | 16 GB RAM | Asus X570 Prime | Fractal Design Arc R2 | Thermalright Silver Arrow | Dell U2412M | Ibm Model M

Permalänk
Medlem

Jag skulle välja det mest använda och vanligaste filsystemet som används idag
och det är fortfarande ext4.

Permalänk
Medlem
Skrivet av mihon:

zfs all the way.

Skrivet av hölmiz:

Att köra mjukvaruraid ovanpå RAID5 låter som kaka på kaka och onödigt(?). Jag hade inte bemödat mig med hårdvaruraid öht utan bara kört rakt på ZFS Z2.

För OP hade jag kört EXT4 eller XFS.

Visa signatur

:(){ :|:& };:

🏊🏻‍♂️   🚴🏻‍♂️   🏃🏻‍♂️   ☕

Permalänk
Livsnjutare 😎

Ext4

Visa signatur

Citera eller Svara för respons! •
• Life is a playground {|;^) •

Permalänk
Medlem

ZFS utan tvekan om du nu bryr dig om datan men Ubuntu är nog kanske inte det mest optimala valet i det avseendet.

Permalänk
Medlem
Skrivet av diizzy:

ZFS utan tvekan om du nu bryr dig om datan men Ubuntu är nog kanske inte det mest optimala valet i det avseendet.

Och en bra backupstrategi - gäller förvissa alla serversystem men ZFS är väldigt jobbig att reparera om den skulle för sig att gå sönder. Det är ingen filsystem man försöker reparera eller rädda ur data ur den dagen den havererar - rekommendationen är att använder senaste backuppen i dessa fall...

Själv har jag kört på BTRFS länge bl.a för deras sätt att kunna göra snapshot fri och oberoende mellan generationerna och även tas bort utan restriktioner mellan generationerna - vilket det inte är i ZFS. och den har faktiskt verktyg för att läsa ur innehållet ur en kraschad image även om man precis som med ZFS inte skall förutsätta att det fungerar varje gång utan också ha backupper.

Permalänk
Medlem

Kör du zfs ska du stänga av allt vad hårdvaruraid heter. Sen är väl lämpligast att köra raidz2 (två spares i poolen), så man kan hantera en extra diskfailure under tiden som det körs zfs-rebuild pga diskbyte från tidigare diskfailure. Zfs har också de stora fördelerna att det är hårdvaruagnostiskt och att det inte spelar någon roll i vilken ordning diskarna ansluts till portarna på mb eller kontrollerkort.

Korrektur
Visa signatur

stationär 2022: ryzen 7900x@65W, asus strix x670e-f, 32GB, rx6700xt
stationär 2012: i5-3570k@stock, asus p8z77-v le, 16GB, gtx660
laptop: ryzen 4800H, 16GB, rtx2060 (Legion 5 15ARH05H)
laptop: i5-2467M, 8GB
nas/server: i5-8400, asus WS C246M PRO/SE, 48GB

Permalänk
Medlem
Skrivet av GLaDER:

Att köra mjukvaruraid ovanpå RAID5 låter som kaka på kaka och onödigt(?). Jag hade inte bemödat mig med hårdvaruraid öht utan bara kört rakt på ZFS Z2.

För OP hade jag kört EXT4 eller XFS.

Skippa hårdvaruraiden (vad händer om raid kontrollerna pajar) och kör mkukvaruraid med btrfs som filsystem

Visa signatur

Min Dator: AMD 3600 | GTX 680 | 16 GB RAM | Asus X570 Prime | Fractal Design Arc R2 | Thermalright Silver Arrow | Dell U2412M | Ibm Model M

Permalänk
Medlem

tack för all input, det blev att skrota raid och köra zfs1 istället.

Visa signatur

Om du lär dig älska din smärta kommer du känna dig älskad var dag.

Permalänk
Medlem

vad ska du ha det till ? användningsområde osv.

tänk på att zfs är långsammare än ext4.

ext4 och backup fungerar ju rätt bra.
zfs kan du köra på din filserver.

Visa signatur

Nätverksnörd

Permalänk
Medlem

BTRFS är suveränt att använda för backupper till urkopplingsbar media som USB-diskar inklusive att den är snäll mot SMR-varianter av dessa - speciellt deras kapabilitet att kunna göra oberoende snapshot (inklusive read-only) som senare kan tas bort i valfri ordning, till skillnad från ZFS. - BTRFS har komprimerande filsystem om man vill och givetvis är allt data och metadata checksummad och arbetar med COW och betydligt tåligare för 'misshandel' i form av plötsliga strömabrott/urryckta USB-kablar under full skrivning utan att filsystemet blir korrupt (har aldrig lyckas hittills) än tex. i jämförelse med NTFS (ryser, nästa vilken som helst av dagens använda filsystem i Linux är tåligare och bättre än NTFS när det gäller risk för ej dataräddningsbar korruption).

Men som nämnt är varken ZFS eller BTRFS de snabbaste filsystemet - där är ext4 och XFS de snabbare alternativen - särskilt när XFS en gång i tiden designades för att hantera ljud och videoströmmar där man inte tål stallning och/eller tappade frames vid realtidsinspelning för att lagringen var upptagen lite längre än normalt.

Permalänk
Medlem
Skrivet av GLaDER:

Att köra mjukvaruraid ovanpå RAID5 låter som kaka på kaka och onödigt(?). Jag hade inte bemödat mig med hårdvaruraid öht utan bara kört rakt på ZFS Z2.

För OP hade jag kört EXT4 eller XFS.

Missade att han hade gjort raid 5 på hårdvara, nej precis det bör han inte göra.
Dock bör han köra helt på software raid, zfs.

Permalänk
Medlem

Om det är LSI-baserade HBA/smartcontrollers så har jag för mig att mdadm-RAID hade moder som kunde förstå headarna i början på var disk (när de läses i IT-mode) och sätta ihop en raid från en trasig HW-RAID kontroller - dock är det inte lika bekvämt som med mjukvaruraid där man kan montera in diskarna i valfri ordningsföljd och även via olika gränssnitt (usb, sata eller sas) blandat, utan där är det strikt rätt ordningsföljd sett rent logiskt mellan diskarna som gäller - det är väldigt lämpligt att göra diskimage av var disk (med HBA i IT-mode) innan man försöker fösa ihop dessa till en RAID-struktur av diskar som kommer ifrån på en (trasig) HW-RAID.

Det kommer med stor sannolikhet bli helt fel vid första försöket och följden en skrotad RAID-struktur eftersom räkneordningen av diskarna är inte självklar (och ofta spegelvänd sedd till fysisk placering gentemot logisk ordningsföljd sedd framifrån - dvs. räknas från höger till vänster och i grupper om fyra diskar liknande 4,3,2,1,8,7,6,5) och ytterligare andra mönster om diskarna ligger i två våningsplan.

Man kan bli förvirrad för mindre och det är extremt kritiskt att ordningsföljden är rätt logiskt sett när det kopplas till en Smartkontroller (HW-RAID) som P400, P410, P420 (HPE), PERC5, PERC6 (Dell) etc. då det inte sorterar ut det själv och blir det fel ordning så får man seriös RAID-haveri.

Permalänk
Medlem
Skrivet av xxargs:

Om det är LSI-baserade HBA/smartcontrollers så har jag för mig att mdadm-RAID hade moder som kunde förstå headarna i början på var disk (när de läses i IT-mode) och sätta ihop en raid från en trasig HW-RAID kontroller - dock är det inte lika bekvämt som med mjukvaruraid där man kan montera in diskarna i valfri ordningsföljd och även via olika gränssnitt (usb, sata eller sas) blandat, utan där är det strikt rätt ordningsföljd sett rent logiskt mellan diskarna som gäller - det är väldigt lämpligt att göra diskimage av var disk (med HBA i IT-mode) innan man försöker fösa ihop dessa till en RAID-struktur av diskar som kommer ifrån på en (trasig) HW-RAID.

Det kommer med stor sannolikhet bli helt fel vid första försöket och följden en skrotad RAID-struktur eftersom räkneordningen av diskarna är inte självklar (och ofta spegelvänd sedd till fysisk placering gentemot logisk ordningsföljd sedd framifrån - dvs. räknas från höger till vänster och i grupper om fyra diskar liknande 4,3,2,1,8,7,6,5) och ytterligare andra mönster om diskarna ligger i två våningsplan.

Man kan bli förvirrad för mindre och det är extremt kritiskt att ordningsföljden är rätt logiskt sett när det kopplas till en Smartkontroller (HW-RAID) som P400, P410, P420 (HPE), PERC5, PERC6 (Dell) etc. då det inte sorterar ut det själv och blir det fel ordning så får man seriös RAID-haveri.

Om jag inte missminner mig helt fel så spelar ordningen på diskarna inte heller roll längre.
Såg en sida nåt år sedan där en satte upp mdadm raid5, formatterade och la in några filer,
och sen stoppade den och byggde ny raid med diskarna i olika ordning just för att testa det.
Resultatet var helt och komplett filsystem med filer som han hade lagt in tidigare.

Provade googla fram en länk men det var så många resultat på hur man byter ut en trasig disk så jag gav upp

Permalänk
Medlem

I linux spelar inte den fysiskt inkopplade ordningsföljden någon roll med sina egna mjukvaruraid (mdadm-RAID, LVM, LVM2, ZFS, BTRFS) då alla ingående partitioner kan identifileras med UUID och under UUID och det fins lista/struktur som säger vilken ordning och ordningsföljd de hänger ihop mot varandra.

HW-raid har inte något sådant utan på sin höjd berättar headen på disken allra första block i hur stripingen är mellan enheterna och vilken RAID-mode som används, men inte hur diskarna är inordnade gentemot varandra rent logiskt - det blir alltså väldigt fel om man byter fysisk plats på två diskar i en HW-RAID-struktur.

Permalänk
Medlem
Skrivet av xxargs:

I linux spelar inte den fysiskt inkopplade ordningsföljden någon roll med sina egna mjukvaruraid (mdadm-RAID, LVM, LVM2, ZFS, BTRFS) då alla ingående partitioner kan identifileras med UUID och under UUID och det fins lista/struktur som säger vilken ordning och ordningsföljd de hänger ihop mot varandra.

HW-raid har inte något sådant utan på sin höjd berättar headen på disken allra första block i hur stripingen är mellan enheterna och vilken RAID-mode som används, men inte hur diskarna är inordnade gentemot varandra rent logiskt - det blir alltså väldigt fel om man byter fysisk plats på två diskar i en HW-RAID-struktur.

Nu hade ju den jag pratade om stoppat raiden och sedan manuellt skapat ny raid med diskarna i olika ordning.
Någon UUID använd sedan tidigare spelar ju då ingen roll då allt skrivs över enligt ny konfiguration/struktur.
Det viktiga om jag kommer ihåg rätt var den tidigare använda chunk size och vilken typ av raid man hade.
Data offset med om man inte använde default. (mdadm har visst använd olika offset historiskt)

Kan vara så att han fick leta fram filsystemet sedan med testdisk eller liknande verktyg för att reparera.
Men han fick tillbaka sina filer