Permalänk
Medlem

Intressant. Var det någon särskild detalj som fixade interna diskprestandan?
Jag skulle nog också ha nöjt mig med den prestandan du har nu.

Har själv aldrig lyckats komma över 60 MB/s med samba mot ubuntu eller Windows XP, men jag har heller inte tweakat det så mycket. Men NFS kan väl vara ett alternativ med ubuntu? SSHFS är också trevligt men jag tror inte det är snabbare än samba. Kanske kan funka hyfsat om man kör arcfour eller blowfish-cbc eller vad de snabbare krypteringarna i ssh nu heter...

Permalänk
Medlem

Jag vill nog påstå att [H]ard|Forum - View Single Post - slow zfs performance & long pauses when writing gjorde väldigt mycket för mig. Det han skriver längst ner i posten.
Vet inte om det var hela orsaken dock, jag gjorde nog mer ändringar under tiden..

Nu har jag dock fått till min "guide" som kan läsas på min nyskapade blog;
Att bygga och konfigurera en NAS

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem

Verkar som det kan finnas vissa risker med att inaktivera ZIL:
ZFS Evil Tuning Guide - Siwiki

"ZIL stands for ZFS Intent Log. It is used during synchronous writes operations. The ZIL is an essential part of ZFS and should never be disabled. Significant performance gains can be achieved by not having the ZIL, but that would be at the expense of data integrity. One can be infinitely fast, if correctness is not required."

"The combination of ZFS and NFS stresses the ZIL to the point that performance falls significantly below expected levels. The best solution is to put the ZIL on a fast SSD (or a pair of SSDs in a mirror, for added redundancy). The next best solution is to disable ZIL with the following setting in loader.conf:

vfs.zfs.zil_disable="1"

Disabling ZIL is not recommended where data consistency is required (such as database servers) but will not result in file system corruption. "

enligt ZFSTuningGuide - FreeBSD Wiki

Ska man tolka detta som att man riskerar få felaktig data lagrad men att filsystemet som sådant inte går sönder? Känns inte riktigt värt att göra för att få bättre prestanda. Fattade som att i tråden så körde de lite tester med att inaktivera ZIL bara för att felsöka men att det inte är något man bör göra när man "kör skarpt".

EDIT: Data consistency - Wikipedia, the free encyclopedia
Antar att det har något att göra med vilken ordning data skrivs?

EDIT 2: Här har vi en förklaring vad ZIL gör:
Solaris ZFS Performance Tuning: Synchronous Writes and the ZIL

Permalänk
Avstängd

ZIL ska man inte slå av. Visst, du kanske får lägre prestanda, men ZIL behövs för data säkerhet. Om du bara är ute efter prestanda och inte datasäkerhet, så kan du istället köra ext3, XFS eller nåt liknande.

Permalänk
Medlem

Tack för att ni är uppmärksamma, jag hade ändrat det för att testa, men på NAS'en dubbelkollae jag, och jag har _INTE_ "vfs.zfs.zil_disable=1" utan har helt tagit bort den raden.
Jag såg detta igår när jag satt och klurade också, och jag märkte inte någon nämnvärd skillnad heller.

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem

Såg på din blogg att du håller på undersöka hur man spinner ner diskarna med hjälp av camcontrol när man kör ahci.
Hittade bra info här: [Solved] [AHCI] Spinning down ada(4) disks - The FreeBSD Forums

Så för att ställa in att hårddisken varvar ner efter 15 minuters inaktivitet:
camcontrol idle adaX -t 900
Betyder "idle now, but set standby timer for 900 seconds".

Bra att man kan ställa det individuellt för varje hårddisk, man kanske inte vill att systemdisken ska somna om man vill ha snabb respons men lagringsdiskarna som inte används så ofta kan få varva ner. Jag vet inte om man måste göra detta vid varje uppstart av datorn men i så fall får man väl lägga det i ett startscript.

Själv vill jag nog få hårddiskarna att inte vakna och somna jätteofta men typ nattetid eller när man är på jobbet kan de få vila lite så jag ställer nog in 2-3 timmar eller något sådant. Blir lagom när man gör något, sedan pausar för att natta barnen på kvällen och sedan återupptar sysslan ca 2 timmar senare.

Jag har beställt delarna till min serveruppgradering. Inväntar dock 2TB-diskarna och hårddiskburen som jag förhoppningsvis får idag, resten av prylarna har jag hemma nu.

Permalänk
Medlem
Skrivet av ronnylov:

Såg på din blogg att du håller på undersöka hur man spinner ner diskarna med hjälp av camcontrol när man kör ahci.
Hittade bra info här: [Solved] [AHCI] Spinning down ada(4) disks - The FreeBSD Forums

Så för att ställa in att hårddisken varvar ner efter 15 minuters inaktivitet:
camcontrol idle adaX -t 900
Betyder "idle now, but set standby timer for 900 seconds".

Bra att man kan ställa det individuellt för varje hårddisk, man kanske inte vill att systemdisken ska somna om man vill ha snabb respons men lagringsdiskarna som inte används så ofta kan få varva ner. Jag vet inte om man måste göra detta vid varje uppstart av datorn men i så fall får man väl lägga det i ett startscript.

Själv vill jag nog få hårddiskarna att inte vakna och somna jätteofta men typ nattetid eller när man är på jobbet kan de få vila lite så jag ställer nog in 2-3 timmar eller något sådant. Blir lagom när man gör något, sedan pausar för att natta barnen på kvällen och sedan återupptar sysslan ca 2 timmar senare.

Jag har beställt delarna till min serveruppgradering. Inväntar dock 2TB-diskarna och hårddiskburen som jag förhoppningsvis får idag, resten av prylarna har jag hemma nu.

Tack för länken, men jag löste problemet igår redan.
Det är så sant som du säger, jag använder camcontrol idle adaX -t 900 i samma script som tidigare. Det enda som är synd är att man inte kan få output på när och om diskarna går ner i standby, det får man i IDE-läge (om man skippar AHCI alltså). Då skrivs det ut i syslog.

Jag ska uppdatera bloggen.

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem

Tydligen kan man med något kommando fråga diskarna om de har varvat ner eller inte utan att de varvar upp på grund av att man skickar kommandot. Då skulle man kunna lägga det i cron typ en gång i kvarten så kan man logga status. Finns väl även någon räknare i disken på hur många gånger den varvat upp som man kan läsa av med smart har jag för mig.

Permalänk
Medlem

Ja, jag läste om det kommandot, men jag hade inte orken att sätta mig in i det. Jag har kollat mina diskar de senaste dagarna och dom spinner inte upp mer än en gång per dygn, kl 3. Förmodligen har jag ett cron job jag ska se över, men annars håller dom sig stilla.

Kommer du på hur det funkar sen så dela gärna med dig

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem

Hej har en fråga här. Har planer på att köpa en atom bräda och köra freeBSD på den och ha den som nas. Då undrar jag hur bra ZFS fungerar på atom är det lönt att köra det eller är det bättre att bara partionera diskarna och dela ut som dom är.

Visa signatur

PSN: todddan Adda gärna

Permalänk
Medlem

Kan du förklara lite mer vad för syfte burken ska ha? Ska den endast stå och dela ut filer via Samba?
Antal diskar? hurpass viktigt med datasäkerhet på dina filer?

Med tanke på vad jag sett på mitt nybygge så skulle en atombräda, med en 330 eller nyare D5xx inte ha några som helst problem med att köra freebsd med zfs. Jag ska faktiskt sätta mig och se hurpass långt jag kan underklocka/undervolta min cpu utan att förlora prestanda. Det är kanske inte lika intressant för dig att veta dock.

Skriv gärna vad du tänkte bygga ihop för komponenter.

EDIT:
Jag testade precis att överföra 8GB m.h.a. NFS, och det gick ruskigt fort.. 83MB/s såg jag som mest, men nu dök ett nytt problem upp istället..
När jag överför data så "hänger" sig min klientdator, mer eller mindre under hela överföringen.
Kör Ubuntu 10.04 x64.
Det kanske är nautilus som spökar, för det är bara filhanteringsfönstret och själva överföringsindikatorn som låser sig.. datorn jobbar på i full fart vad jag förstår, för så fort filen är klar så blir allt normalt igen. Datorn i övrigt låser sig inte, jag kan surfa etc som vanligt under överföringen. Något som ni stött på tidigare?

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem

Fick lite problem efter att ha installerat FreeBSD och sedan kopplat in ett till SATA-kontrollerkort. Då ville inte FreeBSD montera systemdisken längre och det visade sig bero på att ad16 hade bytt namn till ad20. Antar att man kanske kunnat redigera fstab men jag lyckades inte manuellt få igång det vid bootprompten.

Eftersom jag ännu inte direkt installerat några program eller så valde jag att installera om FreeBSD på ad20 istället. Men jag får väl samma problem om jag byter till AHCI-drivern i FreeBSD antar jag? Om man inte kan boota för at fstab är felaktig, hur ska man då kunna redigera fstab? Ska man boota FixIt från installationsmediet och gå den vägen?

Hårdvarumässigt var det himla knixigt att få in Lian Li EX-34N hårddiskbur i mitt Antec Three Hundred chassi. Moderkortets strömkontakt ville ta emot men efter att dragit om strömsladden så att den gick rakt in istället för att vika sig mot fronten så gick det bra till slut. Jag tror det blir bra så småningom men det är lite trixigt än så länge...

Permalänk
Medlem
Skrivet av Schrimp:

Kan du förklara lite mer vad för syfte burken ska ha? Ska den endast stå och dela ut filer via Samba?
Antal diskar? hurpass viktigt med datasäkerhet på dina filer?

Med tanke på vad jag sett på mitt nybygge så skulle en atombräda, med en 330 eller nyare D5xx inte ha några som helst problem med att köra freebsd med zfs. Jag ska faktiskt sätta mig och se hurpass långt jag kan underklocka/undervolta min cpu utan att förlora prestanda. Det är kanske inte lika intressant för dig att veta dock.

Skriv gärna vad du tänkte bygga ihop för komponenter.

EDIT:
Jag testade precis att överföra 8GB m.h.a. NFS, och det gick ruskigt fort.. 83MB/s såg jag som mest, men nu dök ett nytt problem upp istället..
När jag överför data så "hänger" sig min klientdator, mer eller mindre under hela överföringen.
Kör Ubuntu 10.04 x64.
Det kanske är nautilus som spökar, för det är bara filhanteringsfönstret och själva överföringsindikatorn som låser sig.. datorn jobbar på i full fart vad jag förstår, för så fort filen är klar så blir allt normalt igen. Datorn i övrigt låser sig inte, jag kan surfa etc som vanligt under överföringen. Något som ni stött på tidigare?

Hade tänkt att använda Intel D510MO Atom D510, med 2gb ram. Sen är det en annan sak, jag har lite olika diskar av olika storlek och märke. Innan så har ja bara delat ut diskarna som dom är utan någon raid. Kan man klumpa i hop dessa diskar med zfs till en klump? datasäkerhet är inte jätte viktigt just nu utan när diskarna ger upp så ska ja köpa en bättre uppsättning av diskar.

Visa signatur

PSN: todddan Adda gärna

Permalänk
Medlem
Skrivet av ronnylov:

Eftersom jag ännu inte direkt installerat några program eller så valde jag att installera om FreeBSD på ad20 istället. Men jag får väl samma problem om jag byter till AHCI-drivern i FreeBSD antar jag? Om man inte kan boota för at fstab är felaktig, hur ska man då kunna redigera fstab? Ska man boota FixIt från installationsmediet och gå den vägen?

FixIt är nog metoden jag hade valt.

En mer permanent lösning är att du skapar GPT-diskar och använder dig av labels. Tyvärr sköter inte sysinstall om detta automatiskt och du måste istället göra en manuell installation. Men som bonus har du att steget vidare till ZFS på root är då minimalt.

En äldre lösning som inte kräver GPT är att du använder dig av GEOM labels (glabel).

Visa signatur

"Nothing is impossible because impossible itself says I M Possible..."

Permalänk
Avstängd
Skrivet av t0ddan:

Hade tänkt att använda Intel D510MO Atom D510, med 2gb ram. Sen är det en annan sak, jag har lite olika diskar av olika storlek och märke. Innan så har ja bara delat ut diskarna som dom är utan någon raid. Kan man klumpa i hop dessa diskar med zfs till en klump? datasäkerhet är inte jätte viktigt just nu utan när diskarna ger upp så ska ja köpa en bättre uppsättning av diskar.

Folk som tidigare provat Intel Atom med OpenSolaris fick typ 30MB/sek som max.

Du kan klumpa ihop diskar till ett raid, ja. Och du kan byta en disk i taget mot en större. Till slut efter några dagar så har du bytt ut alla dina diskar mot stora nya diskar. Och dina data är kvar.

Permalänk
Medlem

Jag har nog gjort mitt val nu.. NFS blir det. Med läs och skriv blir det konstant över 80MB/s, så det är inget snack

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem
Skrivet av Weeblie:

FixIt är nog metoden jag hade valt.

En mer permanent lösning är att du skapar GPT-diskar och använder dig av labels. Tyvärr sköter inte sysinstall om detta automatiskt och du måste istället göra en manuell installation. Men som bonus har du att steget vidare till ZFS på root är då minimalt.

En äldre lösning som inte kräver GPT är att du använder dig av GEOM labels (glabel).

Ja jag fick såklart problem när jag aktiverade ahci i /boot/loader.conf. Men fixade det med FixIt, fick ändra från ad20 till ad4 i fstab. Upptäckte sedan glabel och namngav partitionerna och ändrade fstab att använda dessa labels. Fanns visst någon ufsid man kunde använda som alternativ. Efter att använt glabel kunde jag utan problem inaktivera ahci och ändå boota (bara för att testa) så då spelar det längre ingen roll hur disken är inkopplad eftersom den hittar rätt label. Rekommenderar starkt att använda någon typ av label på systemdisken för att slippa problem om man t.ex. köper till ett extra kontrollerkort.

Jag testar lite hur det funkar just nu innan jag bestämmer mig hur jag ska installera slutligen. Många verkar rekommendera att köra / och /usr som UFS med en traditionell swap-partition och resten på ZFS. Motivet till det skulle vara att man då skulle kunna boota en enkel miljö för att reparera ZFS. Men då jag gillar ZFS kanske jag försöker göra en ren ZFS-root när jag bättre lärt mig hur FreeBSD fungerar.

Permalänk
Medlem

Jag har stött på patrull.. Om ni minns hade Ubuntu runt version 7 problem med att diskar dog.. pga Load_Cycle_Count.. Nu har jag märkt att min disk tickar lite väl ofta. Den är annars inte hörbar. Så jag körde en koll:

# smartctl -a /dev/hptrr -d hpt,1/2 | grep Load_Cycle 193 Load_Cycle_Count 0x0032 176 176 000 Old_age Always - 73185

Detta är inte bra.. väldigt hög siffra.
Helheten är:

Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 1 Raw_Read_Error_Rate 0x002f 200 200 051 Pre-fail Always - 0 3 Spin_Up_Time 0x0027 178 176 021 Pre-fail Always - 2075 4 Start_Stop_Count 0x0032 100 100 000 Old_age Always - 318 5 Reallocated_Sector_Ct 0x0033 200 200 140 Pre-fail Always - 0 7 Seek_Error_Rate 0x002e 100 253 000 Old_age Always - 0 9 Power_On_Hours 0x0032 096 096 000 Old_age Always - 3623 10 Spin_Retry_Count 0x0033 100 100 051 Pre-fail Always - 0 11 Calibration_Retry_Count 0x0032 100 100 000 Old_age Always - 0 12 Power_Cycle_Count 0x0032 100 100 000 Old_age Always - 263 192 Power-Off_Retract_Count 0x0032 200 200 000 Old_age Always - 174 193 Load_Cycle_Count 0x0032 176 176 000 Old_age Always - 73187 194 Temperature_Celsius 0x0022 113 091 000 Old_age Always - 34 196 Reallocated_Event_Count 0x0032 200 200 000 Old_age Always - 0 197 Current_Pending_Sector 0x0032 200 200 000 Old_age Always - 0 198 Offline_Uncorrectable 0x0030 100 253 000 Old_age Offline - 0 199 UDMA_CRC_Error_Count 0x0032 200 200 000 Old_age Always - 0 200 Multi_Zone_Error_Rate 0x0009 100 253 051 Pre-fail Offline - 0

Inte många driftstimmar i förhållande.

Nu vet jag att ett kommando löser mitt problem:

# camcontrol cmd ada0 -a "EF 85 00 00 00 00 00 00 00 00 00 00"

Detta stänger av APM, "Automatic Power Management". Och när jag kopplar in disken på en vanlig SATA-port, och kör kommandot så funkar det , och under de 10min som jag kollade, så loggades inga fler Cycles.. så det torde lösa mitt problem.. glad i hågen hoppades jag att denna inställning klibbade, men det verkar den inte gjort. Efter inkoppling av allt igen så är problemet tillbaka.

Nu är systemdisken, som detta gäller, inkopplat på ett HighPoint RocketRaid 2300, som det finns drivrutiner för etc.
Camcontrol devlist ger:
# <HPT DISK 0_0 4.00> at scbus7 target 0 lun 0 (pass6,da0)

Jag har lyckats klura ut nåt i stil med ett sånt här kommando:

# camcontrol cmd 7:0:0 -a "EF 85 00 00 00 00 00 00 00 00 00 00" camcontrol: error sending command

Får alltså inte till det :S
Jag hittar ingenting på google trots gedigna försök.

EDIT:
Under tiden jag skrev detta inlägg, så:

# smartctl -a /dev/hptrr -d hpt,1/2 | grep Load_Cycle
193 Load_Cycle_Count 0x0032 176 176 000 Old_age Always - 73201

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem

Funkar det alltså inte med camcontrol cmd da0 -a "EF 85 00 00 00 00 00 00 00 00 00 00" ?
Förmodligen tappas det när strömmen kopplas ur så man får väl ha det i ett uppstartscript i så fall.
På vissa western digital diskar kan man fixa problemet med wdidle3.exe.

Själv har jag nu lyckats installera FreeBSD på ZFS root mirror enligt denna guide: Installing FreeBSD on a mirrored ZFS pool
Nu verkar det finnas en bugg som sabbar bootning om en av diskarna i spegeln inte funkar.
Finns en patch för denna bugg: The FreeBSD Forums - View Single Post - [Solved] a word of warning regarding ZFS in 8.1
Jag får väl försöka lägga in den patchen och testa vad som händer om jag kopplar ur en disk.

Jag använde alltså GPT labels på partitionerna. Kan man använda GPT label på en "raw disk" också på samma sätt som glabel? Kanske inte finns någon anledning i och för sig. Känns vettigt att använda någon form av labels i alla fall.
Enligt guiden så monterade man /tmp som tmpfs men vid uppstarten varnar den om att tmpfs är "highly experimental on freebsd". Kanske bättre att skapa ett filsystem på zfs även för /tmp ? Å andra sidan känns inte /tmp som något jättekritiskt.

Permalänk
Medlem
Skrivet av t0ddan:

Hade tänkt att använda Intel D510MO Atom D510, med 2gb ram. Sen är det en annan sak, jag har lite olika diskar av olika storlek och märke. Innan så har ja bara delat ut diskarna som dom är utan någon raid. Kan man klumpa i hop dessa diskar med zfs till en klump? datasäkerhet är inte jätte viktigt just nu utan när diskarna ger upp så ska ja köpa en bättre uppsättning av diskar.

Jag har en D510, 2GB RAM och 2x1.5TB körande FBSD 8.1 och ZFS, OSet på två USB stickor.
Ger helt okay prestanda, får runt 150Mbit via SSH/rsync. Angående byta diskar så ska det funka i teorin, har dock haft en hel del strul med det. Jag rekomenderar starkt att testa en hel del innan man tar systemet i skarp användning.

Permalänk
Medlem

Jag har nu lagt in patchen enligt min förra post och det funkar utmärkt att starta upp på bara en av de två hårddiskarna i min boot-mirror. Det var ju skönt att detta fixade buggen, men lite jobbigt med allt kompilerande innan jag fick till det. Jag fick bland annat göra make buildworld vilket tog nästan 2 timmar på min dator.

Jag har installerat lite från ports, bland annat skalet bash som inte finns med i basinstallationen. Men det är lite tråkigt med ports för det tar 10-15 minuter att installera något så simpelt som bash eftersom allting kompileras och min processor är inte jättesnabb. Får testa alternativet med binära paket istället känns det som. Särskilt om man ska installera något större.

I övrigt gillar jag FreeBSD. Gillar att man installerar ett någorlunda enkelt bassystem som man bygger upp. Finns bra dokumentation och trevlig community. Man får pilla en hel del med små detaljer men sådant gillar jag. Hårdvarustödet är bra med min hårdvara, jag kan t.ex. köra AHCI på hårddiskarna vilket jag inte kunde göra med min hårdvara i opensolaris 2008.11 (men det kan ju har förbättrats i senare releaser). Verkar dessutom finnas någorlunda bra stöd för strömsparfunktioner vilket jag saknade i opensolaris. Än så länge känns det väldigt bra att köra FreeBSD istället för opensolaris.

Permalänk
Medlem

Jag har beställt en eSATA>SATA kabel nu (SATA till ESATA kabel 0.5m - Inet.se)

Jag tror inte att jag får bort Load_Cycle_Count annars.. min disk är snart uppe i 80 000 loads nu.. men får plocka bort kontrollerkortet och sen dra ut kabeln till bakplåten, och köra systemdisken den vägen, så jag får moderkortets kontroller.. Då kommer jag åt disken, och kommer kunna lägga camcontrol joxet i ett bootscript.
Smärre kosmetiskt fel om jag bara får det att funka Fattas bara att moderkortet bara stödjer 6 diskar så den inte känner igen systemdisken... får nog kabeln i veckan iaf, så avrapporterar då

Någon som kan får gärna informera mig om hur man kan göra en motsvarande "apt-get upgrade".. vad jag vet så uppdateras ports med "portsnap fetch update", men sen då?

Kan man uppgradera t.ex samba om det kommit nåt nytt, eller måste man göra en deinstall, och sen kompilera om och installera om?

Har faktiskt inte hittat nån bra info som jag förstått

@ronnylov, vänta tills du installerar samba, om du gör det.. då lär den stå en stund

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem
Skrivet av Schrimp:

Någon som kan får gärna informera mig om hur man kan göra en motsvarande "apt-get upgrade".. vad jag vet så uppdateras ports med "portsnap fetch update", men sen då?

Kan man uppgradera t.ex samba om det kommit nåt nytt, eller måste man göra en deinstall, och sen kompilera om och installera om?

Finns flera sätt och flera applikationer för att hålla systemet uppdaterat, denna sida går igenom de vanligaste sätten.

Permalänk
Medlem
Skrivet av ronnylov:

Jag har nu lagt in patchen enligt min förra post och det funkar utmärkt att starta upp på bara en av de två hårddiskarna i min boot-mirror. Det var ju skönt att detta fixade buggen, men lite jobbigt med allt kompilerande innan jag fick till det. Jag fick bland annat göra make buildworld vilket tog nästan 2 timmar på min dator.

Jag har installerat lite från ports, bland annat skalet bash som inte finns med i basinstallationen. Men det är lite tråkigt med ports för det tar 10-15 minuter att installera något så simpelt som bash eftersom allting kompileras och min processor är inte jättesnabb. Får testa alternativet med binära paket istället känns det som. Särskilt om man ska installera något större.

I övrigt gillar jag FreeBSD. Gillar att man installerar ett någorlunda enkelt bassystem som man bygger upp. Finns bra dokumentation och trevlig community. Man får pilla en hel del med små detaljer men sådant gillar jag. Hårdvarustödet är bra med min hårdvara, jag kan t.ex. köra AHCI på hårddiskarna vilket jag inte kunde göra med min hårdvara i opensolaris 2008.11 (men det kan ju har förbättrats i senare releaser). Verkar dessutom finnas någorlunda bra stöd för strömsparfunktioner vilket jag saknade i opensolaris. Än så länge känns det väldigt bra att köra FreeBSD istället för opensolaris.

pkg_add -r bash

Permalänk

Nu börjar ZFS v28 för FreeBSD närma sig.

Citat:

This patchset is also a message we, as the FreeBSD project, would like
to send to our users: Eventhough OpenSolaris is dead, the ZFS file
system is going to stay in FreeBSD. At this point we have quite a few
developers involved in ZFS on FreeBSD as well as serveral companies.
We are also looking forward to work with IllumOS.

Visa signatur

"Linux is good because it keeps people out of real kernels"

Permalänk
Skrivet av Schrimp:

Kan man uppgradera t.ex samba om det kommit nåt nytt, eller måste man göra en deinstall, och sen kompilera om och installera om?

Snabbguide:

Se först till att ditt ports-träd är uppdaterat. Själv använder jag csup.

Installera sedan portmaster:

# cd /usr/ports/ports-mgmt/portmaster && make install clean

Se till att du har ett färskt index:

# cd /usr/ports && make fetchindex

Kolla om du har någon installerad applikation som inte kör på senaste versionen:

# pkg_version -v

Uppdatera applikation till senaste versionen, i det här fallet samba:

# portmaster samba

Glöm inte att läsa /usr/ports/UPDATING med jämna mellanrum.

Visa signatur

"Linux is good because it keeps people out of real kernels"

Permalänk
Medlem

Detta ska bara ses som ett alternativ, varken bättre eller sämre än K-Ms

Skrivet av Kent-Mustafa:

Se först till att ditt ports-träd är uppdaterat. Själv använder jag csup.

# portsnap fetch update

Citat:

Installera sedan portsmaster:

# cd /usr/ports/ports-mgmt/portmaster && make install clean

#cd /usr/ports/ports-mgmt/portupgrade && make install clean

Citat:

# cd /usr/ports && make fetchindex

redan gjort iom 'portsnap fetch update'

Citat:

Kolla om du har någon installerad applikation som inte kör på senaste versionen:

# pkg_version -v

# pkg_version -v | grep -v -e "="

- så slipper man se de som redan är up-to-date utan att missa de som har andra problem.

Citat:

# portmaster samba

# portupgrade samba

Citat:

Glöm inte att läsa /usr/ports/UPDATING med jämna mellanrum.

Ja.

Permalänk
Medlem

Apropå samba, finns det ingen nyare version än 3.4.8 i ports? Trodde version 3.5.4 var senaste stabila samba?

Jag har nu importerat min opensolaris raidz1 och det gick bra. Får dock upp någon varning om korrupt sekundär partitionstabell, använder den primära partitionstabellen på dessa hårddiskarna men scrub hittade inga fel så det verkar OK ändå. Uppgraderade till zpool version 14 (dessa diskar körde version 13).

Kopplade in de sista hårddiskarna också. Med alla 11 diskar inkopplade får jag felmeddelande från datorns bios tror jag (verkar komma innan boot):
error66 lba32
error66 lba1
error66 lba32
error66 lba1

Meddelandet om korrupt partitionstabell kom upp efter att detta inträffade så det kan finnas ett samband.
Dessa felmeddelanden verkar försvinna när jag kopplar ur hårddiskarna som är anslutna till Highpoint Rocket 620 kontrollern. Men även med diskarna inkopplade bootar systemet upp och allting verkar fungera trots dessa felmeddelanden vid uppstarten. Testade ändra från AHCI till IDE-läge på hårddiskarna i moderkortets bios och då kommer inte dessa felen upp. Finns även en option att ställa IDE på endast två av sata-portarna i moderkortets bios, men när jag testade det försvann inte felmeddelandet. Lustigt nog är det ändå bara två av hårddiskarna som försvinner från camcontrol devlist när jag inaktiverat AHCI för alla diskar i bios trots att det är 6 stycken hårddiskar anslutna till moderkortet. De två som försvinner från camcontrol hamnar under atacontrol istället. Ska man tolka det som att resterande 4 diskar ändå använder AHCI eftersom de listas under camcontrol? Kanhända det är något vajsing med AHCI på mitt moderkort, det funkade ju inte alls på opensolaris men jag får väl prova och se hur det blir.

Hursomhelst, ZFS har ju koll på eventuella korrupta filer så jag har satt på AHCI igen i moderkortts bios och kör vidare, ignorerar dessa fel så länge för att se om ZFS detekterar några fel. För att få till min 7-diskars raidz2 körandes med endast 5 stycken verkliga hårddiskar så använde jag mig av minnesdiskar som någon tipsade om i tråden. Använder även glabel på 2TB-diskarna för att ge dem trevliga namn (label/disk7, label/disk8, label/disk9 och label/disk10). Då sparas dessa labels som metadata på hårddisken så det blir lättare att identifiera diskarna.

Funkade i alla fall bra att skapa raidz2 med 5 verkliga diskar plus två minnesdiskar md0 och md1. Den nya poolen heter nu nytank. Den gamla heter tank. md0 och md1 är vardera på 1 TB men mitt RAM är inte så stort så det första jag gjorde var att försöka sätta md1 och md0 offline innan jag fyller på med data. Men sedan gick det inte att sätta md0 offline när md1 redan är offline för zpool vägrar låta mig ta bort all redundans. Då fick jag helt enkelt ta bord md0 med malloc -d -u 0 och den blev UNAVAIL i zpool status, men poolen funkar fortfarande dock utan redundans. Min gamla tank har fortfarande 1 disk redundans så det är ingen fara.

Nu har jag alltså två pooler. tank med raidz1 5x1 TB. nytank med 7-diskars raidz2 som körs degraderad på 5 diskar (varav några 2 TB och några 1 TB så utrymmet är just nu 5 TB för lagring på nytank).

Så duplicerar jag tank till nytank:
zfs snapshot -r tank@transfer
zfs send -R tank@transfer | zfs receive -vFd nytank

Verkar funka smidigt, tar snapshots på alla filsystem på tank och skickar dem allihopa till nytank. Är förhoppningsvis färdigt framåt kvällen. När det är färdigt så ska tank ha klonats till nytank.

Framtidsplaner:
Om överföringen går bra - exportera tank och ta en 1TB-disk därifrån till nytank så man får redundans där istället (ersätt md1).

Går det bra ta ytterligare 1 TB-disk från tank (då förstörs tank men filerna är säkrade på nytank istället) och ersätt md0

Då har jag 7 diskars raidz2 med alla diskar online. Dock är vissa diskar bara 1TB. Det får fixas:
Sätt en 1 TB-disk offline, kombinera ihop den med 1TB-disk från förstörda tank med gconcat och ersätt disk i nytank.
fortsätt så tills alla diskar är 2 TB (varav vissa är 1TB-diskar parvis i jbod med gconcat).

Slutligen zpool export och import för att få 7x2TB raidz2...
Trevligt med funktioner som gconcat så att man kan återanvända sina 1TB-diskar parvis så de upplevs som 2TB-diskar.
Men jag har en känsla av att det kommer att ta ganska lång tid att hålla på ersätta en disk i taget, vänta på resilver och så vidare men så småningom ska det väl bli färdigt. Känns ändå bra att gå över från raidz1 till raidz2 och jag kan nog behöva det med lagring på 10 stycken hårdiskar.

Intressant fakta kan vara att de 2 TB hårddiskar jag köpte nu kostade lika mycket som 1TB-diskar kostade i december 2008 när jag byggde min filserver. Så 2012 kan man kanske få 4TB-diskar för för en tusenlapp. Då får jag väl konkatenera 2TB-diskarna istället och fylla på med 4 TB-diskar. På så sätt kan man återanvända en del gamla diskar. Blir nog en enklare procedur när man kör raidz2 jämfört med raidz1. Plocka ur en disk och ersätt med dubbelt så stor. Plocka ur nästa disk, konkatenera denna bortkopplade disk med den tidigare bortkopplade disken och ersätt. Nästa disk ersätter man med en ny dubbelt så stor och så vidare.

Detta kanske kan ge idéer till er som idag sitter med typ en 6-diskars raidz2 med 1TB-diskar och vill utöka utrymmet. Köp till 3 stycken 2TB-diskar och konkatenera till en 6 diskars raidz2 som består av 3 äkta 2TB-diskar och 3 stycken jbod-par på 1TB. Då får ni 8 TB utrymme istället för 4TB. Visst ni kunde istället ha lagt till en 3-diskars raidz1 med 2TB-diskar och fått samma utrymme men då kan ni ha oturen om två stycken hårddiskar i raidz1 går sönder istället för om dessa hade suttit i raidz2-arrayen. Å andra sidan blir det snabbare med flera vdev så man kanske hellre köper 4 stycken 2TB och lägger till en raidz2 till sin existerande pool men det blir ju dyrare också och tar en extra hårddiskplats i utrymme i chassit.

En nackdelen jag ser med att köra jbod är väl att risken blir större att hårddiskar faller bort ur arrayen. Är ju dubbelt så stor risk att någon disk i ett hårddiskpar går sönder jämfört med en ensam disk. Men jag tycker jag har kompenserat detta genom att gå från raidz1 till raidz2.

Permalänk
Skrivet av mix_room:

Detta ska bara ses som ett alternativ, varken bättre eller sämre än K-Ms

Portupgrade är abandonware. Nya användare bör använda portmaster istället.

Visa signatur

"Linux is good because it keeps people out of real kernels"

Permalänk
Medlem

Attans, mina 1 TB-diskar är för små för att ersätta md0 och md1. Orsaken är att minsta volymen i zpool nytank är en partition på 1,5 TB-hårddisken på 1 TB men den blev ca 110 MB större än mina 1TB-diskar och man kan inte göra zpool replace med en mindre disk.

Lösning jag skapade en zfs volym på rpool på 1 GB, körde gconcat med min 1TB-disk och fick en aningen större jbod-volym. Denna funkade att använda för zpool replace... Jaja det är bara en tillfällig lösning tills jag får ihop 2TB enheterna...