Permalänk
Medlem

Tack för fina svar ang ports

Nu har jag bara en fråga till tror jag; behöver jag ändra någon server som är närmare belägen? det känns lite trögt att ladda ner ibland..

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem

Att använde en mirror som är närmare kan vara vettigt. De brukar dessutom vara mindre hårt belastade.

FTP Sites

Permalänk
Medlem

Jag har ny migrerat färdigt min datapool och har nu mina 10 TB lagringsutrymme (eller nja det blev väl ungefär 9 TB om man räknar med 1TB=1024*1024*1024*1024). Har även lagt in samba och får ca 60 MB/s med Windows 7 som klient. Lite svårt att jämföra prestandan med opensolaris eftersom jag nu inte har samma hårdvara (har ju flera hårddiskar och flera kontrollerkort varav ett körandes på PCI) men där fick jag ändå 90 MB/s. Är väl ganska nöjd med hastigheten men skulle nog vilja ha lite bättre. Men jag har knappt tweakat något ännu.

Ett problem jag fick var att datorn startade om sig varje natt klockan 3 och på lördagmorgnar även klockan 4:15. Tog bort security checks i periodic daily och någon annan grej i periodic weekly som accessade hårddiskarna mycket så löste det sig tillfälligt. Men sedan när jag började hårdtesta samba så fick jag kernel panic. Har nu lagt in följande tweak i boot/loader.conf:
vfs.zfs.arc_max=”2048M”
Detta verkade göra susen när det gäller stabiliteten och den startar inte om sig längre.
Frågan är dock varför jag var tvungen att göra detta, och hur vet man hur man tweakar optimalt?
ZFS ska ju inte behöva tweakas med amd64 och >2GB RAM (jag har 4GB).
Man vill ju gärna utnyttja minnet optimalt utan att äventyra stabiliteten.
Lite konstigt att kärnan och ZFS inte riktigt verkar veta om varandras minnesanvändning och man alltså måste tweaka så att de inte krockar med varandra (känns i alla fall som att det är så)... Kärnan ska väl inte få panik bara för att RAM-minnet används? Jag har ju ändå 8GB swap-utrymme så det borde väl räcka rätt långt. Visserligen testar jag överföra filer på 30GB och mera via samba för att stressa filservern litegrann men jag använder sådana filer ibland när jag redigerar video.

Permalänk
Medlem

Problemet här är att ZFS också är en del av kärnan och allokerar icke-swapbart minne.

Visa signatur

"Nothing is impossible because impossible itself says I M Possible..."

Permalänk
Medlem

Nu har jag tweakat litegrann och får ca 79 MB/s läshastighet från filservern till dator med Windows 7 och ca 90 MB/s skrivhastighet till filservern när jag överför filer med samba.

Det som verkligen gjorde susen är följande i /boot/loader.conf
vfs.zfs.prefetch_disable=0
vm.kmem_size="8G"
vfs.zfs.arc_max=”2048M”

Dessutom har jag ändrat tillbaka socket options i smb.conf till:
socket options = TCP_NODELAY

Jag tror detta är default i smb.conf och det verkar vara en vettig inställning alltså. I och för sig blev det knappt någon skillnad om jag kommenterade bort hela raden med socket options heller (fortfarande 79 MB/s läs och 90 MB/s skriv).
Har även kompilerat samba med aio support och har detta i smb.conf:
aio read size = 16384
aio write size = 16384

Går säkert att tweaka mera men om allting funkar stabilt nu så är jag nöjd med hastigheterna.
Det är väl ungefär i nivå med vad jag hade i opensolaris, kanske något sämre läshastighet. Men med tanke på att några hårddiskar sitter på PCI-kontroller så borde det sänka farten något (dock så används sällan mer än en disk i taget från PCI-kontrollern). Antar att flaskhalsen sitter mer i ZFS tillsammans med nätverkskortet.

EDIT: Detta verkar göra susen för skrivhastigheten:
vfs.zfs.txg.write_limit_override=524288000
Skriver nu med ca 96 MB/s via samba till filservern (tror läshastigheten för lokala hårddisken i klienten stoppar)... Källa: ZFS Write Speed Very Inconsistent - The FreeBSD Forums

Permalänk

Har under en period migrerat min filserver från Linux (Debian stable) med 2st raid5 och XFS ovanpå eftersom jag tyckt att 4 diskar åt gången är lagom att uppgradera när lagringen tar slut.
Efter att ha upptäckt att lite gamla dokument som hängt kvar bra länge faktiskt innehöll datafel och en del gick inte ens att öppna fick jag nog och tänkte nu ska jag banne mig bevara den data jag lagrar på ett korrekt sätt! -> ZFS. Sagt och gjort, 8 diskar inhandlade och 4GB ECC minne samt ett AOC-USAS-L8i och efter lite meck så har jag fått igång allting men inte riktigt hunnit med att optimera. Ska ge mig på optimeringen i helgen. Det stora problemet just nu är svenska tecken via samba. Ställt in FreeBSD att använda sig av UTF-8 och det fungerar ju bra när man kör putty. Men om jag skapar en fil i utforskaren med filnamn: "åäö.txt" från min WinXP host så döps filen till "???.txt" när jag kollar i consolen. Någon som har en lösning på detta problem?

Permalänk
Medlem
Skrivet av TimeWalker:

Någon som har en lösning på detta problem?

Har du kommit ihåg att ställa om inställningarna i consolen? Using Localization
Du kanske bara har gjort det för samba?

Permalänk
Skrivet av mix_room:

Har du kommit ihåg att ställa om inställningarna i consolen? Using Localization
Du kanske bara har gjort det för samba?

Hehe, blir själv förvirrad av detta. Har en vanlig användare och så root.
Loggar jag in med putty på rootkontot och skapar en fil med "touch åäö_root.txt" så ser jag i konsollen (efter jag kört ls, jag ser åäö tecknen när jag skriver in dem):
???_root.txt
Loggar jag sedan in med min vanliga användare och skapar en fil: "touch åäö_user.txt" så ser jag i konsollen:
???_user.txt
går jag sen in och tittar på filerna på windowsdatorn via samba ser jag dessa filnamn

åäö_root.txt
och
åäö_user.txt

Så det verkar ju som att allt fungerar förutom att tecknen inte visas som dom ska lokalt i konsollen samt via putty...

de ändringar jag gjort är följande:

i /etc/login.conf har jag ändrat detta, stod något om russian users först..

swedish|Swedish Users Accounts:\ :charset=ISO-8859-1:\ :lang=sv_SE.ISO8859-1:\ :tc=default:

i /usr/local/etc/smb.conf har jag lagt till detta:

dos charset = CP850 unix charset = ISO8859-1 display charset = ISO8859-1

Samt i /etc/rc.conf ligger det:

keymap="swedish.iso" font8x14="iso15-8x14" font8x16="iso15-8x16" font8x8="iso15-8x8"

EDIT:
hittade vad som saknades:

In /etc/profile:

LANG=sv_SE.ISO8859-1; export LANG MM_CHARSET=ISO-8859-1; export MM_CHARSET

Permalänk
Medlem

Nu har jag nog slagit nåt slags rekord :):)

Jag postar en print screen.
Jag har klippt och klistrat lite, pga att överföringsfönstret låser sig under överföring, så ger ingen rättvis bild. Men Conky i bakgrunden visar.. och jag har ingen anledning att editera nån bild för att skapa nåt fiktivt.

Jag såg 111MB/s som bäst. Jag tror inte min DIR-655 klarar överföra mycket mer än det; är väl så nära 1Gbit man kan komma..?
Petat in ronnys tips som är några poster högre upp.

Freebsd / nfs
Printen visar en "zpool iostat 1", alltså 1sek intervall.

Jag kan bara meddela att det går.. fort.

Jag har idag även petat in en Intel X25-V 40GB som jag dumpade över systemet till. Men den gör nog inte mycket för överföringen, men mina problem med Load_Cycle_Count är nu ur världen iaf.. Och /var/tmp och /tmp lagd på ramdisk. Och "noatime" tillagt till alla mountpoints.

EDIT:

# dd if=/dev/zero of=/tank/testfile.zeroes bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes transferred in 85.186571 secs (123091702 bytes/sec) # dd of=/dev/null if=/tank/testfile.zeroes bs=1M 10000+0 records in 10000+0 records out 10485760000 bytes transferred in 31.614754 secs (331672988 bytes/sec)

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Medlem

Det kan gå väldrigt snabbt så länge man skriver till filcachen på filservern (alltså tills RAM-minnet är fullt).
Testa en riktigt stor fil (typ 20 GB) så kan det sjunka litegrann efter en stund. Men du kanske har hittat någon optimal uthållig inställning. Dessutom gäller det ju att ha snabb intern håddisk i klientdatorn man testar från (annars har man ju en flaskhals vid läsning av hårddisken man kopierar ifrån). Sitter man med SSD-disk så är väl inte det något problem, själv har jag tyvärr ingen SSD ännu.

Teoretiskt max för gigabit är ca 119 MB/s om man räknar 1 MB = 1024*1024 byte.
Jag får testa NFS också. Jag fick bara 25 MB/s mot min ubuntumaskin med CIFS. Mot Windows7 går det i 78 - 96 MB/s. Hur har du tweakat NFS förresten?

Om du skaffat SSD så kan du avsätta en partition för ZFS L2ARC så får du kanonbra accesstider på småfiler som cacheas på SSD när du läser från din zpool. Nackdelen är att det äter upp en del RAM-minne att ha L2ARC så det kanske inte är lönt om man inte har mer än 4GB RAM.

Så här får jag när jag testar med dd:

[root@filserver ~]# dd if=/dev/zero of=/tank/video/test/test.000 bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes transferred in 75.542510 secs (138806084 bytes/sec)

Sedan omstart av filservern för att tömma eventuell filcache i RAM och:

[root@filserver ~]# dd if=/tank/video/test/test.000 of=/dev/null bs=1M count=10000 10000+0 records in 10000+0 records out 10485760000 bytes transferred in 26.992897 secs (388463676 bytes/sec) [root@filserver ~]#

Jag har finslipat mitt tidigare tweak i /etc/sysctl.conf till:
vfs.zfs.txg.write_limit_override=671088640

Man kan finjustera värdet på denna för att maximera hastigheten på gigabitnätverket och då hamnar man väl på ca 120 MB/s i skrivhastighet till sin zpool med dd-testen ovan (det går som snabbast när skrivning till disk går ungefär lika snabbt som gigabitnätverkets filöverföringshastighet). Men man kan också tweaka värdet för att maximera hastigheten internt när man kör dd-testet enligt ovan (och då kan jag väl maxa uppåt 200 MB/s om jag minns rätt). Ökar man värdet för mycket så börjar hastigheten på gigabitnätet sjunka men man får ju snabbare skrivning när raiden jobbar internt. Så jag labbade lite för att hitta någon kompromiss som inte segade ner gigabitnätet alltför mycket men samtidigt heller inte segar ner skrivning till raiden internt alltför mycket. Har väl inte hittat optimala ännu men då jag prioriterar nätverkshasigheten stannade jag någonstans innan hastigheten började gå ner på grund av för högt värde på vfs.zfs.txg.write_limit_override. Så denna tweak bromsar alltså skrivhastigheten för att undvika det ojämna flödet när data skrivs stötvis till hårddiskarna och jämnast dataflöde får man ju när hårddiskar och nätverk går lika snabbt.

Permalänk

Sitter och kollar på 2TB diskar för att ha i en raidz2 med 8 diskar hade jag tänkt.
Den billigaste/bästa kandidaten jag kan hitta är denna
Samsung EcoGreen F4 HD204UI 32MB 2TB - Hitta lägsta pris, omdömen och information om 3,5 tums S-ATA-hårddiskar
Fast jag är lite skeptisk till den pga 4k emuleringen och att det är en ecogreen, kanske man ska vänta på en likvärdig Spinpoint version?
Har läst en del om att köra ZFS på 4k emulerings diskar inte är optimalt.

Ronnylov: vilka 2 TB diskar var det du köpte?

Har också tänkt köra FreeBSD precis som ni andra i tråden.

Visa signatur

Stationär: PC-K62 | i7 930 @ 2.8ghz | TRUE | Gigabyte X58A UD7 | 6 gb | GTX570 | 2x500+2x1000+320 gb | Windows 7
Server: Athlon II X2 240E | Asus M4A78T-E | 8 gb | 320 GB + 8x2TB | FreeBSD
Bärbar: Thinkpad T60 | C1S 1.6 ghz | 2 gb | 40 gb hdd | Archlinux https://www.dropbox.com/referrals/NTEzMjU3MDk

Permalänk
Medlem

Jag köpte 4 stycken Samsung EcoGreen F3 HD203WI 32MB 2TB och en Samsung EcoGreen F2 HD154UI 32MB 1.5TB. Sedan tidigare har jag fem stycken Western Digital Caviar Green WD10EACS 16MB 1TB som jag återanvände. Jag har inte haft några problem med HD203WI diskarna ännu (dessa har inte heller 4k sektorer) men de verkar vara på utgående och svåra att få tag på numera (jag hade nog tur och köpte innan de började ta slut).

Jag skulle nog avvakta med att köpa 4k hårddisk för ZFS eftersom många verkar ha problem med western digitals 4k-diskar. Det bör snart visa sig hur dessa samsung F4 funkar med ZFS. Verkar som de flesta nya stora hårddiskar är 4k-diskar så frågan är om någon eventuell ny spinpoint kanske också blir 4k? Problemet med dagens 4k-diskar är att de luras och inte talar om för operativsystemet att de verkligen är 4k-diskar utan påstår att de är 512-diskar. Om de inte hade lurats så hade de funkat utmärkt.

Många verkar rekommendera Hitachi 2TB-diskar som ska funka bra med ZFS. Western digital black 2TB ska nog funka bra också men de är ju halvdyra. Själv hade jag Seagate barracuda LP som ett alternativ när jag letade hårddiskar. Det finns ett eventuellt firmwareproblem med dessa men jag har läst att de funkar bra med ZFS (de har 512 byte sektorer).
Seagate Barracuda - Wikipedia, the free encyclopedia
Men man kan ju se till att lägga in senaste firmware så ska väl Barracuda LP funka bra. De är också ganska strömsnåla och billiga.

Här är några alternativ:
Produktjämförelse hos Prisjakt

Utifrån dina önskemål att inte ha en "green" och att det ska vara prisvärt så verkar väl Hitachi vara ett vettigt val. Själv hade jag nog valt Seagate Barracuda LP om det inte längre går att köpa samsung HD203WI då jag gärna vill ha det strömsnålt. Samsung F4 är "undvik" p.g.a. 4k sektorer...

Permalänk

Ja det verkar som man är lite sent ute eftersom typ alla nya diskmodeller verkar köra 4k emulering.

Jo 2TB Seagate Barracuda LP såg ju intressant ut om den inte har någon 4k emu. Hitachin också men den var lite för dyr för min budget, ska ha råd att köpa något att sätta dom i också.
Kommer för det mesta använda diskarna för torrents och streama bluray backuper till min andra dator räcker green diskarnas random read för det?

En annan anledningen till att jag är skeptisk till green är för att slippa några problem med diskhuvuden som fälls in och diskar som varvar ner och blir väkta igen, men det är kanske bara vissa modeller som har det(WD Green?)?

Just nu lutar det åt 2TB Seagate Barracuda LP men ska kolla upp dom lite mera först. Sen är det en på Hardforum som håller på och gör tester med F4 och ZFS ska se om man gör något test med 8 st i raidz2 också.

Visa signatur

Stationär: PC-K62 | i7 930 @ 2.8ghz | TRUE | Gigabyte X58A UD7 | 6 gb | GTX570 | 2x500+2x1000+320 gb | Windows 7
Server: Athlon II X2 240E | Asus M4A78T-E | 8 gb | 320 GB + 8x2TB | FreeBSD
Bärbar: Thinkpad T60 | C1S 1.6 ghz | 2 gb | 40 gb hdd | Archlinux https://www.dropbox.com/referrals/NTEzMjU3MDk

Permalänk
Medlem
Skrivet av The_SLain_Man:

Sen är det en på Hardforum som håller på och gör tester med F4 och ZFS ska se om man gör något test med 8 st i raidz2 också.

Har du en länk så man kan följa tråden?

Visa signatur

WS: Asus P8Z77-I Deluxe mITX | Intel 3770K@4.6 | NH-U12P | Asus 780 GTX | Corsair 2x8GB 1600Mhz CL9 | Samsung 840 512GB | Ubuntu 16.04.3 x86_64 | Corsair AX750 | 2x Dell U2412M | Puppe.se | NAS: i7 860, 16GB DDR3, GA-P55M-UD4, FD Define R3, 8x2TB Samsung F4EG, Serveraid M1015, EVGA 750W G2 PSU, FreeBSD x64

Permalänk
Skrivet av Schrimp:

Har du en länk så man kan följa tråden?

Testing ZFS RAID-Z performance with 4K sector drives - [H]ard|Forum

Visa signatur

Stationär: PC-K62 | i7 930 @ 2.8ghz | TRUE | Gigabyte X58A UD7 | 6 gb | GTX570 | 2x500+2x1000+320 gb | Windows 7
Server: Athlon II X2 240E | Asus M4A78T-E | 8 gb | 320 GB + 8x2TB | FreeBSD
Bärbar: Thinkpad T60 | C1S 1.6 ghz | 2 gb | 40 gb hdd | Archlinux https://www.dropbox.com/referrals/NTEzMjU3MDk

Permalänk
Medlem

Enligt detta har Barracuda LP ingen ingen 4k emulering, men möjligen ett firmwareproblem:
The FreeBSD Forums - View Single Post - [Solved] Recommended HDD for ZFS homeserver
Nästa post hävdar att de funkar utmärkt.

Det är inga problem att streama bluray, det är sekventiell läsning och med ganska låg hastighet dessutom. Jag som endast har green-diskar får uppåt 95 MB/s sekventiell läs och skrivhastighet över gigabitnätverk och bluray är typ max 5 MB/s. Torrents kör jag inte mot raidz2-arrayen. När jag kör nerladdningar så gör jag det mot systemdisken och kopierar sedan över filen till lagringsarrayen när den laddat färdigt.

Permalänk
Medlem

Jag har precis installerat 2st Samsung Spinpoint F4EG och från camcontrol får jag:

protocol ATA/ATAPI-8 SATA 2.x device model SAMSUNG HD204UI firmware revision 1AQ10001 serial number WWN 50024e9040efc91 cylinders 16383 heads 16 sectors/track 63 sector size logical 512, physical 512, offset 0 LBA supported 268435455 sectors LBA48 supported 3907029168 sectors PIO supported PIO4 DMA supported WDMA2 UDMA6 media RPM 5400

Borde inte physical rapporteras som 4096 eller firmware trixar med detta?
I BIOS så ses diskarna som 200.0GB, vid boot tyckte jag att FreeBSD såg mer åt 2TB. Har inte valt filsystem då jag läst i denna tråden att ZFS+4K inte är en bra kombination.

Update: Det är 4k med 512 emulering. Har inte hittat någon info om det går att stänga av denna.

Update2: Ser även att sector/track är 63 och antar att den är "miss alligned", kan man fixa det med gnop/fdisk ?

Visa signatur

Celeron 300A @ 450MHz

Permalänk
Skrivet av mayo:

Jag har precis installerat 2st Samsung Spinpoint F4EG och från camcontrol får jag:

protocol ATA/ATAPI-8 SATA 2.x device model SAMSUNG HD204UI firmware revision 1AQ10001 serial number WWN 50024e9040efc91 cylinders 16383 heads 16 sectors/track 63 sector size logical 512, physical 512, offset 0 LBA supported 268435455 sectors LBA48 supported 3907029168 sectors PIO supported PIO4 DMA supported WDMA2 UDMA6 media RPM 5400

Borde inte physical rapporteras som 4096 eller firmware trixar med detta?
I BIOS så ses diskarna som 200.0GB, vid boot tyckte jag att FreeBSD såg mer åt 2TB. Har inte valt filsystem då jag läst i denna tråden att ZFS+4K inte är en bra kombination.

Update: Det är 4k med 512 emulering. Har inte hittat någon info om det går att stänga av denna.

Update2: Ser även att sector/track är 63 och antar att den är "miss alligned", kan man fixa det med gnop/fdisk ?

Vad jag vet så finns det hitils ingen disk där du kan stänga av emuleringen på.

Visa signatur

Stationär: PC-K62 | i7 930 @ 2.8ghz | TRUE | Gigabyte X58A UD7 | 6 gb | GTX570 | 2x500+2x1000+320 gb | Windows 7
Server: Athlon II X2 240E | Asus M4A78T-E | 8 gb | 320 GB + 8x2TB | FreeBSD
Bärbar: Thinkpad T60 | C1S 1.6 ghz | 2 gb | 40 gb hdd | Archlinux https://www.dropbox.com/referrals/NTEzMjU3MDk

Permalänk
Medlem

Skulle gpart/geli med sektorstorlek 4096 minska effekten av prestanda förlusten med 512 emuleringen när man vill köra med ZFS ?
(Har hittat en del guider/how to med geli/gpart + ZFS men inget nämns om sektoremulering och effekterna)

Visa signatur

Celeron 300A @ 450MHz

Permalänk

Har nu beställt 4 st Hitachi Deskstar 7K2000 2TB, två från inet och två från dustin. Beställer 4 till vid senare tillfälle. Även beställt AOC-USASLP-L8i från mullet.

Visa signatur

Stationär: PC-K62 | i7 930 @ 2.8ghz | TRUE | Gigabyte X58A UD7 | 6 gb | GTX570 | 2x500+2x1000+320 gb | Windows 7
Server: Athlon II X2 240E | Asus M4A78T-E | 8 gb | 320 GB + 8x2TB | FreeBSD
Bärbar: Thinkpad T60 | C1S 1.6 ghz | 2 gb | 40 gb hdd | Archlinux https://www.dropbox.com/referrals/NTEzMjU3MDk

Permalänk
Medlem

The_Slain_Man: Det bästa är om du kan installera alla hårddiskar samtidigt. Annars kan du i och för sig börja med en raidz1 på 4 diskar och sen lägga till en raidz1 på 4 diskar till i din pool. Men raidz2 på 8 diskar är ett säkrare alternativ.

Alla: Själv har jag köpt en ny switch, en D-Link Prosafe GS108Tv2. Switchen verkar ha stöd för IEEE 802.3ad LACP. Alltså link aggregation. Kom att tänka på att jag förutom mitt intel pro 1000pt PCIe nätverkskort i servern även har moderkortets inbyggda realtek nätverkskort. Eftersom jag fortfarande har en port ledig på min nya switch funderar jag på att koppla två nätverkskablar till min server och på så sätt få redundans och bättre bandbredd mellan switchen och servern om jag kan få servern att ansluta med 802.3ad LACP.

Om jag fattat rätt finns det något som heter lagg som stödjer detta i freebsd. Funkar detta även om man har två olika sorters nätverkskort, realtek och intel som i mitt fall? Fördelen skulle vara om två klientdatorer samtidigt kör filöverföringar via gigabitnätverket så skulle bandbredden fördelas i de två kablarna (load balancing) och man skulle slippa flaskhalsen mellan servern och switchen. En annan fördel är redundans så att om ena nätverkkortet eller nätverkskabeln krånglar så växlar den automatiskt över till den andra kabeln mellan switchen och servern. Jag skulle i och för sig även kunna ansluta min desktop med två sladdar på samma sätt och få det att funka snabbare om jag överförde från två hårddiskar samtidigt till servern men tyvärr går inte det när jag kör Windows på desktopdatorn (funkar bara med vissa identiska nätverkskort eller typ intels serverkort med två anslutningar). Men det kanske kan fungera med olika nätverkskort i Linux på desktopdatorn?

En annan grej man skulle kunna använda lagg till är om man kör trådlöst nätverk så kan man få den att atuomatiskt växla mellan kabel och trådlöst (bra på en bärbar dator om den kör freebsd). Kan ju också användas som redundans på servern så att den växlar till trådlöst om t.ex. switchen skulle gå sönder. Jag har några trådlösa PCI-kort liggandes så här skulle jag ju kunna få användning av ett sådant. Nu är det väl inte så jättekritiskt med redundant nätverk hemma men det är roligt att labba med.

Såg också att nya switchen stödjer VLAN. Man kan alltså separera olika virtuella nätverk. Kanske kan vara bra säkerhetsmässigt? Så om jag t.ex. vill ha en webbserver så kan man separera den till ett jail i FreeBSD och sedan ansluta den med ett VLAN via switchen till routern och om jag byter firmware i min Linksys WRT54GL till DD-WRT eller något sådant kanske få en egen separat länk ut mot internet som isoleras från mitt övriga nätverk? Är det så man ska tänka? Har inte riktigt förstått det är med VLAN innan. Behöver man dessutom sätta upp någon brandvägg internt mellan jailet i FreeBSD och övriga nätverket för att förhindra åtkomst via localhost? Eller är det separerat från början när man skapar ett jail?

Funderar också på det här med jumbo frames. Bör man isolera gigabitnätverket via t.ex. VLAN så att man kan använda jumboframes eller brukar det gå bra att mixa nätverk med enheter som inte kör jumbo frames? Om jag fattat rätt kan man få problem med UDP om man mixar medan TCP bör anpassa sig automatiskt. Kanske finns någon bra sida på nätet man kan lära sig om nätverksuppbyggnad?

Permalänk
Skrivet av ronnylov:

The_Slain_Man: Det bästa är om du kan installera alla hårddiskar samtidigt. Annars kan du i och för sig börja med en raidz1 på 4 diskar och sen lägga till en raidz1 på 4 diskar till i din pool. Men raidz2 på 8 diskar är ett säkrare alternativ.

Alla: Massa LACP snack

Jodå ska vänta tills jag har alltihop, har lurkat här ganska länge innan så har koll på de mesta grundläggande ZFS sakerna tror jag. Men bra att du försöker hjälpa ^^.

Ska försöka svara lite på dina LACP frågor. Notera att jag har bara gjort det här i Linux men det bör vara exakt likadant bara med andra namn i FreeBSD kanske.
På servern: Det finns två intressanta lägen att köra på servern, det ena så skickar den packeten med round-robin. Alltså skickar den ett paket på första kortet sen nästa på andra kortet sen börjar den om igen. Det här läget tjänar man mest på om servern har två 100 mbits kort och klienten ett gigabit kort. Nackdelen med det här läget är att man kan få problem med mycket omsändningar eftersom det är väldigt lätt att paketen kommer fram i fel ordning, har aldrig själv upplevt det som ett problem men man kan ju ha det i bakhuvudet.

Det andra intressanta läget är där en anslutning till servern använder bara ett av korten, och sen om det ansluter en till klient så hamnar den på det andra kortet. Då kan man aldrig komma över bandbredden på ett interface men har man många klienter samtidigt så är det perfekt läge, och ingen risk för paketen hamnar i oordning.

Sammanfattat, med round-robin kan en anslutning gå över båda korten, över det andra läget så kan en anslutning bara gå genom ett av korten men aldrig över båda så max farten per anslutningen är samma som hastigheten på ett av korten.
Sen finns det ju också typ hot-spare läge och spegling läge.

På klienten: På klienten är det lite svårare. Det svåra att köra två kort på klienten är att få paketen att hamna på båda interfacen. Det jag beskrev ovan för fungerar bara på utgående trafik, alltså den kommer ta emot trafiken på ett av interfacen bara även om båda används för att skicka. I Linux finns det ett läge som arp spoofar för att kunna ta emot på båda paketen, har aldrig prövat det själv dock.

Angående ditt Jail och vlan exempel: du måste sätta upp en vlan trunk på servern, och sen sätta upp olika vlan interface. Typ ett som hör till vlan 10 och ett som hör till vlan 20. All trafik som går in på vlan10 interfacet kommer taggas med vlan10 så switchen vet var det ska sen. Sen när du har ditt vlan interface så lär du koppla ditt Jail till det nätverkskortet så för det fungera. Samma här så har jag bara gjort det i linux men bör vara helt möjligt i FreeBSD. Går även att lösa med flera nätverkskort men det är ju lite slöseri. En till grej om olika vlan, du kommer inte kunna kommunicera mellan dom om inte din router routar trafiken mellan vlanen, men i ditt exempel så var det ju just separation som du vill undvika så.
På din router sen så måste du också konfigurera en vlan trunk så den kan ta emot trafiken från ditt vlan, och sen konfigurera det nya interfacet med nat och alltsånt.

Angående jumbo frames så ska man aldrig blanda olika mtu i nätverket, nätverket kommer separeras då tror jag så att bara dom med samma mtu kan kommunicera.

Visa signatur

Stationär: PC-K62 | i7 930 @ 2.8ghz | TRUE | Gigabyte X58A UD7 | 6 gb | GTX570 | 2x500+2x1000+320 gb | Windows 7
Server: Athlon II X2 240E | Asus M4A78T-E | 8 gb | 320 GB + 8x2TB | FreeBSD
Bärbar: Thinkpad T60 | C1S 1.6 ghz | 2 gb | 40 gb hdd | Archlinux https://www.dropbox.com/referrals/NTEzMjU3MDk

Permalänk

Här kommer lite uppdatering på vad jag skaffat för hårdvara.

Asus M4A78T-E

Nexus Edge

Kingston ValueRAM TS DDR3 PC10600/1333MHz ECC CL9 2x4GB (KVR1333D3E9SK2/8G)

AMD Athlon II X2 240E 2,8GHz Socket AM3

Supermicro AOC USASLP L8i

Just nu väntar jag på hårddiskar, ram och kontroller kortet. Skriver hur det funkar sen när jag fått ihop allt.
Ram minnena tycker jag det var bra pris på för att vara ett 4x2gb kit, beställde från misco fick bekräftelse på att det var skickat nu ungefär en vecka efter jag beställde. Hoppas jag får igång ECC funktionen bara.

Visa signatur

Stationär: PC-K62 | i7 930 @ 2.8ghz | TRUE | Gigabyte X58A UD7 | 6 gb | GTX570 | 2x500+2x1000+320 gb | Windows 7
Server: Athlon II X2 240E | Asus M4A78T-E | 8 gb | 320 GB + 8x2TB | FreeBSD
Bärbar: Thinkpad T60 | C1S 1.6 ghz | 2 gb | 40 gb hdd | Archlinux https://www.dropbox.com/referrals/NTEzMjU3MDk

Permalänk
Medlem

Lagg har stöd för LACP så ska inte vara några problem där, har blandat nätverkskort tidigare men inte med LACP, utan roundrobin istället.

Permalänk
Medlem

Jag fick igång lagg med LACP utan problem häromkvällen. FreeBSD var enkelt att konfigurera. Däremot var min switch lite svårare på grund av ologiskt användargränssnitt (Netgear GS 108T v2) men det gick bra till slut.
För FreeBSD följde jag denna guide: FreeBSD: NIC Bonding / Link Aggregation / Trunking / Link Failover Tutorial

Funkar bra trots att ena gränssnittet re0 är realtek och det andra em0 är intel nätverkskort. Jag kan rycka ut en av de två kablarna mellan switchen och servern och få trafiken att fortsätta på den andra kabeln utan att filöverföringen avbryts. Jag har ännu inte testat att köra parallella överföringar från flera datorer samtidigt mot servern, det är där man kan få bättre prestanda när båda kablarna arbetar parallellt mellan switchen och servern. Egentligen känns LACP lite som en smått onödig funktion i hemmanätverket men då jag kunde göra det och hade utrustning som klarade det så gjorde jag det.

Dock har jag märkt att det tar lång tid att stänga av FreeBSD-servern, precis som att det är något som hänger sig tills timeout sker under nedstägningsproceduren. Kanske är något nedstängningsscript som behöver modifieras för att stänga ner lagg innan nätverkskorten stängs ner?

En annan grej är att jag inte riktigt kan styra vilket nätverkskort som har högst prioritet. Intelkortet presterar en aning bättre men ibland väljs realtek trots att intel inte är belastat. Har i switchen satt högre prioritetsvärde på porten som går till intelkortet (jag satte värde 192 istället för 128). Men man kan också välja mellan LACP och static i switchens inställningar, vet dock inte skillnaden riktigt. Antar att det är i switchen man får ändra prioriteten eller kanske det är möjligt att justera prioritet i FreeBSD-servern också?

I och för sig är skillnaden i hastighet mellan realtek och intel inte så stor. Får ca 76 MB/s på intel och 70 MB/s från realtek vid nerladdning från servern med samba och ungefär samma hastighet 93 - 96 MB/s vid uppladdning. Men det känns som servern får jobba hårdare med realtek nätverkskort, processorfläkten låter mera. Antagligen avlastar intelkortet processorn en aning. Så helst vill jag köra intel som default och att realtek får hjälpa till när det behövs. Går det?

Permalänk

Någon som har ett Gigabyte GA-890GPA-UD3H på freebsd och kan säga hur det fungerar?

* North Bridge: AMD 890GX
* South Bridge: AMD SB850
* Realtek 8111D chip (10/100/1000 Mbit)

Har förhoppningar på att kunna använda alla 8st diskplatserna, tror ni att det funkar eller? 6st är på AMD SB850 chipset och 2st på ett gigabyte chipset. har tänkt att ha 2st diskar för mirror till os och sedan 6 diskars array..

Visa signatur

Workstation:*Acer TimelineX 4830tg *8gb DDR3 1066MHz *Core i5, 2410M, *GeForce GT 540M 2gb, *80gb ssd intel x-25 g2*Griffin Elevator
HTPC:*Lian Li C36B*Gigabyte GA-MA78GM-UD2H*AMD Athlon X2 4850e 2.5GHz + Scyte Shuriken*2x1gb pc8500 corsair dominator*XFX Radeon HD5450 512MB - passivt*40gb ssd intel x-25 g2

Permalänk
Skrivet av ronnylov:

Jag fick igång lagg med LACP utan problem häromkvällen. FreeBSD var enkelt att konfigurera. Däremot var min switch lite svårare på grund av ologiskt användargränssnitt (Netgear GS 108T v2) men det gick bra till slut.
För FreeBSD följde jag denna guide: FreeBSD: NIC Bonding / Link Aggregation / Trunking / Link Failover Tutorial

Funkar bra trots att ena gränssnittet re0 är realtek och det andra em0 är intel nätverkskort. Jag kan rycka ut en av de två kablarna mellan switchen och servern och få trafiken att fortsätta på den andra kabeln utan att filöverföringen avbryts. Jag har ännu inte testat att köra parallella överföringar från flera datorer samtidigt mot servern, det är där man kan få bättre prestanda när båda kablarna arbetar parallellt mellan switchen och servern. Egentligen känns LACP lite som en smått onödig funktion i hemmanätverket men då jag kunde göra det och hade utrustning som klarade det så gjorde jag det.

Dock har jag märkt att det tar lång tid att stänga av FreeBSD-servern, precis som att det är något som hänger sig tills timeout sker under nedstägningsproceduren. Kanske är något nedstängningsscript som behöver modifieras för att stänga ner lagg innan nätverkskorten stängs ner?

En annan grej är att jag inte riktigt kan styra vilket nätverkskort som har högst prioritet. Intelkortet presterar en aning bättre men ibland väljs realtek trots att intel inte är belastat. Har i switchen satt högre prioritetsvärde på porten som går till intelkortet (jag satte värde 192 istället för 128). Men man kan också välja mellan LACP och static i switchens inställningar, vet dock inte skillnaden riktigt. Antar att det är i switchen man får ändra prioriteten eller kanske det är möjligt att justera prioritet i FreeBSD-servern också?

I och för sig är skillnaden i hastighet mellan realtek och intel inte så stor. Får ca 76 MB/s på intel och 70 MB/s från realtek vid nerladdning från servern med samba och ungefär samma hastighet 93 - 96 MB/s vid uppladdning. Men det känns som servern får jobba hårdare med realtek nätverkskort, processorfläkten låter mera. Antagligen avlastar intelkortet processorn en aning. Så helst vill jag köra intel som default och att realtek får hjälpa till när det behövs. Går det?

Du måste prioritera korten på själva datorn. Switchen har inget att säga till om vilket kort som används det är datorn som väljer. På Linux så kan man välja ett primärkort som den alltid kommer använda först, bör finnas på FreeBSD också.
Ett bra program när man testar sånt här är bmon, då kan du se vilket kort det verkligen är som används.

Visa signatur

Stationär: PC-K62 | i7 930 @ 2.8ghz | TRUE | Gigabyte X58A UD7 | 6 gb | GTX570 | 2x500+2x1000+320 gb | Windows 7
Server: Athlon II X2 240E | Asus M4A78T-E | 8 gb | 320 GB + 8x2TB | FreeBSD
Bärbar: Thinkpad T60 | C1S 1.6 ghz | 2 gb | 40 gb hdd | Archlinux https://www.dropbox.com/referrals/NTEzMjU3MDk

Permalänk
Medlem

Jag är inne på samma tankar som resten utav er här men vet inte riktigt hur jag ska lägga upp det.

Antingen kör jag nån liten burk (läs mini-itx) eller nåt fullstort.

Inte heller helt säker på hur mycket utrymme jag behöver, ska jag nöja mig med en raid1 på 2TB eller ska jag köra på raid1+0 4TB?
Kanske t.o.m. en spare?

Såg även att ni diskuterade olika hårddiskar, vilka ska man undvika och varför?

Här står lite mer om planerna jag har: #10503503

Visa signatur
Permalänk
Medlem

Så har jag då äntligen fått FreeBSD att funka på min HW. Det var inte helt lätt. Det som fick alla bitarna att falla på plats var att bygga en "custom kernel". Med en standard installation (8.1) så funkar det inte att importera en OSOL-zpool i FreeBSD. Trots att jag hade slagit ifrån sharesmb innan jag exporterade ifrån OSOL så fick jag kernelpanics så fort jag försökte lista filer på "tank". Samba funkade inte heller ifrån Ubuntu och xbox, däremot funkade det ifrån Win7 & WinXP.

Visa signatur

OS: FreeBSD, Ubuntu, Raspbian, iOS, OSX
HW: PC, Mac & iPrylar

Permalänk
Medlem

Funkar samba nu med nya kärnan?