Inlägg

Inlägg som jope84 har skrivit i forumet
Av jope84

Fungerar funktioner som quickconnect även med detta?

Av jope84

Hej, dags att uppgradera .
Hade lite otur när jag valde komponenter så kommer behöva byta moderkort för få fler pcie banor och skall skaffa mer ram.
Jag behöver som sagt mer ram för vm och arc, kommer jag ha någon nytta av att köpa snabba minnen med låg cl ? eller är det lika bra och spara några hundra och få långsammare minnen?
Är inte några super krävande saker jag gör utan är framför allt kapaciteten jag vill åt.

Har 6000mhz cl 36 idag som kostar 2800kr , men kan få 5600mhz för 2200kr, eller 96gb 5600mhz cl46 för 3100kr.
Vad skulle ni valt?

Av jope84

Jag ligger minus 38kg sen mitt personbästa .
Jag kombinerar periodisk fasta med lågkolhydrats mat.
Vardagar blir det ett mål på kvällen med familjen och helger 2 mål.
Märkt att det är kolhydraterna som är boven för mig, har så jäkla lätt att överäta kolhydrater.
Alla äter samma i familjen men vi äter broccoli istället för pasta,ris .
Istället för vanligt bröd så bakar vi eget på keso,ost,ägg och mandelmjöl.
Typiskt snacks gör oss är ostkex, fläsksvålar eller jordnötter.
Så jag räknar aldrig kallorier endast kolhydrater.

Gjorde ett inbody test innan och för 10kg sedan.
Mitt vicerala fett hade minskat väldigt mycket, låg på 10 av 10 innan och sists så låg jag på 5 av 10.

Av jope84
Skrivet av Catcode:

Kör själv med FreeNAS (TrueNas) använder själv overkill system, det största problemet är IOPS, dum som jag var så köpte jag dyra Slog diskar men kollade aldrig på IOPS så det segar ner alla min andra diskar.

Kör själv med 10 gbit nätverk, så blir max 600 MB skriv och 600 MB läs pga 10 gbit begränsning men har tillgång till ett 40 gbit nätverk som jag inte har kopplat in än.

Först så måste man börja med kolla vad max gränsen är för diskarna och det gör man att man kollar i TrueNas console och kör test disk av disk poolen, sen kollar man med slog och utan för att veta hur mycket man förlora. Sen när man testar över NFS så är det bra att man kör ett test bara med en server/VM så att det inte påverka testet.

Tänkt på att alltid göra en backup innan man ändra något.

Vist är det roligt med overkill, också varit sugen på 40gbit men då blir de lite bökigt och dyrt.
Har exos och toshiba Enterprise diskar som skall klara upp till 260mb/s . Så 750Mb/s teoretisk hastighet.

Testade innan och ändra tiden den cachar , men den verkar få slut på ram och drar ned och stryper.
Skall testa och minska ark storleken och på så sätt frigöra lite ram.

Av jope84
Skrivet av warp64:

Därför att många väljer ZFS för att man är ute efter stabilitet och dataintegritet. Genom att ändra timeouten frångår du en del av det skyddet. Glöm inte att även om du höjer timeouten så kommer ZFS behöva skriva av sig och då kommer det vara mycket mer att göra. Detta kommer märkas genom att hastigheten troligtvis kommer sjunka mer markant och under en längre tid vid varje dump av data från RAM till HDD, eventuellt kan systemet upplevas som icke-responsivt under en period. En UPS skyddar bara vid strömavbrott. Det kan hända andra saker som påtvingar en oplanerad omstart.

Med det sagt har jag ändrat mig i mitt råd till dig; kör istället. Ändra det du vill ändra, jag förutsätter att du har en backup eller att datat inte är viktigt. Testa och se vad som fungerar för dig inom ditt användningsområde, då väl vägt mot riskerna. Det är egentligen bara du själv som kan avgöra det.

RAID10 inte direkt översättningsbart till ZFS så det är oklart vad du faktiskt har för pool-layout. Inga detaljer om diskarna.

Fler små VDEVs ökar läs-IOPS. 13700K är väldigt mycket processor i en hemma(?)-NAS.

Oklart? Mirrored striped är ju en raid typ i zfs vilket motsvarar raid 10, kör 2+2+2 diskar.

Vist e de overkill för nas, men jag kör lite andra saker på den också och jag köppte den begagnad och fick den för ett bra pris.

Men som frågan var hur man gjorde, och det har jag redan klurat ut hur man gör.
Skulle något strula så kommer ändå inställningarna återgå till standard vi nästa omstart.

Av jope84
Skrivet av warp64:

Att ändra zfs_txg_timeout är tyvärr en riktigt dålig idé.

Du skriver ingenting om vad du har för hårdvara så det är svårt att ge andra råd.

Varför är det dålig ide?

Jag har 10 gbit nätverk
6diskar i mirrored stripe (RAID-10)
Lsi sas 3008 i it mode.
64gb ram
13700k

Av jope84
Skrivet av Det Otroliga Åbäket:

Om det räcker för dig är det ju en OK workaround, men har du kollat på övrig tuning också för att göra något åt grundproblemet? ZFS mår exempelvis bra av att record size på de olika filsystemen stämmer någorlunda med användningsområdet.

https://klarasystems.com/articles/tuning-recordsize-in-openzf...
https://jrs-s.net/2018/08/17/zfs-tuning-cheat-sheet/

Jim Salter (sista länken) skrev för ett tag sen ett antal olika artiklar med djupdykningar i ZFS-prestanda.

Hjälpte tyvärr inte med att ändra till 1Mib i recordsize, men det skall hjälpa mot defragmentation så jag låter den vara på det, har mest stora filer så det kommer inte på verka så mycket. Har dessutom onödigt mycket utrymme, för att jag ville få upp hastigheten. Teoretiskt sett så borde jag komma upp till 790mb/s men får max 430.
Beställt nytt hba kort till diskarna och letar efter nytt moderkort med fler pcie. idag sitter kortet i en pcie 3.0 1x port vilket skall ge 1Gb/s, men funderingarna är om det kan vara att kortet är gjort för 4x som ställer till det.

En annan grej jag funderat på som workaround, är att använda nvme disken som en skrivcache.
Har en nvme som jag har foton och sådant jag jobbar med på . Funderade på om man för över till den först sen har man någon automatisk funktion att det flyttas över till lagringsdisken med jämna mellanrum. Men så tappar jag redundansen på de filerna under den tiden.

Av jope84

Truenas scale

Skulle vilja snabba upp skrivningarna till min server utan att skaffa fler diskar.
Läst på nätet att man kan öka tiden som zfs cachar i ramminnet vid asynk skrivningar, standard är 5s men skulle vilja öka till kanske 30s. För märker idag att jag maxar mitt nätverk med 1,1Gb/s i ca 5s sen sjunker det till 400Mb/s.

Att risken att förlora data ökar är jag medveten om, men både server, sationära datorer ligger bakom ups så risken för störningar är minimal.

Det är värdet på zfs_txg_timeout man skall öka vad jag läst mig till.
problemet är att jag inte hittar hur man ändrar det.
Någon här som vet eller kan länka till en guide?

Av jope84

Fick igång det på min server nu med ett 4060ti och vilken skillnad det blev.
Den använder inte särskilt mycket ram eller cpu som det blir med 7900xtx och det går så otroligt mycket snabbare.

Av jope84

Det blev en lxc container istället som är en ny funktion i Truenas scale.

Av jope84

9 av 10 har teoretiskt sett 5g kanske.
Jag täckningskartorna påstår att jag har det, men innomhus har jag knappt någon täckning och defenitivt inte 5g.
Jag tror det är ett misstag att lägga ned 2g nätet, det är ett bra komplement när man vill ringa , gör inget om en mast går ned för då kan en annan ta upp det.
Telia har bäst teckning här, men deras nät går ned så ofta så bättre ha sämmre mottagning än ingen vid strul.

Av jope84

Vist är det trevligt med högre hastigheter, men då korten man stoppar i inte hänger med så gör de ingen skillnad. Är kortet på pcie 3 så blir detbinte snabbare för man stoppar det i en port med version 5.
Själv har jag problemet med för få lanes, gjorde misstaget och inte kollade upp allt innan jag köpppte. Ångrar att jag inte köpte epyc istället för lga 1700.

Av jope84

Fooocus ai Truenas scale

Hej jag skulle vilja ha fooocus ai på min server med truenas scale , men det verkar inte finnas någon färdig container utan man skulle göra den i docker compose enligt instruktionerna

Jag kan inte köra det i ett vm för jag använder mitt grafikkort till andra docker/kubertenes appar.
Skulle man kunna installera en debian/bsd som docker och sen installera fooocus ai i den?

Av jope84
Skrivet av Petterk:

Finns bara krav på strömförsörjning i mobilnätet.

Dessutom kan ditt fibernäts utrustning stå i någon källare där fastighetsägaren är ansvarig för elen, eller sitta i något mindre teknikhus där det inte finns ordentlig plats för reservkraft. Blir det längre strömavbrott så kommer även större noder dyka. Varför är det viktigt?

Det är viktigt för att jag kan behöva ringa och bli nådd.
Senast när jag hade telia som operatör så hade vi inget internet eller mobilnät på 10h, hade jouren så fick åka in till jobbet och hämta en special mobil som går på ett special gsm nät och kan använda flera operatörer.

Skrivet av Haptic:

Bor du i hus eller lägenhet?
Om du bor i lägenhet så har ni mest troligt en switch i källaren som fördelar till varje lägenhet. Den switchen har knappast någon UPS så länge bostadsrättsföreningen/hyresvärden har satt dit en på eget bevåg.

Jag bor i villa i ett samhälle, fibernätet är väll 8 år gammalt.

Skrivet av pv2b:

Inte sant.

Om du bor i en stad som har ett passivt stadsnät (t.ex. Stokab-nätet i Stockholm), så går det att leverera en svartfiberförbindelse direkt mellan två punkter, som inte har något beroende alls på att ström fungerar då det är passiv fiberkabel.

Till exempel mellan din arbetsplats, och en riktig datahall. En riktig datahall är byggd för att hantera långa strömavbrott, med batteribackup, och dieselaggregat som går igång innan batterierna tar slut. De kan i regel hantera strömavbrott på ett par dygn med de bränslereserver som finns på plats, längre än så så länge bränsleleveranserna fortsätter komma.

Om du har motsvarande generationskapacitet på din arbetsplats eller ditt hem för att driva ditt lokala nätverk utan el så har du löst en internetanslutning som fungerar även under långa strömavbrott

Detta är inte ens något hypotetiskt scenario. Mitt jobb levererar bl.a. fiber-access till datahall, för att våra kunder ska kunna nå sina servrar utan att passera Internet. I de scenariona levererar vi även internetaccess över samma förbindelse. Vissa av våra kunder har även UPS på sin lokala nätverksutrustning. De kunderna har fungerande Internet även under strömavbrott så länge deras UPS räcker.

Starlink är så klart också ett alternativ (och kanske det enda alernativet om din verksamhet finns någonstans som saknar den infrastruktur som krävs), men du får tänka på att Starlink har en relativt hög energiförbrukning. Du behöver stora batterier för att kunna driva din Starlinkterminal någon längre tid.

Tanken har skagit mig att skaffa ett mobilt internet som backup om fibern går ned, inga jättekrav på hastighet utan bara jag kan ha någon kontroll.
Får ta och kika om man kan ha något billigt abbonemang som delar data med huvudabonemanget.
Ubiquiti skall ha grejjer så man smidigt kan koppla in det.

Av jope84

Är det till pts man skall anmäla att deras nät går ned vid strömavbrott? För förra året så var det också ett avbrott där hela telias nät gick ned, medans de andras fungerade perfekt.
Då ringde jag till telia och påpekade detta och det har uppenbarligen inte hänt något mer.
Uppskattar att internett fungerade bara några minuter efter lyset slockna.

De borde ta efter trafikverket när det gäller driftsäkerhet.
Där kör man hängslen och livrem, både ups och reservkraft .

Av jope84
Skrivet av Swedishchef_90:

Det första som dör är din converter. Själva basstation bör ha en UPS för ca 12h om de inte snålat in 😁

Ja jag glömde skriva att jag har en ups som förser nätverk inklusive media omvandlaren och datorer.
Ligger just nu och kollar på film på tv, från min server.

Av jope84

Har internetoperatörer inte ups?

Hej har strömavbrott hemma och även internet dog och telias mobilnät.
Har telia öppen fiber och det tog inte lång tid efter avbrottet innan internet dog.
Har man inte ups i så viktig infrastruktur?

Vi hade ett liknande avbrott i sommras och då dog allt också, blev så sur över det så jag bytte till comviq så nu har man mobilnät iallafall.

Av jope84
Skrivet av Thomas:

Exos-disken (ST16000NM000J) verkar väl frisk; inga pending/uncorrectable sectors, inga errors loggade. Den andra verkar inte må lika bra dock.

Med tanke på SMART-datan skulle jag tro att Toshiba-disken är den enda som orsakat varningarna i loggen, men att den hette sdc igår och sdb idag.

Om du kör "zpool status -P", hur ser sökvägarna ut till diskarna? Skulle gissa på att de är typ /dev/disk/by-id eller liknande och inte /dev/sdb, /dev/sdc osv? Isåfall kan de diskarna byta namn utan att ZFS bryr sig (vilket är bra, och gissningsvis vad som har hänt).

Ja det verkar som det du skriver stämmer att den sorterar diskarna så.
mirror-0 ONLINE 0 0 0
/dev/disk/by-partuuid/8a990512-5be9-4975-9dab-a6858c8c4890 ONLINE 0 0 0
/dev/disk/by-partuuid/a8f24523-254d-4a04-a790-7a4cb0368cae ONLINE 0 0 0

Då blev läget bättre, men skall kontakta butiken om toshiba disken, den är ju bara 415 dagar eller vad det stod och är 5 år garanti.
Men då skall jag bara ta och fundera på om man skall skaffa en ny disk i väntan på garanti. En hotspare är ju inte fel att ha , men de kostar ju en slant, har funderat på en sån där renoverad disk från amazon för att ha som hotspare.

Nu skall jag också ta och märka om diskslädarna med serie nr i stället, för det verkar ju inte vara ett rätt längre då jag döpte dem efter namnen.

Av jope84
Skrivet av Thomas:

Hur ser SMART-attributerna ut för sdc?
Det ser ju inte direkt lovande ut dock med UNC (uncorrectable read error).

Den första ser väl dock frisk ut? Är du säker på att det inte är samma disk som fått olika namn (vid omstart) bara?

nu har jag kopiera hela smart testerna från båda. vet inte om formateringen av texterna gör det lite svår läsligt.

Så ser det ut nu, gör ett långt smart test på båda diskarna som beräknas vara klart imorgon kväll.
känns lite riskabelt att skicka iväg diskarna på garanti, tänkt om det rasar vid återställning. Om man man gör det innan man skickat iväg så har man ju ändå en disk kvar även om den inte är 100% frisk så fungerar den.

Av jope84

=== START OF INFORMATION SECTION ===
Device Model: ST16000NM000J-2TW103
Serial Number: ZR5ELDQ0
LU WWN Device Id: 5 000c50 07445d566
Firmware Version: SN04
User Capacity: 16,000,900,661,248 bytes [16.0 TB]
Sector Sizes: 512 bytes logical, 4096 bytes physical
Rotation Rate: 7200 rpm
Form Factor: 3.5 inches
Device is: Not in smartctl database 7.3/5528
ATA Version is: ACS-4 (minor revision not indicated)
SATA Version is: SATA 3.3, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is: Mon Mar 25 20:35:50 2024 CET
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status: (0x82) Offline data collection activity
was completed without error.
Auto Offline Data Collection: Enabled.
Self-test execution status: ( 249) Self-test routine in progress...
90% of test remaining.
Total time to complete Offline
data collection: ( 575) seconds.
Offline data collection
capabilities: (0x7b) SMART execute Offline immediate.
Auto Offline data collection on/off supp ort.
Suspend Offline collection upon new
command.
Offline surface scan supported.
Self-test supported.
Conveyance Self-test supported.
Selective Self-test supported.
SMART capabilities: (0x0003) Saves SMART data before entering
power-saving mode.
Supports SMART auto save timer.
Error logging capability: (0x01) Error logging supported.
General Purpose Logging supported.
Short self-test routine
recommended polling time: ( 1) minutes.
Extended self-test routine
recommended polling time: (1529) minutes.
Conveyance self-test routine
recommended polling time: ( 2) minutes.
SCT capabilities: (0x70bd) SCT Status supported.
SCT Error Recovery Control supported.
SCT Feature Control supported.
SCT Data Table supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_ FAILED RAW_VALUE
1 Raw_Read_Error_Rate 0x000f 081 064 044 Pre-fail Always - 114620670
3 Spin_Up_Time 0x0003 095 095 000 Pre-fail Always - 0
4 Start_Stop_Count 0x0032 100 100 020 Old_age Always - 4
5 Reallocated_Sector_Ct 0x0033 100 100 010 Pre-fail Always - 0
7 Seek_Error_Rate 0x000f 076 060 045 Pre-fail Always - 40107104
9 Power_On_Hours 0x0032 100 100 000 Old_age Always - 391
10 Spin_Retry_Count 0x0013 100 100 097 Pre-fail Always - 0
12 Power_Cycle_Count 0x0032 100 100 020 Old_age Always - 4
18 Unknown_Attribute 0x000b 100 100 050 Pre-fail Always - 0
187 Reported_Uncorrect 0x0032 100 100 000 Old_age Always - 0
188 Command_Timeout 0x0032 100 100 000 Old_age Always - 0
190 Airflow_Temperature_Cel 0x0022 055 049 000 Old_age Always - 45 (Min/Max 33/45)
192 Power-Off_Retract_Count 0x0032 100 100 000 Old_age Always - 4
193 Load_Cycle_Count 0x0032 100 100 000 Old_age Always - 882
194 Temperature_Celsius 0x0022 045 051 000 Old_age Always - 45 (0 25 0 0 0)
197 Current_Pending_Sector 0x0012 100 100 000 Old_age Always - 0
198 Offline_Uncorrectable 0x0010 100 100 000 Old_age Offline - 0
199 UDMA_CRC_Error_Count 0x003e 200 200 000 Old_age Always - 0
200 Multi_Zone_Error_Rate 0x0023 100 100 001 Pre-fail Always - 0
240 Head_Flying_Hours 0x0000 100 100 000 Old_age Offline - 234 (188 103 0)
241 Total_LBAs_Written 0x0000 100 253 000 Old_age Offline - 45824941040
242 Total_LBAs_Read 0x0000 100 253 000 Old_age Offline - 16077977973

SMART Error Log Version: 1
No Errors Logged

SMART Self-test log structure revision number 1
Num Test_Description Status Remaining LifeTime(hours) LBA _of_first_error
# 1 Extended offline Self-test routine in progress 90% 391 -
# 2 Short offline Completed without error 00% 388 -

SMART Selective self-test log data structure revision number 1
SPAN MIN_LBA MAX_LBA CURRENT_TEST_STATUS
1 0 0 Not_testing
2 0 0 Not_testing
3 0 0 Not_testing
4 0 0 Not_testing
5 0 0 Not_testing
Selective self-test flags (0x0):
After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

The above only provides legacy SMART information - try 'smartctl -x' for more

root@truenas[/home/admin]# smartctl -a /dev/sdb