Skrivet av OldComputer:
Intressant helt klart.
Låter statistiskt osannolik dock, då alla mina 12 diskar har exakt samma värden. Har också ett tjog gamla diskar mellan några 100GB - 4 TB liggandes, några vet jag har läsproblem / ljud för sig / oläsbar sektor, jämföra mot dom också?
[...]
Din disk du jämför med är 2TB, skulle det kunna vara tätheten och att man numera får räkna med fel konstant?
Ämnet är helt klart intressant - lite OT rörande hddprice men let's continue för i allas intresse att kolla och försöka förstå SMART-värden.
Och nej, jag har inte "facit" om det finns något sådant - hårddiskar eller "roterande rost" som brorsan kallar dem - är mekaniska monster som egentligen bara har två lägen: sönder eller kommer gå sönder - lite fatalistiskt 🤔
Frågan som återstår är NÄR de går sönder. Att smart-värden med "error" i namnet tickar upp indikerar att något inte är helt 100, men kan vara någon liten obalans i mekaniken, del av magnetytan som inte funkar perfekt eller nåt annat som inte direkt innebär "doom" på direkten.
Lite mer statistisk för olika märken:
- 2st 8TB Seagate, rullat 48 000 timmar dit backuper med rsync görs varje natt. Inga felmeddelanden MEN Raw_Read_Error_Rate är 20 miljoner fast på 132 miljarder Total_LBAs_Read så neråt 1,5 promilles promille (!?) på den "sämsta" och Seek_Error_Rate ca 10x detta värde.
- 2st 5TB Seagate 2,5", rullat knappt 8 000 timmar i RAID1, har Raw_Read_Error_Rate på ca 240 miljoner på 122 miljarder lästa så 2 promilles promille och lägre Seek_Error_Rate på ca 80 miljoner. Ganska lika på bägge.
- 2st WD RE4 och 2st WD Caviar Green, rullat 14 000 till 54 000 timmar, alla med 0 Raw_Read_error_Rate. Enda "Pre-fail" som visar något är Spin_Up_Time på mellan 6 000 och 9 000 men det låter som mättid för start och borde inte vara "allvarligt högt".
- 2st 18TB Toshiba, bara rullat 8 000 timmar i RAID1 med oftast lättare last men kör en raidcheck varje månad som läser igenom hela diskarna. 0 på samtliga värden med "error" i namnet - utom G-Sense_Error_Rate som har 3 resp. 5 och inte är klassad som "Pre-fail" utan "Old_age".
Det verkar skilja hur olika tillverkare räknar läsfel - som att Seagate skulle vara "noggrannare" - alternativt ha fler fel. DET skulle man kunna googla lite vidare. Dock torde relationen mellan antal fel och totalt lästa betyda något - samt utveckling över tid.
Kan inte se någon Reallocated_Sector_Ct eller motsvarande >0 på diskarna, börjar disken reallokera sektorer för att komma "runt fel" (bokstavligt talat undvika vissa områden på diskytan) och dessa ökar är det riktigt allvarligt.
Not: på Linux loggar smartmontools värden i katalogen /var/log/smartmontools i enkla .csv-filer för varje disk. Halvtimmes-intervall på mina maskiner. Kan importeras i Excel och följa upp hur fel-värden utvecklas över tid...
Åter till hddprice och Seagate IronWolf Pro 14TB-disken: där tickade error-värdena upp såpass snabbt och tom ÖVERSTEG siffran för totalt lästa (176 miljoner fel på 73 miljoner lästa, 200% mot "promilles promille" ovan). Det KAN inte vara rätt på en ny disk men "juryn är fortfarande ute" om det är fabrikationsfel eller en ren fejk-disk - och inte hört nåt mer om den inledda RMA:n, men bara gått 2 dygn så...