Sedan beror det lite om man vill/måste köpa 5 års 'felfrihet' med mycket stor sannolikhet och därför tittar på Dell/HP då deras maskiner är byggda väldigt mycket på det sättet...
eller om man har mer relaxat till eventuella småproblem.
Skall man ha hög drift och datasäkerhet så måste man hålla hela linjen igenom med ECC-minne, ECC-minne på diskkontrollerkortet och batteri/konding/flashbackup på denna för att klara oplanerade strömavbrott, dual-port SAS-diskar (och dito för SSD och att de också klarar plötslig strömavbrott utan att tappa bort sig - vilket konsument-SSD/NVMe inte klarar i alla lägen) då SAS har dubbla hastigheten och mycket högre dataintegritets-skydd för datat som transporteras, kör full duplex ( SATA kör bara semiduplex) djupare NCQ etc. - serverprocessorerna går tekniskt sett underklockade etc.. till detta att kunna byta diskar under drift, byta nätaggregat under drift, byta fläktar under drift då att stänga av maskinen för att byta prylar finns inte på kartan - man slår på den när den är ny - 5 år senare slår av den när dess 'tid' är över sas.
Detta är lite annan tänk än när man bygger en Gamer-rigg.
Inom flygindustrin har man begrepp på antal felavläsning av RAM-minne som kallas FIT - dvs. hur många fel som läses per 1 miljard timmar per 1 MByte och det är ackumulerande då om man har 1 FIT/Mbyte så har man 1024 FIT per GB eller en dator med 16 GB ger 16384 FIT - för konsumentdatorers RAM-minne räknar man med flera hundra tusen i FIT eller ett minnesläsfel per 5000 - 10000 timmar (och ni som klockar datorer har nog på känn att det är mycket lägre antal timmar per fel än så)
Och då tog man som exempel vad som händer om man börja använda ECC på RAM-minnen som sägs ligga på 100000 FIT - med ECC hamnar då på 0.3 FIT - ECC ger alltså en enorm förbättring i avseende minska risk för datakorruption i RAM-minne - sådant kan man strunta i Gamer-riggen så länge RAM-felen inte interfererar med spelanden med hängningar allt för ofta
För serverbruk har man helt annan inställning - där skall det inte bli en enda RAM-fel en enda gång på 5 år med mycket stor marginal i antal timmar räknat, samma sak med tex. att SATA-överföringar kan ge 1.4 oupptäckta fel per år och disk när det läser/skriven med 500 MB/s i 24/7 medans med SAS ca 1/1000 del av den takten och därmed med mycket stor sannolikhet 0 fel per 5 år - har man en lagring med 8 SATA-diskar i Jbod och var och en ger har en sannolikhet med 1.4 oupptäckta fel per år så börja det bli scary medans med SAS-diskar fortfarande ligger väldigt nära 0, och ju fler diskar, ju större sannolikhet... att använda RAID tar en del av dessa oupptäckta fel, att använda checksummande filsystem tar också en del av dessa men risken blir aldrig riktigt helt noll.
Notera att dataskyddet är betydligt lägre mot oupptäckta fel när det transporteras på SATA-bussen än att hårddisken i sig skulle leverera data med oupptäckta fel i sig - blir datat korrumperat så är risken tusentals gånger större att det sker i sladden mellan disken och diskkontrollerkortet än att disken skulle ge felaktig data som den inte själv upptäckt med sina felrättnings-algoritmer.