Mycket intressant förklaring, märks att du har lite kunskap bakom detta.
Därför frågar jag dock en fråga ang första delen där du jämför dens förmåga att laga felet ganska snabbt, vs en HDD som måste upptäcka det. Fördelen en HDD har är ju att den ofta kan rätta till ganska grova fel med många nivåer av ECC, bara som ex så brukar gränsen gå runt 1 bit på 10^14 som den inte klarar.
Så hur säker är du på att DNAt lagar sig själv rätt varje gång? (Någon form av risk för fel måste ju finnas då inget är 100% garanterat)
Det farliga är ju om man förlitar sig på en självläkning som kanske inte är så pålitlig. Och redan idag är ju 1 bit på 10^14 för lite egentligen, om man ser till att 8 bit på 1 byte och tex 10 TB HDD. Det ger risk för fel på varje 1,25 gångs läsning av hela disken... i snitt.
Jämför man då med att DNAt ska kunna lagra enorma mängder data så måste också fel kontrollerna vara magnitud högre.
Sen som du säger, självklart kan vi med utökat ECC osv troligen höja den nivån mer, men det förutsätter ju ändå att de är relativt pålitliga i grunden också.