Microsoft utför tester med DNA-lagring

Permalänk
Avstängd

.

Visa signatur

Dator: i7 4960x | 32GB RAM | Asus Rampage IV Formula | GTX 1080
OS: Slackware 64-bit current + multilib

Laptop: HP Elitebook 6930p | 8GB RAM | 211GB SSD RAID 0 | 256MB AMD Radeon HD 3450/3470 | Intel Duo T9900 @ 3.06GHz
OS: Slackware 64-bit 14.2

Permalänk
Medlem
Skrivet av Paddanx:

RAID är inte backup

Skämt åsido, problemet jag ser är att mutationer sker även med "naturens skydd". Cancer pga strålning osv... det lär inte påverka denna typ av lagring bra.

Strålning knockar vanligtvis ut ena basen vilket gör att den kan repareras med hjälp av den andra. Om de ligger i lösning med reparationsproteiner åtgärdas det ganska snabbt vilket är långt bättre än vanliga hårddiskar som måste upptäcka felet först, vilket kan ske först nästa gång sektorn läses.

Anledning till att mutationer inträffar beror främst på kroppens system att hantera replikation. De flesta fel sker vid replikering. Där finns det också proteiner som är bättre eller sämre på att upptäcka om det blivit fel.

Om det vore en dator som "skriver" DNA skulle den kunna utrustas med bättre felkorrigering än naturen har. Vid "replikering" skulle en dator troligtvis läsa in hela DNAt och skriva en kopia av det snarare än att skicka in proteiner i lagringsenheten som utför en "naturlig" replikation.

Visa signatur

Kör Linux - Yes! We are the 2 percent! And growing... Föreslå inte ens något Windows-exklusivt om jag inte specifikt frågar efter något till Win.
2600K - 18GB RAM - 1TB HDD - 64GB SSD - GTX 650 Ti Boost
Minnesvärda trådar: 1, 2

Permalänk
Medlem
Skrivet av Erwya:

Strålning knockar vanligtvis ut ena basen vilket gör att den kan repareras med hjälp av den andra. Om de ligger i lösning med reparationsproteiner åtgärdas det ganska snabbt vilket är långt bättre än vanliga hårddiskar som måste upptäcka felet först, vilket kan ske först nästa gång sektorn läses.

Anledning till att mutationer inträffar beror främst på kroppens system att hantera replikation. De flesta fel sker vid replikering. Där finns det också proteiner som är bättre eller sämre på att upptäcka om det blivit fel.

Om det vore en dator som "skriver" DNA skulle den kunna utrustas med bättre felkorrigering än naturen har. Vid "replikering" skulle en dator troligtvis läsa in hela DNAt och skriva en kopia av det snarare än att skicka in proteiner i lagringsenheten som utför en "naturlig" replikation.

Mycket intressant förklaring, märks att du har lite kunskap bakom detta.

Därför frågar jag dock en fråga ang första delen där du jämför dens förmåga att laga felet ganska snabbt, vs en HDD som måste upptäcka det. Fördelen en HDD har är ju att den ofta kan rätta till ganska grova fel med många nivåer av ECC, bara som ex så brukar gränsen gå runt 1 bit på 10^14 som den inte klarar.
Så hur säker är du på att DNAt lagar sig själv rätt varje gång? (Någon form av risk för fel måste ju finnas då inget är 100% garanterat)

Det farliga är ju om man förlitar sig på en självläkning som kanske inte är så pålitlig. Och redan idag är ju 1 bit på 10^14 för lite egentligen, om man ser till att 8 bit på 1 byte och tex 10 TB HDD. Det ger risk för fel på varje 1,25 gångs läsning av hela disken... i snitt.

Jämför man då med att DNAt ska kunna lagra enorma mängder data så måste också fel kontrollerna vara magnitud högre.

Sen som du säger, självklart kan vi med utökat ECC osv troligen höja den nivån mer, men det förutsätter ju ändå att de är relativt pålitliga i grunden också.

Permalänk
Medlem
Skrivet av Paddanx:

Mycket intressant förklaring, märks att du har lite kunskap bakom detta.

Därför frågar jag dock en fråga ang första delen där du jämför dens förmåga att laga felet ganska snabbt, vs en HDD som måste upptäcka det. Fördelen en HDD har är ju att den ofta kan rätta till ganska grova fel med många nivåer av ECC, bara som ex så brukar gränsen gå runt 1 bit på 10^14 som den inte klarar.
Så hur säker är du på att DNAt lagar sig själv rätt varje gång? (Någon form av risk för fel måste ju finnas då inget är 100% garanterat)

Det farliga är ju om man förlitar sig på en självläkning som kanske inte är så pålitlig. Och redan idag är ju 1 bit på 10^14 för lite egentligen, om man ser till att 8 bit på 1 byte och tex 10 TB HDD. Det ger risk för fel på varje 1,25 gångs läsning av hela disken... i snitt.

Jämför man då med att DNAt ska kunna lagra enorma mängder data så måste också fel kontrollerna vara magnitud högre.

Sen som du säger, självklart kan vi med utökat ECC osv troligen höja den nivån mer, men det förutsätter ju ändå att de är relativt pålitliga i grunden också.

Då får vi gå lite djupare om jag skall kunna förklara det.
DNAt är en tvåsträngad sekvens där baserna i strängen sitter ihop med en kemisk (hård) bindning och där strängarna hålls ihop mot varandra med polära intermolekylära (svaga) krafter.
Feltyp 1: Strängarna släpper mot varandra. Dessa korrigerar sig själv mycket snabbt utan hjälp av ett protein.
Feltyp 2: En kemisk bindning i ena strängen går av. Här behövs ett reparationsprotein då den kemiska bindningen inte återskapas av sig själv.
Feltyp 3: En bas rent av slås ut ur DNAt. Här behöver också ett reparationsprotein binda in. Denna kommer att plocka in en bas som passar mot den andra strängen innan den lagar denna kemiskt. Felsäkerheten här är mycket hög. Skulle det mot förmodan bli fel här kommer vi till 3b.
Feltyp 3b: Orsakat av en felinbunden bas, denna får DNAt att bukta. Kommer upptäckas av datorn när sekvensen läses igenom. En dator kan då med hjälp av checksumma korrigera felet mot den andra sekvensen.
Feltyp 4: Korresponderande bas slås ut innan första basen hunnit repareras. Strängen går av. Samma som att RAIDen brakar.

Man kan sammanfatta det som att man snarare får ett tillskott av felsäkerhetsåtgärder. Feltyp 1-3 har självläkningsprocesser som inte finns i en hårddisk idag. 3b är det som vi idag vanligtvis upptäcker med RAID1 och kan reparera. Feltyp 4 kan endast repareras om det finns ett annat, yttre system som håller konsistent data. All denna felkorrigering är dock inom en och samma disk! Så skulle man köra RAID1 på två DNA-diskar så skulle felsäkerheten kunna bli mycket hög.

Visa signatur

Kör Linux - Yes! We are the 2 percent! And growing... Föreslå inte ens något Windows-exklusivt om jag inte specifikt frågar efter något till Win.
2600K - 18GB RAM - 1TB HDD - 64GB SSD - GTX 650 Ti Boost
Minnesvärda trådar: 1, 2

Permalänk
Medlem
Skrivet av Erwya:

Då får vi gå lite djupare om jag skall kunna förklara det.
DNAt är en tvåsträngad sekvens där baserna i strängen sitter ihop med en kemisk (hård) bindning och där strängarna hålls ihop mot varandra med polära intermolekylära (svaga) krafter.
Feltyp 1: Strängarna släpper mot varandra. Dessa korrigerar sig själv mycket snabbt utan hjälp av ett protein.
Feltyp 2: En kemisk bindning i ena strängen går av. Här behövs ett reparationsprotein då den kemiska bindningen inte återskapas av sig själv.
Feltyp 3: En bas rent av slås ut ur DNAt. Här behöver också ett reparationsprotein binda in. Denna kommer att plocka in en bas som passar mot den andra strängen innan den lagar denna kemiskt. Felsäkerheten här är mycket hög. Skulle det mot förmodan bli fel här kommer vi till 3b.
Feltyp 3b: Orsakat av en felinbunden bas, denna får DNAt att bukta. Kommer upptäckas av datorn när sekvensen läses igenom. En dator kan då med hjälp av checksumma korrigera felet mot den andra sekvensen.
Feltyp 4: Korresponderande bas slås ut innan första basen hunnit repareras. Strängen går av. Samma som att RAIDen brakar.

Man kan sammanfatta det som att man snarare får ett tillskott av felsäkerhetsåtgärder. Feltyp 1-3 har självläkningsprocesser som inte finns i en hårddisk idag. 3b är det som vi idag vanligtvis upptäcker med RAID1 och kan reparera. Feltyp 4 kan endast repareras om det finns ett annat, yttre system som håller konsistent data. All denna felkorrigering är dock inom en och samma disk! Så skulle man köra RAID1 på två DNA-diskar så skulle felsäkerheten kunna bli mycket hög.

Tackar för bra förklaring... lite del av Biologi A-B kurserna kommer till liv, så jag tror jag ser det framför mig.

Notera dock att mindre fel (som du ref som 1-2 här) kan faktiskt HDD laga själv, med hjälp av din inbyggda ECC. Fel på typ 1 bit per 10^10 lagar disken utan tvekan själv. Du kan se det på tex Seagate HDD som visar hur ECC jobbar vid varje läsning och vilken nivå den ligger på. Skillnaden är dock som du säger att den inte lagar det permanent (tills omskrivning sker).
Fel 3 liknar var som sker när disken når utanför sin normala ECC nivå, och måste läsa om cellen igen. Då upptäcker också disken att något är fel och kan ofta läsa om sektorn några gånger och rätta till det samt flytta om till reserv sektor. Inte alla fel kan rättas till permanent utan att aktivt jobba mot det.

Dock är detta exakt vad modern SSD gör. SSDn har dessutom kompensering för att justera mot enklare volt-fel, typ fel 1, så ingen data behövs skrivas om, utan man korrigerar sättet att läsa bara "on the fly" och sen går allt normalt igen.
Den har också feltolerans till en nivå, och när den nås så skrivs datan om och cellen "lagas", typ som fel 2, och då lagas den permanent (till skillnad till HDDn).
På fel 3 så blir det typ som för HDD där den får läsa om några gånger för att få rätta på bitfelen och sen skrivs informationen om. Precis som 3b så kan bit fel ges här utanför diskens kontroll, vilket måste till en dator för att fånga upp och laga.

Fel 4 blir som sagt likt haveri utanför diskens förmåga att laga det själv, där utomstående RAID/redundans/ECC korrigerande filsystem typ ZFS måste till för att laga informationen.

Faktiskt lite intressant att DNA har så pass lik feltolkning egentligen, vilket gör att jag förstår varför man vill tänkas lagra i det.