Western Digital släpper världens första hårddisk med 15 TB lagringsutrymme

Permalänk
Melding Plague

Western Digital släpper världens första hårddisk med 15 TB lagringsutrymme

De mekaniska hårddiskarna fortsätter att öka i storlek och nu lanserar Western Digital den heliumfyllda modellen Ultrastar DC HC620, som når 15 TB utrymme med lagringstekniken SMR.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Avstängd

Varför ska det alltid snålas på cashe minnet i HDDer? SSDer har ju som standard 1 GB/TB cashe jämfört med denna som har runt 0,034 GB/TB.

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem
Skrivet av Esseboy:

Varför ska det alltid snålas på cashe minnet i HDDer?

jo för cache kostar cash

Permalänk
Medlem

Det är en Host-managed SMR och alltså inte passande för konsumenter då väldigt få standard-OS kan hantera dessa utan patchning/uppdatering på drivrutinsidan.

cache:

Antagligen för att SSD skulle bli klipp värdelösa med mindre i avseende prestanda - RAM-minnet finns där för att det är tvunget för att hantera reallokeringar av sektorer etc. utöver skriv/läsbufferten, inte för att det är bra och ha... - och behovet skalar nog förmodligen ganska linjärt med antal sektorer som man har i lagringen och kan nog bara minskas med större minsta sektorer (dvs. mycket större än 4 kByte) - sedan är nog inte all 'cache'-minne av RAM-typ utan en del är på SLC eller MLC-minne som används som SLC tills datat har placerat på sin slutliga plats i den långsammare delen av minnet.

På HDD så är söktiden det som drar ned prestandan samt skriv/läshastigheten är en bit under 300 MB/s (även om de närmar sig allt mer SATA-2 hastighetsbegränsning) och förmodligen skulle inte mer RAM-minne hjälpa upp det speciellt mycket. och RAM-minne är dyrt och man spenderar inte av det mer än nödvändigt.

Permalänk
99:e percentilen

I tider när det släpps hårddiskar med såpass liten relativ inbördes skillnad i storlek (15 TB vs 14 TB) kan det vara en intressant observation att 15 TB ≈ 13,6 TiB. Det vill säga, skillnaden ”i siffror” mellan samma kapacitet uttryckt i binära och decimala prefix är nu i vissa fall större än skillnaden mellan olika kapacitetsklasser.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem

Klar knäck på kapacitetstillväxtkurvan - förr hade man typ 50% ökning per ny generation, därefter i 2TB-steg, men nu endast 1 TB-steg??? med andra ord börja man närma sig 'väggen' även här precis som stöket och problemen med att få till yeld med 10 och 7 nm på kiselsidan...

Detta ger också signaler att det är HGST som står för utvecklingen på snurrdisk-sidan hos WD och inte WD-själva (även om HGST försvinner sakta som eget namn)

Permalänk
Inaktiv
Skrivet av Alling:

I tider när det släpps hårddiskar med såpass liten relativ inbördes skillnad i storlek (15 TB vs 14 TB) kan det vara en intressant observation att 15 TB ≈ 13,6 TiB. Det vill säga, skillnaden ”i siffror” mellan samma kapacitet uttryckt i binära och decimala prefix är nu i vissa fall större än skillnaden mellan olika kapacitetsklasser.

Förstår nog inte exakt vad du menar, men det är trist att NTFS landar på en hel terabite under kapacitetens mått

Permalänk
Medlem
Skrivet av anon34034:

Förstår nog inte exakt vad du menar, men det är trist att NTFS landar på en hel terabite under kapacitetens mått

Han menar att skillnaden mellan marknadsförd volym och volym i praktiken är större (15TB vs. 13,6TB) än skillnaden från en marknadsförd volym till närmast marknadsförda volym under, alltså 15TB vs. 14TB. Det gäller ju alla diskar, det muppiga blir mer när man tänker "amen jag tar 15, 14 låter lite lite" så får man 13,6.

Visa signatur

Bara fanboys kallar folk för fanboy!

Permalänk
Medlem
Skrivet av anon34034:

Förstår nog inte exakt vad du menar, men det är trist att NTFS landar på en hel terabite under kapacitetens mått

Jag förstår inte vad du menar, NTFS har inget att göra med att operativsystem räknar med basen 2 istället för basen 10 som tillverkarna gör. Sätter du in samma disk i en dator och kör ext2/3/4, ZFS, BTRFS eller andra filsystem så kommer de alla visa 13,6 TiB, och inte 15 TB. Märk skillnaden mellan TB och TiB. I Windows har Microsoft varit slarviga och kallat GiB eller TiB för GB/TB när det inte är det, vilket har lett till att folk tror att de "tappar" lagringsutrymme som detta: "Jag köpte en SSD på 128 GB men Windows säger att det bara finns 119 GB, var har de andra 9 GB försvunnit?". De har inte försvunnit någonstans, det är bara Microsoft som inte har skrivit den korrekta enheten GiB.

Permalänk
99:e percentilen
Skrivet av Masyve:

Han menar att skillnaden mellan marknadsförd volym och volym i praktiken är större (15TB vs. 13,6TB) än skillnaden från en marknadsförd volym till närmast marknadsförda volym under, alltså 15TB vs. 14TB. Det gäller ju alla diskar, det muppiga blir mer när man tänker "amen jag tar 15, 14 låter lite lite" så får man 13,6.

Nja. @Snigeln Bert har förklarat vad jag menade, och det finns vissa likheter med vad du skriver att jag menar.

Men jag ställer mig inte bakom benämningarna ”marknadsförd volym” och ”volym i praktiken”, åtminstone inte som du använder dem (även om jag förstår varför du använder dem så). Som jag ser det, om jag köper hårddisken som artikeln handlar om, då får jag just 15 TB ”i praktiken”. Jag tycker inte att jag får 13,6 TB ”i praktiken”. Windows må tycka det, men jag tycker att Windows gör fel som skriver ”TB” när det menar TiB.

Poängen med mitt inlägg är således inte att hårddisktillverkarna gör något fult i sin marknadsföring (för det tycker jag inte att de gör), utan att det är ännu viktigare att skilja mellan tera och tebi nu när storlekarna är såpass lika varandra samtidigt som diskrepansen ”i siffror” mellan binära och decimala prefix är såpass stor. (1 Ki är bara 2,4 % mer än 1 k, men 1 Ti är 10 % mer än 1 T.)

Vi tycker tydligen att en ökning i kapacitet om ~7 % (från 14 till 15 TB) är tillräckligt stor för att rättfärdiga en ny storleksklass. Då tycker jag att 10 % borde vara tillräckligt för att vi ska tycka att 1 TB och 1 TiB är olika saker också.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Avstängd

Ähh, vad ska man med en sån stor hårddisk till?
Man får ju ändå inte ladda ner något, alla ska tydligen streamas.

512 GB borde vara tillräckligt för alla!

Permalänk
Avstängd
Skrivet av rektor:

Ähh, vad ska man med en sån stor hårddisk till?
Man får ju ändå inte ladda ner något, alla ska tydligen streamas.

512 GB borde vara tillräckligt för alla!

4K videoredigering & arkivering.

YouTube är stort har jag hört och 4K-material behövs det mer av!

Visa signatur

"Företagsboendeförmedlare" | Min Überkill Dator: Processor: Intel Pentium P5 66 Mhz OC | Moderkort: ASRock P4I65G | Minnen: 2st Samsung 128MB PC133 | Grafikkort: Canopus GeForce 256 DDR | Lagring: IBM 350 4,4 MB | Operativsystem: DOS/360 | Chassi: Mercury Full-Tower ATX Chassis |

Permalänk
Avstängd
Skrivet av AplAy:

4K videoredigering & arkivering.

YouTube är stort har jag hört och 4K-material behövs det mer av!

Aa, men behövs bara av Google, inte av privatpersoner.
Privatpersoner ska tydligen streama allt från internet, inte lagra något.

Permalänk
Medlem
Skrivet av rektor:

Ähh, vad ska man med en sån stor hårddisk till?

Eftersom den använder SMR (alias "så långsam att du vill gråta när den måste shingel-skriva") så är den bättre lämpad för backup än vardagsbruk, och ju större backupdisk desto fler backups får man plats med.

Visa signatur

5950X, 3090

Permalänk
Medlem
Skrivet av xxargs:

Klar knäck på kapacitetstillväxtkurvan - förr hade man typ 50% ökning per ny generation, därefter i 2TB-steg, men nu endast 1 TB-steg??? med andra ord börja man närma sig 'väggen' även här precis som stöket och problemen med att få till yeld med 10 och 7 nm på kiselsidan...

Detta ger också signaler att det är HGST som står för utvecklingen på snurrdisk-sidan hos WD och inte WD-själva (även om HGST försvinner sakta som eget namn)

Kommer större storlekar med annan teknik:
https://www.youtube.com/watch?v=KJI2iWw-ibA

*brace yourselves for comments*

-Åååh nej!!1!11!
-Inte Seagate!
-Aldrig mera Seagate!
-Usch, nej tack!
<insert>Valfri historia om när en Seagate HDD dog och alla filer försvann</insert>
# NeverSeagateAgain

Visa signatur

Tower: ace Battle IV | CPU AMD Phenom II X2 BE unlocked 4cores@3,2GHz | RAM 8GB DDR2@800MHz | MB ASUS M4A785-M | GFK AMD Radeon HD 6850 1GB | HDD Kingston SSD Now 60GB (/) Seagate 2TB(/home) | OS Ubuntu 20.04 LTS
-Numera titulerad: "dator-hipster" då jag har en AMD GPU och dessutom kör Linux.

Permalänk
Hedersmedlem
Skrivet av backfeed:

Eftersom den använder SMR (alias "så långsam att du vill gråta när den måste shingel-skriva") så är den bättre lämpad för backup än vardagsbruk, och ju större backupdisk desto fler backups får man plats med.

99% av belastningen på en backupdisk är ju just skrivningar... en disk som är superdålig på skrivningar är kanske inte riktigt rätt applikation för en SMR-disk. Långsamma skrivningar gör att backupen i slutändan tar för lång tid.

För mig låter det som att detta är mycket mer användbart för en applikation som måste lagra stora mängder data som ofta läses men sällan skrivs. Tänk typ en videoströmningstjänst.

Permalänk
Inaktiv
Skrivet av rektor:

Ähh, vad ska man med en sån stor hårddisk till?
Man får ju ändå inte ladda ner något, alla ska tydligen streamas.

512 GB borde vara tillräckligt för alla!

512 räcker ju ingenstans, jag har 500gb disk bara till mitt OS, sen har jag en till lika dan där jag har spel, 2st 256gb diskar med mina bilder och mera spel och alla är ssd och m2 diskar. Sedan har jag 2st NAS, en med 4st 1tb diskar och en med 2st 4tb diskar, är film och musik på dom, sedan har jag 7st lösa diskar med saker jag vill spara, totalt 15tb, är filmer m.m. Jag funderar på att rippa alla mina filmer, har redan börjat men de krävs massor med utrymme och de har jag inte just nu.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av pv2b:

99% av belastningen på en backupdisk är ju just skrivningar... en disk som är superdålig på skrivningar är kanske inte riktigt rätt applikation för en SMR-disk. Långsamma skrivningar gör att backupen i slutändan tar för lång tid.

För mig låter det som att detta är mycket mer användbart för en applikation som måste lagra stora mängder data som ofta läses men sällan skrivs. Tänk typ en videoströmningstjänst.

Så sitter man här med endast Seagate HDD i datorn.

Visa signatur

Aspirerande Nätverk- och Sysadmin
Ryzen 5 1600|Hd 7950|16 GB RAM|
"Går det att installera Linux på den här brödrosten?"

Permalänk
Medlem

Så illa fungerar inte en SMR-disk.

Med Segates Archive-disk skulle säga att de fungerar alldeles utmärkt i de flesta situationerna men det finns lägen i samband med enorm många småfiler och illa passande filsystem som NTFS då det kan bli riktig tjuriga och man måste lämna dessa ifred en tid (ca 30 minuter i regel, görs med Ctrl-z i en rsync-session i linux-consol och efter tiden fortsätter med 'fg <enter>') så att de får städa upp sig internt innan det blir fart på dem igen.

När man 'kör huvudet i väggen' beror också på använda filsystem (_väldigt påverkande!_), typ av fil-storlekar och antal och hur stor totala skrivna backup-potten är.

Är det under 30 GB skrivet i en session så kommer man aldrig se någon stopp oavsett då dess interna scratch-pad är större än så - i de flesta fallen en bra bit över 100-200 GB med massiva mängder småfiler (flera hundratusental) innan det märks av även med för disken så illa hanterande filsystem som NTFS.

På andra filsystem som BTRFS/ext4 så kan det handla om TB med småfiler innan man nåt taket, är det större filer (läs mediafiler) når man aldrig detta utan det skriver så mycket disken orkar hela vägen - är det sekventiellt för större filer så är det uppemot 190 MB/s i skrivning (råhastighet mot själva disken alltså) i början på disken och som de flesta snurrdiskar halva värdet nära slutet av diskens kapacitet - kör man över 1GB-ethernet så kommer disken aldrig att flaska).

SMR går att hantera och ha bra prestanda om man gör det efter dess egna villkor - men drar man mothårs som med användande av NTFS-filsystem så kan det bli grinigt ganska tidigt.

Jag använder ett antal Seagate Archivediskar som just backupmedia med BTRF som filsystem och därmed möjlighet att göra snapshot och därmed versioner/generationer av backup och komprimerande filsystem förutom att nyttja den checksummande funktionen filsystemet har på både data och metadata samt möjlighet att upptäcka korrupta sektorer (ej hänt hittills) - samt metadatat körs dubblerad för redundans och möjlig räddning ifall det blir akut stopp/fel/sladdutryck av någon orsak[1]. Med rsync som filsystems-speglingsprogram och för backupjobbet har dom fungerat alldeles förträffligt.

[1]
Jag är fortfarande bränd av konsekvenserna det blir när 4 första Kbyte av $MFT och $MFT_mirr blir korrupt samtidigt i NTFS-filsystem av en USB/SATA chip i en extern WD-Book USB-disk i samband med avstängning/avmontering från windows enligt konstens alla regler - 3 gånger på 3 olika 3.5" WD-book (2TB) har jag råkat ut för detta, första gången jäkligt smärtsam med seriösa dataförluster, de andra gångerna hade backup på andra diskfabrikat än WD med lärdom av första gången...

Permalänk
Medlem
Skrivet av pv2b:

99% av belastningen på en backupdisk är ju just skrivningar... en disk som är superdålig på skrivningar är kanske inte riktigt rätt applikation för en SMR-disk. Långsamma skrivningar gör att backupen i slutändan tar för lång tid.

För mig låter det som att detta är mycket mer användbart för en applikation som måste lagra stora mängder data som ofta läses men sällan skrivs. Tänk typ en videoströmningstjänst.

Det finns olika typer av skrivning till HDD. Utspridd (random) och sekventiell.

SMR-diskar är direkt olämpliga för normal användning där man skriver och uppdaterar filer utsprida här och där. (Random writes). Skrivprestanda blir då kanske 10-20% av en "normal" HDD. I bästa fall.

Däremot fungerar de utmärkt för uppgifter där man skriver nästan bara sekventiellt. Exempelvis vid backup eller videoövervakning. Skrivhastighet nästan som en normal HDD. Gärna i "block" om typ 10-40GB i stöten med en paus emellan så hårddisken kan skyffla data internt ibland.

Läsning är som en normal HDD.

Tänk en kombination av band vid skrivning och skiva vid läsning.

Denna typ av HDD har ofta en normal "buffert" som tar emot kanske 10-40GB data som senare internt skrivs ut till tätt packade delar av hårddisken. Om det handlar om en "drive managed SMR-disk", som den artikeln handlar om, så styr hårddisken själv när det skall ske. Det innebär att det är direkt olämpligt att använda denna hårddisk i RAID. När en hårddisk börjar flytta data internt kan RAID-systemet uppfatta det som att hårddisken slutat fungera. Eller så minskar prestanda för hela RAID-systemet mycket markant varje gång det sker för någon av diskarna.

Jag använder två 8TB Seagate SMR Archive HDDs för backup av NAS med rsync. Fungerar utmärkt. Bra prestanda. Skriver och raderar bara. Mycket sällan läsning.

Lågt pris per TB i kombination med bra garantier och behov av lagring av stora mängder data som kan skrivas sekventiellt är typiskt orsaker till varför man väljer denna typ av HDD.

Tyvärr är det en del puckon som köper denna typ av HDD utan att förstå att det handlar om något annat än en vanlig HDD. Och som blir besvikna eller tror att det är fel på hårddisken.

Edit: Det verkar som att artikeln handlar om en "host managed SMR-disk". Den går alltså inte att använda utan särskilda drivrutiner/filsystem. Trist, kunde varit läge att konsolidera min backuplösning. Mina 8TB SMR har ingen garanti kvar...

Visa signatur

Linux och Android

Permalänk
Medlem

Det är ingen större problem att ha dessa archive-diskar även i NAS om det är modesta krav som tex. mediabibilotek, vilket säkert gäller >95% av alla hemma-NAS - skickar man filerna genom 1 GB-Ethernet så är det max 33 MB/s per disk i en 4-disk NAS och disken toppar runt 190 MB/s styck - skulle det gå lite tungt så får man pausa överföringen minst en halvtimme och sedan kan man köra på igen under flera timmar framöver innan nästa paus.

Skall man ha NAS till annat också, köra en massa appar, torrent, databas, docker/VM - nej då är de inte lämpliga diskar då det kommer att börja skriva spritt över diskytan med små skrivningar här och där och det kan bli topplast-perioder då det blir för mycket som inte hinner betas av, scratch-paden blir full på diskarna (dock pratar vi om ~100GB liggande skrivningar på en fyrdisk-NAS) och man får stall och dålig kapacitet - där skall man ha andra diskar med mer predikerbar söktid.

Pengamässigt kan man köpa bra många sådana här diskar innan man nått upp priset på en enda ny LTO-bandare av senaste och näst senaste generationen, och man behöver köpa rätt många bandkassetter också innan man börja spara kostnad med band i jämförelse med att köpa stora arkiv-diskar av SATA-modell.

Och erfarenhetsmässigt så är hårddiskar mer långtidssäkra än bandbackupper - inte i avseende på just lagringmedia - där är nog band överlägset, men problemet är fungerande bandmaskin efter säg 10 år och kanske tusentals kassetters körning - medans en hårddisk är självförpackad och med mycket långlivade gränssnitt. (har buntar med gamla QIC/Travan-kassetter jag inte kan läsa och bandet som driver runt det hela börjat klibba/går av med draghållbarhet som kokt spagetti) - men jag kan fortfarande läsa felfritt hårddiskar från 1984 med innehållet intakt (dock lite bök med datorer innan PC blev vanligt, men det går!)

Även om man stöter på en gammal IDE-disk så kan man med rimlig insats hitta adapter trots att gränssnittet slutat att användas för typ 10 år sedan.

Permalänk
Medlem
Skrivet av Esseboy:

Varför ska det alltid snålas på cashe minnet i HDDer? SSDer har ju som standard 1 GB/TB cashe jämfört med denna som har runt 0,034 GB/TB.

För att cache i hårddiskar inte är samma sak som vad SSD'er använder.

Anta t.ex. att information som startar på en viss plats på disken efterfrågas.
Armen flyttas till rätt spår, men missar precis området där datan startar p.g.a. rotationen.
Då läser den i alla fall in all data på det nästan fulla varvet som behövs för att hitta början igen.
För chansen att resten av datan på varvet även behöver läsas is finns ju.

Så därför ökar HDD cache storleken med densiteten på HD'n.

HDD cachen kan såklart även användas för att snabba upp åtkomst till småfiler, men varför skicka data över ett "långsamt" interface när OS'et redan gör samma jobb mot RAM som det dessutom finns många gånger mer av.

Permalänk
Medlem

SMR-diskar har inte "dålig skrivprestanda" över lag, utan bara i vissa specifika fall, när man modifierar data som i sin tur orsakar att data i överlappande spår måste skrivas om.

De överlappande spåren är uppdelade i "band", annars skulle man i teorin kunna råka ut för att all data på hela disken behövde skrivas om (spår 0 överlappar spår 1 som överlappar spår 2 o.s.v.). Så det är bara ett litet område som behöver skrivas om, även i värsta fall. Det finns även en icke-SMR yta som fungerar som en slags "cache". Så länge det finns ledigt utrymme på disken finns det algoritmer som kan "peta in" det nya datat utan att andra spår behöver skrivas om.

Så att använda en SMR-disk för t.ex. lagring av media, backuparkiv o.s.v. fungerar alldeles utmärkt, men är disken 99% full och du får för dig att ändra lite i en massa filer här och där på disken lär det bli problem. Därför fungerar de inte heller optimalt i RAID, eftersom det tar orimligt länge att bygga om arrayen.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem
Skrivet av pv2b:

99% av belastningen på en backupdisk är ju just skrivningar... en disk som är superdålig på skrivningar är kanske inte riktigt rätt applikation för en SMR-disk. Långsamma skrivningar gör att backupen i slutändan tar för lång tid.

För mig låter det som att detta är mycket mer användbart för en applikation som måste lagra stora mängder data som ofta läses men sällan skrivs. Tänk typ en videoströmningstjänst.

Normalt spelar det väldigt liten roll för en privatperson hur lång tid det tar att köra en backup, om man nu inte gillar att sitta och stirra på när backupprogrammet jobbar förstås. Själv låter jag min server sköta det jobbet per automatik i bakgrunden, och kör med SMR-diskar vilket funkar perfekt; huvudsaken är att det ryms mycket data (och att det går fort att läsa vid eventuell restore).

Men ja, bäst lämpad är den förstås som arkiv; skriv en gång, läs många.

Visa signatur

5950X, 3090

Permalänk
Medlem
Skrivet av anon34034:

Förstår nog inte exakt vad du menar, men det är trist att NTFS landar på en hel terabite under kapacitetens mått

Snark...

Kolla vid capacity, detta är en volym på 21TB och vad står det där.
Testa ta upp en fil och kolla egenskaper på den så kanske du kan se likheten...

Visa signatur

WS: R7 5800X, 32GB, Suprim X 3080, Acer X38P+Acer XB271HU
FS: HPE ML110 Gen10 Xeon Silver, Qnap TS-h973AX ~100TB
NW: Fortigate, Ruckus, Zyxel XS1930HP 10Gb

Permalänk
Medlem
Skrivet av Esseboy:

Varför ska det alltid snålas på cashe minnet i HDDer? SSDer har ju som standard 1 GB/TB cashe jämfört med denna som har runt 0,034 GB/TB.

Om du tror detta Cacheminne på SSD används till din data, har du fel.
DRAM används till nästan uteslutande del för diskens meta data, översättningstabeller och liknande.

I en HDD är en LBA adress en specifik sektor. I en SSD är detta översatt till en sektor för SSDn, men detta ändras när ny data skrivs. Genom att lägga dessa tabeller i DRAM så kan man snabba upp skrivning och hantering på helt annan nivå (är inte möjligt att göra några 1TB+ skrivning utan det).

I en HDD används det som ren cache... där diskens 4k prestanda och NCQ algoritm behöver detta för att han en chans till vettigt prestanda. Så en HDD behöver inte så stor cache som SSD måste ha.

Permalänk
Inaktiv
Skrivet av _niko_:

Snark...
http://i68.tinypic.com/s14yoj.jpg

Kolla vid capacity, detta är en volym på 21TB och vad står det där.
Testa ta upp en fil och kolla egenskaper på den så kanske du kan se likheten...

Du beskriver vad jag uttryckte, tack? Snark?

Permalänk

[quote postid="17613674" userid="112085" name="krigelkorren"]
Kommer större storlekar med annan teknik:
https://www.youtube.com/watch?v=KJI2iWw-ibA

Änntligen! Ny teknik! Men varför tog det 15+år att få fram den här tekniken , känns som att http://idema.org inte är en intresse oranisation för oss slut konsumenten. Det håller WD & Seagate om ryggen och ge illusion om frikonkurans . Men vad kan man förvänta sig? Har man chansen att vara "fat and happy" så tar man den, men så stagnerar hårddisk marknaden till följd.

Snart är väntan över ! Dax att rösta med dina pengar!
LÅT DEN FRIA MARKNADEN VARA FRI!

Skickades från m.sweclockers.com

Visa signatur

Allt som har en början har ett slut. -förutom evigheten
Gigabyte P55 UD6 - Intel Core I7 875K- BenQ24 - Fractal Design Define R2 Titan - 4x2GB DDR3 Corsair Dominator - Asus A -OCZ (PSU) 700W - Asus EAH 5850 - Corsair Hydro H50 - hackintosh -Windows-7 Ultimate + en massa be-quiet Noise Absorber Kit.

Permalänk
Medlem
Skrivet av anon34034:

Du beskriver vad jag uttryckte, tack? Snark?

"men det är trist att NTFS landar på en hel terabite under kapacitetens mått"

Detta tolkar jag som att du vill påvisa att med NTFS "tappar" man kapacitet vilket _inte_ är fallet.
Om du menade ngt annat så utveckla.

Visa signatur

WS: R7 5800X, 32GB, Suprim X 3080, Acer X38P+Acer XB271HU
FS: HPE ML110 Gen10 Xeon Silver, Qnap TS-h973AX ~100TB
NW: Fortigate, Ruckus, Zyxel XS1930HP 10Gb

Permalänk
Inaktiv
Skrivet av _niko_:

"men det är trist att NTFS landar på en hel terabite under kapacitetens mått"

Detta tolkar jag som att du vill påvisa att med NTFS "tappar" man kapacitet vilket _inte_ är fallet.
Om du menade ngt annat så utveckla.

Snark