Minneskort & Hårddiskar - Varför begränsar man kapaciteten?

Permalänk

Minneskort & Hårddiskar - Varför begränsar man kapaciteten?

Jag läser om SD-kort och stör mig på de begränsningar de olika versionerna har:

SD (1999)
up to 4 GB. (2 GB and 4 GB cards use larger block sizes and may not be compatible with some host devices).

SDHC (2006)
Same build as SD but greater capacity and transfer speed, 4 GB to 32 GB (not compatible with older host devices).

SDXC (2009)
Same build as SD, but greater capacity and transfer speed, 32 GB and higher. Standard goes up to 2 TB (not compatible with older host devices).

Varför begränsar man kapaciteten? Man borde ju redan 1999 ha förstått att man kommer att behöva mer kapacitet än 4 GB i framtiden. Varför inte redan från början göra en standard och att kapaciteten får öka i takt med att komponenterna kan göras mindre så att minnesmodulerna ryms på kortet? Det är lätt att få intrycket att man gör det medvetet så att konsumenterna tvingas köpa nya produkter för att kunna använda minneskort med högre kapacitet.

Liknande är det med Windows och hårddiskar över 2 TB:

Citat:

To determine the capacity of the storage device, you multiply the number of logical sectors within the device by the size of each logical sector. The current size standard is 512 bytes. For example, to achieve a device that has a capacity of 2 TB, you must have 3,906,250,000 512-byte sectors. However, a computer system requires 32 bits (1s and 0s) of information to represent this large number. Therefore, any storage capacity that is greater than what can be represented by using 32 bits would require an additional bit. That is, 33 bits.

The problem in this computation is that the partitioning scheme that is used by most modern Windows-based computers is MBR (master boot record). This scheme sets a limit of 32 for the number of bits that are available to represent the number of logical sectors.

The 2-TB barrier is the result of this 32-bit limitation. Because the maximum number that can be represented by using 32-bits is 4,294,967,295, this translates to 2.199 TB of capacity by using 512-byte sectors (approximately 2.2 TB). Therefore, a capacity beyond 2.2 TB is not addressable by using the MBR partitioning scheme.

32-bitarsbegränsning. Nu går det ju att komma runt det, men varför i h-e sätter man en begränsning vid 32 bitar istället för 1024 eller 2048 bitar som skulle räcka i decennier?

Det finns säkerligen logiska förklaringar, så ni som kan mer än vad jag kan i dessa spörsmål får gärna upplysa mig.

Permalänk
Medlem

Samma orsak som att Intel t.ex inte hoppar över 22nm och går på 12nm eller vad det nu blir. Tekniken är ej mogen skulle jag tro.

Skickades från m.sweclockers.com

Visa signatur

q9550@3,4Ghz, GTX275, 4GB DDR2 Corsair XMS2//HTPC AmdX2 4600+ passivt kyld med scythe ninja mini, Antec NSK 2480

Fractal design arc midi r2// core i7 4770k@ 4,4ghz :)
// corsair h100i // corsair hx 850m// asus maximus VI hero//
Corsair vengeance pro 2400mhz// intel ssd 335 180gb// gigabyte gtx 780 OC@1200mhz Core//win 8.1

Permalänk
Medlem

Detta har jag också fundera länge på, samma sak gäller även andra produkter som rakhyvel tex.

Visa signatur

Desktop|Intel i5 12600|Asus Prime B760 Plus|Nvidia RTX 3070|Corsair DDR5 2x16GB|1TB M.2/1TB SSD
Mouse|Sensei Ten|Keyboard|Xtrfy K4|Monitor|Asus PG279QZ|Dell u2415
Laptop|HP ProBook 4320s I3|525GB SSD|4GB DDR3|NAS|Synology 412+ 30TB
Phone|iPhone 13 128GB|Tab|Mi Pad 4 64GB|HTPC|Google TV|Server|Intel Nuc

Permalänk
Medlem

Det finns inget intresse bland hårdvarutillverkare att skapa standarder som håller i många år.
Mycket av branchen handlar ju enbart om att få folk att köpa nya grejer trots att den "gamla" standarden fortfarande är fullt tillräcklig (se t.ex på PCIE)

Permalänk
Rekordmedlem

Det tar plats och kapacitet att ha mer adresser så hade man haft väldigt hög addresseringskapacitet på sakerna från början när enheterna var små hade det inte rymts mycket nyttodata utan en stor del av utrymmet hade går åt till adresseringen.
Idag har vi ju flera gånger mera ram än den storlek hårddiskar hade när de började slå igenom, de första hdd jag använde var på 20Mbyte och att ha ett stort filsystem på en sån disk hade varit löjligt, idag tar ju filsystemet i sig upp Gbyte i utrymme men det märks inte mycket om man har 3 Tbyte utrymme som väl är den prisvärdaste storleken idag, det är ändå bråkdels procent av utrymmet på en sån disk.

Frågan är väl hur mycket man ska "förbereda sig" men dagens filsystem börjar nog närma sig en sorts stabilitet när det gäller adresseringsutrymme eftersom de rymmer oerhört stora mängder data och frågan är då om det är vettigt att gå upp till " grotesk kapacitet" om det inte kan utnyttjas inom den överskådliga framtiden.

Hur mycket ska man ta till i överkant ? Adresser som i sig innehåller så många bitar att de tar upp Gigabyte i storlek och kräver miljoner klockcykler av kretsarna för att hantera ? Jag kanske tänker fel men man bör väl balansera helheten så att det hela blir rimligt proportionellt för annars slösar man resurser på att hålla ordning på lagringskapaciteten utan att tjäna något på det.

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem

Kan inte minnas att det varit ett jätteproblem med adressrymden under den faktiska livscykeln under de flesta produkterna, en i386 cpu kan väl i teorin adressera 4GB RAM om jag inte minns fel, sen att moderkorten på den tiden kanske klarade 16MB spelade inte så stor roll eftersom systemen var mycket mindre, hur stor glädje har du av 4GB ram med en 20Mhz CPU, när sekundärminnet kanske låg på några hundra meg..

Det blir bara kostsamt för konsumenterna.

Sen om man kollar på den verkliga High End hårdvaran som alltid funnits parallellt med konsumentprodukterna (till ett högre pris) så har man också haft andra möjligheter att nyttja större kapacitet.

Visa signatur

En del av mina bildlänkar hostas på egen maskin, är bildlänkarna trasiga, ha tålamod.

Permalänk
Rekordmedlem

Typ de här, då blir det lite att adressera:

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Skrivet av bärplockaren:

Detta har jag också fundera länge på, samma sak gäller även andra produkter som rakhyvel tex.

Rakhyvlar ja. Jag hade testat olika tills jag för ca 10 år sedan köpte en Merkur säkerhetsrakhyvel för de gamla hederliga platta dubbeleggade bladen, och det var mitt bästa rakningsverktygsinköp någonsin. Rakar rent och nära, bladen räcker längre och är mycket billigare än Mach 3 och allt vad de heter. Ändå är det över 100 år sedan den här rakhyvel och blad kom.

Skrivet av mrqaffe:

Det tar plats och kapacitet att ha mer adresser så hade man haft väldigt hög addresseringskapacitet på sakerna från början när enheterna var små hade det inte rymts mycket nyttodata utan en stor del av utrymmet hade går åt till adresseringen.
Idag har vi ju flera gånger mera ram än den storlek hårddiskar hade när de började slå igenom, de första hdd jag använde var på 20Mbyte och att ha ett stort filsystem på en sån disk hade varit löjligt, idag tar ju filsystemet i sig upp Gbyte i utrymme men det märks inte mycket om man har 3 Tbyte utrymme som väl är den prisvärdaste storleken idag, det är ändå bråkdels procent av utrymmet på en sån disk.

Frågan är väl hur mycket man ska "förbereda sig" men dagens filsystem börjar nog närma sig en sorts stabilitet när det gäller adresseringsutrymme eftersom de rymmer oerhört stora mängder data och frågan är då om det är vettigt att gå upp till " grotesk kapacitet" om det inte kan utnyttjas inom den överskådliga framtiden.

Hur mycket ska man ta till i överkant ? Adresser som i sig innehåller så många bitar att de tar upp Gigabyte i storlek och kräver miljoner klockcykler av kretsarna för att hantera ? Jag kanske tänker fel men man bör väl balansera helheten så att det hela blir rimligt proportionellt för annars slösar man resurser på att hålla ordning på lagringskapaciteten utan att tjäna något på det.

Bra svar. Men samtidigt är det ett ganska stort hopp från SDHC från 2006 till SDXC 2009, bara tre år senare, från max 32 GB till 2000 GB som max. Under de tre åren har väl knappast hårdvaran hunnit bli över 60 gånger bättre.

Permalänk
Medlem

Mja håller både med och inte beror väldigt mycket på och måste isåfall läsa på lite mer om det.

Men om jag tar ett exempel så har jag köpt väldigt många externa hårddiskar, den första på 500gb kostade runt 1000:- sedan efter ett år eller ngt köpte jag en till på 1tb kostade då runt 1000:- sedan efter ett år igen så köpte jag en på 2tb och gav då runt 1000:- så storlekarna har gått upp och men nästan till samma pris som "förra" generationen. Att ha en på 2tb när jag köpte 500gb skulle varit overkill och den hade nog kostat overkill också, exempelvis filmer .avi låg runt 700mb och det fick man in rätt många på en 500gb men sedan kom .mkv på runt 4gb för 720p och då får man inte in så många på 500gb utan då vill man ha dem där 2tb. Nu finns det ju en större efterfrågan på större hårddiskar så storlekarna går ju upp mot 3,4,5,6tb nu eftersom tekniken och efterfrågan finns. Att köra overkill från första början är ändå rätt onödigt då det drar upp kostnaderna och det blir inte optimalt då allt inte funkar optimalt tillsammans ändå. Är ändå rätt nöjd med utvecklingen men visst hade man velat se lite lägre priser

Visa signatur

Chassi:BeQuietDarkBase900Pro PSU:BeQuietDarkPowerPro1000w Moderkort:AsusZ170ProGamingAURA
CPU:i7-6700K 4.2Ghz Kylare:BeQuiet!SilentLoop240mm Ram:Corsair 32GB DDR4 3200MHz Vengeance
GPU:AsusRadeonRX5700XT8GBRogStrixGamingOC SSD:Corsair 2x120GB, M.2 1TB HDD:Seagate/WD->30TB Skärmar:3xBenQ 24" LCD G2450HM, LG 65"UHD65UM7100 OS:W10
Tillbehör:LogitechG915,G915TKL,ProX,G502,MxMaster3,G930,Z906,G510,K350,M705,G440,C922Pro,MionixNaos3200,5000,7200,8200,NaosQG
Mobiler:Xperia 1 III,Xperia1,SonyZ5 🎮 🖥️ ⌨️ 🖱️ 🎧

Permalänk
Rekordmedlem
Skrivet av Spajdermän:

Bra svar. Men samtidigt är det ett ganska stort hopp från SDHC från 2006 till SDXC 2009, bara tre år senare, från max 32 GB till 2000 GB som max. Under de tre åren har väl knappast hårdvaran hunnit bli över 60 gånger bättre.

Men filsystemen har inte ändrats så fort utan det handlar om hårdvaruändringar av minneskretsarna och interfacen, det är ju närmast tekniskt omöjligt att göra hårdvaran kompatibel över flera generationer om den ska kunna prestera bra och vara billig, dessutom är det än värre att förutse hur utvecklingen blir där, när det gäller de logiska begränsningarna så kan man påverka dem på ett annat sätt än att tex någon uppfinner och börjar producera en ny minnestyp, man kan ju göra nått mellanled typ sata men det ökar priset och storleken, ser man på filsystem så händer inget snabbt, nu har ju MS nyligen introducerat ReFS men de flesta kör nog NTFS i winvärlden ett bra tag till (det introducerades 1993) säkerligen överlever det flera generationer operativsystem till.

Man kan kanske jämföra det med cpu socklar och moderkort, det är få som har de "bästa" där, i princip bara serverkort men inget hindrar att man "överdimensionerar" ett moderkort heller och tex sätter 4st cpuer som norm och bort med sata, även "budgetkort" ska använda sas och dessutom ha plats för minst 8 minnen per cpu osv...
Frågan blir väl kanske mest om man får nån som vill betala för det eller om man ska försöka balansera apparaterna och byta ut dem i takt med teknikutveclingen ?

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem

-