Skrivet av Dava:
Tack för alla svar. Jag skulle precis fråga det; om det spelar roll att det är 100 000 småfiler. Jag skulle ju kunna zippa ner filerna efter kategorier så att det inte är så sanslöst många småfiler.
Windows har en del strul att skriva mycket småfiler, i linux kan det vara en faktor mellan 6-10 ggr fortare med ext4/BTRFS i jämförelse med NTFS med riktigt små filer och det är ingen större skillnad mellan windows och Linux när det gäller att skapa samma småfiler på NTFS. kort sagt hanteringen är tung, är enkeltrådad och mycket overhead för var fil som skapas i NTFS, och har du i windows defender aktiv på den driven du skriver till kan det ta mer än dubbla tiden då defender skall 'smaka' på varje fil som skapas...
Citat:
Kabeln är en "vanlig" USB-kabel som man får till bankdosan, svar utanpå och svart innut i. Hårddisken får sin ström från en adapter i vägguttag. Men jag antar att det är USB3 som är standarden.
Är det USB3 så är det en 'bred platt µUSB' liknande https://www.teknikdelar.se/produkt/deltaco-micro-usb-30-2m-sv...
eller (men ganska sällsynt - oftast finns på USB3-diskdockor)
https://www.amazon.se/Cable-Matters-B-kabel-USB-C-svart/dp/B0...
och andra sidan mot datorn är då en USB-A med blå inredning eller USB-C
Citat:
Överföring mellan dator (SSD) och hårddisk verkar gå i 70 Mbyte/s både för att skriva och läsa.
Är det vanlig mini och micro-USB (5-stifts) som inte är extra platt och bredare (med 9 stift) så går det bara med ca 35 MByte/s (något fortare i Linux) i USB2 (det behövs 2 par/4 extra ledare för att klara +500 MByte/s fart som USB3 jobbar med) och visar datorn mer kapacitet så är det nog felräkning eller att du har NTFS fil och mapp-komprimering påslaget - och då är det inte konstigt om det går trögt då det fragmenterar väldigt mycket (1 fragment per 64kByte) även om filen skrivs sekventiellt. och vid stora filer så kan fragmenten ta slut innan filen är färdigöverförd
- försök inte med komprimerande mode på tex. diskimages med fil och diskkomprimering påslaget under NTFS då en fil kan maximalt ha ca 1.5 miljoner fragment och vid 64k-block (som är NTFS native kompressions-blockstorlek) så tar det stopp vid ca 93 GB storlek före kompression. Detta är NTFS akilles-häl och det går inte att göra något åt det (det var därför MS gjorde ReFS för att kunna hantera större fragmenterade filer men inte gjorde den komplett så att det är dugligt att ha som system och OS-filsystem, tyvärr).
Citat:
Men inför nästa överföring ska jag kanske packa filerna i arkiv.
Då kommer en ny fråga, är det smart att dela upp arkivfilerna så att de inte är mer än ett par 100 MB styck? Alltså finns det någon fördel att inte sitta med någon fil som är 20 GB stor?
100 MB styck är nog lite lite, området 500 MB - 5 GB är nog bättre eller rentav något under 4.7 GB styck så att det passar att brännas på DVD+/-R(W) skivor för arkivering.
Problemet med zip, rar, 7-zip arkiv - även om den är uppdelad i flera delar så räcker det med 1 bitfel för att allt efter bitfelet inte längre skall vara uppackningsbart då checksummor inte stämmer - uppackningsprogrammet signalerar error och du förlorar datat allt efter felstället.
Det är inte så ofta det händer men när det händer så har du förlorat arkivet, och jag själv har känt på det hårdhänt när det visade sig att jag hade ett RAM-fel i min dator som packade filerna och checksumman stämde inte efter kopiering till ny media, och i en modern OS studsar det runt i flertal buffrar efter skapandet innan det slutligen skrivs på lagringen och mappas RAM-segmentet med felet i sig då och då in i bland i kopieringsprocessen så har man en korrupt arkivfil... - för mig var det typ 1 fel per 1 - 5 GB filstorlek och långt ifrån alla filer utan kanske 5 av 100 st - sådant är jätteirriterande, speciellt när man kört ett halvår på det och man upptäcker försent att somliga av sina backuppfiler är paj...
Några av komprimeringsformaten kan man sätta en flagga så att det är reparerbart (dvs komprimeringsblocken är tydligt avskilda så att avkodningen kan starta på en ny kula efter en felaktig segment med egen checksumma ) så att man inte förlorar allt.
Är det jätteviktiga filer så skulle jag arkivera i TAR utan kompression, där kan bitfel ge att enstaka skador på enskilda filer men hela arkivet ryker inte på samma sätt som med zip, rar, 7zip mfl. om man skulle få bitfel i början av arkiv-filen - nackdelen är att den inte har någon alls integritetskoll på filerna utan det får verifieras på annat sätt.
I linux-världen så är borg-backup en favorit-arkiverare så det både deduplicerar och komprimerar samt att bitarna lagras i chunk och allt är checksummat i små segment - visst korrupt fil/chunk ger konsekvenser även där men man förlorar inte allt och det är reparerbar - speciellt om man någonstans har orginalfilerna kvar någon annan stans så kan det reparera skadorna för alla upplagor av sessioner som finns inom arkivet.