Kräver det mycket processorkraft att kopiera bilder?

Permalänk
Medlem

Kräver det mycket processorkraft att kopiera bilder?

Försöker flytta över 208 GB bilder från en roterande externhårddisk till en annan, men det känns knappt som att det går.
Flyttar några 100 bilder åt gången och är inställd på att det kommer att ta tid.

Testade först på min chromebook men efter att ha stått att det skulle ta 30 minuter i en halvtimme så ändrade det sig till 784 timmar och det verkade inte hända mer. Flyttade hårddiskarna till en gammal bärbar dator (Haswell i5, 8 GB ram) med Arc Linux och hårddiskarna verkar jobba, men det händer inte mycket och hela datorn känns fryst.. Processorn visar 100% och fläktarna går för fullt.

Varför ska det vara så arbetsamt? Det är Klassiska Western-Digital mybook diskar..

Jag skriver här för jag börjar ju funderar på att plocka fram en stationär dator med en Sandy-bridge i7 2600K från vinden för att inte behöva sitta hela dagen. Det kommer dock ta en stund, så jag undrar förstås om det är lönt eller om det är så att det är hårddiskarnas USB-gränssnitt som är problemet?

Visa signatur

(Hackintosh) late 2011: Gigabyte H61M-DS2 | i5 3470T | MSI N210 D512D2 | 8 GB XMS3 | Crucial m4 265 GB | Windows 10

Permalänk
Arvid Nordqvist-mannen

Windows gillar inte att flytta/kopiera så många småfiler i ett svep, diskarna gillar inte det heller, sen är väl USB också en grej.

Permalänk
Medlem

Använder ju inte Windows men det är väl samma sak i alla operativsystem. Har fått det att flyta på ganska ok nu. Diskaktiviteten pendlar mellan 1,2 M/s till 1,9 M/s men jag använder ju inte datorn samtidigt och har egentligen hela dagen på mig..

Visa signatur

(Hackintosh) late 2011: Gigabyte H61M-DS2 | i5 3470T | MSI N210 D512D2 | 8 GB XMS3 | Crucial m4 265 GB | Windows 10

Permalänk
Medlem

Hur mycket CPU det kräver beror i detta fallet lite på vad för typ av USB-controller som sitter på ditt moderkort. Vissa hanterar all last själva, andra kräver mycket av CPU. Men knappast så mycket att CPU är begränsningen i en kopiering.

Jag tänker att kanske har du en olycklig kombination av drivrutiner eller annat i just detta fall. Kan vara så att den inte klarar av att hantera så stor kö och slår i taket när den försöker lägga in allt i minnet och inte lyckas. Kan du prova ta lite i taget och se om det gör skillnad?

USB är hur som helst inte att rekommendera för applikationer som kräver hastighet. USB <-> USB kommer vara väldigt långsamt, det är nog bara att acceptera.

Visa signatur

Dator 1: 5800x | 4070 GTX | 2x16gb | 1xSamsung 980 Pro 2TB NVME
Dator 2: 9700k | 1080 GTX | 2x8gb | 1xSamsung Pro NVME
Dator 3: 6700k | 1070 GTX | 2x8gb | 1xSamsung Evo 830, 2x1TB, 1x750GB

Permalänk
Medlem

Flyttar du mellan två USB anslutna diskar så brukar jag först kopiera bilderna till datorn som är ansluten och sen föra över till nästa disk. Men ja det brukar gå långsamt att flytta många småfiler mellan externa HDDs

Permalänk
Medlem
Skrivet av Chibariku:

Flyttar du mellan två USB anslutna diskar så brukar jag först kopiera bilderna till datorn som är ansluten och sen föra över till nästa disk. Men ja det brukar gå långsamt att flytta många småfiler mellan externa HDDs

Okej, det kanske är ett bra tips. SSD i datorn kanske får det att gå fortare! När jag bara tittar på bilder visar den upp mot 10-20 M/s som jag antar är megabyte /sekund så det är ju nästan tio gånger snabbare!

Edit: Nice! Nu går det betydligt fortare, att kopiera direkt till den bärbaras SSD går ju med ca 50-60M/s (!)
Edit 2: Det går snabbt att kopiera från SSD till extern hårddisk också! Så tack för det vinnande tipset, sparar mig många timmar! CPU ligger på runt 10% istället för 95% så det verkar skonsammare för datorn också

Visa signatur

(Hackintosh) late 2011: Gigabyte H61M-DS2 | i5 3470T | MSI N210 D512D2 | 8 GB XMS3 | Crucial m4 265 GB | Windows 10

Permalänk
Medlem

kolla först att det verkligen kör på USB3 och inte degraderat till USB2-körning för att sladdarna inte är 100% - USB2 kan ge max ca 35 MB/s - i linux kan man titta i 'dmesg | less' som root hur de olika USB-kanalerna har initierat sig.

Normal flytt skall inte ta speciellt mycket CPU (normalt DMA-drivet) och i princip flytta upp till 500 MB/s via SATA och USB3 om man kör mot SSD-lagring vid stora filer och till snurrdiskarnas maxhastighet (75 - 300 MB/s - en typisk WD-book/WD-elemen med WD-green diskar ala 2010 -2015 140 - 70 MB/s) vid kopiering av stora filer (flera GB styck) och det även när man kör mellan 2 diskdockor på 2 olika USB-bussar på 2 olika USB-kontroller men kanske 250 MB/s om man kör på samma (en USB-kontroller servar upp till 4 USB-portar/enheter och bandbredden fördelas på alla 4 portar och på en laptop finns minst 2 och ibland 3 USB-controller då kamera, klösbräda, SD-läsare och extra knappar och tangentbordsbakrundbelysning också ofta är USB-enheter internt i laptopen).

Vad fins kvar att testa - eftersom du kör linux så skulle jag installera 'atop' med "apt install atop" och sedan starta den med 'atop -fF 1' på tillräcklig stor terminalfönster (förstora så visas mer info) och ger då 1 sekunds uppdatering - du ser processorlaster individuellt men för kopieringen titta ungefär mitten och som börjar med DSK (disk) och det som är intressant att titta på är 'busy' (som ofta är 100% vid olika diskaktiviteter) och sedan lite lägre till höger dataflöden i MB/s och nästan helt till höger 'avq' (kommandokölängder mot disken) och avio (tid för var kommando som bearbetas)

Och sedan starta kopiering - använd kopiering (cp) och inte 'mv' då man tar inte bort originalet förrän man vet att kopian är OK

Titta sedan i atop på vilka resurser som belastas.

Det som är förväntat är att 'busy' går mot 100%, att antal MB/s för läs och skriv är rimligt högt, att 'avio' ligger på några och ibland enstaka 10-tal ms-området (läs söktiden) - vid skrivning kan kölängden (avq) vara ganska stor i området 10-100 (skrivkön är att disken har tagit emot ett antal skrivkommandon med data som väntar på att skrivas och skrivordningen optimerad för att minimera skriv/läsarmsrörelserna så mycket det går under skrivningen/läsningen)

Det som kan vara intressant är om en enda kärna ligger på 100% hela tiden - NTFS i sin metadatahantering (dvs filsystemet själv) och uppdatering och modifiering av $MFT är enkeltrådat och bränner rätt ordentligt med CPU när det skall skapa och skriva filer, medans läsning går oftast fortare - nu har jag inte senaste linuxen och NTFS kan gå via FUSE fortfarande, men en praktisk skivhastighet att skriva mot NTFS-formaterad disk med stora filer via linux är typ 130-150 MB/s medans läsning går betydligt fortare.

Om disken har läsproblem så ser man det genom att 'avio' sticker iväg i tid - istället för några och kanske någon eller ett par 10-tal ms och lästiden istället är över 50 ms och högre så tyder det på att disken håller på med omläsning av svårläsbar data medans är busy 100%, överföringshastigheten låg räknat i MB/s och avio fortfarande inom några och ett par 10-tal ms så är det nog den krassa orsaken att filerna är hårt fragmenterad i NTFS-filsystemet.

Permalänk
Medlem

Jag skulle göra detta för ~10 år sen, d.v.s säkerhetskopiera flera hundra gigabyte småfiler.

Jag kopierade från SSD till en disk ansluten till USB3. Det hela gick i skaplig fart tills disken jag kopierade till överhettade i sådan grad så att plattorna* nöp!

Flera år senare "lagade" jag disken genom att bruka så mycket våld som krävdes.

*Lagret antar jag snarare än själva plattorna

Permalänk
Medlem
Skrivet av Dava:

Försöker flytta över 208 GB bilder från en roterande externhårddisk till en annan, men det känns knappt som att det går.
Flyttar några 100 bilder åt gången och är inställd på att det kommer att ta tid.

Testade först på min chromebook men efter att ha stått att det skulle ta 30 minuter i en halvtimme så ändrade det sig till 784 timmar och det verkade inte hända mer. Flyttade hårddiskarna till en gammal bärbar dator (Haswell i5, 8 GB ram) med Arc Linux och hårddiskarna verkar jobba, men det händer inte mycket och hela datorn känns fryst.. Processorn visar 100% och fläktarna går för fullt.

Varför ska det vara så arbetsamt? Det är Klassiska Western-Digital mybook diskar..

Jag skriver här för jag börjar ju funderar på att plocka fram en stationär dator med en Sandy-bridge i7 2600K från vinden för att inte behöva sitta hela dagen. Det kommer dock ta en stund, så jag undrar förstås om det är lönt eller om det är så att det är hårddiskarnas USB-gränssnitt som är problemet?

Det där låter som en alldeles för slö anslutning eller att disken har något problem.

Vilken typ av fil du kopierar ska inte ha någon betydelse annat än att en stor fil tar längre tid.
En viss overhead kan förkomma vid många små filer som sänker hastigheten, men det brukar vara vanligare för hårddiskar som har hög fragmentering eller trasigt filsystem / fysiska fel.

Vad har du för färg på kabeln? Du vill helst ha en blå eller orange / röd kabel. (Färgen inuti kontakten) för att kunna ge ordentligt med kräm. Sedan hur vida en kabel är kompatibel finns det delade meningar om.

Vart ansluter du kabeln? I/O-plåten på baksidan av datorn är den del som kan garantera stabilast / mest ström. Detta är intressant speciellt för roterande diskar som behöver kräm för motorn. Att ansluta via exempelvis fronten, usb-docka eller tangentbord / bildskärm kan göra att disken får för lite kräm. Har själv en disk som fungerar i för svaga uttag men som går ner i väldigt låg hastighet om det inte är en kontakt som är i I/O-plåten eller i en docka med egen kräm.

Vad är det för märke / kvalité? Även USB-minnen som är USB3 kan komma med väldigt låg hastighet jämfört med vad USB3 hintar om. Gäller väl speciellt lågbudget

Tittar man på specifikationer för USB så ser man att :

USB 1: 1,5Mbit / sek (teoretiskt 150 KByte / sek)
USB1.1: 12Mbit / sek (teoretiskt 1.2 MByte / sek)
USB2: 480Mbit / sek (teoretiskt 48 MByte / sek)

USB3 / 3.1 Gen 1: 5Gbit / sek (teoretiskt 500 MByte / sek)
USB3.1 Gen 2: 10Gbit / sek (teoretiskt 1 GByte / sek)

USB 1 / 1.1 får väl anses som att det inte finns längre annat än bakåtkompatibilitet med möss / tangentbord.

Den externa mekaniska hårddisk jag har från Toshiba med USB3-anslutning ger 75-115MB/sekund vid blandade filer.

Källa till siffror: https://www.direktronik.se/kunskapsbanken/tillbehor-och-grans...

Visa signatur

Server: Fractal design Define 7 XL | AMD Ryzen 7 5800X 8/16 | ASUS ROG CROSSHAIR VIII DARK HERO | 64GB Corsair @ 3000MHz | ASUS Radeon RX 460 2GB | Samsung 960 PRO 512 GB M.2 | 2x 2TB Samsung 850 PRO SSD | 6x Seagate Ironwolf Pro 10TB
WS: Phantex Entoo Elite | AMD Ryzen Threadripper 1950X 16/32 | ASUS Zenith extreme | 128GB G.Skill @ 2400MHz | ASUS Radeon HD7970 | 3x 2TB Samsung 960PRO M.2 | 6x Seagate Ironwolf Pro 10 TB
NEC PA301W 30" @ 2560x1600 | Linux Mint 21.3 Cinnamon

Permalänk
Medlem

Oftast betydligt bättre att lägga småfiler i en större fil med t.ex rar om man skall säkerhetskopiera.
Framförallt USB får ju problem men mängder av filer.

Permalänk
Medlem

Tipset om att flytta till datorn verkar ha funkat, jag gör samma sak när jag gör backup på vår Nintendo Switchs minneskort; jag ansluter med USB3 och då går det ganska fort att läsa till intern hårddisk, det är ofta en bättre lösning än att köra med USB3-USB3 (ibland kopierar jag till ett andra minneskort för att kunna testa diverse saker).

Det snabbaste är sjukt nog att kopiera till en okomprimerad zip-fil på datorn (går ganska mycket snabbare än att kopiera fil för fil) och sedan extrahera den på det andra minneskortet (det går inte så mycket snabbare än vanligt, kanske jämförbart, hur som helst är skrivningen ganska mycket långsammare även om korten i sig har en skrivhastighet på 80-90MByte/s)

Vi talar i exemplet ovan om FAT32 (sd kort) till dator (NTFS). Använder man SMR-disk på datorn faller alla prognoser, de kan ta kaffe- eller sömnpaus närhelst de känner för det.

Visa signatur

ASUS P8Z68-v Pro i7 2600K@4.5, 32GB RAM, RX 580, 4K Samsung u24e590, Intel SSD, Seagate SSHD, LG BH16NS55 BD/RW, MacOS Monterey, Win 10+11, Linux Mint
***gamla grejor duger***
Macbook Pro 2009, 8GB RAM, SSD, MacOS Catalina + Windows 10; Macbook Pro 2015 16GB RAM 512GB SSD Radeon Mojave

Permalänk
Medlem

Tack för alla svar. Jag skulle precis fråga det; om det spelar roll att det är 100 000 småfiler. Jag skulle ju kunna zippa ner filerna efter kategorier så att det inte är så sanslöst många småfiler.

Kabeln är en "vanlig" USB-kabel som man får till bankdosan, svar utanpå och svart innut i. Hårddisken får sin ström från en adapter i vägguttag. Men jag antar att det är USB3 som är standarden.

Överföring mellan dator (SSD) och hårddisk verkar gå i 70 Mbyte/s både för att skriva och läsa.

Men inför nästa överföring ska jag kanske packa filerna i arkiv.

Då kommer en ny fråga, är det smart att dela upp arkivfilerna så att de inte är mer än ett par 100 MB styck? Alltså finns det någon fördel att inte sitta med någon fil som är 20 GB stor?

Visa signatur

(Hackintosh) late 2011: Gigabyte H61M-DS2 | i5 3470T | MSI N210 D512D2 | 8 GB XMS3 | Crucial m4 265 GB | Windows 10

Permalänk
Medlem
Skrivet av jonaz_81a:

Jag skulle göra detta för ~10 år sen, d.v.s säkerhetskopiera flera hundra gigabyte småfiler.

Jag kopierade från SSD till en disk ansluten till USB3. Det hela gick i skaplig fart tills disken jag kopierade till överhettade i sådan grad så att plattorna* nöp!

Flera år senare "lagade" jag disken genom att bruka så mycket våld som krävdes.

*Lagret antar jag snarare än själva plattorna

Detta är intressant, vad exakt gjorde du med våldet? Behövde du öppna hårddisken?

Visa signatur

(Hackintosh) late 2011: Gigabyte H61M-DS2 | i5 3470T | MSI N210 D512D2 | 8 GB XMS3 | Crucial m4 265 GB | Windows 10

Permalänk
Medlem
Skrivet av Dava:

Detta är intressant, vad exakt gjorde du med våldet? Behövde du öppna hårddisken?

Nej jag knackade bara över centrum på disken så hoppade den igång.

Inte hårt men inte heller obetydligt.

Permalänk
Medlem
Skrivet av Dava:

Tack för alla svar. Jag skulle precis fråga det; om det spelar roll att det är 100 000 småfiler. Jag skulle ju kunna zippa ner filerna efter kategorier så att det inte är så sanslöst många småfiler.

Windows har en del strul att skriva mycket småfiler, i linux kan det vara en faktor mellan 6-10 ggr fortare med ext4/BTRFS i jämförelse med NTFS med riktigt små filer och det är ingen större skillnad mellan windows och Linux när det gäller att skapa samma småfiler på NTFS. kort sagt hanteringen är tung, är enkeltrådad och mycket overhead för var fil som skapas i NTFS, och har du i windows defender aktiv på den driven du skriver till kan det ta mer än dubbla tiden då defender skall 'smaka' på varje fil som skapas...

Citat:

Kabeln är en "vanlig" USB-kabel som man får till bankdosan, svar utanpå och svart innut i. Hårddisken får sin ström från en adapter i vägguttag. Men jag antar att det är USB3 som är standarden.

Är det USB3 så är det en 'bred platt µUSB' liknande https://www.teknikdelar.se/produkt/deltaco-micro-usb-30-2m-sv...

eller (men ganska sällsynt - oftast finns på USB3-diskdockor)

https://www.amazon.se/Cable-Matters-B-kabel-USB-C-svart/dp/B0...

och andra sidan mot datorn är då en USB-A med blå inredning eller USB-C

Citat:

Överföring mellan dator (SSD) och hårddisk verkar gå i 70 Mbyte/s både för att skriva och läsa.

Är det vanlig mini och micro-USB (5-stifts) som inte är extra platt och bredare (med 9 stift) så går det bara med ca 35 MByte/s (något fortare i Linux) i USB2 (det behövs 2 par/4 extra ledare för att klara +500 MByte/s fart som USB3 jobbar med) och visar datorn mer kapacitet så är det nog felräkning eller att du har NTFS fil och mapp-komprimering påslaget - och då är det inte konstigt om det går trögt då det fragmenterar väldigt mycket (1 fragment per 64kByte) även om filen skrivs sekventiellt. och vid stora filer så kan fragmenten ta slut innan filen är färdigöverförd

- försök inte med komprimerande mode på tex. diskimages med fil och diskkomprimering påslaget under NTFS då en fil kan maximalt ha ca 1.5 miljoner fragment och vid 64k-block (som är NTFS native kompressions-blockstorlek) så tar det stopp vid ca 93 GB storlek före kompression. Detta är NTFS akilles-häl och det går inte att göra något åt det (det var därför MS gjorde ReFS för att kunna hantera större fragmenterade filer men inte gjorde den komplett så att det är dugligt att ha som system och OS-filsystem, tyvärr).

Citat:

Men inför nästa överföring ska jag kanske packa filerna i arkiv.

Då kommer en ny fråga, är det smart att dela upp arkivfilerna så att de inte är mer än ett par 100 MB styck? Alltså finns det någon fördel att inte sitta med någon fil som är 20 GB stor?

100 MB styck är nog lite lite, området 500 MB - 5 GB är nog bättre eller rentav något under 4.7 GB styck så att det passar att brännas på DVD+/-R(W) skivor för arkivering.

Problemet med zip, rar, 7-zip arkiv - även om den är uppdelad i flera delar så räcker det med 1 bitfel för att allt efter bitfelet inte längre skall vara uppackningsbart då checksummor inte stämmer - uppackningsprogrammet signalerar error och du förlorar datat allt efter felstället.

Det är inte så ofta det händer men när det händer så har du förlorat arkivet, och jag själv har känt på det hårdhänt när det visade sig att jag hade ett RAM-fel i min dator som packade filerna och checksumman stämde inte efter kopiering till ny media, och i en modern OS studsar det runt i flertal buffrar efter skapandet innan det slutligen skrivs på lagringen och mappas RAM-segmentet med felet i sig då och då in i bland i kopieringsprocessen så har man en korrupt arkivfil... - för mig var det typ 1 fel per 1 - 5 GB filstorlek och långt ifrån alla filer utan kanske 5 av 100 st - sådant är jätteirriterande, speciellt när man kört ett halvår på det och man upptäcker försent att somliga av sina backuppfiler är paj...

Några av komprimeringsformaten kan man sätta en flagga så att det är reparerbart (dvs komprimeringsblocken är tydligt avskilda så att avkodningen kan starta på en ny kula efter en felaktig segment med egen checksumma ) så att man inte förlorar allt.

Är det jätteviktiga filer så skulle jag arkivera i TAR utan kompression, där kan bitfel ge att enstaka skador på enskilda filer men hela arkivet ryker inte på samma sätt som med zip, rar, 7zip mfl. om man skulle få bitfel i början av arkiv-filen - nackdelen är att den inte har någon alls integritetskoll på filerna utan det får verifieras på annat sätt.

I linux-världen så är borg-backup en favorit-arkiverare så det både deduplicerar och komprimerar samt att bitarna lagras i chunk och allt är checksummat i små segment - visst korrupt fil/chunk ger konsekvenser även där men man förlorar inte allt och det är reparerbar - speciellt om man någonstans har orginalfilerna kvar någon annan stans så kan det reparera skadorna för alla upplagor av sessioner som finns inom arkivet.