Samsung 860 QVO hittar ut på webben – prispressad SSD-enhet med hög kapacitet

Permalänk
Skrivet av Yoshman:

Fortsatte den disken att vara så långsam eller återhämtade den sig efter en stund?

Tog fram min förra laptop som legat i en låda i nästan två år. Datorn är utrustad med den (ö)kända EVO 840 modellen, har dock senaste firmware (Samsung fick ju till en bra lösning på problemet i slutändan).

All diskaccess var riktigt segt direkt efter boot, disk-benchmarks visade på horribel prestanda. Men efter att datorn varit påslagen några timmar och ett gäng Win10 uppdateringar senare var prestanda inom felmarginal tillbaka på samma nivå som tidigare (hade resultat från tidigare disk-benchmarks på samma system sparade).

Ingenting visade heller på att data skulle vara korrupt.

Den återhämtade sig - inte helt såklart och det skulle den nog inte göra oavsett hur lång tid den fick på sig men läshastigheter var i alla fall uppe i runt 200MB/s istället för 10MB/s.

Skrivet av Broken-arrow:

Självklart inte, men om datan lagrades ett tag till kan ju viss del av datan vara borta (om den inte redan var något fel som inte märktes). Alltså om dom lagrade disken par månader eller 1 år till kan data ha förloras (finns ju fin tabell på vissa nand kretsar vad dessa klarar i kall lagring, garanterat utan förlora data) och det är inte så lång tid man kan tro.

Såklart men det man väl jämt säga att den kan råka ut för dataförlust om den utsätts för ännu mer utmanande förhållanden.
Eftersom jag hade kontrollsummor för att testa om all data fortfarande var intakt så kan vi vara rätt så säkra på att den klarat sig utan fel (efter att ECC hade gjort sitt jobb).
JEDECs specifikationer för retention är rätt breda - under gynnsamma förhållanden ska en SSD kunna klara retention av data i ett antal år även när den är utsliten medan under mindre gynnsamma förhållanden så kan dess retention mätas i dagar.
Värt att notera är bland annat att förutom temperaturen vid användning/lagring så har hur snabbt den slitits inverkan plus att om den inte slitits så mycket har den betydligt bättre retention än JEDECs tabell visar (en där 10% av P/E cyklerna har förbrukats har sådär tio gånger längre retentionstid än en som är utsliten).

Det är då om SSDen faktiskt uppfyller JEDECs krav vilket jag inte vet om den SSD jag nämnde gör.
För medan den har slitits ut mer än de flesta SSDer som använts av konsumenter, legat strömlös i några månader (som var ovanligt varma) så är det långt ifrån JEDECs krav på om att den ska klara av retention i ett år efter att den slitits ut och med en rumstemperatur på 30 grader.

Skrivet av Broken-arrow:

Vet faktiskt vissa som bara startar datorn 1 gång i månaden (för att betala räkningar). Tror i dessa fall QLC får det jobbigt i alla fall första generationen (får väl se vad deras garanterad kall lagring är, om Samsung vågar skriva ut det), kan ju även bli sämre med nya gen också för dom krymper noden.

Tror det är lite tidigt att säga riktigt hur QLC NAND kommer bete sig - har sett en del variation mellan olika SSDer och olika typer av NAND (till och med SSDer med samma NAND och kontroller).
Om Samsung anger retention kommer det bara vara antingen 3 månader eller 1 år beroende på om de är för konsumenter eller inte, eftersom det är så mycket som påverkar retention är det svårt att ge en bra uppskattning på det.
Retentionen kommer inte vara det de drar ned på, det är hur mycket man kan skriva till den innan den når sin gräns.

Om att de krymper noden är det någonting du har läst där de säger det?
För jag har hört att de har nämnt det som ett alternativ men vet inte om de har sagt specifikt när de skulle göra det.

Permalänk
Skrivet av Glaring_Mistake:

Den återhämtade sig - inte helt såklart och det skulle den nog inte göra oavsett hur lång tid den fick på sig men läshastigheter var i alla fall uppe i runt 200MB/s istället för 10MB/s.

Såklart men det man väl jämt säga att den kan råka ut för dataförlust om den utsätts för ännu mer utmanande förhållanden.
Eftersom jag hade kontrollsummor för att testa om all data fortfarande var intakt så kan vi vara rätt så säkra på att den klarat sig utan fel (efter att ECC hade gjort sitt jobb).
JEDECs specifikationer för retention är rätt breda - under gynnsamma förhållanden ska en SSD kunna klara retention av data i ett antal år även när den är utsliten medan under mindre gynnsamma förhållanden så kan dess retention mätas i dagar.
Värt att notera är bland annat att förutom temperaturen vid användning/lagring så har hur snabbt den slitits inverkan plus att om den inte slitits så mycket har den betydligt bättre retention än JEDECs tabell visar (en där 10% av P/E cyklerna har förbrukats har sådär tio gånger längre retentionstid än en som är utsliten).

Det är då om SSDen faktiskt uppfyller JEDECs krav vilket jag inte vet om den SSD jag nämnde gör.
För medan den har slitits ut mer än de flesta SSDer som använts av konsumenter, legat strömlös i några månader (som var ovanligt varma) så är det långt ifrån JEDECs krav på om att den ska klara av retention i ett år efter att den slitits ut och med en rumstemperatur på 30 grader.

Tror det är lite tidigt att säga riktigt hur QLC NAND kommer bete sig - har sett en del variation mellan olika SSDer och olika typer av NAND (till och med SSDer med samma NAND och kontroller).
Om Samsung anger retention kommer det bara vara antingen 3 månader eller 1 år beroende på om de är för konsumenter eller inte, eftersom det är så mycket som påverkar retention är det svårt att ge en bra uppskattning på det.
Retentionen kommer inte vara det de drar ned på, det är hur mycket man kan skriva till den innan den når sin gräns.

Om att de krymper noden är det någonting du har läst där de säger det?
För jag har hört att de har nämnt det som ett alternativ men vet inte om de har sagt specifikt när de skulle göra det.

Självklart, men alla har inte kontrollsummor för att kolla så filen är hel Sen är det ju aldrig bra att ligga på gränsen vad JEDECs spexen säger men är ju så klart svårt att kolla när disken faktiskt börjar tappa data (kan ju behöva ligga i 3/4 år innan du ser fel på disken).

USB minnen är ju värre där data kan försvinna fort (men det har ju ett av det sämsta nand ihop med SD kort).

Nej, vi får se när det släppts. Med 840 och EVO tog det ett tag innan felen kom fram och nu med aggressivare omskrivningar behöver man fysiskt lagra disken med data i 6månader/1 år för att börja se om datan blir långsammare läst.

Inget jag vet än, dom gick ju till högre node med 3D nand (vet inte om det var 40nm igen), alltså med MLC och TLC diskarna 850 serien, vet inte om dom ändrade node med 860 serien (har för mig dom bara ökade antal lager och bättrade på silicone lagret att bli mer robustare).

Samsung pratade då med släppet av 3D node att dom planerat gå ner i storlek i framtiden. Men kanske läggs på is när QLC lanseras och TLC blir nya MLC (är inte motiverat minskat noden, möjligen för öka marginalerna i så fall). För lägre pris för TLC diskar behövs ju inte med nya budget QLC.

Får se om pro får behålla MLC (känns ju som MLC hamnar på Enterprise i stället, än ha tre olika node i konsumentdiskarna).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Paddanx:

Men normalt brukar de flesta SSDer för konsument idag ha 10^14 eller 10^15 nivå. HDDs har 10^14 i konsument, och de bättre/enterprise har 10^15. Då HDDs också numera har både LDPC algoritmer och även pressar fysikens gränser, har de mer eller mindre samma problem. Både SSDer och HDDs försöker packa så mycket data i dem, att fel sker... varje dag... i tusental.

Så håller helt med om att där finns olika grader av fel. Det finns fel som rättas till av disken med så god marginal att inget påverkas. Dessa fel sker ändå, men leder aldrig till problem. Sen kan du ha fel utanför vad ECC klarar av, och då får du läsfel, mer eller mindre.

Och där finns de som ligger på gränsen av vad disken kan hantera, och då kan 1 av 3 saker ske...
1. Diskens ECC rättar till allt, och inget sker.
2. Diskens ECC misslyckas med att rätta till allt, och försöker igen.
3. Diskens ECC "tror" den lyckats... och ger felaktig data.

Alt 3 är sällsynt.. som sagt tex 1 på 1 000 000 000 000 bit räknat... finns lotto med bättre odds.

Kanske lite off-topic, detta gäller snurrdiskar, har inga så gamla SSD:er som man kan se nåt intressant på.

Jo alt 3 är sällsynt, siffran ovan är klart sämre än vad det brukar vara,

Vendor (Seagate/Hitachi) factory information number of hours powered up = 58119.28 number of minutes until next internal SMART test = 38 Error counter log: Errors Corrected by Total Correction Gigabytes Total ECC rereads/ errors algorithm processed uncorrected fast | delayed rewrites corrected invocations [10^9 bytes] errors read: 0 217 0 1198962760 0 269008.097 9 write: 0 0 0 0 0 22341.693 0 verify: 0 0 0 0 0 0.001 0 Vendor (Seagate/Hitachi) factory information number of hours powered up = 53046.73 number of minutes until next internal SMART test = 14 Error counter log: Errors Corrected by Total Correction Gigabytes Total ECC rereads/ errors algorithm processed uncorrected fast | delayed rewrites corrected invocations [10^9 bytes] errors read: 0 961 0 2055109025 0 209083.123 0 write: 0 0 0 0 0 20257.792 0 verify: 0 0 0 44 0 0.000 0 Vendor (Seagate) cache information Blocks sent to initiator = 16412874595368960 Error counter log: Errors Corrected by Total Correction Gigabytes Total ECC rereads/ errors algorithm processed uncorrected fast | delayed rewrites corrected invocations [10^9 bytes] errors read: 0 388711 0 388711 2357306 19443.298 0 write: 0 7331367 0 7331367 1565632 38366.151 0 verify: 0 4461 0 4461 219218 149241.211 0

Dold text

Får man tro loggarna ovan så har det skett ett okorrigerat fel på 442 Terabit läst. Alltså alternativ B ovan, så stämmer bra med ett okorrigerat fel på 10^14 till 10^15. Intressant att det däremot är ett korrigerat fel per 1.22 Megabit läst.

Så rekommenderar att köra minst en md5sum på alla filer som man sen kan verifiera mot ibland för att se ifall man har bitröta. Enligt min erfarenhet så har jag inte fått odetekterat fel p.g.a. någon disk utan hittills har det berott på kraftaggregat/moderkort/cpu/minne som börjar ge upp.

Ett filsystem som klarar rätta fel är ju bra, men om du kopierar över filerna till annat medium så är det ju bra med md5sum filerna för att verifiera att det inte hänt nåt på vägen. (kommer tänka på ett trasigt nätverkskort som gav bitfel ibland).

Permalänk
Skrivet av Broken-arrow:

Självklart, men alla har inte kontrollsummor för att kolla så filen är hel

Är kanske inte så vanligt, nej.
Men när jag tar och testar SSDer så tar jag ju och skapar kontrollsummor för att försäkra mig om att ingen korruption skulle gå obemärkt förbi.

Skrivet av Broken-arrow:

USB minnen är ju värre där data kan försvinna fort (men det har ju ett av det sämsta nand ihop med SD kort).

Har haft lite blandade resultat med USB-minnen/minneskort - har sett en del som har stora problem och en del som har mer konsistenta läshastigheter än en del SSDer.

Skrivet av Broken-arrow:

Nej, vi får se när det släppts. Med 840 och EVO tog det ett tag innan felen kom fram och nu med aggressivare omskrivningar behöver man fysiskt lagra disken med data i 6månader/1 år för att börja se om datan blir långsammare läst.

Behöver inte vänta riktigt så lång tid, det märks efter någon vecka (även om den inte nödvändigtvis har saktat ned så mycket).

Permalänk
Medlem
Skrivet av Yoshman:

Fortsatte den disken att vara så långsam eller återhämtade den sig efter en stund?

Tog fram min förra laptop som legat i en låda i nästan två år. Datorn är utrustad med den (ö)kända EVO 840 modellen, har dock senaste firmware (Samsung fick ju till en bra lösning på problemet i slutändan).

All diskaccess var riktigt segt direkt efter boot, disk-benchmarks visade på horribel prestanda. Men efter att datorn varit påslagen några timmar och ett gäng Win10 uppdateringar senare var prestanda inom felmarginal tillbaka på samma nivå som tidigare (hade resultat från tidigare disk-benchmarks på samma system sparade).

Ingenting visade heller på att data skulle vara korrupt.

Jag har ett inlägg sedan tidigare där jag testade 840 EVO efter 9 månaders liggande också, utan några läsfel, även om prestandan var rent av i botten på skalan (<10MB/s) och den totalt återhämtade sig själv efter ca ½ dygn. Den faller ju i software LDPC ECC nivå, och då får du under 20MB/s pga det är prestanda nivån det blir. FW fixet för disken ändrade inte detta eller den ECC, utan vad de gjorde var att ändra gränsen för var disken skriver om cellerna, och att disken noterar när celler läser långsamt/med dålig svarstid, och lägger dessa till en lista att skriva om.

Så disken kommer med IDLE, eller lätt användning att själv börja optimera upp detta över tid. 850 EVO och en del andra verkar följa typ samma mönster, där det som skiljer sig är nivån de anser vara "dålig". Men lämnas de offline så kommer ju självklart de sjunka under den nivån över lag.

De ska dock enligt JEDEC klara av att ligga 1 år efter sin TBW är skriven, sett till att de ska kunna hantera sig mot läsfel. Vi kommer ju se mer och mer av detta när vi går in mot sämre och sämre NAND.

Skrivet av Bloodstainer:

De finns redan om man köper utanför våra gränser, tyvärr är copyswede och andra skatter så pass höga att de inte kan gå under 1000kr här i Sverige. Men har sett $125 för 1TB SSD diskar i USA nu

Hmm. Inte tänkt på det, men är inte Copy Swede 80kr max? (Eller har jag gammal info?)
USA skriver ju sällan med skatt, men de har det också, dock beror det på vilken stat. Och EU länder varierar det också på.

Skrivet av SAFA:

Kanske lite off-topic, detta gäller snurrdiskar, har inga så gamla SSD:er som man kan se nåt intressant på.

Jo alt 3 är sällsynt, siffran ovan är klart sämre än vad det brukar vara,

Vendor (Seagate/Hitachi) factory information number of hours powered up = 58119.28 number of minutes until next internal SMART test = 38 Error counter log: Errors Corrected by Total Correction Gigabytes Total ECC rereads/ errors algorithm processed uncorrected fast | delayed rewrites corrected invocations [10^9 bytes] errors read: 0 217 0 1198962760 0 269008.097 9 write: 0 0 0 0 0 22341.693 0 verify: 0 0 0 0 0 0.001 0 Vendor (Seagate/Hitachi) factory information number of hours powered up = 53046.73 number of minutes until next internal SMART test = 14 Error counter log: Errors Corrected by Total Correction Gigabytes Total ECC rereads/ errors algorithm processed uncorrected fast | delayed rewrites corrected invocations [10^9 bytes] errors read: 0 961 0 2055109025 0 209083.123 0 write: 0 0 0 0 0 20257.792 0 verify: 0 0 0 44 0 0.000 0 Vendor (Seagate) cache information Blocks sent to initiator = 16412874595368960 Error counter log: Errors Corrected by Total Correction Gigabytes Total ECC rereads/ errors algorithm processed uncorrected fast | delayed rewrites corrected invocations [10^9 bytes] errors read: 0 388711 0 388711 2357306 19443.298 0 write: 0 7331367 0 7331367 1565632 38366.151 0 verify: 0 4461 0 4461 219218 149241.211 0

Dold text

Får man tro loggarna ovan så har det skett ett okorrigerat fel på 442 Terabit läst. Alltså alternativ B ovan, så stämmer bra med ett okorrigerat fel på 10^14 till 10^15. Intressant att det däremot är ett korrigerat fel per 1.22 Megabit läst.

Så rekommenderar att köra minst en md5sum på alla filer som man sen kan verifiera mot ibland för att se ifall man har bitröta. Enligt min erfarenhet så har jag inte fått odetekterat fel p.g.a. någon disk utan hittills har det berott på kraftaggregat/moderkort/cpu/minne som börjar ge upp.

Ett filsystem som klarar rätta fel är ju bra, men om du kopierar över filerna till annat medium så är det ju bra med md5sum filerna för att verifiera att det inte hänt nåt på vägen. (kommer tänka på ett trasigt nätverkskort som gav bitfel ibland).

Intressant data.

Som sagt, korrigerat fel är vanligt idag, HDD som SSD. De har en enorm mängd ECC (1-4kB LDPC) i båda (och jag tror QLC talades det om 8k+), bara för att kunna säkra mot fel, både över tid/slitage osv, och för defekter i mediat. NANDet har redan sedan SLC tiden av 2009 haft rätt mycket fel, iaf runt 10%. Tillverkaren går igenom cellerna och de som är defekta markeras på så sätt, och man tar bort dessa från användning. ECC-mässigt är de äldre diskarna (ca 10 år) mycket sämre, men å andra sidan har de inte ens i närheten så många fel som dagens.

HDD idag gör samma sak som sagt. De formateras från fabrik i låg-nivå och skadade bitar "hoppas över" i LBA adresseringen. Du kan se detta när du tittar på ren sekventiell läsning av LBA adresser på dem, där det "dyker till" i läshastighet, då läshuvudet måste vänta på nästa sektor igen.

Tittar man på gröna grafen, runt 60% på denna tex ser man dessa hopp/skipp och även vid 85% finns det fler av dessa. Större trapporna är ju när den byter spår, så där är runt 60% ett spår som inte är så bra. Dessa finns på alla HDDs idag, mer eller mindre, då mediat inte kan vara perfekt nog på hela plattan för att hålla den täthet av data man behöver.

Så man använder korrigering mha ECC på alla diskar idag, och kan därför sälja dig en "trasig" disk, som hel. I sig är detta inget problem dock, eftersom din data som sagt korrigeras och läses korrekt. Problemet är ju att ECCn har en chans att om tillräckligt många bits flippar, på exakt fel sätt, så kan ECCn "visa korrekt" även om det inte är det. Detta är ju de 10^14 till 10^15 fel du faktiskt fått. Resultatet är ju skadade filer utan att man vet det, och precis som du säger, det kan ske på nätverkskortet, RAM-minnesfel osv också.

Det jag märkt dock är, bit fel av något från CPU/RAM osv, ger sällan totalt förstörda filer, då ECC nivån är ganska låg, spottar den fel långt innan det är grova fel. Med diskar dock kan bilder vara totalt förstörda eller filmer vara ospelbara när ECC fel sker, då det är större mängd data som blivit korrupt, då disken rättar till alla "mindre fel" redan.

Och ja... alla bilder/filmer/dokument du är rädd om, ha checksumma, och om möjligt ett filsystem med checksumma inbyggd (ZFS eller liknande). Även om du inte kan rätta till alla fel, kan du iaf se att det blivit fel, och då återställa en backup, istället för att ta en ny backup med den skadade filen och förlora den för gott, som tyvärr sker.

Permalänk
Medlem

Varför går det inte o redigera gamla inlägg? @Peite: Vill bara korrekta mig själv att SUNEAST 960GB SSD inte är japanskt tillverkad vad jag vet. Däremot 3 års garanti i Japan om den köpts där.
Finns även SUNBOW och andra skumma märken. Kanske Crucial MX500 är bättre budget alternativ bland 1TB:arna. 200kr dyrare dock

Permalänk
Skrivet av Paddanx:

Jag har ett inlägg sedan tidigare där jag testade 840 EVO efter 9 månaders liggande också, utan några läsfel, även om prestandan var rent av i botten på skalan (<10MB/s) och den totalt återhämtade sig själv efter ca ½ dygn. Den faller ju i software LDPC ECC nivå, och då får du under 20MB/s pga det är prestanda nivån det blir. FW fixet för disken ändrade inte detta eller den ECC, utan vad de gjorde var att ändra gränsen för var disken skriver om cellerna, och att disken noterar när celler läser långsamt/med dålig svarstid, och lägger dessa till en lista att skriva om.

Så disken kommer med IDLE, eller lätt användning att själv börja optimera upp detta över tid. 850 EVO och en del andra verkar följa typ samma mönster, där det som skiljer sig är nivån de anser vara "dålig". Men lämnas de offline så kommer ju självklart de sjunka under den nivån över lag.

De ska dock enligt JEDEC klara av att ligga 1 år efter sin TBW är skriven, sett till att de ska kunna hantera sig mot läsfel. Vi kommer ju se mer och mer av detta när vi går in mot sämre och sämre NAND.

Hmm. Inte tänkt på det, men är inte Copy Swede 80kr max? (Eller har jag gammal info?)
USA skriver ju sällan med skatt, men de har det också, dock beror det på vilken stat. Och EU länder varierar det också på.

Intressant data.

Som sagt, korrigerat fel är vanligt idag, HDD som SSD. De har en enorm mängd ECC (1-4kB LDPC) i båda (och jag tror QLC talades det om 8k+), bara för att kunna säkra mot fel, både över tid/slitage osv, och för defekter i mediat. NANDet har redan sedan SLC tiden av 2009 haft rätt mycket fel, iaf runt 10%. Tillverkaren går igenom cellerna och de som är defekta markeras på så sätt, och man tar bort dessa från användning. ECC-mässigt är de äldre diskarna (ca 10 år) mycket sämre, men å andra sidan har de inte ens i närheten så många fel som dagens.

HDD idag gör samma sak som sagt. De formateras från fabrik i låg-nivå och skadade bitar "hoppas över" i LBA adresseringen. Du kan se detta när du tittar på ren sekventiell läsning av LBA adresser på dem, där det "dyker till" i läshastighet, då läshuvudet måste vänta på nästa sektor igen.
https://techreport.com/r.x/wd-red-4tb/hdtune-line-read-red.gif
Tittar man på gröna grafen, runt 60% på denna tex ser man dessa hopp/skipp och även vid 85% finns det fler av dessa. Större trapporna är ju när den byter spår, så där är runt 60% ett spår som inte är så bra. Dessa finns på alla HDDs idag, mer eller mindre, då mediat inte kan vara perfekt nog på hela plattan för att hålla den täthet av data man behöver.

Så man använder korrigering mha ECC på alla diskar idag, och kan därför sälja dig en "trasig" disk, som hel. I sig är detta inget problem dock, eftersom din data som sagt korrigeras och läses korrekt. Problemet är ju att ECCn har en chans att om tillräckligt många bits flippar, på exakt fel sätt, så kan ECCn "visa korrekt" även om det inte är det. Detta är ju de 10^14 till 10^15 fel du faktiskt fått. Resultatet är ju skadade filer utan att man vet det, och precis som du säger, det kan ske på nätverkskortet, RAM-minnesfel osv också.

Det jag märkt dock är, bit fel av något från CPU/RAM osv, ger sällan totalt förstörda filer, då ECC nivån är ganska låg, spottar den fel långt innan det är grova fel. Med diskar dock kan bilder vara totalt förstörda eller filmer vara ospelbara när ECC fel sker, då det är större mängd data som blivit korrupt, då disken rättar till alla "mindre fel" redan.

Och ja... alla bilder/filmer/dokument du är rädd om, ha checksumma, och om möjligt ett filsystem med checksumma inbyggd (ZFS eller liknande). Även om du inte kan rätta till alla fel, kan du iaf se att det blivit fel, och då återställa en backup, istället för att ta en ny backup med den skadade filen och förlora den för gott, som tyvärr sker.

Jo endast 80kr, men det är på en situation i EU som redan gör att andra länder kan med hjälp av större marknadsutsträckning och högre volymförsäljning hålla ett bättre utpris till kund, samt ligga lägre på beskattning av produkten. Dvs, tyska digitalteknik kedjor kan köpa in fler produkter för bättre pris, sedan skära ner slutpris, och därefter lägga på en lägre VAT (moms) så springer de snabbt iväg, En produkt som inköpspris för en tysk kedja kostar 80kr kanske kostar 88kr för en svensk, därefter tar de kanske 20, kr respektive för att gå med vinst (kanske högre för den svenska då arbetsgivare betalar högre skatt för anställda), därefter appliceras en högre skatt på den svenska produkten och lägger man på 80kr därefter kan det lätt sluta med prisskillnad på 22€ emot 310kr

Visa signatur

PC #1 CPU: R5 1600 @3.8 Motherboard: B350-A PRIME GPU: EVGA 1080 Ti
PC #2 CPU: i7 3770K @4.2 Motherboard: P8P67 GPU: AMD R9 290X

Permalänk
Medlem

Efter sämre erfarenhet med en Crucial MX300 limiterad 750GB version köpt under nån rea som numera är nere på 200mb/s så är jag nyfiken på att testa Samsung 860QVO då priset och deras renommé är för bra. Dessutom har lika billiga kinesiska 3D-Nand SSD på jpn Amazon rätt så risiga omdömen.

Permalänk
Medlem

Ska bli intressant å se hur qlc blir i framtiden men just idag hade jag aldrig valt det när prisskillnaden är så liten till tlc3dnand mina mx500 har inte tappat hastighet än å haft dem några månader nu

Skickades från m.sweclockers.com

Visa signatur

Fractal r4 5volt. Amd 965 3.4 ghz Noctua DH 14 Asus M4N68T LE
Ssd diskar Samsung 850pro/intel 730 /320 Crucial m4 /8 tb mx500
Nätagg Corsair vx 450 = Seasonic m12d

Permalänk
Inaktiv

För oss som inte följer utvecklingen av SSD, vad är fel på QLC?

Permalänk
Medlem
Skrivet av anon285805:

För oss som inte följer utvecklingen av SSD, vad är fel på QLC?

Mycket sämre livslängd tappat hastighet. Jag tror givetvis qlc är framtiden när kontrollerna kan hantera att man inte tappar prestandan så fort. Men priset måste ner finns ofta att hitta tex 860 evo eller mx500 tlc 3dnand då är valet självklart

Skickades från m.sweclockers.com

Visa signatur

Fractal r4 5volt. Amd 965 3.4 ghz Noctua DH 14 Asus M4N68T LE
Ssd diskar Samsung 850pro/intel 730 /320 Crucial m4 /8 tb mx500
Nätagg Corsair vx 450 = Seasonic m12d