Som sagt, i en servermiljö kan utan tvekan Optane bli mer användbar. Men jag har två kritiska tvivel som måste tas i aspekt, som du kanske har svar på?
Ena är... prestandan. det är helt klart ett "stort-långsamt-ramminne", men även om du kan adressera på en byte nivå, så kommer ju all access ändå att bli med lägre bandbredd och lägre prestanda än riktigt RAM. Du får dock en "fördel/nackdel" att du måste kunna hantera fel via ECC, samt fel vid "omstart". Ska du blanka minnet helt då eller, eftersom det inte tappar data vid strömförlust.
Tömmer du det så sliter du ju på det, och tömmer du inte det så måste ju all kod skivas om så den kan hantera en "uppstart" utan en... "normal uppstart".
Andra är... slitage. Din punkt 2 ovan är rätt fel tänkt, och låt mig förklara varför jag tror det. De säger "30 Drive Wites Per Day" på (nu 3), senare 5 år är nivån. Så 5år*365*30DWPD*375GB = ca 20k TBW, eller 20PB, vilket är mycket mer än NAND, okej, så långt allt bra.
Sen skapar vi en 30GB stor databas i denna.. och du skriver till denna med låt oss säga de 250MB/s du nämner nedan... Om vi antar att du skriver exakt lika mycket till varje del (vilket ju är perfekt miljö, men inte realistisk) så kommer du ändå bara använda 30GB av detta större Optane pga du "modifierar på byte nivå". Så du skriver ca 250MB/s i QD1, till effektivt en 30GB "disk".
250MB/s*3600*24, dvs hela 21,6TB per dag... Men du skriver inte det till 375GB disk, utan till 30GB, då Optane adresseras och hanteras sektor för sektor, vilket är varför prestandan är så låg, dvs.. ingen Wear-algoritm.
Så tar vi formeln ovan och ersätter 375GB med 30GB, får vi plötsligt bara 1,64PB... och om vi nu använder lägsta QD1 så tittar vi på 1640TB / 21.6TB per dag = 75 dagar... Så din dvindyra Optane disk har 30GB skadade utslitna sektorer och "felmeddelande" efter 2,5 månad. Inte direkt lovande för RAM huh?
Så alla fördelar med att kunna adressera på bit nivå, allt prat om RAM och hur Optane är så mycket snabbare... du kan ju ffs inte använda prestandan?!!? Att du just kan modifiera samma bit om och om igen gör att man tom på dagar eller tom timmar kan slita ut enstaka "byte" celler på detta, när resten av disken är oanvänd.
Även om vi tittar på säg hela disken @ 250MB/s, så blir det ändå 20000TBW/21.6 per dag = 925 dagar. Så även om du på något magiskt sätt använder allt "perfekt jämt", så är den i lägsta kö-djup, redan död inom 2,5år.
Så... vad Intel säger är: Här har du en disk som "klarar konstant" 500k IOPS, men du kan max skriva 125MB/s (31k IOPS) i snitt, för att hålla 5 års garantinivån, annars sliter du ut den för snabbt, tom räknat med en wear-leveling teknik du inte ens har som RAM. Wtf...
Finns inte en chans att detta kan användas som RAM... skojar du? Inte i nuvarande skick iaf.
Hur i hela friden ska du effektivt kunna använda detta när du i RAM inte styr verken slitage nivå eller var du skriver data och pga skrivtoleansen knappt ens kan matcha en HDD i snitt vs RAM som har typ 20GB/s+.
Med det sagt... du kan säkert hitta ett specifikt skriver fall där det hjälper, men det är lite som att säga att för det speciella fallet av USA kärnvapen fortfarande styrs av 8" floppy disketter. Man kan alltid hitta knäppa miljöer, men det betyder inte att en produkt är bra.
Optane är en flopp som initial produkt. Som teknik och möjlighet, hoppas jag den kan gå bättre än många andra av Intels tekniker. Men vi kan ta Intels RDRAM (Rambus) eller IA64, som ex på hur Intels "bättre" teknik ändå dör, då den inte fungerar så kostnadseffektivt i praktiken som man trodde. Thunderbolt höll ju på att dö den med, men verkar nu med sin mer öppna approach kunna överleva.
Så då går vi tillbaka till läsning. För att läsa är ju som sagt inga problem, det kan både NAND och Optane göra i typ evigheter... om inte cellurladdning eller liknande påverkar så klart.
Men personer som gillar Optane (som du ovan) verkar stirra sig blind på att man ska just läsa på kö-djup 1-2, på servernivå, vilket inte riktigt är något jag förstår. Viktigaste måste väl vara att du har en låg och konstant latency, vilket dock är Optanes enda fördel... och ja.. enda. I skrivning så blir detta ju ett problem med infon ovan...
Men hur mycket kodning måste du inte göra om du nu plötslig måste gå från RAM access till ROM access? Det kan omöjligt bli effektivt nog att ersätta det... iaf med dagens mjukvara/teknik. Det kan ersätta en SSD i prestanda, men inte i storlek/pris på långa vägar... så det hamnar i en konstig mellanväg där det är för dyrt för att användas, men inte snabbt nog för att vara värt att använda.
SSDerna kan ju skriva sin last mer än nog bra idag, och en Optane SSD är mer eller mindre lika användbart som en S3700 är som klient-disk med sett till sitt eMLC och förbättrade skrivtolerans. Man använder den inte... men med optane är ju hela poängen att man ska använda det, men inte kan. För även om NAND helt klart har sämre skrivtolerans än Optane (och sämre IOPS), så kan en SSD iaf använda mer av det.
Wear-algoritm ser till att disken lastas relativt jämnt, så även om Windows läser samma filer om och om igen, och du fortsätter att lägga in nya spel, nya filmer, nya bilder, så kommer de statiska filerna roteras och allt NAND slitas relativt jämt. Detta kan du inte på RAM... eller på Optane, utan att förstöra hela latensen och fördelarna du själv nämner ovan.
Tror du har missuppfattat mig. Cache lösning likt SRT har jag själv använt förr, och till bekanta, och den är helt klart användbar och bra. Det jag har emot det är att använda en överprisat pytteliten Optane för det, när det inte ger mycket fördel för en klient med HDD + det. Det är helt klart en bra budget teknik så man slipper köpa stora SSDer, utan kan köra på mindre SSD + det.
Ev kan jag se nyttan med en Optane som sitter med större "långsam" SATA SSD som systemdisk och vill ha lite lägre latens, men jag tror ändå inte på konceptet att offra sin enda M.2 plats för det, vs att bara köpa till en system M.2 SSD av lämplig storlek och använda SATA SSDn som speldisk tex. Det gör liksom mer nytta i praktiken, och kräver inte just 200-seriens kort och CPU + Win 10 och att vara systemdisk.
Men när kraven är så höga, känns det lite meningslöst.
Håller med dig ang storleken också, 16GB känns... värdelöst för priset. 32GB är även det rätt lite, men på blocknivå klarar det iaf en enkel dator relativt bra, tills tyngre spel kommer in i bilden.
Du vinner även fördelen att små skrivningar av OSet inte stör en större läsning (om du har aktiverat prestanda skrivningen i SRT). Det hjälper en hel del vid tex Windows update, då den konstant ska skriva till små loggfiler, som annars kan sega ner en HDD rätt bra. Och en gammal Vertex 60GB fungerar bra för tex en 1TB 7200 RPM speldisk...
Men Optane i dess nuvarande form... är verkligen totalt värdelös. Den är som en mellanpunkt som inte riktigt är användbar någonstans.
Nu med mitt 5775c spelmaskin bygge så valde jag dock att gå helt på SSD, så jag lyckats skaffa det som behövdes. Så jag har 1TB System och lagring (850 Pro), 2TB spel... (850 Pro) :p, 1TB arbetsdisk (840 EVO) och 400GB inspelning av spelsessioner (S3700).
Även om jag hade kunnat sätta Optane i denna, ser jag liksom inte poängen, då det enda som skulle boostas är just systemdisken (pga dens begränsning), och om Windows disken har lite lägre latency än en 850 PRO tror jag är rätt meningslöst. Och som RAM.... hell no.
PS. Ledsen till alla för WoT... Är något som brukar ske med poster med @Yoshman