Svensk komprimeringsteknik dubblar primärminnens kapacitet och bandbredd

Permalänk
Melding Plague

Svensk komprimeringsteknik dubblar primärminnens kapacitet och bandbredd

Zeropoint Technologys teknik ska dubbla primärminnens kapacitet och bandbredd utan märkbar prestandaförlust.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Moderator
Festpilot 2020, Antiallo

Måste säga att namn på företag och teknik är riktigt "on-point"!

Att implementera ett Ziptilion IP-block i minneskontrollerna bör vara en no brainer om kostnaden är 1/100-del ökad latens. Frågan är om det skalar över alla accesstyper eller bara strömmande data.

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Medlem

Ja, frågan handlar väl mest om hur mycket detta bara är försäljningssnack och hur det faktiskt presterar och kostar i verkligheten.

Permalänk
Medlem

Apple har ju kört minneskompression i OSet sen 10.8, och Microsoft har det också nu. Där används det som ett steg innan page fault, här verkar det vara på allt.

I allmänhet: detta kommer att kosta latency för att vinna bandbredd och lagringskapacitet. Det låter ju bra, men om det man komprimerar redan är komprimerat så kostar det latency och man vinner ingenting.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Är "dubbla kapaciteten och bandbredden" ett typiskt fall, eller ett drömscenario som aldrig uppstår i verkligheten? Har de släppt några jämförelser med olika typer av laster?

Permalänk

Bara jag som tänker på alla scamprodukter som Softram som påstod sig gör liknande?
https://www.youtube.com/watch?v=8rxssVFeKr8

Nå iden då som nu var teoretisk full möjligt. Jag är dock skeptisk på en lösning som inte försämrar prestandan. Vi pratar om extrema datamängder som går till ddr5 minne. Och bara den minsta bearbetning av denna data så får cpu problem. Speciellt när cpun inte ens har högre klockfrekvens än vad som går ut emot ram.

*edit* Softram annonserade i typ alla svenska pc-datortidningar den tiden. Väldigt många inklusive mig trodde produkten gjorde det den påstod sig göra runt år 1995. 700 000personer köpte skiten enligt filmklippet ovanför.

Permalänk
Medlem

"Detta gäller alltså inte "hårddisken", skivminnet, själva hjärtat i hårddisken, utan just primärminnet (DRAM)."

Fan, här har man gått och trott att Modermodemet var själva hjärtat av hårddisken

Permalänk
Medlem

Äsh, jag laddar ner mer RAM när jag behöver det.

Permalänk
Visa signatur

Ryzen 3900X || ASUS ROG Strix X570-E Gaming || ASUS GeForce RTX 2080 8GB DUAL EVO || Corsair Vengeance RGB PRO DDR4-3200 || ACER - XB280HK 28

Permalänk
Medlem

Detta känns som ännu en ’downloadMoreRAM’, men tror de antagligen är bättre än så. KRAKEN som PS5 kör i hårdvara dubblerar ju SSD-prestandan i den konsolen, så inte helt omöjligt att lite kisel kan rädda världen. Dock kommer det såklart inte stämma för alla fall och datastrukturer. Om det fungerar ens i 10% av fallen att komprimera 10% så är det nog fortfarande värt det skulle jag gissa. Hoppas på fler nyheter om detta, men tror tyvärr att detta är ännu en hype som har ett fatalt problem som inte går att lösa när det analyseras djupare av potentiella kunder

Det härliga är ju att vi inte behöver bry oss eftersom vi inte är kunden, det är ju andra kiselmakare som är målgruppen, vi kan enkelt vänta och se

Permalänk
Medlem

Tack för bra artikel Läste om detta på Omni först och där var det så nedbantat att det inte ens gick att begripa vad företaget sysslar med.

Permalänk
Hjälpsam

https://forum.winworldpc.com/discussion/11027/software-spotli...
https://en.wikipedia.org/wiki/SoftRAM

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Bara jag som tänker på alla scamprodukter som Softram som påstod sig gör liknande?
https://www.youtube.com/watch?v=8rxssVFeKr8

Nå iden då som nu var teoretisk full möjligt. Jag är dock skeptisk på en lösning som inte försämrar prestandan. Vi pratar om extrema datamängder som går till ddr5 minne. Och bara den minsta bearbetning av denna data så får cpu problem. Speciellt när cpun inte ens har högre klockfrekvens än vad som går ut emot ram.

*edit* Softram annonserade i typ alla svenska pc-datortidningar den tiden. Väldigt många inklusive mig trodde produkten gjorde det den påstod sig göra runt år 1995. 700 000personer köpte skiten enligt filmklippet ovanför.

Detta var ju det absolut första som jag kom att tänka på när jag läste rubriken

Visa signatur

| EVGA Z170 FTW | i7 6700k | ASUS RTX 3070 | 16GB DDR4 3200MHz | Cooler Master V850 | Samsung 840 Evo 250GB + 2x WD Black 500GB + Seagate 2TB SSHD + Samsung 970 Evo M.2 1TB|

Permalänk
Medlem
Skrivet av hooloovoo:

{ data-uri }

Skrivet av Bild på diskett med texten:

Double
Your RAM
with Just
One Click

Men om jag klickar många gånger...?!?

Permalänk
Skrivet av BrutalSwede:

Detta var ju det absolut första som jag kom att tänka på när jag läste rubriken

Jag inser nu att företaget som säljer den svenska komprimeringsprodukten har ett förtroende problem tack vare denna tidiare skandal från ett helt annat företag.
Det är lite som när Microsoft ringer upp en för att hjälpa med problem på ens dator. Man är då genast väldigt skeptisk. Och Microsoft har faktisk ringt upp mig i seriösa ärenden, men jag är så misstänksam varenda gång.

Permalänk
Medlem

Får mig att tänka på Sandforce SSD-kontroller som utnyttjade just komprimering för att öka io-hastigheten för SSD-diskar. Problemet (i alla fall för testare) var att hastigheten blev beroende på komprimerbarheten av data. Sandforce rönte stora framgångar när SSDs var nytt, kanske framförallt genom OCZ's Vertex-serie. De senaste 10 åren har jag dock inte sett så mycket om komprimering i SSD-kontroller för att öka prestanda, frågan är förstås varför och om det finns någon parallell att dra med Zeropoint's datakomprimering för RAM.

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Jag inser nu att företaget som säljer den svenska komprimeringsprodukten har ett förtroende problem tack vare denna tidiare skandal från ett helt annat företag.
Det är lite som när Microsoft ringer upp en för att hjälpa med problem på ens dator. Man är då genast väldigt skeptisk. Och Microsoft har faktisk ringt upp mig i seriösa ärenden, men jag är så misstänksam varenda gång.

Har aldrig hört talas om att Microsoft skulle ringa upp utan att man begärt support i förhand.

Visa signatur

| EVGA Z170 FTW | i7 6700k | ASUS RTX 3070 | 16GB DDR4 3200MHz | Cooler Master V850 | Samsung 840 Evo 250GB + 2x WD Black 500GB + Seagate 2TB SSHD + Samsung 970 Evo M.2 1TB|

Permalänk
Skrivet av BrutalSwede:

Har aldrig hört talas om att Microsoft skulle ringa upp utan att man begärt support i förhand.

Inte privatpersoner men om man jobbar med deras produkter så kan de ibland göra det. Speciellt om det är Azure relaterade saker.
Det är egenligen inte mer konstigt att vilket mjukvaruföretag som helst ringer upp en. Skillnaden är att det är inte ofta t.ex. Scamers påstår att de är Adobe och de vill kolla upp folks photshop på datorn.

Permalänk
Medlem

Jag som tänkte uppgradera till 64 GB. Får nog behålla mina 32 GB.

Permalänk
Medlem

Värt att notera att det bara funkar med en modifierad Linux-version. (Se https://wp.zptcorp.com/).
Detta är eventuellt en drivrutin för komprimerad swap to ram (https://en.wikipedia.org/wiki/Zram).

Permalänk
Medlem
Skrivet av mpat:

Apple har ju kört minneskompression i OSet sen 10.8, och Microsoft har det också nu. Där används det som ett steg innan page fault, här verkar det vara på allt.

I allmänhet: detta kommer att kosta latency för att vinna bandbredd och lagringskapacitet. Det låter ju bra, men om det man komprimerar redan är komprimerat så kostar det latency och man vinner ingenting.

Borde inte vara så svårt för varken Windows eller Mac OS att känna av om hårdvaran kör minneskomprimering och i så fall inte kör det självt.

Skrivet av Drenmi:

Är "dubbla kapaciteten och bandbredden" ett typiskt fall, eller ett drömscenario som aldrig uppstår i verkligheten? Har de släppt några jämförelser med olika typer av laster?

Givetvis olika vid olika scenarior men mycket av det som läggs i minnet är rätt så komprimerbart jämfört med vad som läggs på disk.

Skrivet av deltascu:

Får mig att tänka på Sandforce SSD-kontroller som utnyttjade just komprimering för att öka io-hastigheten för SSD-diskar. Problemet (i alla fall för testare) var att hastigheten blev beroende på komprimerbarheten av data. Sandforce rönte stora framgångar när SSDs var nytt, kanske framförallt genom OCZ's Vertex-serie. De senaste 10 åren har jag dock inte sett så mycket om komprimering i SSD-kontroller för att öka prestanda, frågan är förstås varför och om det finns någon parallell att dra med Zeropoint's datakomprimering för RAM.

Komprimering i SSD-kontrollern som Sandforce hade gav inte mer diskutrymme men det hjälpte däremot med att minska slitage på NAND-celler eftersom det skrivs mindre när data kan komprimeras.
Skulle krävas helt andra filsystem för att kunna utnyttja det för enskilda SSD-diskar eftersom man aldrig vet hur mycket datan kommer komprimeras i förväg. Ta en SSD på 100GB, i bästa fall skulle den kunna rymma 300-400GB med data om det komprimeras men i värsta fall enbart 100GB, behövs ett filsystem som dynamiskt hanterar använt och ledigt utrymme på disken.

Storage-system som SAN hanterar detta med hjälp av thin provisioning och overprovisioning, filsystemen som ligger på olika LUN's har en statisk virtuell allokering så servrar tror de har en viss mängd diskyta och SAN-administratören får hålla reda på det faktiska använda utrymmet, komprimmeringsgrad och overprovisioning.
De flesta SAN har stöd för komprimmering i kontrollern men vissa har byggt in det i själva SSD-diskarna som t.ex. IBM's Flashcore-diskar så det finns ett fåtal diskar med komprimering i kontrollern idag men det är ovanligt.

Om Zeropoint's teknik verkligen har så liten latency som de hävdar så kan det ha riktigt stor potential för många produkter, många datastrukturer som hanteras i minnet är ofta väldigt komprimeringsvänliga, ta en vanlig .jpg-bild som laddas in för en websida, den avkodas till en bitmap-bild för att visas på skärmen, en bitmap-bild kan komprimeras rätt så mycket (inte lika mycket som .jpg men ändå en hel del) och samma gäller mycket annat som finns i RAM.

Visa signatur

kill -s SIGCHLD `pidof Kenny`
bash: Oh my god, they killed Kenny
init: You Bastards

Permalänk
Medlem
Skrivet av Drenmi:

Är "dubbla kapaciteten och bandbredden" ett typiskt fall, eller ett drömscenario som aldrig uppstår i verkligheten? Har de släppt några jämförelser med olika typer av laster?

Benchmarken är SPEC 2017. Kolla graferna i deras whitepaper, de finns på s8 och s9.

Skrivet av houze:

Borde inte vara så svårt för varken Windows eller Mac OS att känna av om hårdvaran kör minneskomprimering och i så fall inte kör det självt.

Givetvis olika vid olika scenarior men mycket av det som läggs i minnet är rätt så komprimerbart jämfört med vad som läggs på disk.

Komprimering i SSD-kontrollern som Sandforce hade gav inte mer diskutrymme men det hjälpte däremot med att minska slitage på NAND-celler eftersom det skrivs mindre när data kan komprimeras.
Skulle krävas helt andra filsystem för att kunna utnyttja det för enskilda SSD-diskar eftersom man aldrig vet hur mycket datan kommer komprimeras i förväg. Ta en SSD på 100GB, i bästa fall skulle den kunna rymma 300-400GB med data om det komprimeras men i värsta fall enbart 100GB, behövs ett filsystem som dynamiskt hanterar använt och ledigt utrymme på disken.

Storage-system som SAN hanterar detta med hjälp av thin provisioning och overprovisioning, filsystemen som ligger på olika LUN's har en statisk virtuell allokering så servrar tror de har en viss mängd diskyta och SAN-administratören får hålla reda på det faktiska använda utrymmet, komprimmeringsgrad och overprovisioning.
De flesta SAN har stöd för komprimmering i kontrollern men vissa har byggt in det i själva SSD-diskarna som t.ex. IBM's Flashcore-diskar så det finns ett fåtal diskar med komprimering i kontrollern idag men det är ovanligt.

Om Zeropoint's teknik verkligen har så liten latency som de hävdar så kan det ha riktigt stor potential för många produkter, många datastrukturer som hanteras i minnet är ofta väldigt komprimeringsvänliga, ta en vanlig .jpg-bild som laddas in för en websida, den avkodas till en bitmap-bild för att visas på skärmen, en bitmap-bild kan komprimeras rätt så mycket (inte lika mycket som .jpg men ändå en hel del) och samma gäller mycket annat som finns i RAM.

Tack för en av få seriösa och intressanta kommentarer. Jag började tro att jag var på Aftonbladets Facebooksida

Permalänk
Skrivet av pine-orange:

Tack för en av få seriösa och intressanta kommentarer. Jag började tro att jag var på Aftonbladets Facebooksida

Kan hålla med. Samtidigt är "scamvarningen" befogad att det inte är första gången.
Det jag ser är att om mjukvaran körs som microkod på cpun. Och microkoden kan utföra minneskomprimeringsoperationer på samma klockcykel som cpun lagrar minne på ramminnet, då har de kommit fram till något grymt.
Eller att såklart processortillverkaren bygger om sina instruktioner.

Jag har svårt hur något program alls kan utföra det minsta arbete på minne i ram utan prestandaförsämringar när bandbredden till ram har samma klockfrekvens som cpun arbetar med och ingen marginal alls för någon extra instruktion att exekveras finns. Ja i vissa scenario kan det bli snabbare, men knappast alltid. Och det känns som att de få fallen bättre kan hanteras av programutvecklaren själv.
Annat minne som ssd så finns det marginaler för cpun att kunna utföra något arbete när det är så mycket slöare.

*edit*
Om de säljer in tekniken till olika programvarutillverkare och de använder lösningen i deras applikationer när den behövs. Ja, det kan vara en riktig smart ide. Men overhead som alltid ligger på tror jag snarare kan ta resurser.

Permalänk
Medlem

"Detta gäller alltså inte "hårddisken", skivminnet, själva hjärtat i hårddisken, utan just primärminnet (DRAM)."

Memes i all ära, men här tycker jag att det är en dålig plats att lägga det. Om man skriver ett förtydligande stycke så borde man lägga det tidigt i ordningen så att läsare kan vara med på noterna senare.

Dessutom är det modermodemet som är hjärtat i hårddisken. Det vet ju alla

Permalänk
Medlem
Skrivet av lillaankan_i_dammen:

Kan hålla med. Samtidigt är "scamvarningen" befogad att det inte är första gången.
Det jag ser är att om mjukvaran körs som microkod på cpun. Och microkoden kan utföra minneskomprimeringsoperationer på samma klockcykel som cpun lagrar minne på ramminnet, då har de kommit fram till något grymt.
Eller att såklart processortillverkaren bygger om sina instruktioner.

Jag har svårt hur något program alls kan utföra det minsta arbete på minne i ram utan prestandaförsämringar när bandbredden till ram har samma klockfrekvens som cpun arbetar med och ingen marginal alls för någon extra instruktion att exekveras finns. Ja i vissa scenario kan det bli snabbare, men knappast alltid. Och det känns som att de få fallen bättre kan hanteras av programutvecklaren själv.
Annat minne som ssd så finns det marginaler för cpun att kunna utföra något arbete när det är så mycket slöare.

*edit*
Om de säljer in tekniken till olika programvarutillverkare och de använder lösningen i deras applikationer när den behövs. Ja, det kan vara en riktig smart ide. Men overhead som alltid ligger på tror jag snarare kan ta resurser.

Har inte orkat läsa deras whitepaper men jag får uppfattningen att detta inte är en mjukvara-baserad lösning utan en hårdvarurlösning som utökar minneskontrollern med komprimeringsstöd, så allt är transparent* för operativsystem och mjukvaror, de ser sina normala virtuella adressrymder som minneskontrollern hanterar åt dem.
Så när CPU skriver till minnet så skickas datan som normalt till minneskontrollern men istället för att bara mappa om virtuellt minne till en fysisk adress så passar den även på att komprimera datan innan det skickas till RAM, med komprimerad data så minskar trafiken över minnesbussen och även användningen av minnesceller i RAM.
Så det är inte till programvarutillverkare de kommer sälja tekniken utan till CPU-konstruktörer.

Det är ju inte helt olikt hur t.ex. minneskryptering i AMD EPYC fungerar idag och den klarar ju av det med väldigt liten prestandaförlust.

Jag tror den stora frågan är om Intel, AMD, ARM, Apple, IBM, Qualcomm, Mediatek och andra CPU-konstruktörer är intresserade av att köpa licenser för tekniken.

Edit: * kanske inte helt transparent för operativet, det måste ju ändå hålla lite koll på hur mycket minne som används så jag antar det behövs lite mjukvara ändå för att minneshanteringen i OS ska fungera korrekt och kunna utnyttja minnet optimalt.

Visa signatur

kill -s SIGCHLD `pidof Kenny`
bash: Oh my god, they killed Kenny
init: You Bastards

Permalänk
Medlem
Skrivet av houze:

Borde inte vara så svårt för varken Windows eller Mac OS att känna av om hårdvaran kör minneskomprimering och i så fall inte kör det självt.

Givetvis. Tycker bara att det reducerar värdet av prylen rätt markant. Om du har ett OS som jobbar på det viset (komprimerar minnet när det behövs), varför skall du lägga pengar på en sån här funktion i hårdvaran?

Den andra delen - att det ökar den effektiva minnesbandbredden - är meningslös när det gäller GPUer, eftersom texturerna är komprimerade redan. Där hade det annars behövts, att ge en integrerad GPU bättre effektiv bandbredd.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av pine-orange:

Benchmarken är SPEC 2017. Kolla graferna i deras whitepaper, de finns på s8 och s9.

Tackar! Kollar nu.

Permalänk
Hjälpsam

Detta är ett knep, som faktiskt fungerar för en del 32 bitars program.
https://www.techpowerup.com/forums/threads/large-address-awar...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av mpat:

Givetvis. Tycker bara att det reducerar värdet av prylen rätt markant. Om du har ett OS som jobbar på det viset (komprimerar minnet när det behövs), varför skall du lägga pengar på en sån här funktion i hårdvaran?

Den andra delen - att det ökar den effektiva minnesbandbredden - är meningslös när det gäller GPUer, eftersom texturerna är komprimerade redan. Där hade det annars behövts, att ge en integrerad GPU bättre effektiv bandbredd.

Jag har inte riktigt koll på minneshantering i Windows och Mac OS men för Linux så fungerar det så att en del av minnet avsätts för en virtuel page swap, t.ex. 20% av minnet istället för att swappa en page till disk så komprimeras den och läggs komprimerad i minnet så den tar mindre plats och är snabbare att läsa tillbaka än från disk.
Problemet med detta är flertalet, dels går det åt minne till detta, tar tid att hantera page fault, tar tid att komprimera och avkomprimera pages och bara en del av minnet blir komprimerat, 20% t.ex. så det minne som aktivt används av applikationer är inte komprimerat så komprimeringsförhållandet är relativt dåligt, kanske bara 15-20%.
Med Zeropoints teknik blir allt minne komprimerat så man kan utnyttja det betydligt bättre än vad operativsystemen idag kan göra.
Om man läser igenom deras whitepaper så är det en relativt lite overhead att utföra komprimeringen vilket genomsnitt fördubblar minneskapacitet och minnesbandbredd samt ibland även minska latency så vissa applikationer blir snabbare.

För GPU är det som du säger ingen stor vinst med detta men det är inte heller vad tekniken är framtagen för, den är gjord för CPU:er.

Kostnadsökningen för hårdvaran om man räknar bort patent-licenser är i princip försumbar, 1.36mm2 kiselyta för en 8 Core CPU.
Så enligt mig är den stora frågan om vad licenserna kostar och om CPU-tillverkarna nappar på det.

IBM har utvecklat en liknande lösning 2001 som heter MXT men den använde en för långsam och komplex komprimering så latency blev för hög så detta är inget nytt, bara att Zeropoints har spenderat 15 år på att finslipa idén med bättre komprimeringsalgoritmer och och metoder för att hantera dynamiskt minne.

Visa signatur

kill -s SIGCHLD `pidof Kenny`
bash: Oh my god, they killed Kenny
init: You Bastards

Permalänk
Avstängd

Herregud. Det verkar finnas folk som faktiskt tror på detta här.