VESA lanserar Displayport 2.0 med upp till 80 Gbps

Hur var det nu med DSC kompressionen som så många inte ansågs bli något. Snarare tvärt om, DSC blir en mycket viktig del i att inte göra halvbakade chroma subsampling lösningar i framtida monitorer.

Även i Displayport över USB-C där bandbredd är begränsad blir DSC en viktig för att nå högre upplösningar.

De som gnällde att DSC inte var en bra lösning för det förlorades information under komprimeringen. Kan säga att DSC är totalt överlägset chroma subsampling och det lilla som förloras vid komprimering går inte uppfatta med ögat till skillnad från chroma subsampling.

I rest my case, DSC är en av de viktigaste teknikerna som DisplayPort 2.0 standarden stödjer.

Skrivet av Mordekai:

Återigen ethernet (som används i det exemplet) över twisted pair har en mängd funktioner för att mitigera crosstalk som inte fungerar i en realtidsöverföring. Stadia håller bara bilden i väntan på en ny komplett frame så att den kan avkoda den, i en anslutning mellan skärm och dator skulle det kräva betydligt mer elektronik i en skärm och vi skulle få oacceptabla latenser och stutter.

Känns lite som att folk blandar ihop äpplen och päron. Att reducera crosstalk är en nödvändighet för att kunna överföra mycket information över längre avstånd. Det är kabelstandarden gjord för. Internet sker som många vet också i realtid. Det ni pratar om är förmodligen tcp -protokollet som ibland dyker upp i dessa sammanhang. Det är protokollet som bygger viss latens. Udp bygger inte samma latens men har då heller inte verifiering av paket på samma vis. Därför går ofta information som kräver korta svarstider onlinespel över udp. Att encoda/decodea bilddata som skickats som en dataström måste göras oavsett om signalen går genom en DP-kabel eller en TP-cat7. Cat7 har dock kommit längre i potential att överföra data. Kabeln i sig har inget med encoding eller dataprotokoll att göra. Det är bara mediumet, vilket i det här fallet borde fungera bättre på grund av tight tvinnade ledarpar. Den fysiska begränsningen ligger ju i mediumet på dessa längder. Se hur de måste kämpa med tracing på ett moderkort idag för att få till timingen exakt i hastigheter långt mer än 10 GB/s (flertalet GHz) över relativt korta sträckor.

Skickades från m.sweclockers.com

Här har vi en möjlig bildskärmskabel för full bandbredds DP 2.0
https://www.fs.com/de-en/products/40251.html

10 meter lång under hundra kronor. Viss tranceiver/receiver kommer kosta en del i utrustningen men vill man ha den bandbredden kostar i alla fall utrustningen skjortan.
Om bara idioterna i DP inte varit så fast i bakåtkompatibiltet. Kan väl hoppas att de bestämmer sig för att det är det enda vettiga sättet att lösa 80 Gbit/s.

Skrivet av The Kristoffer:

Känns lite som att folk blandar ihop äpplen och päron. Att reducera crosstalk är en nödvändighet för att kunna överföra mycket information över längre avstånd. Det är kabelstandarden gjord för. Internet sker som många vet också i realtid. Det ni pratar om är förmodligen tcp -protokollet som ibland dyker upp i dessa sammanhang. Det är protokollet som bygger viss latens. Udp bygger inte samma latens men har då heller inte verifiering av paket på samma vis. Därför går ofta information som kräver korta svarstider onlinespel över udp. Att encoda/decodea bilddata som skickats som en dataström måste göras oavsett om signalen går genom en DP-kabel eller en TP-cat7. Cat7 har dock kommit längre i potential att överföra data. Kabeln i sig har inget med encoding eller dataprotokoll att göra. Det är bara mediumet, vilket i det här fallet borde fungera bättre på grund av tight tvinnade ledarpar. Den fysiska begränsningen ligger ju i mediumet på dessa längder. Se hur de måste kämpa med tracing på ett moderkort idag för att få till timingen exakt i hastigheter långt mer än 10 GB/s (flertalet GHz) över relativt korta sträckor.

Skickades från m.sweclockers.com

Du hoppar över några lager. Ethernet är inte realtid.
https://en.wikipedia.org/wiki/OSI_model

Skrivet av Mordekai:

Du hoppar över några lager. Ethernet är inte realtid.
https://en.wikipedia.org/wiki/OSI_model

HDMI på nätverkskabel
För att skicka HDMI-signal på långa avstånd är inte HDMI-kablar det bästa alternativet. Då är det bättre att använda nätverkskabel. Det finns två typer av omvandlare som gör att HDMI-signal kan skickas på nätverkskabel: kabelomvandlare och signalomvandlare.

Kabelomvandlare
Den ena typen av nätverkskabelomvandlare ändrar inte HDMI-signalen utan enbart kabeln som HDMI-signalen skickas på. Lösningen består av ett par strömförsörjda enheter. Sändarenheten tar HDMI-signalen från HDMI-kabeln och flyttar över den på två nätverkskablar. Mottagarenheten tar HDMI-signalen från de två nätverkskablarna och lägger tillbaka den på en HDMI-kabel. Det krävs två nätverkskablar mellan sändaren och mottagaren eftersom en nätverkskabel endast har åtta ledare.

Videokvaliteten försämras inte av omvandlarna i sig, men om nätverkskablarna är för långa kan HDMI-signalskador uppstå (likt felen som behandlades tidigare i detta ­kapitel). Hur långa nätverkskablarna kan vara varierar mellan omvandlarmodeller och hur svåröverförd HDMI-signal som ska skickas. Det finns omvandlarmodeller som kan skicka Full HD-video i 24 Hz (t.ex. Blu-ray-film) upp till 60 meter på Cat. 6-nätverks­kabel och upp till 30 meter på Cat. 5e-nätverkskabel. Läs mer om olika typer av nätverkskablar i Nätverkskabeln.

Kabelomvandlare för HDMI-signal HDMI-signal kan även skickas på två nätverkskablar.
När HDMI-signal skickas genom nätverkskablar kan signalen inte gå via switchar eller annan nätverksutrustning. Det går heller inte att dela upp signalen på något vis.

Signalomvandlare
Den andra lösningen skickar inte HDMI-signal över nätverkskabel. I ena änden används i stället en sändarenhet som tar emot video- och ljudsignalen som kommer i en HDMI-kabel, komprimerar den och omvandlar den till en renodlad nätverkssignal. I andra änden finns en motsvarande mottagare som dekomprimerar signalen och omvandlar den till en HDMI-kabelburen HDMI-signal.

Beroende på omvandlarmodell kan komprimeringen orsaka förluster i bild- och ljudkvalitet. Fördelen med denna lösning är att den ger en riktig nätverkssignal. Det innebär att signalen kan överföras på en enda nätverkskabel i stället för två. Det innebär också att signalen kan skickas genom switchar och annan typ av nätverksutrustning. Sist men inte minst kan signalen skickas lika långt som vilken annan nätverkssignal som helst, det vill säga upp till 100 meter utan problem.

Signalomvandlare för HDMI via nätverkskabel HDMI-signal kan komprimeras och göras om till en nätverkssignal.
Denna lösning är också praktisk om en HDMI-signal ska distribueras till flera TV-apparater. När HDMI-signalen är omvandlad till en riktig nätverkssignal kan den (via switchar) distribueras ut till flera mottagare som sitter vid TV-apparaterna. Varje TV måste ha en egen mottagare.

Nu är du inne på kommunikation och protokoll igen.... 😁
Skickades från m.sweclockers.com

@Mordekai: Hur många millisekunder fördröjning är det i ethernet, speciellt cat7? Skulle det vara något bekymmer i detta fall?

HDMI kör över flera strömmar och en klocka för synk till överföringen medan DP är som ethernet ett paketbaserad överföring, så DP är mer likt som ethernet än HDMI om jag har förstått det rätt.

För övrigt till latenskänsliga överföringar så har vi infiniband till superdatorer.... men för skärmar så bör latensen på ethernet klara av detta? eller?

Eller är det annat än latens som skulle vara ett bekymmer?

Skrivet av HappyPie:

@Mordekai: Hur många millisekunder fördröjning är det i ethernet, speciellt cat7? Skulle det vara något bekymmer i detta fall?

HDMI kör över flera strömmar och en klocka för synk till överföringen medan DP är som ethernet ett paketbaserad överföring, så DP är mer likt som ethernet än HDMI om jag har förstått det rätt.

För övrigt till latenskänsliga överföringar så har vi infiniband till superdatorer.... men för skärmar så bör latensen på ethernet klara av detta? eller?

Eller är det annat än latens som skulle vara ett bekymmer?

Kabeln i sig skulle vara klockren. De har bara låst sig vid att bilderna måste skickas via tcp/IP. En ping på 1ms borde vara tillräckligt tänker jag annars...

Skickades från m.sweclockers.com

Skrivet av HappyPie:

@Mordekai: Hur många millisekunder fördröjning är det i ethernet, speciellt cat7? Skulle det vara något bekymmer i detta fall?

HDMI kör över flera strömmar och en klocka för synk till överföringen medan DP är som ethernet ett paketbaserad överföring, så DP är mer likt som ethernet än HDMI om jag har förstått det rätt.

För övrigt till latenskänsliga överföringar så har vi infiniband till superdatorer.... men för skärmar så bör latensen på ethernet klara av detta? eller?

Eller är det annat än latens som skulle vara ett bekymmer?

Nej det är just felhantering, i ethernet skickas packet om, i en videoström är det inte aktuellt, då kan inte längre få en bild av datorn i realtid utan måste ha en buffer på x frames. Dvs jitter, out of order packets etc är inte hållbart, synken måste vara absolut. Men visst är det teoretiskt möjligt men det ställer betydligt större krav på ändutrustningen (rent kostnadsmässigt betydligt dyrare än optisk tranciever/receiver). Kolla priserna på NICs som klarar 10Gbit/s över TP-kabel som ansvarar för "hårdvarulagren" i en OSI-modell, eller en mer modern Internet Protocol Suite. Hur mycket processkraft behöver inte den, stega sedan upp det 8ggr för att nå 80Gbit/s.

Det här är ju traditionellt hur videoöverföring fungerat men kanske är framtiden variabel refresh rate med paketbaserad överföring, komprimering men det kräver som sagt seriös compute power för felhantering etc. Men den som suttit med streamade spel, videokonferenser, skype är nog inte så förtjust i att få den prestandan på sin nya 8k 120Hz monitor med HDR.

Skrivet av Mordekai:

Nej det är just felhantering, i ethernet skickas packet om, i en videoström är det inte aktuellt, då kan inte längre få en bild av datorn i realtid utan måste ha en buffer på x frames. Dvs jitter, out of order packets etc är inte hållbart, synken måste vara absolut. Men visst är det teoretiskt möjligt men det ställer betydligt större krav på ändutrustningen (rent kostnadsmässigt betydligt dyrare än optisk tranciever/receiver). Kolla priserna på NICs som klarar 10Gbit/s över TP-kabel som ansvarar för "hårdvarulagren" i en OSI-modell, eller en mer modern Internet Protocol Suite. Hur mycket processkraft behöver inte den, stega sedan upp det 8ggr för att nå 80Gbit/s.

Det här är ju traditionellt hur videoöverföring fungerat men kanske är framtiden variabel refresh rate med paketbaserad överföring, komprimering men det kräver som sagt seriös compute power för felhantering etc. Men den som suttit med streamade spel, videokonferenser, skype är nog inte så förtjust i att få den prestandan på sin nya 8k 120Hz monitor med HDR.

Känns ju som en omväg att skicka bilder över tcp IP bara för att du använder en sladd som är bra på att överföra data över längre sträckor..

Skickades från m.sweclockers.com

Skrivet av The Kristoffer:

Känns ju som en omväg att skicka bilder över tcp IP bara för att du använder en sladd som är bra på att överföra data över längre sträckor..

Skickades från m.sweclockers.com

Nope, varken TCP/IP eller udp, något obskyrt som RDP eller liknande. Även om du skulle baka in all felhantering i det första lagret så måste den göras, det kräver overhead och processkraft. dessutom måste du ha extra tid att skicka om felaktiga paket, dvs en frame behöver kunna skickas snabbare än bilduppdateringsfrekvensen så det kan bli en rejäl overhead till slut. En DP kabel är supervälbyggd för att DP-protokollet inte har utrymme för felhantering. Och superkänslig, minsta störning och du tappar synk.

Skrivet av Mordekai:

Nope, varken TCP/IP eller udp, något obskyrt som RDP eller liknande. Även om du skulle baka in all felhantering i det första lagret så måste den göras, det kräver overhead och processkraft. dessutom måste du ha extra tid att skicka om felaktiga paket, dvs en frame behöver kunna skickas snabbare än bilduppdateringsfrekvensen så det kan bli en rejäl overhead till slut. En DP kabel är supervälbyggd för att DP-protokollet inte har utrymme för felhantering. Och superkänslig, minsta störning och du tappar synk.

Men du vet att ethernet över DP är fullt möjligt? Bara att det går långsammare? DP är som en sämre variant av TP cat, det är allt.

Skickades från m.sweclockers.com

Känns svårt att hypa när grafikkortsfronten (för alltid?) ligger flera år efter överföringsmöjligheterna.

Skrivet av Överklockad_gasklocka:

Känns svårt att hypa när grafikkortsfronten (för alltid?) ligger flera år efter överföringsmöjligheterna.

Hade ju varit ännu värre att köpa ett grafikkort och skärm och sen vänta år på att det ska komma en kabel som gör att man kan köra maximal upplösning och frekvens.

Skrivet av FYNXER:

De som gnällde att DSC inte var en bra lösning för det förlorades information under komprimeringen. Kan säga att DSC är totalt överlägset chroma subsampling och det lilla som förloras vid komprimering går inte uppfatta med ögat till skillnad från chroma subsampling.

Chroma subsampling och DSC är reducering av information baserat på två olika principer. Det ena utesluter inte det andra, utan tvärtom, kompletterar varandra.

Chroma subsampling bygger på att vår biologi och att våra ögon ser detaljer och skärpa genom luminans. Vi har betydligt mer stavar (luminans) jämfört med vad vi har röda, gröna och blå tappar vilka uppfattar färg. Detta har man känt till i mer än 100 år eller så. Bandbredden är alltid ett problem med video. Så länge vi haft videosignaler har man löst detta genom att reducera färginformationen.

Problemet med Chroma Subsampling är att det inte fungerar särskilt bra med datorgrafik, utan är en lösning som främst passar video där folk har tittat på 4:2:0-subsamplat material i decennier utan att någonsin tänka en tanke på saken.

Display Stream Compression handlar om att reducera informationen i signal och bildinnehåll med hjälp av olika algoritmer till vad som är "visually acceptable" där man främst använder sig av stillbilder, video (inklusive sådant som är just chroma subsamplat) och skrivbordgrafik. Inga ord om högfrekventa spel i situationer där spelare är väldigt medvetna om minsta lilla avvikelse i bilden.

DSC kanske fungerar som "visually acceptable" för spel som tuffar på i 144 – 240 Hz. Kanske inte. Jag tror inte många vet eftersom skärmar som använder DSC ännu inte existerar på konsumentmarknaden. Så jag är lite nyfiken på hur du kan hävda "Kan säga att DSC är totalt överlägset chroma subsampling"?

Har du personligen sett en teknikdemo med DSC i snabba spel? I såfall berätta!

Senast redigerat 2019-06-28 09:29
Skrivet av The Kristoffer:

Menar du att DP och HDMI skickar "tittbara bilder", eller vad menade du?

Jag beskriver skillnaden mellan en mpeg-ström (megabit över valfri internetförbindelse) och resultatet av vad som sedan blir när man avkodar denna ström till något som i slutändan kan omvandlas till fysisk ljus (gigabit över HDMI eller DP) på en skärm

Och det faktum att dessa två ofta blandas ihop. För ifall man verkligen har insikt om skillnaden skulle man aldrig fråga något i stil "...hur kan Youtube skicka 4K över internet men min DP-kabel på 5 meter misslyckas med samma sak?"

Jag menar inte specifikt dig, utan jag hör denna typ av argument allt oftare och oftare. Vilket förbluffar mig eftersom jag inbillade mig att detta var självklart efter alla år. Vilket det uppenbarligen inte är. Så ännu en to-do-lista på teknikstunder.

Skrivet av Laxpudding:

Jag beskriver skillnaden mellan en mpeg-ström (megabit över valfri internetförbindelse) och resultatet av vad som sedan blir när man avkodar denna ström till något som i slutändan kan omvandlas till fysisk ljus (gigabit över HDMI eller DP) på en skärm

Och det faktum att dessa två ofta blandas ihop. För ifall man verkligen har insikt om skillnaden skulle man aldrig fråga något i stil "...hur kan Youtube skicka 4K över internet men min DP-kabel på 5 meter misslyckas med samma sak?"

Jag menar inte specifikt dig, utan jag hör denna typ av argument allt oftare och oftare. Vilket förbluffar mig eftersom jag inbillade mig att detta var självklart efter alla år. Vilket det uppenbarligen inte är. Så ännu en to-do-lista på teknikstunder.

Jo, men diskussionen handlade om kabelstandard, inte sättet informationen decodades/ encodades eller via vilket protokoll.
TP-cat kan skicka digital information i storleksordningen 100Gbit/s vid längder under 15 meter, DP och HDMI kan skicka digital information motsvarande mindre än hälften, trots dubbla antalet kanaler. Vad som händer i skedet vid avkodning är ju utanför kabeln. Den fysiska bandbreddsbegränsningen ligger alltså i kabelstandarden, HDMI och DP verkar exempelvis få problem med crosstalk vid längre kabel, frekvens per kanal är låg vilket leder till en totalt lägre bandbredd, då trots mer än dubbelt antal kanaler.
Oavsett kabel så har de tre typerna: Cat, DP och HDMI en sak gemensamt. De är medium för att skicka ettor och nollor digitalt mellan två kommunikationskretsar med en viss given standard. Hur man sedan väljer att skicka och ta emot informationen i ändarna, det är ju lika oväsentligt som om vi pratat fiberoptik. Varken HDMI eller DP kommunicerar ju medelst fysiskt ljus utan elektriska impulser precis som CAT. Där DP och HDMI idag bjuder på sämre potential än andra etablerade standarder.

Skrivet av The Kristoffer:

TP-cat kan skicka digital information i storleksordningen 100Gbit/s vid längder under 15 meter

Var får du dessa siffror ifrån att det skulle gå att på något enkelt sätt få ut 100 Gbps över nätverkskablage? För det låter för mig som teoretiska bandbredder snarare än vad någon får ut i praktiken. Än mindre med något som kostar runt 200 kronor likt dagens 2-meters DP-kablar.

HDbaseT är den teknik som länge kört AV, USB och Ethernet över CAT-kablage och där är priserna rätt hyfsade, runt 2 000 kronor insteg för ett par med sändare/mottagare. Där når man 10 Gbps i upp till 100 meter.

HDbaseT Alliance har precis nu i dagarna börjat med version 3.0 där man vill nå 16 Gbps över 100 meter för att få med just 4K/60, något som inte varit möjligt innan.

Skrivet av Laxpudding:

Det du jämför är en kodad och komprimerad dataström som öht inte är en bild på något sätt. Först när den avkodas blir det bild. Och då är det rådata om 10 Gbit/s för 1080p/144 Hz. Eller som du nu börjar bli aktuellt, närmare 40 Gbit/s för 4K/144 med 10 bitars HDR.

Lite förvånad över hur (ofta) detta missförstås med tanke på alla år med mp3-filer, strömmande musik etc. Video är inte annorlunda. Det som Stadia, Netflix med flera skickar är inte en tittbar bild innan det avkodas till de hastigheter som krävs för att omvandla bilddata pixel för pixel till fysiskt ljus. Då blir det rådatanivå på det hela och vi börjar närma oss de praktiska gränserna för passivt kablage.

Hur dyrt är det att sätta avkodaren i själva skärmen? Det är väl så det fungerar i tv apparater?

Skickades från m.sweclockers.com

Skrivet av Timergu:

Hur dyrt är det att sätta avkodaren i själva skärmen? Det är väl så det fungerar i tv apparater?

Det är så det alltid har fungerat med digital-TV etc. Avkodningen sitter i TV:n. Netflix-klienten använder TV:ns hårdvara. Någon massiv kodning till HEVC etc. sker hos sändaren/strömmaren och en omvänd avkodning sker hos mottagaren. Stadia och liknande bygger på mycket snarlika principer.

Men det hjälper inte för att lösa problemet med att skicka bild pixel för pixel från grafikkort till skärm. Där kommer DSC in och gör saker och ting bättre. DP 2.0 tar upp DSC mycket mer detaljerad än tidigare versioner och GPU-tillverkarna börjar nu också haka på med DSC. Väntar vi också på skärmarna.

Skrivet av Laxpudding:

Var får du dessa siffror ifrån att det skulle gå att på något enkelt sätt få ut 100 Gbps över nätverkskablage? För det låter för mig som teoretiska bandbredder snarare än vad någon får ut i praktiken. Än mindre med något som kostar runt 200 kronor likt dagens 2-meters DP-kablar.

HDbaseT är den teknik som länge kört AV, USB och Ethernet över CAT-kablage och där är priserna rätt hyfsade, runt 2 000 kronor insteg för ett par med sändare/mottagare. Där når man 10 Gbps i upp till 100 meter.

HDbaseT Alliance har precis nu i dagarna börjat med version 3.0 där man vill nå 16 Gbps över 100 meter för att få med just 4K/60, något som inte varit möjligt innan.

https://en.wikipedia.org/wiki/GG45
https://planetechusa.com/blog/ethernet-different-ethernet-cat...

"Cat7 can also support 10 Gbps, but laboratory testing has successfully shown its ability to transmit up to 40 Gb at 50 meters and even 100 Gb at 15 meters. The newer “Class F” cabling can support frequencies of up to 600 Mhz. That said, Cat7 has not been approved as a cable standard for telecommunications.

Cat7 offers extensive shielding to reduce signal attenuation and is relatively stiff in comparison to previous generations of cabling. Both individual pairs are shielded, with an additional layer of shielding over the entire cable. The shielding needs to be grounded and Cat7 also requires special GigaGate45 (GG45) connectors to take full advantage of higher performance features.

All in all, Cat6a can perform just about the same as Cat7 but at a lower price point. Most of our AV and IP surveillance customers opt for Cat6a STP or Cat6a FTP. Both offer shielding from alien crosstalk and interference around high voltage lines.

Cat7 is suited for use in datacenters and large enterprise networks.

Note: 600Mhz/10Gbps/100m (40Gbps at 50m/100Gbps at 15m)."

Så hastigheten är check på kabeln, nu ska vi kunna bara hitta kretsar billiga nog att hantera informationsflödet i båda ändar.

Skrivet av Timergu:

Hur dyrt är det att sätta avkodaren i själva skärmen? Det är väl så det fungerar i tv apparater?

Problemet med detta är att bilden som skickas till TV:n är komprimerad med förstörande komprimering, men för datorskärmar är det i regel pixelperfekt överföring som de flesta förväntar sig. Med förstörande komprimering så kommer bildkvalitén att skifta beroende på vad som visas på skärmen, se t.ex. denna video för en kort förklaring.

Man skulle förstås kunna komprimera bildsignalen med en icke-förstörande komprimeringsalgoritm, och det skulle i praktiken sänka kravet på genomsnittlig bandbredd ganska rejält i många fall. När man t.ex. sitter och surfar på nätet så är stora delar av bilden oförändrad från bildruta till bildruta, och bilden innehåller ofta stora fält av samma färg. Båda dessa egenskaper är stora fördelar om man vill komprimera bilden.

Problemet med icke-förstörande komprimering är dock att det inte går att komprimera vilken bildsignal som helst, t.ex. slumpmässigt brus. Detta skulle ju leda till en paradox eftersom man då skulle kunna komprimera den komprimerade bildsignalen om och om igen tills den inte tar upp någon plats alls. Så med icke-förstörande komprimering kommer bandbredden att variera beroende på vad bildsignalen innehåller, men det värsta fallet kommer fortfarande vara samma som utan komprimering.

Fördelen med att använda icke-förstörande komprimering skulle med andra ord vara att man skulle kunna uppnå en högre genomsnittlig bildfrekvens med samma bandbredd i vissa fall, men man måste ändå vara beredd på att bildsignalen inte kan komprimeras. Att bara strunta i att komprimera bilden är då det enklaste valet. Än så länge har alltså konsekvent bildöverföring ("vi garanterar 4K@60Hz") föredragits framför hög maxkapacitet ("vi garanterar 4K@30-120Hz, beroende på vad bildrutan du tittar på just nu innehåller"). Men nu när skärmar allt mer börjar få variabel uppdateringsfrekvens så kanske vi får se mer utveckling åt det hållet.

En nackdel med all form av komprimering är dock att det finns många olika sätt att komprimera bilder på. Att låta skärmen avkomprimera bilden skulle alltså kunna leda till att skärmar blir föråldrade snabbare när nya komprimeringsalgoritmer kommer. Komprimering är inte heller gratis, det kräver både beräkningskraft och tid (d.v.s. extra fördröjning innan bilden visas).

Stora frågan är, vilken kabel kommer ge bild på skärmen överhuvudtaget...
Bara köpa en hög kablar och hoppas på det bästa som man gjort senaste 3 åren med DP.

Skrivet av Laxpudding:

Problemet med Chroma Subsampling är att det inte fungerar särskilt bra med datorgrafik, utan är en lösning som främst passar video där folk har tittat på 4:2:0-subsamplat material i decennier utan att någonsin tänka en tanke på saken.

Jag tycker det fungerar precis lika bra för rörlig datorgrafik dvs spel, som video. Tänker inte det minsta lilla på om det är av eller på. Detta är en kompromiss jag hoppas man alltid kommer kunna göra i framtiden, jag vill alltid ha högre uppdateringsfrekvens! Jag var väldigt misstänksam till detta i början, men efter att ha använt det till och från i 1 år så är jag överväldigande positiv.

Att läsa text med 4:2:2 är ju förjävligt dock, men man behöver ju aldrig köra det i desktop.

Det negativa är att strömmen måste kodas om till 4:2:2 och, så det sänker faktiskt fps med ca 5% (inte testat extremt noga, men ungefär - detta är ca samma prestandaförlust som shadowplay ger, som också kodar om till 4:2:2, så kanske är samma algoritm?).
Det ökar max refreshrate på skärmen, men sänker samtidigt renderad fps så det blir bara meningsfullt i spel man enkelt kan maxa fps i.
Detta gör funktionen aningen nischad då det är svårt nog att pressa ut fps att komma upp i de nivåerna den blir aktuell i första hand.

Jag hoppas faktiskt det blir en standardfunktion att pressa ut högre refreshrate genom Chroma Subsampling.
Det har varit väldigt mycket negativitet om detta, som jag mest tror beror på snedvriden marknadsföring, men i grund och botten är det ju något tekniskt positivt.

Om asus/acer/nvidia istället föratt säga "vi har en ny skärm med 4k 144Hz HDR!!" (<finstilt>....som kräver 4:2:2,), hade sagt ""vi har en ny skärm med 4k 120Hz HDR!! Som en bonusfunktion kan du "överklocka" och köra 144Hz i spel utan att det ser sämre ut!!", så hade nog funktionen mottagits bättre.

Skrivet av The Kristoffer:

Så hastigheten är check på kabeln, nu ska vi kunna bara hitta kretsar billiga nog att hantera informationsflödet i båda ändar.

Och det ska bli något som går att tillverka till priser som accepteras i skärmar också. Det är ganska lång väg från att pressa 100 Gbps rådata i ett labb till att få något som fungerar i praktiken. Uppenbarligen är vi inte där än.

@JBE: Det är Cleartype som spökar till tetxningen i första hand eftersom det adderar färginformation som sedan samplas ned och sedan upp igen. Intressant att du ser det som problemfritt för datorspel. Hänger nog en hel del på själva spelet och hur det presenterar information.

Skrivet av Laxpudding:

Och det ska bli något som går att tillverka till priser som accepteras i skärmar också. Det är ganska lång väg från att pressa 100 Gbps rådata i ett labb till att få något som fungerar i praktiken. Uppenbarligen är vi inte där än.

I och för sig där dp befinner sig med. Ingen färdig produkt som pressar uppåt 40 Gbit enligt pressrelease.

Skickades från m.sweclockers.com

Skrivet av The Kristoffer:

I och för sig där dp befinner sig med. Ingen färdig produkt som pressar uppåt 40 Gbit enligt pressrelease.

HDMI: med 2.1 och FRL 48 Gbps med hårda krav på hur kablar och inte minst själva kontakten är konstruerad. Endast ett fåtal godkänd tillverkare av själva kontakten. Snart 1,5 år sedan specifikationen släpptes.

HDbaseT: Precis nåt 16 Gbps över CAT-kablage, Juni 2019

Displayport: 32 Gbps för första gången i praktiken sommaren 2018

Thunderbolt: 40 Gbps i två riktningar med Thunderbolt 3. Sedan 2016-ish. Korta kablar och en del problem med det som finns. Men det som är mest beprövat idag, vilket såväl USB som Displayport hakar på.

Så ser det ut med hårdvara som existerar på marknaden.

Skrivet av Laxpudding:

@JBE: Det är Cleartype som spökar till tetxningen i första hand eftersom det adderar färginformation som sedan samplas ned och sedan upp igen. Intressant att du ser det som problemfritt för datorspel. Hänger nog en hel del på själva spelet och hur det presenterar information.

Testade, och ja, text ser ju bättre ut utan cleartype, men fortfarande illa. Oavsett så vill man ju inte köra 4:2:2 på desktop ens i 4k, och man vill ju ha cleartype på om möjligt. Med framtida högre upplösningar är det kanske ok.

Spelet i sig spelar nog ingen roll för 4:2:2, som jag förstår det renderas allt i 4:4:4 och omkodas sedan till 4:2:2 (vilket kostar ytterligare ~5% av kapaciteten på gpu).
Nvidia har varit knappa om exakta detaljer gällande hur det fungerar.

I 1080p eller lägre har ju chroma subsampling mer eller mindre varit ett skällsord för datorbruk, men chroma subsampling är mindre och mindre tydligt desto högre upplösning det är (då det ju faktiskt bara är en reduktion av upplösning som bara gäller för färger), så i 1080p kan det gott synas, i 4k syns det inte (4k bluray är ju tex 4:2:0 tom, dvs 1080p färgupplösning med 4k luminans, geometri, gråskala etc), i framtida 8k eller 16k kan man antagligen göra 4:2:0 eller 4:2:0 till standard för allting.
16k i 4:2:0 är ju tex 16k luminans, upplösning etc men färgernas upplösning är 8k. (det är ju aldrig någon degradering av färgdjup/övrig kvalitet, bara färgernas upplösning).
8k i 4:2:0 är 8k luminans, upplösning etc men färgernas upplösning är 4k.

4k 4:2:2 är fortfarande 4k i luminans, upplösning etc, med halverad färgupplösning. Färgupplösningen i 4k 4:2:2 är fortfarande lite högre än 1440p 4:4:4 (1920×2180=4,185,600 vs 2560×1440=3,686,400), medan allt annat är bättre. Har man någonsin överlevt att spela i 1440p så tål man att spela i 4k 4:2:2.

även 4k 4:2:0, som ju inte ens används, är fortfarande på alla sätt och vis bättre för allting än vad 1080p någonsin varit (skalat till samma storlek), etc (då det ÄR 1080p färgupplösning men allt annat är 4x högre).

Senast redigerat 2019-06-28 23:31

Detta är väl en dom situationerna där man säger:
Tack Intel

Äntligen! Väntar på tills jag kan byta till en 4K skärm med adaptiv syncronisering, 144hz och full färgupplösning. Nu kan det snart ske...