Skrivet av Zero Cool:
@Laxpudding
Jag kan INGENTING om hur specifikationer för bildsignaler tas fram. Uppenbarligen är det inte så enkelt som att rita upp ett schema visuellt och förklara vilken information som ska skickas med hastighet X. Hur går det egentligen till? Måste standardiseringsorganisationen också "uppfinna" kretsarna som ska klara av att skicka och ta emot signalen? Hade ju varit fint om de bara kunde proklamera att "nu kör vi standard X.Y och det innebär att vi nu ska skicka bilderna med ZGbps, ta befintlig signal och gör den snabbare, lös problemet!".
Skickades från m.sweclockers.com
Skrivet av MarcusHuddinge:
Men jag tänker liksom, skit i att försöka klämma in mer och mer bandbredd i existerande HMDI/DP och försöka hålla allt bakåtkompatibelt vilket uppenbarligen verkar vara svårt, och skit i dessa pyttesmå kontakter som USB-C.
Varför inte bara fläska på rejält med typ HDMI 3 eller DisplayPort 2 och skapa en ny maffigare lösning för dessa bandbreddsproblem en gång för alla, och sen bara jobba vidare på dessa istället?
Istället för att fortsätta med nuvarande som det uppenbarligen verkar vara svårt att göra framsteg på
Skrivet av Teknik:
Skapa en helt ny öppen standard som alla kan använda och som kan överföra 4k i 240Hz UHD eller bättre.
TV, dator, industrin, mobiler, föra över data mellan hårddiskar, nätverk kan även använda standarden, alla möjliga behov finns för en snabb överföring av information.
Kan fiber klara av behovet så skapar vi en standardkontakt och en standard för datatrafiken som alla kan använda.
Kan man lösa nuvarande problem med att använda 2 eller 3 HDMI eller displayportskablar parallellt kör på det så länge (blir bakåtkompatibelt behövs bara fler kontakter på nya grafikkort och på skärmar)
Det är skrämmande hur alla tror det är enkelt att "bara göra detta".
Låt oss sätta lite relation här, ca 32Gbit/sec i dagens kabel, som inte räcker...
10Gbit nätverk... som vi inte har än hemma, är långsammare. 1Gbit är vanligast hemma. 40Gbit optisk-fiber nätverk i företag, räcker inte ens det för 48Gbit kraven.
PCI-E 16x port... du vet den ditt grafikkort sitter på, har 8Gbit per kanal, så detta är som en 3x 3.0 port, men på någon decimeter från källan, med 4 trådar per bana i en noga utvald väg genom ett moderkort, med jord plan på båda sidorna om. Jämför detta med en kabel på 1,5m, med enorma mängder störningar och inget jordplan till att ta dem. Detta är ju varför de flesta 15m HDMI kablar som klarar ens en bråkdel av denna nivå ser ut som 1-2cm tjocka kabelrännor med skärmning och tjocka trådar, för det är exponentiellt svårare desto längre du gör kabeln.
Vi pratar alltså en okomprimerad bild, tänk .BMP bilder, som ska skickas i 3820x2160 144 gånger per sekund... felfritt varje gång, utan fördröjning! I nätverk och PCI-E ovan har du toleranser för om du får korrupt sändning, kan du skicka om data. I en bildskärm kan du liksom inte "vänta" på en av dessa 144 bilder. De måste komma "klockrent" direkt.
Så kraven på att få fram denna signal över 1-2meter är enorm. Det är bokstavligen som att få F1 bilar att fungera med storstadstrafik i svårighetsgrad. Hur de ens lyckats få mer än 3x mer bandbredd i en sådan kabel, än en koppar nätverkskabel, i bästa fall, kan klara är rent av fantastiskt. Att ens få vad en PCI-E SSDs maximala bandbredd är, i en 2m kabel i en okontrollerad miljö, är inte direkt... enkelt.
Så det är bara att "uppfinna" en krets som kan bearbeta 50Gbit+ data, perfekt, hela tiden, med låg latens, som inte är mer eller mindre stort chip och kostar 1000-lappar?
Och sedan en kontakt/kabel snabbare än typ allt annat vi har någonstans i våra hem på de längderna?
Och sedan en standard som alla tillverkare kan använda för att få detta att fungera 99% av tiden?
Jepp... är "bara" att göra.
Det tar tid. Det är bokstavligt talat som att uppfinna hjulet igen, då det finns inget de kan använda som grund. Och det värsta är... sekunden de lyckas, kommer någon och ska ha 8k 144Hz istället. Så det är en evig kamp mot fysikens lagar. Det jag tror man har börjat inse nu är ju att man behöver ev börja komprimera överföringen. Och då hamnar man i en nivå där detta måste ske i real-tid, i en otrolig fart, med typ "ingen" latens eller förlust. Inte direkt enkelt det heller.