Samsung fokuserar på TV med QLED på CES

Permalänk
Melding Plague

Samsung fokuserar på TV med QLED på CES

Samsung fyller båset på årets CES-mässa till brädden med TV-apparater, och även detta år är det tekniken QLED som dominerar.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Ptjae. Man får väl ”hoppas” för samsungs skull att de lurar i några kunder att gammal LCD teknik är något nytt och häftigt.

Skickades från m.sweclockers.com

Permalänk
Medlem

Bara för att något bygger på gammal teknik så behöver det inte vara dåligt. LCD har ju utvecklats en hel del sedan 60 talet och kommer fortsätta utvecklas.
Det finns ju ingen skärmteknik som är avgjort bäst på allt.

Permalänk
Medlem

Kommer 2020 modeller med Dolby Vision ?

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Medlem

QLED är absolut inte dåligt. Men det är en gammal teknik med samma nackdelar som äldre LCD paneler. Visningsvinklar, kontrast, backlight bleeding, reaktionstid bl.a.

MicroLED är väl bäst på allt? Den har allt OLED har, plus ingen burn in, högre ljusstyrka och lägre strömförbrukning. Men Samsung liksom andra tillverkare har nog inte bråttom att investera pengar i R&D och släppa det i närmaste framtiden när dom kan fortsätta sälja gamla goda LCD med nya "revolutionerande" namn bara för att dom har lagt till ett filter eller ny belysning.

Visa signatur

i7 8700K | Noctua NH-D15 | ASUS Z370-F | EVGA SuperNova G2 750W | Corsair Vengeance 4x8GB @ 3400MHz CL16 | KFA2 RTX2080 Super | Samsung 970 EVO Plus 2TB | LG OLED C2 42" | ASUS PG279Q

Permalänk
Medlem
Skrivet av Defender:

Kommer 2020 modeller med Dolby Vision ?

Nyfiken på varför ni vill ha DV? I typ alla jämförelser jag gjort så ser HDR10+ mycket bättre ut än DV.

Permalänk
Medlem
Skrivet av Tanax:

Nyfiken på varför ni vill ha DV? I typ alla jämförelser jag gjort så ser HDR10+ mycket bättre ut än DV.

Ser en hel del på Netflix, samt är det ju märkligt att göra en Flaggskepps TV utan DV.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Medlem

8K.
Jag som precis köpt mig en LG C9 och ärligt ser minimal skillnad mellan Full HD och 4k när jag tittar på videomaterial. Brukar få kolla vad TVn matas med för upplösning för att se vad jag faktiskt tittar på. Då har jag ändå syn över 1.0.
Som datorskärm skulle man nog se lite mer skillnad men den faktiska marknaden måste vara försvinnande liten.

Permalänk
Medlem

Jag har tänkt en del på AI uppskalning och tror att det kan spela en stor roll för streaming, både för spel och serier/filmer, men serier/filmer bör vara många gånger lättare att fixa. I spel så kan du kolla runt överallt, och vara på miljarder olika ställen. Det är omöjligt att se hela världen i dessa scenarier, du måste gissa vad resultatet ska bli. För serier/film så har du sett ALL indata (lite som https://www.sweclockers.com/nyhet/27022-3dmarks-prestandatest... , vilket förmodligen är den snyggaste DLSS implementationen). Utöver det så finns det ett mycket större intervall att uppskala bilden. Spel körs ofta i 60+FPS , medan film/serier ofta är 24FPS. Allt som behövs är att man skickar en modell för videomaterialet innan man kan se på det.

På TV eller konsol är det inget problem med den extra energin som krävs att uppskala, men lite osäkert hur det blir på handhållna apparater som ofta har en begränsad area och effektförbrukning. Men när man ser hur Google och Apple lägger in en massa hårdvara för AI acceleration som känns det som att det kan faktiskt vara något de kollar på. Sedan att Samsung kommer att följa samma väg med RDNA känns självklart, antingen om de vill göra det med själva arkitekturen (se whitepaper under machine learning inference) eller om de vill koppla någon egen del till det, men sannolikaste valet känns nog som om de vill implementera det i själva arkitekturen.

Spelstreaming (t.ex xcloud) är förstås svårare med en mycket mer begränsad tid att uppskala, men de kan nog få bort en del artefakter som uppstår när det väl streamas och underlätta bandbreddsproblemet för portabla enheter. Mer energi kommer att gå åt för användaren, men förhoppningsvis kommer det att bli bättre med tiden (att skala en 720p videoström till 1440p kommer att ta mindre och mindre energi med senare arkitekturer). För själva molnet kommer också mindre energi gå åt med att rendera i lägre upplösningar, så de känner nog att lösningen är värd det (blir billigare för dem). En annan lösning är att uppskala innan, men det hjälper inte användaren om de är på en mobil uppkoppling.

Intressanta tider framöver i vilket fall som helst.