Quiz: Vad kan du om skärmteknik?

Permalänk
Permalänk
Digital fyndjägare
Visa signatur

• In My Defens God Me Defend •

Permalänk
Medlem

Frågan om 2K är väl ändå fel?
2K har använts länge inom film o är inte 2550*1440p
2K är 2,048 x 1,080 och användes flitigt när man scannade FILM till digitalt för att arbeta med innan man printade ut ny FILM med filmen på. Typ som när dem gjorde sagan om ringen.
Bio visade ofta 2K i början av digitala omvandlingen.

Visa signatur

ASUS X570-F, AMD Ryzen 9 3900x, 16Gb RAM, Gigabyte 2070Super auros

Permalänk
Medlem
Visa signatur

Intel i5 12600K | Asus TUF Gaming Z690-Plus D4 | Asus Geforce RTX 3060 Ti | 32 GB DDR4 | Fractal Design North | Corsair iCue Link H100i | Cooler Master V750 Gold i Multi

Permalänk
Medlem

Denna vecka var det lite för lätt, även om en fråga fick mig att fundera lite.
Även ett par konstigheter i svar/frågorna, men inget man inte kunde tolka.

Visa signatur

The cookie goes *crumble*.

Permalänk
Bildexpert
Skrivet av Yatagarasu:

Det jag åsyftade (egentligen) var vilken upplösning som oftast förknippas eller används fel, speciellt i folkmun. 1080p och 4K UHD är ju vedertaget erkända upplösningar för 1920 x 1080 respektive 3840 x 2160 när man pratar om exempelvis TV apparater och datorskärmar. Däremot florerar det ofta runt med begreppet "2K" när man pratar 2560 x 1440p – Vilket är fel hur man än vrider på det, då (DCI) 2K refererar till 2,048 x 1,080 .

Eh, va?

Tolkar jag dig rätt att svarsalternativet "2K" var rätta svaret på frågan eftersom folk (ganska få vad jag har sett) använder det felaktigt? Två fel ger ju inte ett rätt, vilket detta tycks vara praktexempel på.

Frågan i sig lyder ju:
Diverse upplösningar blir ofta tilldelade förkortningar, vilken av dessa är inte en standardiseradförkortning?
Varpå 2K är en upplösning, som i dess mest formella aspekt är DCI 2K precis som du nämner. En upplösning är just en upplösning, oavsett hur vanliga eller ovanliga skärmar med den mängden pixlar och det bildförhållande så råkar vara. Syftet med testet är ju att det ska vara sakligt och sätta kunskapen på prov, men i det här fallet är ju alla alternativ just upplösningar och således är det omöjligt att svara rätt.

Permalänk
Testpilot
Skrivet av Mullvaden83:

Frågan om 2K är väl ändå fel?
2K har använts länge inom film o är inte 2550*1440p
2K är 2,048 x 1,080 och användes flitigt när man scannade FILM till digitalt för att arbeta med innan man printade ut ny FILM med filmen på. Typ som när dem gjorde sagan om ringen.
Bio visade ofta 2K i början av digitala omvandlingen.

Frågeställning är fel, något jag tog upp i ett inlägg lite längre upp också
#19429542

Skrivet av Nissling:

Eh, va?

Tolkar jag dig rätt att svarsalternativet "2K" var rätta svaret på frågan eftersom folk (ganska få vad jag har sett) använder det felaktigt? Två fel ger ju inte ett rätt, vilket detta tycks vara praktexempel på.

Frågan i sig lyder ju:
Diverse upplösningar blir ofta tilldelade förkortningar, vilken av dessa är inte en standardiseradförkortning?
Varpå 2K är en upplösning, som i dess mest formella aspekt är DCI 2K precis som du nämner. En upplösning är just en upplösning, oavsett hur vanliga eller ovanliga skärmar med den mängden pixlar och det bildförhållande så råkar vara. Syftet med testet är ju att det ska vara sakligt och sätta kunskapen på prov, men i det här fallet är ju alla alternativ just upplösningar och således är det omöjligt att svara rätt.

Svaret är rätt ("2K"), givet att frågeställningen är fel formulerad och något jag nämnde i inlägget som du citerade också. Därmed är det ingen idé att räkna med den frågan om man skulle bommat på den – Syftet med testet är att ha kul mer än något annat, inte något diplom eller blodigt allvar involverat

EDIT:
Frågan är nu uppdaterad, fick lite tid att kika på det hela och bör nu överstämma bättre med svarsalternativen. Fortsatt trevlig kväll till alla och hoppas det inte är allt för mycket sura miner om ett poäng skulle saknas
// Yatagararu

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Permalänk
Medlem
Visa signatur

Amiga 3000 (1990), CPU: 68060 66MHz, RAM: 2MB chip 470MB Fast, GFX: ECS+RTG zz9000 @ 1920x1080, HDD: 32GB SSD/PATA, 128GB SCSI, DVD-Brännare/SCSI, Chassi: Original Desktop. www.som99.se
Primär workstation: i9-12900KS, 128GB RAM, intel A770 16GB.

Permalänk
99:e percentilen
Skrivet av Iliyena:

En Hertz är en händelse per sekund, inte just skärmens uppdateringsfrekvens utan alltså skärmens uppdateringsfrekvens per sekund. Annars kan den frågan skapa en ny oreda där den försöker separera FPS och Hz utan att specificera att det fortfarnade är per sekund.

Vad betyder ens det som står här?

Citat:

Nöjd med min gamla 60Hz skärm, inte lyckats se skillnad på 60 och 120Hz på telefonen

Wat? Är ju gigantisk skillnad när man scrollar. Hur har du gjort jämförelsen?

Citat:

eller en TV ännu

Ja, det är ju inte så konstigt eftersom den absoluta majoriteten av allt material som typiskt konsumeras på TV-apparater är i max 60 fps.

Citat:

så försök inte övertyga just mig, det enda jag upplevt var en mjukvarugrej på en gammal plasma som skapade en otäck overklig accelererad rörelse i en fotbollsmatch...

Rörelseinterpolering är mycket riktigt hemskt och borde inte för en enda sekund få representera hög uppdateringsfrekvens på skärmar.

Citat:

Mindes att jag läst en diskussion och en artikel länge sedan:
https://www.sweclockers.com/forum/trad/1038510-hur-manga-bild...
samt
https://www.voodoofilm.org/nyheter/ogat-3021

Ah, det där klassiska tramset. Visste inte att det där fortfarande levde kvar.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem

Den här gången hade jag ganska bra koll, Samsungs modellbeteckningar för tv samt frågan om tidiga anslutningar för digital bild chansade jag dock på.

Visa signatur

| Ryzen 5800x | Asus prime x470 pro | Asus rtx 3080 tuf oc | Gskill 32gb 3,6ghz | aw3225qf |

Permalänk
Hedersmedlem

Chansade på en av frågorna, annars ok koll tycker jag.

Visa signatur

🖥️ 13600K • RTX 4080 • 32GB DDR5 • 2TB NVMe • LG C3 OLED 42"
💾 4790K • 16GB DDR3 • 14TB HDD • Plex ❤️
💻 MacBook Air M1
🎮 Xbox Series X

Permalänk
Medlem

Sista frågan var bedrövligt dålig, skämmes, du som skrev den. Kunde lika gärna frågat vad quizmakaren har för favoritfärg. Lika så den om kabeln. Vad har det med bildteknik att göra?

Stavfel
Visa signatur

Vardagsrum: LG C1 OLED 65" | OPPO 203 | Analogue Pocket + Dock | PS5 | XB Series X | N Switch OLED | XB One X | Wii U | PS3 | XB360 | Xbox | GameCube + GC Loader | PS2 | Dreamcast | N64 + Everdrive | PS1 + PSIO | Saturn | Mega Drive Mini 2 | SNES Mini | Mega Drive Mini | NES Mini | HTPC: i7 3770K/GTX970/16GB DDR3/512GB SSD/Loque Ghost S1

Permalänk
Medlem
Permalänk
Medlem
Visa signatur

8700K | MAXIMUS X HERO | 1080TI | 960 EVO | 16GB 3600 G.SKILL | PG279Q

Permalänk
Medlem
Visa signatur

Hårdvaru och mjukvaru intresserad

Permalänk
Hedersmedlem
Skrivet av Alling:

Ah, det där klassiska tramset. Visste inte att det där fortfarande levde kvar.

Det är tyvärr kvar i högsta grad! Vet inte om det kommer främst från folk som inte testat, inte testat KORREKT (t ex kört en 144+ Hz-skärm i 60 Hz) eller bara folk som sprider desinformation.

Jag kan ju säga att jag tyckte Minecraft RTX flöt riktigt dåligt på min dator nyligen. Tog fram FPS-mätaren och mycket riktigt hade jag runt 85-105 fps när jag brukar ha 125-165. Ändrade en inställning och fick tillbaka min gamla FPS och skillnaden är helt enorm; med runt 85 ser jag hack när jag vrider mig även i normalt spelande.

Skaffade även ny telefon nyligen och gick från 60 till 144 Hz där. Trodde inte det skulle vara så stor skillnad eftersom skärmen är så liten mot datorn, och jag inte känt av nåt problem med 60 på gamla telefonen, trots 165 Hz på datorn sedan länge... men det är lika stor skillnad där. Väldigt märkbart sämre flyt på gamla telefonen bara dag #2 med den nya.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem
Permalänk
Medlem

Hade bra koll på de jag kunde och ingen aning om de jag missa.
Inga gratispoäng på gissningar alltså...

Permalänk
Medlem

Missade på det gamla namnet på Samsungs Qled, tyckte alla svar såg fel ut då jag trodde det korrekta var en allmänt använd term för även icke Qled modeller, tänkte nog på UHD då.

Resten behöde jag inte ens fundera på, 9 av 10

Permalänk
Medlem

Helt ok i guess

Visa signatur

MB: Asus Rog B550-F WiFi | CPU: Ryzen 5, 3600
GPU: RTX 4070TiS PNY Verto | Chassi: FD Meshify 2 compact
Ram: G.skill Trident Z, 14-14-14-34, 3200 Mhz, 2x 8gb

Permalänk
Medlem
Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av Yatagarasu:

Jag som formulerade den frågan ohyggligt dåligt;

Det jag åsyftade (egentligen) var vilken upplösning som oftast förknippas eller används fel, speciellt i folkmun. 1080p och 4K UHD är ju vedertaget erkända upplösningar för 1920 x 1080 respektive 3840 x 2160 när man pratar om exempelvis TV apparater och datorskärmar. Däremot florerar det ofta runt med begreppet "2K" när man pratar 2560 x 1440p – Vilket är fel hur man än vrider på det, då (DCI) 2K refererar till 2,048 x 1,080 .

Sedan går det såklart att diskutera huruvida 4K UHD bör benämnas som just det istället för 4K UHDTV, givet att 4096 x 2160p är tekniskt sett upplösning med den prefixen. Teknikaliteter går alltid att grotta ner sig i, men oavsett borde frågeställningen framgått som tydligare

I denna tråden är det faktiskt första gången jag hör talas om att 2560x1440 skulle kallas 2k. För mig har det alltid varit 1440p och det är det jag sett överallt.
Sen kanske jag är lite biased eftersom jag jobbat i många år med mastering till både TV och bio så skärmar i 2K och 4K är inte främmande för mig. Så för mig blev det en kuggfråga. De flesta kanske inte ens hört talas om 2K och då blir det ju en enklare att svara "rätt" på frågan.

Visa signatur

Workstation: i7 2600K @ 4.2GHz - Zalman 9900 MAX | MSI P67A-GD65 B3 | Corsair XMS3 1600 (16GB) | MSI GTX 1070 Gaming X | Samsung 860 EVO 1TB | Antec P280 | Corsair HX 850W
Server: Atom C2750 (ASRock C2750D4I) | Kingston 2x8GB 1600 ECC | Intel S3500 160GB | 26TB WD Red | Silverstone DS380 | Silverstone SFX ST45SF-G

Permalänk
Medlem

BOOM!

Visa signatur

För närvarande dator"fri". Sparar till nytt :)

Permalänk

Fråga 8 var ju en kuggfråga. Buuu!

Permalänk
Medlem
Permalänk

Hertz är egentligen 1 / s. Lyckades, men är inte nöjd med alternativen.

Permalänk
Visa signatur

9900k @4.7GHz VCore: 1.185v. Rtx 2080 gaming X trio. Corsair vengeance pro white 2x8gb @3200mhz. Gigabyte Aorus z390 Master. Corsair Obsidian 500D. NZXT kraken x72.

Permalänk
Testpilot
Skrivet av Jenus:

I denna tråden är det faktiskt första gången jag hör talas om att 2560x1440 skulle kallas 2k. För mig har det alltid varit 1440p och det är det jag sett överallt.
Sen kanske jag är lite biased eftersom jag jobbat i många år med mastering till både TV och bio så skärmar i 2K och 4K är inte främmande för mig. Så för mig blev det en kuggfråga. De flesta kanske inte ens hört talas om 2K och då blir det ju en enklare att svara "rätt" på frågan.

På exempelvis Reddit /r/pcgaming och /r/pcmasterrace händer det stup i kvarten och bidrar till att det blöder över till andra forum i sin tur Så sent som idag sprang jag på det hela kring "2K" här på Swec faktiskt, händer inte så ofta här men det händer.

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Medlem
Skrivet av Alling:

1 Vad betyder ens det som står här?

2 Wat? Är ju gigantisk skillnad när man scrollar. Hur har du gjort jämförelsen?

3 Ja, det är ju inte så konstigt eftersom den absoluta majoriteten av allt material som typiskt konsumeras på TV-apparater är i max 60 fps.

4 Rörelseinterpolering är mycket riktigt hemskt och borde inte för en enda sekund få representera hög uppdateringsfrekvens på skärmar.

5 Ah, det där klassiska tramset. Visste inte att det där fortfarande levde kvar.

1 Just det där inser jag är lite snurrat runt sig själv, men jag förstår det hyffsat. De skrev aldrig ut över vilken tid frekvensen är kopplad till.

2 Jag slog på och av på min S21 och scrollade, intressant hur scrollningen kan se så jämn ut i förhandsvisningen utan funktionen är aktiverad i inställningar... Som att visa DVD-kvalitet på VHS-reklam... Kan det vara animationerna som hackar mest som de visar tro? Slår ju av dem på alla telefoner sedan circa 2011.

3 Har du högre Hz på TVn skapas väl ändå fler bilder för att visa på de extra renderingarna tvn gör i sin Hz, just detta som skiljer fps och Hz åt om man inte kör en synkning mellan fps och Hz.

4 Håller helt med, creepy glidtacklingar den matchen jag såg.

5 Kan jag inte se grönt fortare än hertz x så är det skit samma i spel tänker jag, vet att jag läste på nån seriös plats om att man ser grönt i 65 Hz typ... men så länge sedan, hittade inte. Förstår att alla output och input-lag gör upplevelsen bättre men jag behöver inte detta ännu, kan ha 100% fel! Jag letade bara det jag vill hitta.

Visa signatur

i7 960 TRUE(2*120mm ScytheGT) @ 3.85GHz|ROG Rampage III Formula x58|FD Define R4 Titanium(5*140mm)|XFX CE850W|6x4GB DDR3|RTX3060|Intel X25-M 160GB+Crucial m4 512GB+PNY 1TB+HDD 500GB+HDD 1,5TB+2TB|Externa: 2*WD 2TB|Fåner:Mi Mix 2S|Galaxy S22|Moto G5|Galaxy S5|Galaxy S4