Inlägg

Inlägg som Barsk66 har skrivit i forumet
Av Barsk66

Bra skriven artikel! Man var med då.

En sak jag minns var ju namnet GeForce som många och jag själv också tyckte lät lite konstigt. Vad betyder det ens?
Numera är det ju enormt inkört och ett av de allra starkaste varumärkena.

Av Barsk66

Jag har inget att säga om att kontodelning hindras utanför hushållet. De som nyttjat det på andra vis har ju åkt snålskjuts och då faktiskt brutit mot villkoren.

Vad jag oroar mig för är att de nya protokollen ska hindra mig att nyttja mitt eget konto från olika ställen, som från stugan i fjällen, från hotellet på resan osv.

Av Barsk66

Det är absolut rätt väg att gå.
Har själv reparerat min diskmaskin 2-3 ggr vilket har varit ganska enkelt och billigt när man väl förstår hur det ska gå till vilket det finns YouTube videos på för det allra mesta. Lite mer krångliga reparationer har jag nyttjat en lokal kille här i Karlstad som gör detta som egenföretagare. Fullt rimliga kostnader för det med, bytte t.ex kyldelen på en frys, allt det som sitter bakom (inte kompressorn för det hade inte lönat sig). Kostade nån tusenlapp inklusive ny kylmedia. Har funkat finfint sen dess och det är nog 2-3 år sen. Ny frys hade kostat sisådär 10.000 inklusive ny kyl då de ju inte hade sett lika ut. Dessutom har de nyare vitvarorna en högre form så hålen som finns för monteringen hade fått göras om. Då var laga ett lätt val. Men är grejorna för gamla (typ +10 år) ska man nog byta annars riskerar man de rasar snart igen.

En annan aspekt på det här om tillverkarna tvingas laga är ju att de då förmodligen bygger grejorna bättre så att det dels är lättare att laga och förhoppningsvis håller längre. Slit och släng är inte framtiden.

Av Barsk66
Skrivet av Doomfarer:

Kom ihåg 20-20-20 regeln och lär era barn. Hjälper mot ögonproblem.

Var 20:e minut ska du titta minst 20 meter bort i 20 sekunder.

Den var bra. Tack!

Av Barsk66

Ok. Jag backade lite från min omedelbara ambition att kalibrera min G2 med de 3D LUT-verktyg som finns via ColourSpace och Ted Aspiotis (Displaycalibrations), som ju utlovar fantastiska resultat via en närmast automatiserad process. De verktygen finns bara för vissa modeller av LG OLED och är i högsta grad specialiserade. Jag har licens och tillgång till alla, men att förstå vad de gör och att inte samtidigt sabba fabriksinställningarna är en inlärningströskel av stora mått, och då min G2:a då var helt ny så ville jag ge den några hundra timmars inkörning först. Sen drog det ut på tiden... Men som sagt dags att "wrappa" hjärnan runt alla dessa koncept och verktyg och SDR/HDR-teori igen. Jag har ju en förmåga att glömma alla detaljer när jag inte aktivt jobbar med dom så det är tillbaka till skolbänken och plugga på igen. Uppenbarligen så är de här processerna riktigt bra för SDR, men fortfarande inte för HDR, det finns inget motsvarande 3D LUT för HDR vad jag förstår. Så processen där är mer av det du beskriver med lite dåliga verktyg. Vitbalans ska man väl dock kunna få till även i alla HDR-varienter. Jag kör med en Raspberry PI som är bit-perfect och kan generera metadata för att ställa in displayen i den olika SDR- och HDR-lägena. Väldigt billig och väldigt bra TPG!

Av Barsk66
Skrivet av Laxpudding:

Energisparfunktionerna åker av oavsett. Har man missat stänga av dem börjar mätningar bli märkliga. Så man märker rätt snabbt när de är aktiverade. De slösar mest ens tid så att säga, snarare än att kalibreringen blir fel.

Peak Brightness: Medium för HDR i ett mörkt rum ser jag rätt mycket som fördel. Dels om man är känslig för hög peakar i ljusstyrka, dels blir det lugnare ABL och dels sätter sig midtonerna lite bättre i luminansnivå som skrivet.

Nu är vi väldigt off topic, men HDR är ett komplext ämne och mycket nytt för alla instanser att lära sig från produktion till reproduktion. Särskilt hur HDR ska appliceras.

Ja, vi ska nog inte fortsätta den här diskussionen här, då blir vi snart bannade.
HDR är komplext och jag minns att vi hade nån diskussion om det för nu några år sen och att du inte då i princip hade nån kunskap om hur man ens kunde kalibrera det. Det är väl också en orsak att jag väntat lite med min G2:a, för att låta tekniken landa lite.
Tack för alla insights och kloka ord i ämnet @Laxpudding och @Nissling. Helt klart var jag lite fel ute med att totaldissa "alla" äldre konverteringar.som fulkonverteringar Det är lite mer komplext än så, och det är alltså inte fel på filmerna i fråga, även om jag nog hade sett en annan tonkurva på en del av dom.

Av Barsk66
Skrivet av Nissling:

Just G2 har jag inte pillat med, men senast i helgen kalibrerade jag en 48C1 åt en klient. Om Peak Brightness var satt på high så blev tonkurvan alltför ljus kring 50-200 nits. Ett ingående värde på 50 kunde resultera i bortåt 70 nits i alstrat ljus, 140 nits blev närmare 180 nits och så vidare. Peak brightness medium jämnade ut kurvan rejält och hamnade inom målvärde, men då till priset av att de ljusaste topparna sjönk i ljus (från cirka 680 nits ner till strax under 600 nits) - Vilket ändå får ses som en helt rimlig kompromiss då bilden som helhet blev klart mer behaglig och korrekt.

G2 är dessutom kapabel till en mer ljusstark bild och beroende på inställningarna skulle det kunna påverka tonkurvan till det sämre ännu mer, eller för den delen det bättre. Thomas har bättre koll på just dessa modeller än mig.

Vad som gäller detaljrikedom och kornighet så kikade jag lite närmre på filmen i fråga och den ska tydligen vara skjuten på 200T, vilket är ganska snabbt och kan bli lite grovkornigt beroende på andra faktorer (optik, ljussättning, exponering, framkallning, bildförhållande etc). Dessutom blir det aldrig helt hundra att köra Tungsten-film vid dagsljus då man tappar lite exponering när vitbalansen korrigeras i post samtidigt som kornigheten är detsamma. Försöker man i sin tur dra upp snittljuset rejält så... Ja, det kommer se rätt aggressivt och ansträngt ut. Har man en långsam råfilm (typ 50D) och överexponerar ett eller två steg finns det mycket bättre förutsättningar generellt sett.

Allt är dock frågan om hantverk där det är många parametrar som spelar in. Att behärska analog film är i överlag en individbaserad kunskap hellre än allmängiltig.

Jag antar att du har full koll på att stänga av Energy saving och diverse tonkurve-autojusteringsfunktioner inför kalibreringen? Finns även en inställning i fabriksmenyerna där man kan stänga av nån dylik funktion, och även en logo-inbränningsfunktion som går att inaktivera. Jag är lite rostig i ämnet, men jag vill minns att det rekommenderades att stänga av dessa inför kalibrering.
ABL brukar ju spela in också så skärmen är ju inte lika ljus mot toppen av mätningen som i början. Jag minns med fasa mina försök att kalibrera gamma på min gamla plasma-TV... Du är ju proffset här så jag antar att du har full koll på allt detta dock.
När det gäller Spider-man (2002) så är det som du säger en rejält kornig och brusig film. Varierar också rätt mycket i detta från scen till scen, bl.a scenen där han blir biten av spindeln är ju bedrövligt brusig. Men, det är väl som regissören ville ha det... Med den uppljusning jag upplever så framhävs detta än mer uppenbarligen. Med Medium-inställning lugnar också det ner sig.
Moderna HDR-filmer upplever jag inte dessa problem med dock som sagt - och där kör jag alltid Peak brightness: High.

Av Barsk66

@Nissling
@Laxpudding
Jag har gått in lite mer i detalj på TV-inställningarna för de här filmerna jag upplevt problematiska, de kan ha ljusnivåer som är över standard vad det verkar. Min LG OLED G2 har inställningen Peak Brightness till "High" på HDR-material och det är ju det rätta. I övrigt kör jag motsvarande "Filmmaker Mode" för övriga inställningar inklusive "Dynamic mapping" Off. Men för dessa filmer så om jag sätter ner till Peak Brightness till Medium" or Low så lirar det mycket mer behagligt i mitt nedsläckta vardagsrum. Det är ju egentligen en no-no att göra så för HDR, men löser ju problemet för de här lite för ljusa filmerna och det är väl därför LG har lagt med inställningen. Verkar mer vara så att de här konverteringarna är gjorda för ljusa rum, där de funkar hyffsat (testade just).
Det kan också vara så att fabrikskalibreringen på min G2 har börjat divergera väl mycket från standard, så det är väl hög tid att gräva fram min i1 Pro 3, I1D3, ColourSpace m.m. och göra jobbet jag skjutit framför mig nåt år...

Av Barsk66
Skrivet av Nissling:

@Barsk66: Det råder en del oklarheter i ditt inlägg med tanke på ordvalen. Det främsta jag reagerar på är "konvertering". Konvertering från vad?

Då detta är ett väldigt snävt och ingående ämne som alla kanske inte känner för att fördjupa sig i lägger jag det i en spoiler då det blev så pass mycket text.

All film gjord på negativ, där originalnegativet har använts som källa, har ju i sig genomgått flera konverteringar. Från negativ till positiv, ljussättning och slutligen från Cineon Log till vilken tonkurva som används (vanligtvis power law för SDR och PQ för HDR). Skälet till dessa konverteringar är ganska självklara: Man kan inte visa upp negativ "såsom de är", inte minst med tanke på att det är vanligt med skiftande ljus från scen till scen vilket beror på flera faktorer (ljussättning på plats, val av råfilm, framkallningsprocess med mera). Vissa filmer kan man pilla med hur mycket som helst utan att bli särskilt nöjd.

Fotokemiskt skapad film är dessutom knappast "gjord i SDR" från början. Om vi förhåller oss till traditionella, biodistribuerade långfilmer så är dessa vanligtvis skjutna på negativ film vilka har ett mycket stort dynamiskt omfång även med dagens mått mätt. Ja, faktiskt mycket större än i princip alla digitala kameror om man ser till hur mycket ljusa partier om kan fångas utan kompromisser. I samband med att exponeringen ökar, så ökar också densiteten och det skall väldigt mycket till innan du fångar så pass mycket ljus på filmremsan att du förlorar detaljer i högdagrar (5-6 steg överexponering är oftast inga problem). Av de tusentals originalnegativ jag har scannat (med ett spann från ca 1930 till år 2000) har jag inte varit med om att högdagrar har klippts. Det har hänt enstaka gånger att skannrarna inte har haft tillräckligt med dynamik däremot och då får man ändra ljusinställningarna, skanna om rörda scener och klippa ihop digitalt. Men återigen är det inte källmaterialet som det är fel på.

Det blir väldigt omvänt tycker jag personligen att först ha ett enormt dynamiskt omfång i källmaterialet och sedan anpassa sig till power law, som ju är extremt begränsande. Självklart är det hanterbart och innött, alla vet hur det funkar mer eller mindre och man kan få det till att se bra ut. Men för mig är det en stor lättnad de gånger jag får jobba med HDR istället. Så länge jag håller snittljuset på en rimlig nivå gör det inget att det förekommer toppar som drar iväg med flera hundra eller till och med tusen nits. Du kan nyttja ett omfång som inte alls är möjligt i SDR och då kan man verkligen tala om "äkta HDR", om man nu vill använda sådana termer (jag gillar det inte).

Av det jag ser så verkar det snarare som att många nya filmer har precis omvända problemet. Det vill säga att man har utgått ifrån en befintlig SDR-master och ljusat upp högdagrar och toppar vilket på intet sätt expanderar dynamiken. Lucy, som jag kikade på i fjol, är ett ypperligt exempel på det.
#20138556

Just detta är väldigt ovanligt förekommande på äldre filmer som färdigställts analogt. Ditt ifrågasättande om "varför man inte skannar originalnegativen och gör om jobbet från grunden" blir lite märkligt, för det är just detta man i princip alltid har gjort vid 4K HDR av katalogtitlar. Skillnaden är förstås de gånger då filmen är färdigställd som en DI från början. Då händer det att man skalar upp från en lägre upplösning och HDR kan också bli en blandad kompott, även om det skiljer sig en del från fall till fall. Men då ska man komma ihåg att en film med DI kanske inte heller har förutsättningen att skannas om på nytt utan att i praktiken göra om hela filmen beroende på hur arbetet har sett ut. Finns ändå exemplen där det har gjorts (Doom, Dawn of the Dead (2004), Big Fish).

Vad som gäller kornen så hänger det återigen ihop med flera faktorer: Råfilmens hastighet, exponering, ljussättning, fotokemiskt arbete med mera. Slutligen så påverkas det även av coloristens arbete förstås. På "den gamla tiden" var det vanligt förekommande att överexponera filmen vid inspelning och sedan dämpa ljuset i efterarbetet för att göra kornen mer diskreta. Används snabb film (typ kring ASA 500 eller mer) så kan man räkna med en mer aggressiv kornbild och då får man vara försiktig så att det inte blir alltför påtagligt. Det händer även att både skärpefiltrering och brusreducering förekommer (även om jag själv aldrig rör dem verktygen) men inte alls i samma utsträckning idag som för ca 15 år sedan; Oftast är effekten ganska så subtil och mest gjord för att "jämna ut" upplevelsen.

I mån av streamingtjänster finns det egentligen ingen som klarar av att återge filmkorn på ett särskilt bra vis (om än långt bättre idag än, säg, tio år sedan) så det är knappast omöjligt att vissa anpassningar görs där. Har dock inte djupdykt i det på något vis).

Dold text

Men för att bemöta dig lite mer humanistiskt: Jag förstår vad du menar med din kritik, men jag upplever att du har missförstått vad som ligger till grund för det hela.

Kikar man på hur "de fem stora" bolagen (Fox ägs ju av Disney) har hanterat sina arkivfilmer så är det faktiskt rätt intressant hur olika de kan se ut i HDR. För att ta det hela väldigt kortfattat och med exemplen så är min uppfattning ungefär denna...

  • Warner har ofta en hyfsat tillbakadragen snittnivå med peaks som sticker ut rejält (Den gröna milen). Det ger utrymme för effekten att bli mycket tydlig då den är så pass sparsam.

  • Universal tenderar att ha en lite högre medelnivå än Warner och mindre höga toppar men utnyttjar fortfarande dynamiken på ett bra sätt (Schindler's List)

  • Sony har historiskt sett har mycket höga snittljusnivåer och återigen mycket höga toppar men med tydliga indikationer på att det inte är konverteringar från SDR (Starship Troopers). På senare tid verkar de dock sikta på väsentligt lägre medelnivåer vilket gör de mer lika Universal (Taxi Driver).

  • Paramount har ofta en medelnivå som är jämförbar med Warner och toppar som påminner om Universal, om än i lägre utsträckning för det mesta (Pulp Fiction).

  • Fox har en tendens att vara lite blandade i sina filmer. I vissa fall är snittljuset högt med dämpade toppar och ibland tvärtom (Predator).

  • Disney har generellt sett återhållsam snittnivå och även låga toppar. Detta är något som påvisas även i deras nyare filmer (Insidan ut).

Det är förstås svårt att ställa vitt skilda filmer mot varandra med tanke på alla variabler, men sammanfattningsvis så märks det att bolagen behandlar sina filmer tämligen annorlunda. Just Sonys höga snittljus är väldigt påtagligt och det är långt ifrån alltid jag uppskattar det. Men det är inte frågan om några "fulkonverteringar" utan det är vad det är helt enkelt: HDR med väldigt högt snittljus. Det är korrekt utfört tekniskt och matematiskt sett utan några konverteringar från SDR. Däremot kan man absolut ifrågasätta den kreativa aspekten.

En del av det tror jag bottnar i det enkla faktum att många colorister satt med Dolby Pulsar-skärmar runt 2015 och framåt som klarar 4000 nits med bibehållen tonkurva. Den är än idag långt mer kapabel än i princip vilken konsument-TV som helst och vissa av dem som snöade in sig på HDR i början blev förmodligen lite fartblinda. Sony var uppenbarligen extra drabbade. Det är nog inte utan skäl som bolagen numer drar ner på ljuset istället för upp.

Och den enda naturliga reaktionen då är att det "andra" laget kommer och klagar på att bilden är för mörk.

Skrivet av Laxpudding:

Oklar på vad du tänker på?

Men lite snabbt men konvertering till HDR kan för mig betyda två väldigt olika saker:

(1) Automatiserad konvertering från ursprungligt SDR-material till HDR genom "AI"-algoritmer likt en RTX-processor: Min åsikt är att det generellt är osmakligt eftersom man förvränger ursprungsmaterialet och adderar något som inte fanns där från början. Det ser mest märkligt ut. Precis som det mesta andra vi sett med "AI"-algoritmer, likt uppskalning och brusfiltrering som brukar resultera i något som ser ut som utslätade dockansikten med påklistrade ögon. För mig är detta tölpig teknikonani.

(2) Omsorgsfull och yrkesmässig konvertering av film till rådande HDR-format, likt HDR10 när det ursprungliga materialet skapades med format som av sin natur har ett högre dynamiskt omfång, likt fotografisk film och modernare digitala log-format, för att på så sätt få fram de nyanser och de färger som är omöjligt att representera med SDR.

Där är min åsikt att detta kan bli väldigt bra när det genomförs av personer som tar hänsyn till intentionen bakom ursprungsmaterialet. Vi har nu en historisk möjlighet att i hemmet se filmer på den nivå som en gång endast kunde återskapas på en biograf med exempelvis 70 mm-projicering. Snarare än att filmen är begränsad av det SDR-formatet som baseras på ett bildrör från 60-talet. För mig är detta blommor och kärlek.

Ett RTX-kort kommer aldrig kunna svara på den andra kategorin. Men reklambudskapet från Nvidia vill gärna alludera på detta.

Tolkar det som att du vill placera all konvertering till HDR under första kategorin? Jag menar att det är två helt olika saker.

Tack för era djupgående svar. Jag ska börja med att understryka att jag älskar HDR och ser i det formatet all nyare produktion som streamas idag, filmer och serier. Inga problem där alls. Superkvalitet för det allra mesta.
Jag har nog också sett någon HDR-konvererad äldre film som varit bra, minns dock inte nu. Det jag dock reagerat på är några av de filmer som ligger framförallt då på Disney+, Spiderman (första Tobey Maguire), Independence Day m.fl. Kan göra en grundligare koll om så önskas. Där upplever jag att HDR-konverteringen känns konstlad och med förhöjda ljusnivåer. Om den här konverteringen är gjord från SDR eller som ni hävdar från en bättre förlaga där dynamiken faktiskt finns vet jag inte. Jag kände bara att det här funkar inte, störde mig grymt på bildkvaliteten och tog fram min gamla Bluray istället. Men, det kanske var "korrekt" gjort som ni hävdar, fast med lite för hög ljusnivå i genomsnitt. Dock var också känslan att filmen kändes uppskalad och inte "native" 4K som i modernare produktioner. Men det kanske inte fanns mer skärpa i grundmaterialet. Eftersom det blir lite hypotetiskt då jag inte vet hur konverteringen är gjord och ni ju heller inte verkar ha tillgång till den streamingen(?) så kan ni ju heller inte kolla. Så jag tror inte vi kommer så mycket längre här. Kontentan blir väl att om konverteringen görs rätt så ska den konverterade filmen ha en hög kvalitet. Jag upplevde det dock inte så.

Om man återkommer till Topic för tråden (som jag ber om ursäkt om jag kapade lite) så kan man ju också med @Laxpuddings kommentarer dra slutsatsen att Nvidia/AI-konverterad video lär hamna i ett än värre träsk. Om nu "korrekt" konverterad video av mig upplevs konstlad så lär ju auto-konverterat inte falla mer på läppen direkt.

Av Barsk66
Skrivet av Nissling:

Det är väldigt sällan som en film har annorlunda mastering i HDR när man jämför fysisk media mot streaming rent statistiskt. Bortser man från komprimeringen kan det skilja sig i form av lågpassfiltrering och dynamisk metadata. Men själva ljussättningen är väldigt sällan annorlunda såvida vi pratar om filmer från "de fem stora".

Visserligen har jag inte tillgång till Disney+ eller filmen i fråga så jag kan inte uttala mig om hur filmen ser ut på specifikt den plattformen. Däremot hittade jag en analys av filmen och som du beskriver är den ljus sett till snittnivån. Men baserat på hur toppar och högdagrar presenteras ter det sig vara en direkt omöjlighet att det är frågan om en SDR till HDR-konvertering utan den är korrekt mastrad ur den aspekten.
https://forum.blu-ray.com/showpost.php?p=21421030&postcount=7...

Ok, då är det kanske en "korrekt" konvertering. Jag ser att du jobbar i branschen och har kunskap i ämnet, och då kanske utöver vad jag har som hobby-cineast och dito kalibrerare så full respekt för det. Men jag ser definitivt filmerna utan den här konverteringen, liksom de övriga filmerna av samma typ. Det är ju inget fel med film i SDR-kvalitet. De är gjorda i den tekniken och det ser finfint ut även på en modern OLED, även om filmen inte nyttjar den moderna teknikens fulla dynamik. Att göra filmen ljusare på fel ställen i tonkurvan (IMHO) förvanskar den bara. Många moderna HDR-filmer är ju inte allmänt ljusare överlag. De har vissa högdagrar som lyser genom skarpt och då höjer dynamiken och gör det mer verklighetstroget, men de kan överlag var mörka och "mjuka" i sin tonkurva. De här konverterade gamla filmerna blir motsatsen IMHO. Dessutom har många en rätt kraftig kornighet och överdriven skärpa, så det verkar ju som om konverteringen också skärper upp från kanske en HD-förlaga? Jag har mitt skärpereglage i TV'n satt nära lägsta.
Men folk kanske kollar på sina OLED med inställningen "Normal" för att få mesta möjliga ljusstyrka vanligtvis också (på SDR då), och då vill man ha samma "klipp" i bilden på de uppkonverterade filmerna också? Kanske därför filmbolagen valt den här varianten på tonemapping i överföringen då. Tummen ned från mig. Jag kollar på dem i SDR och med den gammakurvan som gäller då och som moderna HDR-TV ju stödjer fullt ut. Det ser helt perfekt ut där - i motsats till hur det ser ut i konverterat läge som blir syntetisk max-kontrast a'la TV-inställning "Dynamisk" eller "Intensiv".

Alla TV idag klarar ju att visa SDR-film med full kvalitet. Om man nu inte skannar om negativen och gör en ny 4k-hdr-mastring från grunden, vad är då vitsen med den här fulkonverteringen? Jämför Star Trek TNG där de remastrade om hela serien från negativ till full HD. Det var ett rejält lyft i kvalitet utan att för den skull tillföra nya problem. Tyvärr var det dyrt och projektet gick väl inte helt i hamn ekonomiskt, därför blev tyvärr t.ex Star Trek DS9 eller Voyager inte remastrade på samma vis.

Vore kul om @Laxpudding kunde poppa in och kanske ge sin synvinkel på det här också..

Av Barsk66

@Nissling, du skriver att du har filmer i din samling och det kan ju mycket väl vara så att de 4K-filmer som finns på fysiskt media är mycket bättre än de jag beskriver, vilket då är de filmer som ligger på Disney+ och som jag klagar på här. Jag har Spiderman 1 med Tobey Maguire på vanlig Bluray och det är då en utmärkt kvalitet i SDR. Den tonemappningen som gjorts på Disney+ för den 4K/Dolby Vision-uppgraderingen är beklämmande dålig och förändrar dynamiken i filmen helt. Det är som att dra kontrastreglaget i topp eller ändra inställningen för din TV från "Film" till "Intensiv".
Jag har inga som helst problem med Dolby Vision i andra sammanhang där det varit en del av processen på ett korrekt sätt, tvärt om, men dessa "autokonverterade" (får jag förmoda) äldre filmerna ser jag ingen som helst vits med att göra om till syntetisk HDR. Det verkar mest vara en gimmick. Nu kan vi flagga med att det är HDR eller t.o.m Dolby Vision!!! Wow. Not.

Av Barsk66
Skrivet av Nissling:

Nu har jag inte sett någon Spiderman öht och har ingen koll på dem, men de av Sam Raimi vet jag är från Sony och de använder mig veterligen inga SDR till HDR-konverteringar för sina restaureringar av katalogtitlar utan gör jobbet "by the book". Däremot tenderar Sonys katalogtitlar att ha höga genomsnittsnivåer.

Av alla analyser jag har gjort så är det faktiskt väldigt sällan som äldre film (som ursprungligen gjorts utan DI) är konverterade från SDR till HDR. Jag kan inte ens minnas mig ha sett det. Däremot är det väldigt vanligt bland film gjord de sista ca 15 åren att dynamiken är exakt densamma i SDR som HDR men att både snittljus och toppar är högre i sistnämnda, vilket inger misstanken om en sådan konvertering.

Det var Disney+, listas som 4K, Dolby Vision, men ser ur som absolut crap. De nyare spiderman är ju dock "äkta" 4K och Dolby Vision, inga problem där. Detta gäller en hel massa gamla storfilmer på Disney+. Tyvärr!
Vi har också sett Independence Day där, samma sak. "Uppskalat", men ser ut som skit.

Av Barsk66

HDR uppskalning är i min värld skräp. Nu kan det säkert finnas tillämpningar där det fungerar, men jag har sett allt för många dylika på nån av streaming-tjänsterna, var det Prime eller HBO(?) där de skalat upp i princip alla SDR-filmer till HDR10. Grabben och jag tittade genom de gamla Spidermanfilmerna och de var i praktiken osebara på min LG OLED som ju klarar allt annat *riktigt* HDR med glans. Det går ju inte att bara expandera lumanivåerna så allt ljust går upp i sol-taket. Det mesta även i en riktig HDR-film ligger ju runt vanliga SDR-nivåer, men i "uppskalad" form så blir allt halvljust helljust...

Fick leta fram filmerna på gammal hederlig Bluray och se dem som de ska vara.

Om man remastrar från filmnegativen och på det sätter hämtar hem ett större dynamisk omfång, vilket ju alla filmnegativ har i grunden, så gör man jobbet på riktigt och kan då även få ut det hela i 4K eller högre.

Av Barsk66

Hmm, head air conditioner...
Jag är nog mer för ett så lätt strap som möjligt. Jag landade i ett Kiwi design comfort strap utan batteri och fixade ett fäste för mina gamla smidiga 10000mAh powerbanks jag redan hade. Ska bara få dit hörlurarna från gamla CV1 via en adapter som finns sen tidigare för Quest2, och passar nästan till Kiwis strap, hörluren kommer lite långt ifrån så får modda lite).

Av Barsk66

Dedikerad router är ju det bästa och IMHO det enda som funkar om man kör wifi5, men går det att dela, dvs inte dedikerat om man kör wifi6 (5 GHz)?

Av Barsk66

Svar nej. Asgard's Wrath 2 finns enbart som Quest3-version. I vart fall än så länge, men det är väl inget som tyder på en PC-version då Meta övergav den plattformen i princip i samband med Quest-headseten.

Asgard's Wrath 1 är PCVR dock och där behöver du en PC.

Av Barsk66

För Quest har du en videostream som ska kodas och avkodas, vilket ofrånkomligen ger viss lag och artefakter. Trådat på questen så sänker man latency en bit i vart fall. Trådlöst kräver att man har en dedikerad router på 5GHz-bandet där ingen annan är på samma nätverk samtidigt. Det är också lämpligt att lägga den på en kanal som är så långt från grann-routrar som möjligt. Med dom förutsättningarna kan man få riktigt bra prestanda på Virtual desktop/airlink och det rekommenderas för allt annat spelande än just sim. För sim kan jag anta att trådat väl är bäst, man sitter ju still ändå och kabeln ger också laddning. Via oculus debug tool kan man ställa in 940-960 mbit i bandbredd för trådat.

HP Reverb G2 är trådat via DisplayPort, dvs agerar "skärm", ingen videostream, inga artefakter och låg latency. Seriösa racers har i vart fall tidigare valt G2 just pga detta, och för dess utmärkta skärpa. Quest 3 har också bra skärpa och framförallt riktigt bred och fin sweet spot. Jag har inte hunnit prova simracing med quest 3 än, men tidigare har i vart fall G2 varit suverän för uppgiften. Jag har båda. Min G2 är eventuellt till salu, jag har inte bestämt mig riktigt där än. Skicka PM isåfall.

Av Barsk66

Jag har inte det här bekräftat, och har heller inte kollat i min egen Quest 3, men det sägs att om man har flera konton, typ familjemedlemmar som får dela på samma enhet så drar det dubbel så mycket lagring. Enligt Meta själv så ska det bara bli en dubblering av konfigurations- och sparfiler men inte av programfilerna i sig, men efter någon uppdatering gick det där sönder och nu laddar det ner dubbelt. Nu ska jag understryka att det är obekräftade uppgifter, men i vart fall när jag installerade Eleven Table Tennis så verkade det ladda ner igen, tog i vart fall ungefär lika länge att "installera" spelet på barnets konto.
I min gamla Quest 2 som iofs bara hade 64 GB så körde vi i taket hela tiden med lagringen, vet inte om det här med spelfildelningen spökade där med.

I ljuset av det, och med tanke på att Asgard's Wrath är så as-stort (och det kan komma fler spel av den här typen) så valde jag att ta det säkra för det osäkra och köra på 512 GB.

Om nån har en bra snabbguide till var spelfiler lagras per konto så skulle jag ju kunna kika om det verkligen är en dubblering eller ej.

Av Barsk66
Skrivet av ibland:

Youtube och Spotify.

Youtube premium är nog den bästa prenumerationen i världen sett till vad man får. Så mycket kreativa små själar där ute som gör bättre material än de stora pampbolagen.

Ja, men där får du också betala för del-tjänster du inte vill ha. Premium Lite som de skrotade var ju det perfekta alternativet som var hyffsat överkomligt i pris.

Av Barsk66

Jag hatar reklam, så det är enda vägen att gå för att slippa detta otyg, om man inte vill använda annonsblockerare o.dyl. I webben kan jag tolerera viss reklam som ligger s.a.s. utanför det jag fokuserar på. Men om man ser en film eller en youtube-video där man ska studera nåt viktigt så är ju reklamen bara ett enormt irritationsmoment. Enormt.