Inlägg

Inlägg som Ford Prefect har skrivit i forumet
Av Ford Prefect

Ser inga problem med detta. Lär ju främst drabba dem som bakar sällan...

Av Ford Prefect
Skrivet av Gurrrra:

Jag nämnde FOV också, så egentligen pixlar per degree, PPD, är väl det som är intressanta. Min erfarenhet av ämnet säger iaf att 4K på 32" o armlängds avstånd är för klent, o 4K på 55" o 1,5m likaså. Runt 8K o mina ögon kommer nog bli nöjda.

Bra!

Det borde vara ganska lätt att standardisera och ange PPD för skärmar som är avsedda att användas på skrivbordet. Eftersom tum används för att beskriva diagonalen på skärmen så kan väl PPD standardiseras mot ett antal fot. Eller varför inte en famn.

FOV är lite klurigare, jag tänker mig att kurvade skärmar är ett försök att fånga detta. Frågan är om du anger FOV vid avstängd skärm eller om det handlar om vad som visas på skärmen, vilket kan kompenseras med mjukvaran för olika scenarior. I vissa spel kan du ju t.ex. hoppa mellan förstaperson och tredjeperson, det ändrar FOV rejält.

Av Ford Prefect
Skrivet av Gurrrra:

Klart det är mycket som spelar in för att få "IRL graphics", men ska vi ha en vanlig skärm som potentiellt kan visa nåt som ser ut som ett fönster till verkligheten så behöver vi uppåt 8K för att helt bli av med eventuell pixelstruktur, aliasing osv, o som därmed ger en helt analog o knivskarp bild. Beror såklart också på FOV o så också, men min egen uppskattning är att 8K funkar för det mesta, förutom IMAX som behöver ta sig upp 16K o VR som kanske tillomed behöver uppåt 32K.

Antalet pixlar säger inget om hur stora pixlarna är.

8k, 32k eller 360p kan ha exakt lika stora pixlar.

Det du nog vill säga är att en viss pixeltäthet, PPI, är viktigt för att bli av med pixelstruktur, aliasing osv. För att vara helt korrekt så bör du även ta med vilket avstånd du sitter från skärmen.

Av Ford Prefect
Skrivet av Roger W:

Mitt påstående gällde enbart att det redan fanns ett ramverk att snacka kring eftersom diskussionen i grunden gäller den här skärmen. Jag har inte sagt ett dugg om vad som faktiskt krävs för "IRL graphics"
Om din poäng är att upplösningen är bara en del av vad som krävs för att något ska se verkligt ut, så håller jag med dig!
Men upplösningen är ju förstås en viktig faktor i detta!

IRL har vi två ögon och en FOV på över 180 grader (och kan förstås vända huvudet åt vilket håll vi vill) och ser ingen grynighet eller pixelstruktur, vilket lär kräva en rätt brutal upplösning och foveated rendering för att verkligen nå "IRL-potential". Plus förstås en rejält hög uppdateringsfrekvens för att det ska kännas responsivt men kanske viktigast för att få bra rörelseskärpa. (ev kombinerat med ULMB som släcker ner skärmen emellan frames)
...
Sen spelar det ju mindre roll vad man har för skärm och upplösning om man fortfarande bara spelar Pong eller nått på den

Då håller vi med varandra! Upplösning har lika mycket att göra med "IRL Graphics" som frekvensen på en CPU har med datorns beräkningskapacitet att göra.

Spelmotorn lär ha absolut störst inverkan på om det ser verkligt ut eller inte. Och spelar man bara schack på datorn så är 240 Hz kanske bortkastat etc.

Båda dessa mått används som marknadsföring då det är siffror som är lätta att presentera, enligt "Större är bättre".

Klarar man inte ett blindtest så bör man nog välja det billigare alternativet, men det är kanske bara jag som resonerar så

Av Ford Prefect
Skrivet av Roger W:

... hela tråden består av kommentarer kring en specifik ny 8K skärm som råkar vara 32-tum och troligen används på skrivbordet (och in en storlek som historiskt brukar vara 1440p eller 4K), dvs vi HAR en referens

Här kommer serien kommentarer, som inledde min fråga kring 8k.

Och gällande din kommentar kring att vi har en referens: anser du alltså att det behövs en 8k 32” skärm på ditt skrivbord hemma för att du ska få “IRL Graphics” så är inte mitt syfte att hindra dig, kör hårt!

Skrivet av Jagers:

kan hålla med när man försöker pusha 600hz skärmar på gamers men 8k är juh en högre upplösning som betyder att vi är ett stort steg närmare IRL graphics i spel etc.

Skrivet av Ford Prefect:

??

Vad mäter du ”IRL graphics” i?

Är det upplösning? (Verkar vara din måttståck)

Är det pixeltäthet?

Är det pixeltäthet och betraktningsvinkel?

Är det hur skarpt du upplever objekten i förhållande till hur du ser med/utan glasögon?

Är det grafikmotorn som ligger bakom?

Är det hur väl motion-blur stämmer med din hjärnas motion-blur?

Eller något annat?

Av Ford Prefect
Skrivet av Thomas:

Ja, självklart är det så, men eftersom nästan alla datorskärmar har lägre upplösning än 8K så kan vi väl komma överens att 8K är en förbättring vad gäller upplösning/aliasing/skärpa mot övriga skärmar? Sedan om det är en märkbar förbättring varierar, och skillnaden blir ju mindre ju längre ifrån skärmen man sitter.

Just nu sitter jag inte så bra, så jag sitter 45 cm från min 27"-skärm, vilket blir 35 pixlar/grad (PPD).
Människor med normalsyn (6/6 aka 20/20) kan se pixelstrukturen med färre än omkring 60 PPD från vad jag kan hitta.
Om min skärm vore 4K så skulle det bli 56 PPD, så omkring gränsen för normalsyn. 8K blir 112 PPD och därmed lite skarpare.

Sen kan man ju ha bättre än normalsyn. För ett par år sen hade jag 1.6 i synskärpa, så då hade väl min gräns varit omkring 96 PPD. Då hade 8K varit märkbart skarpare än 5K (75 PPD) och 6K (84 PPD) på detta avståndet och 27".

Utöver det vill jag minnas att det finns vissa specialfall där vi är långt "känsligare" än detta, men jag minns inte detaljerna där.

Min åsikt är snarare det omvända, d.v.s. en uppgradering är bara vettig om man faktiskt kan se en skillnad. Det handlar nog också om vad man har för mental inställning. För många så blir en bjuden whisky godare om man får reda på att den är svindyr, men samma personer klarar inte att skilja på den och billigaste whiskyn i ett blindtest. Påstår inte att du inte ser pixlar som du stör dig på. För dig är säkert 8k 27” bra i så fall. Jag är glad att min hjärna/ögon är billigare i drift bara

Av Ford Prefect
Skrivet av Thomas:

Aliasing är väl ändå ett ganska tydligt tecken på att man tittar på en skärm och inte verkligheten?

Skrivet av Jagers:

det är väl den största delen i ekvationen när det kommer till IRL grafik, du kan köra red dead redemption 2 i 360p och det kommer se skit ut men om du kör det i 8k så ser det helt orgasmlikt ut.

Ingen av era kommentarer har med 8k att göra..

En bild som får plats på halva skärmen kommer se lika bra ut även om du täcker över den del av skärmen som inte visar bilden - trots att du nu har halverat antalet pixlar som din skärm visar dig.

Det är meningslöst att tala om upplösning utan att sätta en referens i form av pixlar per yta och vilket avstånd du sitter från skärmen.

Av Ford Prefect
Skrivet av Jagers:

Upplevelsen såklart, när du inte kan se skillnaden på om det du spelar är en inspelad interaktiv video på något som hänt IRL, eller om det är "grafik"

Ok, och vad har 8k upplösning med saken att göra?

Av Ford Prefect
Av Ford Prefect
Skrivet av Jagers:

kan hålla med när man försöker pusha 600hz skärmar på gamers men 8k är juh en högre upplösning som betyder att vi är ett stort steg närmare IRL graphics i spel etc.

??

Vad mäter du ”IRL graphics” i?

Är det upplösning? (Verkar vara din måttståck)

Är det pixeltäthet?

Är det pixeltäthet och betraktningsvinkel?

Är det hur skarpt du upplever objekten i förhållande till hur du ser med/utan glasögon?

Är det grafikmotorn som ligger bakom?

Är det hur väl motion-blur stämmer med din hjärnas motion-blur?

Eller något annat?

Av Ford Prefect
Skrivet av pt96hni:

Kopplar man en Apple TV till projektorn / TV:n och konfar den i konferensrumsläge så är det bara att AirPlay:a bilden dit utan kablar.
Stöjder dock endast 1080P vad jag vet.

Även om detta är lite off-topic: Vi har en mix av laptops med Windows, MacOS och Linux. En generisk lösning är ett krav så AirPlay är inte med. Dessutom är det osannolikt att samma funktionalitet finns då man är ute och reser. Det säkraste kortet idag verkar vara en fungerande hdmi. Hur som helst, anekdotisk bevisföring från min sida säger att Windows-användare har betydligt mer strul med wifi, fysiska presentationer, samt Zoom/Teams strul med mic/kamera etc. Detta har nog mindre med hårdvara att göra och mer med OS, samt kärna.

Av Ford Prefect
Skrivet av Yoshman:

Testade Mac ett gäng gånger, första på 90-talet. Tyckte alltid då "varför skulle skulle jag vilja använda detta"?
Kändes liter bättre när första MacMini kom och jag fick känna på OSX första gången, men var fortfarande "det känns bakvänt".

Tänkte då tillbaka till hur jag kom att gilla Linux. Var från början en ren Windows-användare, de första försöken att köra Linux blev "varför gillar folk detta, det är ett sämre Windows". Fanns lite speciella omständigheter kring varför Linux i stort sett var ett krav, så blev tvungen att lära mig systemet och tillslut trillade poletten ner. Idag fördrar jag *NIX efter att fattat filosofin.

Tänkte samma sak när jag på allvar körde Mac första gången: försök inte se det som Windows/Linux, utan förstå hur det är tänkt!

TL;DR Ser inte de problemen du ser, för mig är MacOS en väldigt bra UNIX med ett lysande GUI (terminalen är min näst mest använda applikation, efter webbläsaren).

Och undrar lite vilka program du jämför, för kör jag samma program och samma projekt, i detta fall ett .NET med Rider, så laddar Rider klart snabbare på MacOS (mer än dubbelt så snabbt från start till man kan skriva kod) och är också en klar fördel att bygga på MacOS det med Microsoft sett till byggtider egna verktyg (dotnet CLI tools).

Windows filsystem har kvalitéer, hög prestanda i att hantera många små filer är inte ett av dessa. MacOS, och än mer Linux, demolerar Windows i detta.

Jag använder MacOS och har efter 15 månader lärt mig se bortom de olikheter som jag först irriterade mig otroligt mycket på. Jag anser fortfarande att Gnome är bättre på det mesta inom skrivbordsmiljö jämfört med MacOS. Globala menyerna stora undantaget. Men det är inte en dealbreaker på något sätt. Stänger man av animationer i Gnome, Cinnamon, KDE etc. så blir den upplevda rappheten i skrivbordsmiljön betydligt högre. Jag upplever även att Windows har rappare animationer, men jag kör inte Windows tillräckligt ofta för att egentligen ha en åsikt om detta.

När det gäller hur slött appar öppnar så har jag inte benchmarkat det utan det är helt subjektivt. Vissa är native och andra körs genom Rosetta 2. För mig är det skit samma om det inte är en "rättvis" bedömning när Rosetta används eftersom jag är intresserad av verklig prestanda och om en nödvändig app inte finns native så.. Med det sagt så bryr jag mig inte så mycket längre eftersom jag sällan öppnar appar - med MacOS så kan jag låta dem vara öppna (möjligtvis "close" men inte "quit") och jag startar nästan aldrig om datorn.

Sedan har jag också laster som verkligen testar hårdvaran (OpenFOAM), och här är Mac Studio med M1 Max fortfarande fantastisk sett som workstation. Knäpptyst.

Nästan alla nya laptops som köps vid mitt företag används endast att surfa samt köra office-relaterat arbete på. XX% ökning i prestanda är helt omärkbart i dessa fall. Det är viktigare att batteritiden är ok samt att kopplingen till Wi-fi och projektorer inte strular.

TL;DR Jag gillar MacOS och ett gäng olika Linux Desktops. Allt funkar så länge man är inställd på att det inte finns någon miljö som är bäst på allt. Windows är också bra, men jag hatar deras affärsmodell

Av Ford Prefect
Skrivet av Det Otroliga Åbäket:

Bra vore väl att tillägga att väldigt få människor använder datorer på sätt som belastar CPU och GPU maximalt mer än mycket korta stunder i sträck.

Om man inte vet att man behöver en Pro, är Air troligen ändå modellen man bör köpa: Den kommer vara snabb nog, och den kommer fortfarande springa ifrån Intelbaserade bärbara i de flesta fall trots passiv kylning. 😆

Jag begriper inte riktigt detta, som ofta tas upp. Jag har testat en Mac i 15 månader nu och min uppfattning är att den känns slöare i mycket p.g.a. hur operativet är uppbyggt. Appar tar galet lång tid att öppna och animationerna gör att mycket känns segt. Jag kör fortfarande min Intelbaserade laptop från 2018 på jobbet med Linux Mint, som stationär, batteriet är givetvis slut. Den är rappare i alla avseenden så länge jag inte tittar på benchmarks eller kör simuleringar etc. Jag upplever även att Windows är rappare, även om det oftare blir sega perioder om man inte startat om burken på ett tag.

Du kanske jämför Intel-Mac med Apple Silicon-Mac, båda på MacOS? I så fall kan jag förstå.

Av Ford Prefect

Känns som att vissa analyserar detta med utgångspunkt hur det är idag (eller igår).

Varför behövs manualer och specifikationer? Handlar det inte till viss del om att möjliggöra att flera personer kan jobba med samma kod? Om man har en person som känner till absolut hela koden och vad varje del gör, behöver man då samma struktur?

Och att människor skulle behövas för att kontrollera den kod som skapats? Antar man inte då att AIn stannar på samma nivå som idag? Extrapolering är ju farligt, men det har ju hänt en del sedan ChatGPT 3.5.

Även de mest pessimistiska till AI verkar hålla med om att de mest effektiva/bästa programmearna kommer bli bättre med AI, vilket naturligtvis kommer minska efterfrågan. En full utbildning är runt 5 år, kommer AI vara som idag och kommer jag vara bäst i min klass? Det är nog två frågor man bör ställa sig.

Givetvis kan det vara en stor bubbla som spricker. Hade jag kunnat spå i kaffesump hade jag gjort det innan jag investerade 🥳

Av Ford Prefect

https://support.apple.com/en-us/102651

End-to-end på det mesta om man vill. Litar man på Apple så kan man låta dem hålla i några av nycklarna.

Jämfört med en NAS så blir det dyrare efter några år om man lagrar stora mängder data, är det filmbibliotek som gäller så är det givetvis ingen lämplig lösning.

Annars riktigt smidigt och så säkert det kan bli.

Av Ford Prefect
Skrivet av Söderbäck:

Yas.
Lika farligt som photoshop. Man kan egentligen göra vilket material som helst. Som i photoshop ;).

I nuläget har många en annan förväntan om att videos helt enkelt är autentiska på ett annat sätt än foton.
Det vi behöver göra är att förhålla oss till att video får samma status som bilder.
Egentligen är det väl inte farligare än så.

Vilket såklart alla inte kommer hänga med på initialt. Så ja - jag ser riskerna också egentligen. I get it.
Men jag tror det går att förhålla sig till framöver också.

Det stora problemet i detta är väl snarare att vilken pajas som helst kommer kunna generera vilken skit som helst. Att göra något fake i photoshop tar ju ändå en hel del tid och kräver viss färdighet. Hur många prompts kan du skriva under en dag? Du skulle även kunna ta hjälp av LLMs för att generera prompts så att du blir mer effektiv.

Det kan lätt bli så att nästan allt material på internet kommer vara genererat, vilket givetvis leder till en hel uppsjö av problem.

Av Ford Prefect
Skrivet av alebaler87:

Aldrig fattat varför man ska ha den storleken på skärm till en dator, ligger mellan en datorskärm och en tv i storlek. Tycker 34 tums ultrawide är på gränsen till för stort till PC

1. Sälj större skärmar med fina ord som "screen real estate" och "virtuella skrivbord är för nördar - syns inte appen så finns den inte!". 2. Fixa problemet med kass DPI och betraktningsvinkel som de nya större skärmarna förde med sig och sälj ytterligare en "uppdatering" med högre upplösning. 3. Kör en high-five med grafikkortstillverkarna och sedan profit, rinse, repeat.

Det är trist när en produkt är på slutet av s-kurvan.

Av Ford Prefect

Jag säljer mina data till MS genom att använda deras produkter. För att jag skall svara på en direkt fråga så får MS nog hosta upp en skälig summa.

Varför? Därför.

Av Ford Prefect
Skrivet av Palme_570:

Är väl ganska givet att något som påverkas av en mänskligrörelse inte kommer vara 50 / 50 när det dessutom har olika utgångspunkter upp eller ner... Antalet varv påverkas ju av kraften, har du flinka fingrar kan du givetvis gör detta till din fördel..

Verkar som en jävligt "onödig" grej att forska på... Dock bättre än mycket annan skit som forskas på som är "uppenbart".

Visst är det lätt att vara säker på saker när man får ett resultat presenterat? Menar du att alla deltagare i studien i förväg kommunicerade vilket resultat de skulle försöka åstadkomma? Om jag ber dig tänka på ett tal, noll eller ett, så kan vi se om du får rätt. Du påverkar ju svaret helt och hållet....

Det finns gott om forskning som är meningslös eftersom den inte leder till ett tydligt svar på de frågor som vi ställer. Största delen faktiskt. Poängen är att utveckling på slutet av s-kurvan är sjukt kostsam i form av tid och pengar. Det är likaså sjukt svårt att hoppa till en ny s-kurva (ny uppfinning/område) där allt är lågt hängande frukt. Att generera slumpmässiga tal har många verkliga användningsområden. Även om detta verkar meningslöst för dig så har någon uppenbarligen tyckt det är värt att finansiera.

Av Ford Prefect
Skrivet av evil penguin:

Det är ju förstås väntat att EFF har den här ståndpunkten...
Men det lösningen siktar in sig på är väl just att leverera riktad reklam *utan* att någon för den sakens skull behöver spåra/samla en massa detaljerad information om personens aktivitet på nätet eller för den delen får tillgång till mer information än de gör i dagsläget genom faktisk spårning av användarens aktiviteter (får på detta vis istället till mindre mycket mindre detaljerad information).

Så jag tycker på sätt och vis att namnet är största problemet med lösningen, för den är inte i sig ond, det är en smart kompromiss som man faktiskt kan överväga... men namnet försöker sälja in den som någonting den inte är.

Eller så gör man som t.ex. DuckDuckGo och skiter i att spara något om användaren. Hur tjänar de pengar? Om du söker på ”bil” visar de dig annonser relaterat till bilar. Söker du på ”hund” kan du få annonser för hundprylar. Ganska enkelt.