Inlägg

Inlägg som terra33 har skrivit i forumet
Av terra33
Skrivet av Lordsqueak:

Poängen är ju att ingen gör detta tidigare. . . ingen.

Om man har en skärm , tex en 1440p , och kör ett spel i 720p så borde man få en knivskarp bild då varje pixel i 720p ritas me 2 pixlar på 1440p skärmen. Men det är fan ingen skärm som klarar av att bara rita grafik utan att skala om det om det nu råkar vara en annan upplösning än native. Så resultatet blir en suddig bild, trots att det borde se knivskarpt ut med ett spel 720p på en 1440p skärm.

så ja, det är ganska tragiskt att man måste ha Turing för att skala 1:2 utan sudd. men det är inte nvidia jag skulle klaga på.

1280 * 2 = 2560

720 * 2 = 1440

2560 * 1440 = 2 * 2 * 1280 * 720 - > 1 pixel blir 4 pixlar vid uppskalning.

Av terra33
Skrivet av IKEA Billy Bokhylla:

Om intel klarar av att implementera detta för sina iGPUs så lär väl Nvidia inte ha några problem att få ett 10 år gammalt 480 att stödja integer scaling.

Skrivet av lindstroem:

Dvs spela old-school-pixel spel eller menar du att Integer Scaling även gör magi på nya spel??

Annars för att driva upp 1440p till 4k så behöver man väl annars förlita sig på vanlig GPU Scaling + Sharpening filter/DLSS?

Skrivet av sKRUVARN:

Alltså detta är väl bara vanlig nearest-neighbor skalning eller? dvs en av de absolut enklaste typer av skalning. Dels så ser den inte speciellt bra ut vid uppskalning jämfört ut med många andra skalningstekniker på rätt mycket typer av bilder, och dels så krävs det en 2x,3x,4x osv uppskalning för att ge ett bra resultat. Det lämpar sig bäst för sprite/pixelart-baserade spel. De flesta emulatorer osv har ju redan stöd för denna typ av skalning i mjukvara.

Skrivet av perost:

Ja, det är bara nearest-neighbor med heltalskoefficient. Men trots att det är den enklaste typen av skalning så har många skärmar inte stöd för sån skalning, utan kör alltid någon interpolering oavsett upplösning. Det gör att det kan bli suddigt om man t.ex. vill köra 1080p på sin 4K-skärm, även fast skärmen borde kunna skala det perfekt. Det hade förstås varit bättre om alla skärmar bara kunde skala ordentligt, men det här löser i alla fall problemet för de som har skärmar som inte gör det (vilket nog är en stor majoritet).

Ska skärmen ha en framebuffer tänker du?

Skrivet av sniglom:

Känns lite fånigt att det ska behövas Turing för att använda nearest neighbor-skalning, den minst krävande typen av skalning. Nåväl, man får väl hoppas att spelutvecklare löser det i mjukvara istället.

Skrivet av sKRUVARN:

Fast "skala ordentligt" blir ju lite av en definitionsfråga och en smaksak, denna typ av skalning lämpar sig inte för allt. Det är i "pixelgrafik" som det oftast är önskvärt för, och där är det imo lite av ett ickeproblem då de oftast kan drivas i hög upplösning och skalas med nearest-neighbor via mjukvara.

Men visst många skärmar (speciellt PC-monitorer) får ofta en väldigt suddig bild när de skalar själva (bicubic eller liknande), men det finns skalningstekniker som ger en betydligt behagliare uppskalad bild än nearest-neighbor. För "vanliga" spel hade nog många föredragit en skarpare variant av sync eller spline, som dessutom inte begränsar en att rendera i en heltalsdelbar upplsöning.

Alltså detta är en bra grej, att man har valmöjligheten, och det finns scenarion där detta absolut önskvärt, men för folk som generellt vill rendera spelet i en lägre upplösning än skärmens, så finns det betydligt bättre lösningar. Se vad jag svarade på, att rendera i 1080p och skala upp till 2160p på 65" med nearest-neighbor är väl inget speciellt fantastiskt, det är en pixelfest.

Ska skärmen ha en framebuffer tänker du?

Skrivet av Yatagarasu:

Detta är precid vad ja hakade upp mig på också... Ser ingen anledning till varför man inte skulle kunna ha detta på t.ex. Maxwell och framåt - Annat än för Nvidia att sälja mer av sina sketna RTX-kort eller överprisade 1600-serie kort.

Inte sant

Skrivet av backfeed:

"Integerskalning"? Skojar de eller har jag missat något? Världens absolut simplaste skalning, på nybörjarnivå, som inte kräver någon prestanda alls, är nu en "feature"? Som dessutom kräver Turing!?!??? Skrattretande gråtframkallande pinsamt. Jag tror jag dör.

Du har missat något.

Skrivet av backfeed:

Ja, alltså, de skulle kunna implementera det för alla Nvidiakort som någonsin har funnits. Det är världens simplaste skitgrej.

Nä.

Heltalsstöd hos GPU blev introducerat med DX11, så det är nytillkommet i den bemärkelsen. Tidigare emulerade Dolphin gamecubens GPU (som exklusivt arbetar med heltal) genom avrundning, vilket resulterade i många små fel.

Så att det skulle vara självklart är inte sant.

"This is mainly because modern GPU's are optimized to perform FP16 or FP32 type workloads, so integer workloads will either have to be emulated (using FP16) or done in a side pipeline."

Procoverande att folk ska håna saker de inte förstår.

https://en.wikipedia.org/wiki/Nyquist–Shannon_sampling_theore...

Av terra33
Skrivet av Petterk:

Misstanke eller oro är inte samma sak som fog. De flesta av USAs partners har inte funnit fog att införa restriktioner mot Huawei, så det är knappast så att de som inte ser fog befinner sig på Kinas sida ideologiskt.

Varför du ska komma med argumentationsfel istället för att vara saklig vet jag inte, men att argumentera mot saker som du själv väljer att tillskriva mig är inte hur man diskuterar.

Varför du ska komma med personangrepp istället för tillstå att din definition av fog är godtycklig är också svårbegripligt.

Skickades från m.sweclockers.com

Av terra33
Skrivet av Petterk:

Hur kan det finnas fog om du inte specificerar vad det skulle handla om?

Fog betyder fullgott eller starkt skäl. En misstro utifrån politisk åskådning är inte fog. Drev från politiker i USA är inte fog, rapporter från ett enskilt lands underrättelsetjänster som inte specificerar några bevis eller demonstrerar några problem är inte fog.

Hongkongs problem skapades av Storbritannien, de lever med de problem och strukturer det koloniala styret skapade. Storbritannien krävde inte mer än "50 års regeln/garantin". Stöd för överlämnandet fanns i Hongkong, även idag så är det få som skulle stödja ett självständigt Hongkong. Dessutom tycks omvärlden försöka skynda på upphörandet av Hongkongs speciella status, egna handelsregler och liknande behövs nog för att de ska fortsätta fungera som självstyrande region och det var en del av fördraget. Just detta hotas ju att dras in.

Fog betyder inte "har godkänts av Petter på sweclockers".

Underrättelsetjänster motiverar inte sina fynd inför dig heller, så att kräva bevis av andra länders stater som du godkänner är en orimlig definition av fog.

Men är man apologet så är man, Kina är naturligtvis fromma och deras problem är alla andras fel.

Skickades från m.sweclockers.com

Av terra33
Skrivet av pacc:

Just nu är det AMD 3600 som är mest prisvärd, och nära Intels bästa i singeltrådad prestanda.
(dubbelkolla benchmarks om du vill)

De flesta datorer landar kring 12000 och du kan titta på den här om du kan bygga själv
#18028921
och leka med tanken att lägga på en tusenlapp för t.ex en 2070 GPU eller lägga de pengarna på att få allt inom en butik och låta de bygga.

Lyssna inte på detta, det är intel som gäller. För CS är en intelprocessor kung.

Av terra33
Skrivet av cyberskunk:

Ja fast Iris Plus/Pro är ju en helt annan historia, och den räknas nog inte till det prissegmentet över huvud taget där jag fann denna laptop.
Jämför man mot andra i prisklassen där Iris Plus håller till börjar snart vi komma upp i summor där diskreta hybridlösningar tittar fram t.ex. Nvidias 1080 osv. och där blir det svårt för Iris Plus att hävda sig, även när det kommer till strömförbrukning är jag rädd.
Jag har aldrig tidigare lyckats komma över, eller för den delen testa, en laptop med den mytomspunna Iris grafikdelen.

Tar annars tacksamt emot tips på vart jag kan hitta en Intel laptop med Iris Plus Graphics för 5-6000:- (helst en generation där Intels sårbarheter är fixade i silikonet om det finns)

Macbooks, och KISEL, inte silikon.

Av terra33

@pv2b: MacOS är UNIX och är ett fullgott sådant.

Av terra33
Skrivet av Zargoz:

En kompis till mig bad mig att kolla upp en imac till honom. Jag kan inget om IMac´s för att vara ärlig men kollade priser och en "värsting" kostade nästan 30000 kronor.
Man kan ge 30 tusen för dator om man vill ha det grymmaste men när jag kollade på spec så kunde jag bara inte tror det. Jag menar skojar Apple eller vad van?
Man fick bara en i5a.. och bara 8gb ram...
Och hårddisken?? 2TB av en förbannad HDD 5400 rpm. HAHAHAHA ÅR 2019. LOL

Jag var tvungen att kolla vidare. Sen är det tydligen så att de klistrar delarna mot själva skärmen så man kan inte byta ut den.

https://www.elgiganten.se/product/datorer-tillbehor/stationar...

Vem fan köper sådana datorer?

forskare, universitet etc

Datorspelare? Nä

Skrivet av crew seven:

Hypa journalister och video-editerare dom älskar mac inte för hårdvaran men för märket.

Eller universitet, forskare och datavetare som föredrar UNIX.

Skrivet av Jumpcut:

Skulle säga att det är mycket företag. Vet en arkitektfirma i Stockholm som kör 70 st iMac 27" i5, 16GB. Många reklamfirmor, mediabolag etc kör också ganska enkla iMacs då dom inte behöver så mycket kraft i maskinerna men uppskattar (och ofta behöver) dom fina skärmarna. Tror det också är en combo av att dom gillar utseendet (ser bra ut i kontorslandskaet typ) samt att dom gillar att använda OS:et.

Skrivet av Trunk:

Att man betalar premium för Apple borde inte vara en nyhet för någon, att starta en sådan här tråd är lite som att sparka in varenda öppen dörr som finns i västvärlden...

Men...
Det folk verkar ignorera när det kommer till priset på iMac är att det mesta du betalar för är skärmen.
Du kan ju roa dig med att sätta ihop ett paket med likvärda komponenter och en likvärdig skärm, du blir nog lite förvånad.

Sen finns det andra anledningar att vilja betala extra för en Apple-produkt. T.ex. så är deras ekosystem fullkomligt oslagbart, windows m.fl. kommer inte ens i närheten (om de inte gjort drastiska ändringar den senaste tiden). Eller varför inte betala lite extra för att få tillhöra den grupp som gång på gång tillhör de som är mest nöjda över sina produkter enligt undersökningarna.

Missförstå mig inte, jag tycker också att deras priser är hutlöst dyra för datorerna men som tur är har jag valet att köpa någonting annat, precis som du och din vän har.

Skrivet av Frazeur:

Jag har lite funderat på detta. Jag tycker att det är lite orättvist mot Windows att detta ofta poängteras när man jämför Windows med Apples OS. Jag skulle istället säga att Apple och Microsoft har olika approaches. Microsoft har satsat på att försöka göra Windows kompatibelt med så mycket som möjligt, vilket betyder att dom offrar en massa stabilitet, smidighet etc. för att få dåligt gjord mjukvara av diverse andra aktörer att fungera bra på Windows. Apple har igen skapat ett otroligt smidigt och stabilt OS genom att nästan uteslutande tillåta mjukvara av företaget självt. På så sätt är det ju mycket lättare att se till att allting fungerar smidigt ihop.

Jag generaliserar ju nu en massa såklart, men i alla fall.

Du kan köra vilka program du vill på MacOS. Vad pratar du om?

Skrivet av snajk:

Många fokuserar på skärmen och visst hade det varit trevligt med en 5K-skärm, men det är extremt dyrt i dagsläget. Du får en bra 4K- eller varför inte någon trevlig UW 3440x1440, med TB, grymma färger osv. för väldigt mycket mindre pengar. Visst är det något av en nedgradering jämfört med Imacens 5K-skärm men jag tror de flesta hade varit precis lika nöjda med 4K eller så.

Det är dock ofta så när man diskuterar med Apple-användare, de tar fasta på en liten detalj som antingen inte finns till alternativen eller som är väldigt dyr och säger att Apples produkt är prisvärd på grund av det när de allra flesta inte bryr sig så mycket om denna detalj. Exempelvis "haptic engine", "retina upplösning" på telefoner och datorer (för några år sedan), touch baren på macbook pro, "världens minsta proffsdator" i Mac Pro eller den stora touchplattan. Jag säger inte att apples produkter inte har fördelar men dessa detaljer är inte viktiga för de allra flesta.

Fast samtidigt är det ju samma komponenter, Apple tillverkar inte minnen exempelvis utan det är samma skit som på en PC, de bara kostar väldigt mycket mer (om man köper de från Apple som man ofta är tvungen att göra). Sen har de förstås vissa saker som är faktiskt bättre, som deras minnesprestanda i telefonerna exempelvis.

Inte bry sig om retina på telefoner och surfplattor? De produkterna är ju liksom bara skärm, upplösning är avgörande. Apples systemkretsar springer åttor kring allt som finns i konkurrerande smartphones.

Alltså, MacOS är UNIX och bara det är ett tungt vägande skäl för många. Många delar av OSet är open source, att Apple har hård kontroll över vad som får köras på MacOS är ju tjurskit av rang, det är bara att installera och köra vilket program du vill.

Här är källkoden till kärnan: https://opensource.apple.com/source/xnu/xnu-4903.221.2/

Så snygga, snabba datorer med UNIX är ju en dröm för många.

Att målgruppen skulle bestå av idioter med hög inkomst som köper för att impa på grannen är ju bara trams.

Att det mest prisvärda och lovvärda man kan göra med en processor skulle vara att låta den exekvera Windows 10 och allt annat är snobberi och bortkastade pengar är ju en ganska inskränkt inställning.

Av terra33
Skrivet av Deriveh:

Skillnad mellan LoL och PUBG är enorm. PUBG kräver otroligt mycket mer.

Ska det spelas i 1080p så kräver det inte lika mycket som i 1440p eller 4k. Den här setupen bör maxa PUBG i 1080p.

https://www.inet.se/kundvagn/visa/12722683https://inetimg.se/img/tiny/forum-divider.pnghttps://www.inet.se/kundvagn/bild/12722683

Det här är dock utan skärm. Kanske kan komma undan med ett billigare moderkort också, i B450 serien. Skärm hinner jag inte titta på nu, men freesync skärm blir alldeles utmärkt, 24" i 1080p.

Skrivet av Deriveh:

@frding: CPU är sekundär vid spelande, GPU är primär, ram-minnen kommer i tredje hand. AMDs 3600 håller mycket hög klass som du kan se i sweclockers tester som kom igår Länk här. Även om det är 3600 vs 3600X som jämförs här så ser du resultaten från intels motsvarigheter. En CPU som är snabbare i spel än AMDs 3600 är AMDs 3700, 3800 etc. Eller Intels i7 9700K eller i9 9900k som båda kostar några tusenlappar mer, kräver en höjd budget.

Där finns även tester som jämför AMDs GPUer mot NVIDIAS GPUer, de nya AMD korten, det jag länkade bland annat håller fin fin nivå för ert spelande. Ligger en bra bit över NVIDIAS RTX 2060 Super och över RTX 2070 och nära RTX 2070 Super som kostar avsevärt mycket mer. För att stanna under prisbilden om 14k så hittar du inte mer prisvärda komponenter. (Visst du kan slänga på RAM med lite lägre latens men jag tror inte att du kommer att se mer än 0-1% skillnad med dem för spelande av PUBG eller LoL. (Med andra ord marginellt, men ändå, en skillnad.) Jag har själv 3200 minnen i CL 14, gick från 3200 cl 16 till cl 14. Har inte märkt någon skillnad, men har en KÄNSLA av att jag ligger 1-2 FPS högre i snitt i PUBG (snittar 160 FPS, så 1-2 FPS är i princip ingen skillnad.).

Ska du upp högre i GPU än det jag föreslog så skulle jag säga att nästa steg är RTX 2080 Super eller RTX 2080ti. (Radeon VII är inte ett alternativ tänker jag.) Men då får du lägga på mellan 5000-8000kr på din budget.

Skrivet av _F1GHT3R_:

Är 15k inkl skärm.
Du kommer inte att få ut max fps i pubg på ultra settings om du inte har ett kraftfullare gpu typ 2080.
https://komponentkoll.se/bild/RtIXE.png

Skickades från m.sweclockers.com

Han ska enbart spela, Intel + Nvidia är the way to go här. Sluta pracka på folk AMD-prylar för sakens skull, inte första gången folk vill ha SPELdator och får en massa ryzenproppar i ansiktet. PUBG funkar dessutom bättre på Nvidia.

Min 3570k @ 4.4 med DDR3 2400 flaskar PUBG, så en snabb CPU med 6 kärnor är vad som krävs här, återigen för PUBG. Intel 6-kärnig är det som gäller.

RAM-minnen och dess hastighet spelar dessutom stor roll, kolla bara Digital Foundries analyser om minneshastighet.

I din sits är inte Ryzen rätt produkt.

Av terra33
Skrivet av Sebbepojken:

De är väl lika "ärliga" som alla andra? Jag ser inte Google, Facebook, Samsung, Amazon eller någon annan använda såna slogans.

Eller hur! Land som land, styrelseskick som styrelseskick liksom. Västliga bolag är inte förgreningar av det styrande partiet och dess underrättelsetjänst är underordnad kongressen som i sin tur är underordnad folket.

Men om polisen får gripa människor, varför får inte människor i allmänhet gripa andra människor??? Va??? Är det för att polisen har särskilt förtroende och behäftats med våldsmonopol och är underkastade den lagstiftande församlingen utsedd av folket? DÅLIGT SKÄL!!!

Skrivet av Nivity:

Vet inte om den Amerikanska regimens backdoor är mycket bättre i dagens läge ärligt talat

Det är den, ärligt talat. Fiendepropagandan har nått långt när diktaturerna får fria människor att tvivla på sina egna demokratiska institutioner. Gaslighting deluxe.

Skrivet av freethinker:

Precis. Skrattretande att folk litar på Google etc och smutskastar allt annat. Google och dess gelikar som bevisat samarbetar med NSA.

Och Telia samarbetar med polisen. Ska man undvika Telia då? Är det skrattretande att man föredrar Telia framför kinesiska statens dito då? Eller att man föredrar att gripas av svensk polis framför kinesisk polis? Polis som polis liksom.

Detta OS kommer att faila eftersom marknaden inte bryr sig om eller betalar extra för att Huawei ska vara säkrare visavi USAs beslut. Varför ska man betala för det liksom. Här är vårt nya OS som underlättar för oss i internationell handel, det har inga appar men vi slipper rätta oss efter amerikansk lag och kan fortsatt stjäla intellektuell egendom från väst och profitera medan kapitalisterna säljer oss repet vi hänger dem med.

Mikrokernels är dock intressant, läs gärna om Minix och Andrew S. Tanenbaums texter om sådana OS.

Av terra33

@Mordekai:

Okej, så det är en anglicism på villovägar. Ett engelskt idiom som försvenskats till obegriplighet. Att swecare med det i ryggen klagar på strålspårning

Av terra33
Skrivet av Trunk:

Om heartstone är samma på windows som ios så borde vilken potatis som helst duga med tanka på att jag spelat heartstone på en ipad från 2012.

Angående datorn så kan jag inte tipsa om så mycket annat än en macbook/macbook pro. Min förra användes ~5 år innan jag sålde den, då var den fortfarande fungerande. Min nuvarande macbook pro är från 2012 och är även den fullt fungerande och klarar av allt jag slänger mot den, vilket är lite enklare spel, officeanvändning, 20+ flikar i safari, musik m.m.

Roligt att ni kallar uppemot tio flikar för mycket, helt annorlunda mot min värld

Var kommer det här uttrycket att "kasta saker" på datorn ifrån? Bara läst det på sweclockers.

Av terra33
Skrivet av JBE:

https://www.techspot.com/review/1877-core-i9-9900k-vs-ryzen-9...
webbversion för de som inte pallar video.

Dock blanding av random cpukrävande och inte cpukrävande spel, så det blir nog skevt genomsnitt. starcraft2 är mycket cpukrävande och har stor skillnad i fps där tex.

Tveksam metod med "1080p using an MSI RTX 2080 Ti graphics card to remove GPU bottlenecks".
Rent logiskt verkar det lite bakvänt att påstå att man vill eliminera gpu bottlenecks men samtidigt slå på ultra.

(skulle vilja se samma test fast med lite mer logik, tex välja ut kända cpukrävande spel. tex wow, poe, sc2 etc).

Det är ju ett bra test om man på riktigt spelar random moderna spel i 1080p ultra, men skeptiskt till det som rent cputest.

1080p ultra -> fler draw calls cpun måste jobba med, fler effekter osv. Dessutom försvinner gpu-flask iom 2080ti. Alltså är det ett bra test av cpu, varför är 720p en helig och magisk upplösning?

Maxad processorlast utan gpu-flask är ju rent logiskt ett perfekt scenario, varför vara skeptisk?

Av terra33

@anon12433:

Fint, då kan vi testa i 1*1 så är saken avgjord.

Här har du mer info för förkovran;

https://simonschreibt.de/gat/renderhell/

Av terra33
Skrivet av anon12433:

Fast 720p Ultra är bättre än 1080p Ultra ur testsynpunkt för CPU. Allra bäst vore det om man identifierade de CPU-belastande inställningarna och behöll dem högt för att enbart sänka GPU beroende inställningar. Har dock full förståelse för att ingen har tid för sådant när det är flera spel och CPU modeller som ska testas.

Fast en högre upplösning kräver mer jobb av CPU, varför det jag sade fortfarande gäller. Egentligen hade det varit bättre om GPU inte flaskade i 4k osv.

Av terra33
Skrivet av FredrikMH:

Edit: Oj, det här blev långt... Nästan sugen på att 'delete' på allt för nu har jag skrivit av mig

Det är fascinerande hur många som inte förstår varför man testar processorer i 720p och varför det resultatet som framkommer där är intressant.

Det handlar INTE om att man ska spela i 720p. Släpp den tanken och fundera ett steg längre. Att ens påstå det visar bara att man inte alls förstår hur hårdvaran fungerar. Varför inte låta nätverkskortet vara flaskhals när man testar diskar? Eller kortläsaren när man testar minneskort eller grafikkortet när man testar skärmar?

720p jämför processorernas förmåga att bearbeta spellogik
Spellogiken utförs av processorn och genom att testa i en så låg upplösning som möjligt så exkluderar man grafikkortet från ekvationen. Detta är något man såklart vill göra i ett test av processorer för att kunna se den faktiska skillnaden mellan dem.

Ju högre upplösning och ju mer grafikinställningar som maximeras så talar sannolikheten för att processorn oftare kommer att få vänta på grafikkortet, vilket jämnar ut resultatet eftersom skillnaderna mellan processorerna då blir mindre betydelsefulla.

Spel idag
Eftersom inga (kanske finns något udda?) spel idag använder fler än 8c/16t kan man med säkerhet säga att 9900K kommer prestera bäst i spel. I det mest extrema scenariot är det ett spel där grafikkortet inte alls flaskhalsar och det är här skillnaderna i 720p går att ta med sig som en uppskattning om hur processorn kommer prestera. I ett annat fall är det ett grafiktungt spel där grafikkortet blir en flaskhals långt tidigare och valet av processor spelar då inte så stor roll.

Det intressanta uppstår ju dock när man hellre vill ha ett spel som flyter bra än att maximera grafikinställningar. Counter-Strike är ju ett spel som historiskt funnits med hur länge som helst som är ett lysande exempel på det. Här fungerar ju AMD:s processorer riktigt bra men samtidigt är det ett spel (om jag inte missminner mig) som påverkas en hel del av minnets hastighet och här kan man argumentera för att Intel har mer att hämta från ordinarie test - men det hade såklart behövts testats för säkerställas.

Men även många andra spel där man tävlar mot varandra och där många ungdomar/gamers gör detta flera timmar om dagen så spelar detta en roll. Man är helt enkelt villig att sänka grafiken så många steg så man får ut det bästa flytet i spelet eftersom det är en direkt fördel.

Ju oftare spelet uppdaterar bildfrekvensen i dessa lägen, ju snabbare har du som spelare möjlighet att agera - och ju snabbare agerar spelets bild på dina rörelser. Även äldre speltitlar som CS 1.6 hade direkta spellogiska aspekter kopplade till fps där rekylen i vapnet återgick baserat på din fps. Men jag tror inte det är så längre. Faktum kvarstår att många vill maximera flytet.

För casual gamers (som säkert många här är) så spelar inte detta någon roll. Jag hade personligen inte brytt mig så mycket idag om jag hade 100 fps eller 130 fps i Battlefield, Apex Legends eller liknande. Men jag kan inte förneka att det fanns en tid då jag tyckte det var mycket viktigare och där jag spenderade många timmar på dag i onlinespel.

Hade jag spelat så mycket idag så hade det varit svårt att ljuga för sig själv och säga att AMD är det jag ska välja. Även om jag gärna hade velat det. För även om AMD:s processorer är väldigt bra och prisvärda så hade jag inte brytt mig om jag fick vänta några sekunder extra i andra applikationer - för där tävlade jag inte.

Men att förstå syftet med varför processorer testas i 720p, förstå hur det resultatet kan implementeras och samtidigt acceptera att andra människor har andra preferenser än sig själv är viktigt.

Morgondagens spel
Väldigt få spel utvecklas exklusivt till PC för att flytta gränserna för vad hårdvaran klarar av. Eftersom 6c/12t räcker långt idag så är det rimligt att anta att 8c/16t kommer räcka ett bra tag till. @Yoshman har antagligen helt rätt i hur stödet för antal kärnor kommer utvecklas över tid, även om det såklart är extremt svårt att sätta en exakt tidsfrist.

Konsolerna kommer säkerligen hjälpa till att pusha gränserna lite när de lanserats i slutet på nästa år. Men jag är förvånad om det finns mer än någon enstaka titel som använder fler 8c/16t om 3-4 år. Det är väl heller inte omöjligt att konsolerna lanseras med just 8c/16t? Jag har inte sett någon uppgift om det men det känns som en rimlig gissning.

För att spel ska utvecklas med stöd för fler än 8c/16t krävs det att större andel av marknaden har stöd för det. Även om 3900X kommer att plockas upp av en del så är det ju snarare 3600/3700/3800 som väljs av den större merparten. Så merparten av de om köper nya speldatorer idag kommer väja 8c/16t och med stor sannolikhet är det även den vägen konsolerna går. Så spelutvecklarna följer efter.

Slutsats
Jag förstår att många tycker att Ryzen 3000 serie är mer attraktiv och bättre ur många perspektiv än vad Intel har att erbjuda. Jag håller även med om det och jag kommer själv antagligen att välja 3900X i mitt bygge under hösten. För den verkar episk för mina behov idag. Och då är ändå spelande en av de mest krävande saker jag utför på datorn.

Men jag förstår inte hur svårt det ska vara att förstå varför 9900K är ett bättre val för vissa och att där uppenbarligen kan finnas en klar fördel - en fördel som tydligt framkommer när man testar spel i 720p - en fördel som även går att finna i andra upplösningar. Jag vet heller inte om folk låtsas som att de inte förstår för att få fortsätta "trolla" eller om det faktiskt tror att deras världsbild av hur folk använder datorer är korrekt.

720p är inte någon magisk upplösning. Tvärtom är det ointressant, eftersom det är ett ensidigt mått. Digital Foundry gör så att man överklockar Nvidias värsting och kör 1080p ultra. Då tar man bort grafikflask och ser vad processorn är kapabel till. Detta resulterar i att processorn måste göra fler draw calls som inte sker vid 720p low, och därför är det ett bättre mått på processorprestanda. Processorn blir alltså mer belastad än vid 720p low, det har alltså inget med att 720p är en magisk upplösning för testning av "spellogik".

Av terra33

Jag med, kommer gärna.

Av terra33

@Yoshman:

Kul att se att min iPhone slår en överklockad 9900k i LLVM i Geekbench