Inlägg

Inlägg som EntropyQ3 har skrivit i forumet
Av EntropyQ3
Skrivet av Raffe:

Well, imac är väl egentligen den enda dator jag kan tänkta mig i dagsläget som detta kan fungera på. Något många inte tänker på är att en imac används inte för gaming, att driva runt 8k i skrivbordsmiljö är avsevärt mycket lättare än ens det simplaste spelet. Kan tänka mig att denna fungerar fint till photoshop, tänk att redigera i 100%.

Detta vore fantastiskt för många fotografer, redan 5k-modellen är mycket attraktiv. Och skärmkvaliteten vid fotobetraktande/redigerande var anledningen att jag 2009 pyntade upp för den då nya 2560x1440 IPS-iMacen. Still going strong med sin 4C8T-Nehalem och HD4850, förresten.

De skulle kunna öka skärmstorleken till 32 tum och fortfarande ligga i närheten av 300 dpi. Så man skulle för liggande bilder ha A2+ format för hela sitt bildarkiv i (högre än) tryckt kvalitet.
Skulle nog helst se en GPU på 14/16nm FinFET och med 8-16GB HBM innan jag högg. Men jag sparar redan till en 5k-lösning med en sådan GPU, så den spargrisen kan väl lika gärna knäckas på 8k-altaret.

Gaming? Skalad, självklart. En nVidia Pascal GPU med HBM, på 16nmFF+, och nedklockad till knappt 100W borde vara lite raskare än en Titan X. Borde funka bra den här konsolgenerationen ut......

Av EntropyQ3
Skrivet av MaloW:

Du säger "Detta är inte korrekt", vad är det som jag skrev som inte är korrekt, och på vilket sätt är resten av vad du skriver på nåt sätt relevant till vad jag skrev?

Det är skillnad på "funkar inte" och "väljer att inte stödja". Det är självklart att skärmtillverkare som t.ex. Asus eller Eizo föredrar en standard som dels inte kostar dem något, och dels går att sälja till alla konsumenter oavsett om deras grafik drivs av intel. AMD eller nVidia. Konsumenterna är inte de enda med åsikter i frågan. Därmed är det rimligt att anta stt nVidia kommer att stödja det öppna alternativet inom en rimlg framtid. Så om man föredrar nVidia som grafikleverantör, men behöver köpa en skärm NU, kan den här varjha intressant. Den stödjer ju höga refresh rates, och när man sedan köper sin Pascal nästa år lär FreeSync gå hur bra som helst att driva.

Av EntropyQ3
Skrivet av MaloW:

Självklart vet jag vad det är, men senast jag kollade funkar inte det på Nvidia, vilket gör det helt useless för mig.

Detta är inte korrekt. NVidia väljer för närvarande att inte stödja standarden, men kan när de så önskar, och kommer nog att göra det när de skärmtillverkare som använder deras lösning inte längre sitter på osålda lager. Det är ingen tvekan om vilken lösning alla andra komponenttillverkare föredrar.

Av EntropyQ3

Angående priset på Apples A8x vs Broadwell-Y som ligger från drygt 3000SEK och uppåt:
Apples A8x är 128mm2. Man får in drygt 450 kretsar per 300mm wafer. Det blir, med en rimlig aktuell prisuppgift drygt $10/krets. Justera lite uppåt för defekta kretsar, lite till uppåt för lite av varje och du landar på i runda slängar $15 per krets. En tjugondedel (!!!) av vad intel tar för Broadwell-Y. (Design, tape-outs och så vidare kostar naturligtvis, men med Apples volymer kan vi nog räkna in det i slaskmarginalen ovan.)
Om man betänker de marginaler som Apple, tull och skatter gör från komponentkostnad till slutkund så är det lätt att se hur mycket attraktivare den nya iBooken skulle vara för konsumenter ur prishänseende med en annan krets. Å andra sidan skulle den ju då inte kunna köra OSX programvara med god prestanda, alltså...

Men med rådande dollarkurs är det ingen tvekan om att Apples intresse för att pressa ner sina komponentkostnader ökar. Hur det påverkar OSX produkterna i framtiden återstår att se. Detta hade varit en idealisk produkt att introducera ARM-kretsar i, och eftersom de inte gjorde det, misstänker jag att det inte lär ske i rappet.

Av EntropyQ3

John McCalpin arbetade på University of Texas, hade en period som Alumni på IBM, och arbetar nu på University of Austin (också Texas). Han har varit aktiv i HPC i decennier, och blivit känd för sina analyser av minnessystem, och naturligtvis, STREAM.

STREAM är i dag, på i stort sett alla system, oberoende av flyttalsprestanda och är ett rent minnessystembenchmark. Geekbench arbetar efter filosofin att separera core/ALU tester och tester för minnessystem. Detta tillåter dem att jämföra processorkärnor enskilt och hur de skalar tillsammans, och sedan också att uppskatta hur minnesbegränsade applikationer kommer att bete sig (grafik hamnar ju ofta där numera, t.ex.). Man saknar bandbredd vs. footprint och latenstester till exempel, men benchmarket är vettigt utformat för vad det försöker göra. Man kan med fördel gå in och till exempel utesluta kryptografitesterna om man så önskar eftersom alla enskilda delresultat är tillgängliga.

På äldre superdatorsystem var FLOPs/bandwidth kvoten mycket mycket lägre än vad som är typiskt idag. Det är fortfarande en önskvärd, och dyr, egenskap. Inte alla intressanta problem låter sig köras ur L1-cachen....

Av EntropyQ3
Skrivet av Yoshman:

Svårt att se hur "ungefär lika snabb" kan vara på sin plats när det skiljer nästa en faktor 2 i grafik och nästan en faktor 3 i CPU (om vi använder 3DMark).

Om du betalar för Geekbench så du går tillgång till källkoden så borde det vara rätt uppenbart hur meningslös denna benchmark är, det finns benchmarks, det finns mikrobenchmarks och sedan finns GeekBench. Ett deltest ser (Stream scale) ser bokstavligen ut så här

uint32_t * dst = ... uint32_t * src = ... for (...) { // det här är själva "testet" *dst++ = scale * (*src++); }

WTF!

Flaskhalsarna i lite mer "vanliga" program brukar komma från saker som hur snabbt det går att följa pekare (länkade listor och de flesta typer av träd-strukturer), hur effektivt CPUn hanterar villkorad körning etc. GeekBench testar överhuvudtaget inte detta. Jobbar en hel del med ARM och har därför lagt mycket krut på att förstå styrkor och svagheter i de mest populära designerna, rent generellt kan man säga att just hantering av oregelbunden minnesaccess (typiskt vid hantering av listor/träd) är något som både AMDs och framförallt Intels x86 designer totalt kör över existerande ARM, Apple är ändå den ARM-tillverkare som gör detta klart bäst.

Vad det gäller prisskillnad: hur vet du att det är en faktor 10 då Apple inte säljer A8X... Tillverkningsmässigt undrar jag vilken som är billigast då A8X faktiskt innehåller runt dubbelt så många transistorer som Core M (~3 miljarder mot ~1.5 miljard).

Hur är klockfrekvens relevant? Det enda som spelar roll i detta segment är perf/W och det kan man nå på många olika sätt, Apple har valt en väldigt "bred" design med relativt kort pipeline, det medför att det inte kommer gå att klocka speciellt högt, Intel har designat lite annorlunda vilket gör det möjligt att klocka mycket högre med likvärdig TDP.

Vad av detta är inte "balaserad diskussion"? Är det bättre att bara hitta på lite resultat?

Stream är inte ett CPU-benchmark, de deltesten mäter MINNESBANDBREDD!
Och John McCalpin vet mer om det än du.

Praktexempel på att du konsekvent skevar den tillgängliga informationen. Grovt.

Av EntropyQ3
Skrivet av beh:

Jag skulle gärna sett en upplösning närmare PPI upplösningen på Macbook Air 11", som är 135 PPI vilket hade blivit ca 270 PPI i retina. Som det är nu har MacBook 12" 226 PPI. Om Apple istället ökat upplösningen till 2560x1600 hade den haft 251 PPI, som ligger mer i linje med hur mycket som ryms på en MBA11.

Man måste komma i håg att det är större skärmyta på MB12 (417,54 cm^2) jämfört med MBA11 (370,86 cm^2) och att det är mindre än 2x pixlarna i Y och X led.

Men det finns ju skalning till den upplösningen, synd bara att man inte kan få det som native. Antagligen ger det lägre ljusgenomsläppet för hög strömförbrukning.

Det är ganska stor skillnad mellan A8X och Core M-5Y70 mätt i ren CPU prestanda med Geekbench. Tänk då också på att Geekbench ger högre tal på OSX än på Windows.

Har ju inget med en jämförelse mellan A8x (iOS) och Core M-5Y70 (OSX) att göra när väl de data är inne. Vi får se.
A8x/Core M-5Y70 ger: 1800/2500 =0,72 72% av single core, och 4450/4200 (bästa x86!, många resultat mycket lägre)=1.05 105% av multi core.
Då är att märka att Core M-5Y70 som har en 4,5W rating har nästan exakt samma turbo klockor som 15W varianterna av processorerna och därmed ungefär samma geekbench scores. Så elefanten i rummet är att annat än i små kodsnuttar som geekbench kommer 4,5W varianterna att klocka ner sig rejält, vilket alla recensioner som kollar det också entydigt visar. Vi har också problemet att CPUn och GPUn konkurrerar om samma effektresurs, vilket lägger sig som en våt duk över spelprestanda utöver problemet med thermal throttling.

Vad gäller grafikprestanda har Core M-5Y70 något högre teoretisk 32-bitars FP prestanda, medan GX6850 dessutom har ungefär dubbla FP16, när det är tillämpbart. De har samma minnesbandbredd, GX6850 använder den effektivare enligt GfxBenchs subtester. De borde ge liknande prestanda med en liten fördel till A8x vilket vi också ser i GFxBench. 3DMark är en anomali i sammanhanget, till den grad att FutureMark själva har skrivit en artikel i ämnet.

Återigen, throttling i situationer utanför någon minuts benchmarking är den riktiga svagheten prestandamässigt hos Core M-5Y70, vi får se hur den nya MacBooken klarar sig i tester.

Som sagt - processorerna är ungefär jämförbara. anledningen att den nya MacBooken har en Broadwell handlar om mjukvarukompatibilitet, inte teoretiska prestanda.

Av EntropyQ3
Skrivet av Yoshman:

3Dmark Ice Storm Unlimited (som är offscreen så alla kör samma last) resultatet för A8X verkar ligga runt 21k totalt och runt 31k för enbart grafik medan det ligger på runt 50k resp 56k för Core M-5Y70.

GeekBench är en hopplöst usel benchmark för x86 då den kraftigt undervärderar prestanda i x86 "big-core" modeller, ska man gå enligt den benchmarken är det rätt liten skillnad mellan Atom och Haswell vid liknande frekvens medan "riktiga" program typiskt är dubbelt så snabb på den senare. Samma sak verkar NetbookCheck visa för A8X mot 5Y70, d.v.s. jämt skägg i GeekBench medan Core M är mycket snabbare i allt annat.

Suck, Yosman, har du inte kört detta till leda nu?
Titta på individuella scores på Geekbench om du nu inte gillar aggregate.
Varför ignorera
GfxBench som har mer transparans och inte bara en score?
Varför ignorera CPU vs GPU klockkonflikterna i Broadwell ULV?
Varför ignorera "ungefär"?
Varför ignorera en prisskillnad på bra över en faktor tio?

Du vill helt enkelt blockera varje balanserad diskussion i ämnet.

Av EntropyQ3
Skrivet av SeF.Typh00n:

Core M är långt, långt bättre.

Uhm, det beror på vilken variant du pratar om.
Apples A8x i iPad Air2 har ungefär samma grafikprestanda i GfxBench och 3DMark. x86 CPUn har 25% bättre single core prestanda i Geekbench (throttling är en fråga dock) men ungefär lika mycket SÄMRE prestanda i multi-core.

Så Core M-5Y70 som sitter i den nya MacBooken är ungefär jämförbar med A8x, trots Intels processtechnologi, och prislappen på 3000kr för processorn.....

Av EntropyQ3

Till ovanstående vill jag lägga Pikmin 3

Av EntropyQ3

Kan tillägga att du måste (enligt mig) äga en joystick och gilla att spela flygsimulator.
Jag, däremot, tidig £100 supporter, spelar med mus.
Tog mig aldrig förbi tutorialen. För att få dogfights som känns som "flygstrider" (under första världskriget) så har de en otroligt seg yaw. Har inget med rymden att göra och är hopplöst trist med mus.
Ospelbart - njaä. Skoj - nix.

Av EntropyQ3
Skrivet av Lucifer_swnne:

Hur bra är en arm-baserad processor om man jämför med intels eller amds processorer? Är det en skillnad i prestanda och hur stor är den ?

ARM liksom x86 representerar familjer av processorer, som implementerar en instruktionsuppsättning m.h.a. olika kretslösningar och kiselprocesser. Så det finns inget enkelt svar.
Om vi tittar på "best-in-class" implementationerna just nu, kan man kanske jämföra intels Broadwell och Apples A8(x). Det är fortfarande lite av äpplen och päron, prisskillnaden är en faktor tio, olika kiselprocesser, halva A8 består av annat än GPU/CPU/cache/minnesbuss (!), effektförbrukning vid benchmarking osv kan alla diskuteras. Men det råder inte mycket tvivel om att senaste iterationen av Apples ARM är i runda slängar jämförbar med Broadwell, vid motsvarande effektförbrukning. Kolla benchmarks på Lenovos Yoga 3 vs. IPad Air2 t.ex.

Prestanda är inte det som kommer att avgöra om/när/för vilka system Apple börjar använda sina egna processorer också för OSX. Andra aspekter skiljer mycket, mycket mer.

Av EntropyQ3
Skrivet av lakej:

Head-fi.org har alla svar

Ja, där kan man få vilket svar som helst på vilken fråga som helst!

Av EntropyQ3

Avskyr party-based isometric view RPGs. Som designprincip, sedan kan det vara utmärkta spel i övrigt, men det är som att titta på när andra spelar pen-and-paper RPG och inte själv vara med. Så jag har spelat 60 timmar nu utan att skifta runt mellan karaktärerna annat än när spelet kräver det. Bättre immersion, mindre optimalt - vilket inte gör så förbaskat mycket i jämförelse.

Gillar spelet, helt klart. Fast det är mycket aktivitet som är helt meningslös, gillar inte att tvingas tillbaka ur spelet för att hantera mitt War Table, och är måttligt förtjust i alla MMO-liknande fetch-quests. Men i gengäld är storyn OK, karaktärerna bra, miljöerna och grafiken mycket levande och välgjorda. Nice.

Av EntropyQ3
Skrivet av Syyynd:

Håller inte med alls, att ha tillgång till flera karaktärer är så mycket roligare, du kan bygga upp historier och upplevelser ur flera perspektiv istället för att begränsa dig till ett, går att utveckla vidare men slutsatsen är att folk gillar olika. Personligen ser jag på just denna olika smaken som flertrådade hjärnor vs enkeltrådade hjärnor.

Det är inte ett kasst designbeslut bara för att det inte är ämnat för dig, vilket självklart gäller åt andra hållet också. DA:2 och vad jag hittills upplevt av DA:I är att de inte var byggda för samma människor som DA:O var, vilket är ok även fast det är en personlig besvikelse. Divinity finns för sådana som mig nu iaf och skall bli intressant att se hur Project Eternity knyter ihop sin säck.

Man kan naturligtvis tycka olika. Men.

Party-baserade RPGer har sina rötter i papper och penna role-playing. Jag är gammal nog att ha varit med på D&D/AD&D tiden, när cRPGer inte fanns. Spelandet var i grupp per definition, och man hade klasser mycket för att alla skulle ha en funktion. Också en lite tystlåten kille kunde spela cleric och "vara med" och fylla en nödvändig funktion, en tjuv var nödvändig för att kolla fällor och öppna lås och så vidare. Om inte alla utility-klasser fanns representerade anpassade dungeon mastern helt enkelt innehållet efter gruppsammansättningen (färre låsta dörrar...)

När man började spela RPG-liknande spel på dator var de första spelen, (rogue, Moria) single player, men väldigt snart dök mer D&D inspirerade spel upp, såsom t.ex. Might&Magic och Wizardry. Det fanns två anledningar till att dessa var party baserade.
1. De grundade sig ide-mässigt på papper och penna spel som var multi-player per definition.
2. Eftersom man hade alla utility klasser i gruppen man kontrollerade förenklades speldesignen enormt, jämfört med om man bara kontrollerat en karaktär. Desarmera fällor, dispel magic, neutralize poison - alla funktioner fanns garanterat i gruppen, och speldesignen slapp ta hänsyn till att något kanske saknades, såsom en mänsklig DM kunde.

Nackdelen är å andra sida uppenbar. Identifikationen saknas, och identifikation är kärnan i vad RPG handlar om. Man måste uppleva sin karaktär som "jag". Ju svagare den upplevelsen är, desto längre distanserar man sig från role playing, och man ägnar sig åt att administrera sitt party. "Ammen vaffan, nu dog min klena magiker IGEN!".

Det är intressant att se hur datorbaserade MMO-klyschor som aggrohanteringsskills (yuck) hos klasserna har sökt sig in i DA:I, förutom gruppspelsparadigmen från papper och penna. Jag skulle vilja säga att detta är exempel på kass speldesign i ett single player spel, därför att de här elementen försvagar identifikation och inlevelse, och motiven för att de alls existerar är hämtade från ett annat sammanhang.

Spel har flera sidor, och DA:I har en del positivt att komma med. Men BioWares rötter i D&D-traditionen, oavsett genre, är inte bara av godo.

(Senaste divinity försöker vara både single-player och cooperative, vilket är anledningen till att det ser ut som det gör, och alla som spelat båda varianterna verkar föredra co-op. Divinity är bra, men det hade varit ett bättre single-player spel om co-op inte funnits.)

Av EntropyQ3
Skrivet av Snigeln Bert:

Ja, tyvärr är det väl så du säger att folk spelade för låg svårighet alternativt inte bytte mellan karaktärerna och spelade taktiskt. Såg väldigt mycket fram emot Dragon Age 2 efter att jag klarade Origins. Synd att det var så otroligt dåligt, har fortfarande inte spelat klart Act 1.

Skickades från m.sweclockers.com

Det är väl inte så konstigt att man i ett RPG inte vill byta karaktär? Kan inte tänka mig något mer "immersion breaking" än att vara the Herald of Andraste en alvkvinna, för att sedan ...
Att i single player RPGer egentligen spela någon slags hydra är ett kass designbeslut. Detta spelet kör ju dessutom någon slags Tank/damage/healing MMO variant där karaktärerna har aggrohanteringsskills.

Spelet har kvaliteter också. Party-based är inte en av dem.

Av EntropyQ3
Skrivet av Skonky:

Dessutom, på skärmar som är så högupplösta som dessa, så kan du inte se de individuella pixalarna, och därför spelar pixelmönstret ingen roll. Så att klaga på det är fel, om du inte kan jämföra det.

Men det är ju precis det man kan när skärmarna används i VR-sammanhang - se de individuella pixlarna.
Ett problem med PenTile-varianterna är hur upplösningen marknadsförs. En PenTile-pixel (till skillnad från en RGB, eller RGBW-pixel) kan inte återge alla färger. Man behöver två PenTile-pixlar för det. De första varianterna hade inte varit så tokiga om pixlarna hade marknadsförts som halva upplösningen. Istället valde Samsung att köra med "halva pixlar". Och det var, enligt mig, ett eländigt beslut både av tekniska skäl och för att det gav hela approachen dåligt rykte.
Det hade varit bättre om de hade väntat ett halvår till ett år och kunnat marknadsföra fullfärgsupplösningen utan att behöva skämmas jämte största konkurrenten.

Av EntropyQ3
Skrivet av Jonny Myran:

Jag har svårt att tro att du skulle se skillnad på stadigt 100fps och stadigt 120fps.

Inget problem. Gjorde motsvarande experiment i mina Quake3 dagar från 160Hz och ner. Skillnaden är uppenbar i snabba rotationer. Notera att spel designade för spelkonsoler i princip aldrig stödjer lika snabba rörelser som spel designade för PC. (Även om moderna "rollspelsshooters" tenderar att bara tillåta att man lufsar runt som en rymling från ålderdomshemmet. Kan också delvis bero på skiftet från LAN-spel till internetbaserad multiplayer, med förhållandevis extremt hög latens. Ethernet-LAN brukar ha en latens på någon millisekund.)

Av EntropyQ3
Skrivet av Yoshman:

De flesta spel du hittar för pekplattor och mobiler lastar inte alls CPU-delen speciellt mycket, basfrekvensen är mer än nog där, i alla fall inte om man ska tro den statistik Qualcomm visade upp på en presentation nyligen (som förövrigt visade att mer än 2 CPU-kärnor är totalt bortkastat i dagens läge). Några enstaka spel kan lasta GPU-delen en del, så throttling är ett reellt problem för vissa applikationer.

Vidhåller ändå att max-frekvensen (eller egentligen maximal enkeltrådprestanda) är väldigt viktig för hur snabb enheten upplevs vara vid interaktivt arbete, de flesta använder trots allt sina telefoner/pekplattor för att surfa, messa och liknande.

Håller med om att många benchmarks är totalt missvisade. En typ av benchmark som totalt saknas är just hur snabbt systemet kan gå från "sleep" till maxfrekvens, väldigt viktigt för hur snabb enheten upplevs. När man scrollar eller klickar på något vill man ha omedelbar respons, så enheten ska just gå från "sleep" på CPU-delen till maxfrekvens tillbaka till sleep så snabbt det bara går. Att köra benchmarks över längre tid kan vara intressant i sig, men är inte en speciellt relevant testfall då mobila enheter typiskt inte på ett sätt som laster CPU/GPU till 100% under väldigt lång tid (ytterst få laptops används på det sättet).

Tyvärr är det svårt att sätta siffror på GPU-responstid i typisk sleep-race-sleep cykler, men det borde inte vara helt omöjligt att göra en sådan benchmark.

Och jag vidhåller att de applikationer som faktiskt belastar tablets, inte nödvändigtvis eller ens i huvudsak passar in i race-sleep-race. Lite annorlunda med telefoner.
Om man ser på vad en telefon gör är det mycket messaging/websidesladdning och spel men man kan argumentera för att messaging är begränsat av användaren, kommunikation/surf är begränsat av uppkoppling och spelen är det enda som belastar SoCen nämnvärt överhuvudtaget, och är därför ett lämpligare use case att benchmarka.

Håller helt med om den enkeltrådade prestandans betydelse.

Skickades från m.sweclockers.com

Av EntropyQ3
Skrivet av Yoshman:

D.v.s. väldigt nära 100% fallen för de flesta användare. Samma sak gäller existerande telefoner och pekplattor, är inte speciellt länge som den lurarna kan köra i 2.5GHz eller vad som nu är maxfrekvens, men det är ändå användbart då det hjälper till vid korta "explosioner" med arbete, något som händer varje gång användaren interagerar med sin enhet.

Nej, det är inte alls nödvändigtvis nära 100% av fallen. Om du spelar ett spel, t.ex, är det inte alls sant.
Kruxet är att hur processorerna och deras grafikdelar hanterar klocka vs. termisk belastning är en enormt viktig parameter, som i simplistisk benchmarking undervärderas (alldeles oaktat fusk från tillverkarna....). Att jämföra specs, eller ens att jämföra prestanda om miljöerna är olika, eller korta små benchmarks - alla dessa har liten relevans.

Det kommer att bli intressant att se vilka web sites som kör benchmarks över längre tid, och hur de jämför plattformar. Kommer att säga en del om kredibilitet.