Samsung Galaxy S7 får specifikationer i läckt prestandatest

Permalänk
Skrivet av md7:

Som sagt, nu var det ett tag sedan jag växlade över till iCloud-bildbibliotek men jag har för mig att när jag gjorde det så behövde jag typ bara klicka ok och sen var det klart. Men kanske buggade ur för dina vänner.

iTunes ser jag mer som en server där du lägger till bilder, e-böcker, musik, film etc och sen synkas det automatisk till din mobil/platta. Då behöver man själv inte hålla reda på om datorn och mobilen/plattan har samma filer. Väldigt smidigt också att köra WiFi över det, då slipper man koppla in mobilen/plattan till datorn utan allt sker, mer eller mindre, automatiskt. Visst, det är ett annat sätt att tänka på om man kommer från Windows, men lär man sig det så är det faktiskt väldigt smidigt. Nu dock använder jag inte iTunes längre utan i stort sett bara molntjänster. Men hade inga större bekymmer med iTunes förut heller, utom i början då när jag hade "Windows-tänk". Då blev det rätt mycket att man motarbetade systemet, men efterhand så kom man in i det.

Helt klart, det finns saker i iOS som skulle behöva slipas till och bli ännu bättre. Men jag har aldrig känt att jag inte själv bestämmer över vad jag gör med mina bilder/filer. Visst, du kan inte skapa kataloger och lägga filerna hur som helst, men då är man tillbaks till "Windows-tänk". Antingen så jobbar man med systemet, eller så jobbar man emot det, och då får man bita i det sura äpplet.

Är inte Windows tänk helt utan även syns äldre mobiler fungerar på liknande sätt när det gäller filöverföringar Jag som användare behöver inte mer kunskap än hur man använder USB minne, gör samma sak med mail, allt inkommande sorteras automatiskt i mappar

Att sortera musk och bilder är riktigt gött (då vet jag vart allt ligger, gör systemet det åt mig är det svårare att hitta). Varje individ tänker olika och även sorterar olika, det andra ser som oordning är mitt sätt att organisera saker (jag hittar, men kanske ingen annan).

Sen att man kan välja ringsignaler hur man vill är en skön frihet (behövs ingen app med tok för mycket rättigheter).

Men det viktigaste är ju att systemet ska anpassas efter mina behov inte tvärt om (man jobbar ju bättre, om allt ligger efter egen tycke och smak).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Är inte Windows tänk helt utan även syns äldre mobiler fungerar på liknande sätt när det gäller filöverföringar Jag som användare behöver inte mer kunskap än hur man använder USB minne, gör samma sak med mail, allt inkommande sorteras automatiskt i mappar

Det var därför jag skrev Windows-tänk inom citationstecken. Apple har valt ett annat sätt, vissa tycker det är bättre medan andra tycker det är sämre. Och för användare som inte är vana vid filsystem (de flesta som inte har någon större kunskap om datorer) så är inte USB-användning självklart. Med det sagt så menar jag inte att iTunes skulle vara mycket enklare för en användare som inte kan så mycket om datorer, men jag kan förstå tänket från Apple att ha en app som sköter synkningen mellan dator, mobil och platta istället för att användaren ska behöva manuellt uppdatera mobil/platta genom att hålla på med ett filsystem.

Skrivet av Broken-arrow:

Att sortera musk och bilder är riktigt gött (då vet jag vart allt ligger, gör systemet det åt mig är det svårare att hitta). Varje individ tänker olika och även sorterar olika, det andra ser som oordning är mitt sätt att organisera saker (jag hittar, men kanske ingen annan).

Fast sortera musik och bilder kan du göra i iOS. Visst, inte genom att ändra filsystemet, men däremot skapa nya kategorier/spellistor direkt i appen. Utifrån ett användarperspektiv så ser jag det som ett mycket smidigare sätt än att användaren själv ska behöva hålla på med filsystemet, särskilt om man inte har så stor koll. Men för en som är van och vill ha full kontroll på allt så är det en nackdel.

Skrivet av Broken-arrow:

Sen att man kan välja ringsignaler hur man vill är en skön frihet (behövs ingen app med tok för mycket rättigheter).

Så krångligt tycker jag inte det är. Antingen använder du en app, eller så använder du iTunes. Självklart hade det varit smidigare om man hade kunnat göra det direkt från iOS, men nu är det som det är.

Skrivet av Broken-arrow:

Men det viktigaste är ju att systemet ska anpassas efter mina behov inte tvärt om (man jobbar ju bättre, om allt ligger efter egen tycke och smak).

Nu jobbar inte jag särskilt mycket med min mobil, så jag känner inte riktigt behovet att ha hundra procent koll på filsystemet. Däremot när det gäller datorn då vill jag gärna ha så mycket kontroll som möjligt, vilket, för min del, OS X ger mig.

Permalänk
Medlem

Inte utbytbart batteri. Kan man trycka dit ett micro-SD-kort och är den vattentät som en tidigare generation? Apple älskar att stämma Samsung så varför inte över att kopierat Apples sämre egenskaper?

Varför gör Samsung en sämre produkt utan en bättre? Varför kopieras dom dåliga funktionerna? Precis som hur Lenovo har förstört Thinkpad med 16x9-skärm, gjort tangentbordet till ett vanligt allmänt dåligt bärbart tangentbord som alla andra bärbara har istället för som tidigare ett tangentbord som var som ett vanligt tangentbord i miniformat med separata ljudtangenter m.m.?

Permalänk
Medlem
Skrivet av KingCobra:

Samsung är smarta. Först försöker de sälja gamla mobiler med ny skärm. Det funkade tillomed s5. Den "floppade" och Samsung fick tänka om. Då tillverkade de s6 i metall och glas, men tog bort SD kortplats och utbytbart batteri.
Nu lägger de tillaka SD kort möjligheten och på nästa års modell kommer troligtvis utbytbart batteri tillbaks.
Av en " ny" sak fick de sälja 3 generationer. Det enda som skiljer s8 från s5 (om den får utbytbart batteri) är materialet den tillverkas i.

"The wonders of scam-artists"

Visa signatur

Asrock x570m Pro - AMD 3700x - Sapphire 5700XT Nitro+ 8GB - CM Hyper 212 black edition - Corsair Vengeance 16GB DDR4 3200MHz - Samsung 960 EVO M.2 250GB SSD - Samsung 970 Pro 512GB - Fractal Design Define Mini C Window- Acer 27" XF270HU WQHD 144Hz - OPO 7T + massa annat kul

Permalänk
Medlem
Skrivet av Yoshman:

Kanske har att göra med IPS LCD vs AMOLED då, ser du regnbågar på Iphone? Såg definitivt regnbågar på den Android med Amoled pentile matris jag hade tidigare, men ser inte det på Iphone.

Angående upplösning är det rätt uppenbart att Apple har förmågan att tänk ett steg längre än de flesta andra. Hur stor "frame-buffer" får man med 1334x750, jo 1334*750*4 = 3,8 MB. Hur mycket L3-cache (som GPUn kan använda) har deras systemkrets, jo 4 MB. Sätter man Iphone6 och Iphone6+ sida vid sida så finns det helt klart lägen där den förra är mjukare, rätt säker på att problemet här är att 4 MB L3 inte är tillräckligt för 6+ upplösningen.

2560x1440x4 = 14 MB, ingen mobil är ens nära att ha den mängden cache och det är låg lokalitet på att bara göra något som att scrolla i program och rendera "normala" gränssnitt. Apples lösning är både strömsnålare (att läsa från RAM tar väsentligt mer ström än att läsa från cache) och snabbare (det innan man väger in att den andra har 3,7 gånger så mycket att skyffla). Är någon förvånad att det är mindre "lagg" i iOS jämfört med Android? Är helt övertygade att sedan Android 5 och katastrofen iOS 9 är Android långt mer effektiv rent programvarumässigt men idiotisk HW-design från bl.a. Samsung samtidigt som Apple har exemplariskt HW-design (nu pratar jag bara om systemkretsen) gör att Iphone ändå är "rappare".

Och hur vet du att skillnaden i batteritid mellan 1920x1080 och 2560x1440 inte är signifikant? Finns det någon fall där man faktiskt kan jämföra två enheter där den enda skillnaden är upplösning på skärmen?

Nej, det syns lika mycket på alla telefoner med lika stora subpixlar. Om man vill förstå vad jag menar så vet man att det är precis det som gör att man direkt ser om något är en skärm och inte en verklig bild.

Och du kan prata framebuffer om du vill, men får intrycket att du försöker finta lite här, har extremt svårt att tro att en SoCs L3 nästan uteslutande används som framebuffer. Så fort man tar upp telefonen för att göra något så måste den läsa från RAM oavsett var den har framebuffern. Om din hypotes skulle ha någon som helst sanningshalt så skulle vi se "laggigheten" i varenda Anrdoid-lur utan tillräcklig L3, vilket så vitt jag vet är 100% av dem. Så är det inte. Utöver det så skulle vi se det mest hela tiden då det skulle vara ett problem som är där oavsett belastning i övrigt. Det är inte så felet beter sig. Och sist men inte minst skulle vi se det på varenda Apple-produkt som inte har en A8- eller A9-processor, vilket vi inte gör. Finns gott om både Android- och Apple-lurar som presterar ypperligt i gränssnittet utan L3. Och i de fall där de inte gör det så pekar inte beteendet det minsta på problem med framebuffern.
Bandbredden på 24,8GB/s räcker mer än väl till en framebuffer på sketna 14MB. Och exemplen ovan visar att det inte ligger någon som helst grund för dina hypoteser. Du försöker i ditt klassiska manér finta bort diskussionen i hopp om att man inte ska hänga med i svängarna när du försöker fördjupa. Det är viktigare att vinna diskussionen än att tro på det man själv säger tydligen.

Vi såg från länken i mitt förra inlägg att på total batteritid i ett skärmintensivt batteritest så var det mindre än 2% skillnad i batteritid mellan 1440P och 1080P. Du får gärna presentera några siffror som säger annat istället för att försöka finta med siffror om framebuffern. Det kanske funkar på andra, men inte på mig. Jag har hårda siffror från ett riktigt test. Du har enkelt motbevisade hypoteser.

Permalänk
Skrivet av Aleshi:

Nej, det syns lika mycket på alla telefoner med lika stora subpixlar. Om man vill förstå vad jag menar så vet man att det är precis det som gör att man direkt ser om något är en skärm och inte en verklig bild.

Och du kan prata framebuffer om du vill, men får intrycket att du försöker finta lite här, har extremt svårt att tro att en SoCs L3 nästan uteslutande används som framebuffer. Så fort man tar upp telefonen för att göra något så måste den läsa från RAM oavsett var den har framebuffern. Om din hypotes skulle ha någon som helst sanningshalt så skulle vi se "laggigheten" i varenda Anrdoid-lur utan tillräcklig L3, vilket så vitt jag vet är 100% av dem. Så är det inte. Utöver det så skulle vi se det mest hela tiden då det skulle vara ett problem som är där oavsett belastning i övrigt. Det är inte så felet beter sig. Och sist men inte minst skulle vi se det på varenda Apple-produkt som inte har en A8- eller A9-processor, vilket vi inte gör. Finns gott om både Android- och Apple-lurar som presterar ypperligt i gränssnittet utan L3. Och i de fall där de inte gör det så pekar inte beteendet det minsta på problem med framebuffern.
Bandbredden på 24,8GB/s räcker mer än väl till en framebuffer på sketna 14MB. Och exemplen ovan visar att det inte ligger någon som helst grund för dina hypoteser. Du försöker i ditt klassiska manér finta bort diskussionen i hopp om att man inte ska hänga med i svängarna när du försöker fördjupa. Det är viktigare att vinna diskussionen än att tro på det man själv säger tydligen.

Vi såg från länken i mitt förra inlägg att på total batteritid i ett skärmintensivt batteritest så var det mindre än 2% skillnad i batteritid mellan 1440P och 1080P. Du får gärna presentera några siffror som säger annat istället för att försöka finta med siffror om framebuffern. Det kanske funkar på andra, men inte på mig. Jag har hårda siffror från ett riktigt test. Du har enkelt motbevisade hypoteser.

Är inte expert. Men om man tar Nexus mobiler så lider inte dessa av lagg vad jag fått höra.

Problemet är oftast att vissa tillverkare har ett för tungt ui, så hårdvaran orkar inte med.

G3 hade vist lagg, men det var för gpu:n inte var gjord för den upplösningen. G4 ska inte ha några bekymmer, sen batteri tid vet jag dock inte exakt (det är också rätt svårt att mätta det realistiskt).

Så finns många saker som spelar in, sen har väll ips paneler bakgrunds belysning? Så den har ju inte ljus för varje pixel, som oled har.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av Broken-arrow:

Är inte expert. Men om man tar Nexus mobiler så lider inte dessa av lagg vad jag fått höra.

Problemet är oftast att vissa tillverkare har ett för tungt ui, så hårdvaran orkar inte med.

G3 hade vist lagg, men det var för gpu:n inte var gjord för den upplösningen. G4 ska inte ha några bekymmer, sen batteri tid vet jag dock inte exakt (det är också rätt svårt att mätta det realistiskt).

Nä det varierar väldigt mycket med UI, det är inga som helst prestandaproblem på de allra flesta Androidlurar som inte är riktigt budget nuförtiden. Och ingen Android-lur som jag känner till får plats med framebuffern i cachen. Så det kan verkligen inte vara något sådant. Ej heller lider iPhones som inte heller får plats med framebuffern i cachen.
Och det går att mäta, man kan köra en telefon med 1440P i 1080P, man märker tydligt att det lyckats då resultaten i grafikbenches ökar, så belastningen på GPU har onekligen minskat, men ändå så ökar inte batteritiden mer än försumbart.

Skrivet av Broken-arrow:

Så finns många saker som spelar in, sen har väll ips paneler bakgrunds belysning? Så den har ju inte ljus för varje pixel, som oled har.

Skickades från m.sweclockers.com

Ja LCD (som inkluderar IPS) har bakgrundsbelysning. Men i båda fallen finns det subpixlar. Varje pixel består av en röd, en grön, en blå och ibland en vit subpixel. Det gör att en skärm som t.ex. ska visa en helt vit bild ser annorlunda än en vit plastskiva som är bakgrundsbelyst, framförallt om skärmen inte är 100% ren. Små små prickar i RGB-färger syns överallt om man tänker på det. Det försvinner mer och mer ju högre upplösningen blir.

Permalänk
Datavetare
Skrivet av Aleshi:

Nej, det syns lika mycket på alla telefoner med lika stora subpixlar. Om man vill förstå vad jag menar så vet man att det är precis det som gör att man direkt ser om något är en skärm och inte en verklig bild.

Och du kan prata framebuffer om du vill, men får intrycket att du försöker finta lite här, har extremt svårt att tro att en SoCs L3 nästan uteslutande används som framebuffer. Så fort man tar upp telefonen för att göra något så måste den läsa från RAM oavsett var den har framebuffern. Om din hypotes skulle ha någon som helst sanningshalt så skulle vi se "laggigheten" i varenda Anrdoid-lur utan tillräcklig L3, vilket så vitt jag vet är 100% av dem. Så är det inte. Utöver det så skulle vi se det mest hela tiden då det skulle vara ett problem som är där oavsett belastning i övrigt. Det är inte så felet beter sig. Och sist men inte minst skulle vi se det på varenda Apple-produkt som inte har en A8- eller A9-processor, vilket vi inte gör. Finns gott om både Android- och Apple-lurar som presterar ypperligt i gränssnittet utan L3. Och i de fall där de inte gör det så pekar inte beteendet det minsta på problem med framebuffern.
Bandbredden på 24,8GB/s räcker mer än väl till en framebuffer på sketna 14MB. Och exemplen ovan visar att det inte ligger någon som helst grund för dina hypoteser. Du försöker i ditt klassiska manér finta bort diskussionen i hopp om att man inte ska hänga med i svängarna när du försöker fördjupa. Det är viktigare att vinna diskussionen än att tro på det man själv säger tydligen.

Vi såg från länken i mitt förra inlägg att på total batteritid i ett skärmintensivt batteritest så var det mindre än 2% skillnad i batteritid mellan 1440P och 1080P. Du får gärna presentera några siffror som säger annat istället för att försöka finta med siffror om framebuffern. Det kanske funkar på andra, men inte på mig. Jag har hårda siffror från ett riktigt test. Du har enkelt motbevisade hypoteser.

Huvudfrågan här är egentligen: kan någon hävda att den upplösning som Iphone använder är för låg? Om svaret på den frågan är "nej" så är vi ju redan överens, enda vi träter om då är exakt hur mycket sämre det blir med onödigt hög upplösning. Har då aldrig hört någon klaga på just upplösningen och några regnbågar har jag inte sett eller hört andra klaga på (men vet exakt vilken effekt du menar då jag sett den på andra skärmar).

Antar att du spelar lite dum nu, är det inte uppenbart varför ditt sätt att bevisa att jag har fel inte fungerar? Det går att jämföra olika Iphones därför att man där kan köra exakt samma programvara på alla enheter. Att dra jämförelsen mot Android fungerar inte då det är långt mer än bara upplösningen som ändrats. Min observation gällde bara Iphone6 vs Iphone6+, i 6S versionerna verkar GPUn har blivit så pass stark att det kvittar givet den "låga" upplösning Iphone kör. Vidare skrev också att min övertygelse är att Android är sedan version 5 mer effektiv än iOS (som gått bakåt i effektivitet de två senaste versionerna känns det som). Apple kan dock kompensera med långt bättre systemkrets, ingen Android matchar ännu CPU-delen i Iphone5s...

Målet med "project butter" i Android var att allt i UI skulle gå i 60 FPS, om det nu bara behövs <10 % för att dra runt 2560x1440 borde alla lurar klarar det utan att svettas. Ändå har det visat sig att i många fall får man i bästa fall 30 FPS på de flesta enheter. Det kanske handlar om <10% i genomsnittlig last i något "typiskt" fall, mobil GPUer får jobba rätt mycket mer än 10% för att dra runt ens enkla saker i 2560x1440. GPUn i Core M är till och med snabbare än GPU i Apples systemkretsar och de är i sin tur snabbare än de snabbaste Android enheter. Core M orkar dra runt Windows i 3200x1800, men det är ungefär gränsen för vad som är möjligt.

Och för att få en känsla för vad upplösning gör för batteritid. Finns ju laptops där enda skillnaden mellan två modeller är skärmen, 1920x1080 och 3200x1800 (t.ex. ZenBook och XPS13). Hur kommer det sig att det skiljer ett par timmar i batteritid mellan dessa modeller om högre upplösning inte ändrar strömförbrukningen speciellt mycket?

Edit: Sedan 14 MB per frame, d.v.s. strax över 200 MB/s om "project butter" hade lyckats, förutsatt att man antar en "overdraw factor" (hur många gånger varje pixels läses/skrives per frame) på ett vilket är rätt orealistiskt. Ändå långt ifrån kapaciteten, men att skyffla data till/från RAM äter ström.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ozzed:

Utbytbart batteri, minneskortsplats och vattentålighet är ett krav från min sida. Sen gör det inget om telefonen är i plast heller för den delen. Finns ingen praktisk nytta med glas och metallhölje. Jag tycker det känns lite "finansvalp" om det typ.. Nej min S4 får nog hänga med ett tag till.

MEN dock ska de ha plus om det verkligen är sant att de fortsätter utveckla kameran. Mer ljus behövs ju, särskillt såhär års

Ja, min S4 känns fortfarande som "(med råge)tillräckligt bra" för allt jag har den till.
Dock får man väl erkänna att just egenskaperna för att ta foto inomhus utan blixt skulle kunna vara bättre.

Om ryktet stämmer att S7 ska ha möjlighet för minneskort är det en positiv nyhet. Jag har ofta med mig mobilen som enda kamera när jag är på semester i fjäll, kust, etc. Även om jag försöker göra backup på bilder ofta så har det hänt att mobiler tappats i vatten och då kan det vara gott med ett vattentätt minneskort med bilderna på...

Tidigare hade jag en Nexus 4, som även den hade tillräckligt bra specs för att kunna köra "allt", den hade dock lite för låg upplösning (bara 1280x768 = 331ppi) och en lite för dålig kamera, så Galaxy S4 kändes som en vettig uppgradering när jag fick den för ett ok pris.

Angående batteri så är det ju ett plus om man kan byta, men min S4 har fortfarande ok batteri tycker jag, klarar 4-5 timmars slösurfande vilket för mig räcker med råge.

Ett större problem att Samsung är så dåliga på att supporta OS med uppdateringar. S4 har landat på 5.0, tycker nog att 5.1 borde kommit och helst 6 också faktiskt...S4 klarar rent hårdvarumässigt Android 6 men jag antar att Samsung prioriterar nyare mobilmodeller. Trist om inte annat av säkerhetsskäl. (S4 mini såldes förra året, kanske även nu, och den ligger på 4.4 - helt oacceptabelt men vi får väl uppgradera vår med CyanogenMod nån dag)

Jag tror egentligen att min S4 stupar på operativsystemet innan batteriet lägger av. Kör rootat och slimmat original-ROM, men i längden håller det inte att ligga på 5.0, får se om CM13 (Android 6) kanske blir stabilt nog för funka smärtfritt.

Visa signatur

ASUS P8Z68-v Pro i7 2600K@4.5, 32GB RAM, RX 580, 4K Samsung u24e590, Intel SSD, Seagate SSHD, LG BH16NS55 BD/RW, MacOS Monterey, Win 10+11, Linux Mint

Macbook Pro 2009, 8GB RAM, SSD, MacOS Catalina + Windows 7

Permalänk
Medlem
Skrivet av Pirum:

Ja, min S4 känns fortfarande som "(med råge)tillräckligt bra" för allt jag har den till.
Dock får man väl erkänna att just egenskaperna för att ta foto inomhus utan blixt skulle kunna vara bättre.

Om ryktet stämmer att S7 ska ha möjlighet för minneskort är det en positiv nyhet. Jag har ofta med mig mobilen som enda kamera när jag är på semester i fjäll, kust, etc. Även om jag försöker göra backup på bilder ofta så har det hänt att mobiler tappats i vatten och då kan det vara gott med ett vattentätt minneskort med bilderna på...

Tidigare hade jag en Nexus 4, som även den hade tillräckligt bra specs för att kunna köra "allt", den hade dock lite för låg upplösning (bara 1280x768 = 331ppi) och en lite för dålig kamera, så Galaxy S4 kändes som en vettig uppgradering när jag fick den för ett ok pris.

Angående batteri så är det ju ett plus om man kan byta, men min S4 har fortfarande ok batteri tycker jag, klarar 4-5 timmars slösurfande vilket för mig räcker med råge.

Ett större problem att Samsung är så dåliga på att supporta OS med uppdateringar. S4 har landat på 5.0, tycker nog att 5.1 borde kommit och helst 6 också faktiskt...S4 klarar rent hårdvarumässigt Android 6 men jag antar att Samsung prioriterar nyare mobilmodeller. Trist om inte annat av säkerhetsskäl. (S4 mini såldes förra året, kanske även nu, och den ligger på 4.4 - helt oacceptabelt men vi får väl uppgradera vår med CyanogenMod nån dag)

Jag tror egentligen att min S4 stupar på operativsystemet innan batteriet lägger av. Kör rootat och slimmat original-ROM, men i längden håller det inte att ligga på 5.0, får se om CM13 (Android 6) kanske blir stabilt nog för funka smärtfritt.

Jag får fortfarande "security policy updates" med hyffsat jämna mellanrumså det känns ju bra, men jo absolut. Google jobbar ju på att varje ny verksion av Android ska kunna trökas in i billigare (läs sämre) lurar, så att S4 skulle vara "för gammal" för nyare versioner är något de bara säger för att de hellre ser att man köper ny telefon, men det finns ju mods, som sagt.. Dock är jag själv rätt förtjust i TouchWiz, även om jag verkar ensam om det då det är allmänt hatat, så det blir ju en nackdel om man kör CM sen någon gång.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Skrivet av Pirum:

Ja, min S4 känns fortfarande som "(med råge)tillräckligt bra" för allt jag har den till.
Dock får man väl erkänna att just egenskaperna för att ta foto inomhus utan blixt skulle kunna vara bättre.

Om ryktet stämmer att S7 ska ha möjlighet för minneskort är det en positiv nyhet. Jag har ofta med mig mobilen som enda kamera när jag är på semester i fjäll, kust, etc. Även om jag försöker göra backup på bilder ofta så har det hänt att mobiler tappats i vatten och då kan det vara gott med ett vattentätt minneskort med bilderna på...

Tidigare hade jag en Nexus 4, som även den hade tillräckligt bra specs för att kunna köra "allt", den hade dock lite för låg upplösning (bara 1280x768 = 331ppi) och en lite för dålig kamera, så Galaxy S4 kändes som en vettig uppgradering när jag fick den för ett ok pris.

Angående batteri så är det ju ett plus om man kan byta, men min S4 har fortfarande ok batteri tycker jag, klarar 4-5 timmars slösurfande vilket för mig räcker med råge.

Ett större problem att Samsung är så dåliga på att supporta OS med uppdateringar. S4 har landat på 5.0, tycker nog att 5.1 borde kommit och helst 6 också faktiskt...S4 klarar rent hårdvarumässigt Android 6 men jag antar att Samsung prioriterar nyare mobilmodeller. Trist om inte annat av säkerhetsskäl. (S4 mini såldes förra året, kanske även nu, och den ligger på 4.4 - helt oacceptabelt men vi får väl uppgradera vår med CyanogenMod nån dag)

Jag tror egentligen att min S4 stupar på operativsystemet innan batteriet lägger av. Kör rootat och slimmat original-ROM, men i längden håller det inte att ligga på 5.0, får se om CM13 (Android 6) kanske blir stabilt nog för funka smärtfritt.

Även L funkar på s3, men Samsung kan ju inte göra mjukvara.

Custom lyckas bra mycket bättre än Samsung.

Bytt batteri på min mobil, tror åldern är 3 år nu.

Men problemet är att jag fort växte ur mobilen (den orkar inte med mina krav). Med custom står jag ut i alla fall.

Skickades från m.sweclockers.com

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Skrivet av KingCobra:

Samsung är smarta. Först försöker de sälja gamla mobiler med ny skärm. Det funkade tillomed s5. Den "floppade" och Samsung fick tänka om. Då tillverkade de s6 i metall och glas, men tog bort SD kortplats och utbytbart batteri.
Nu lägger de tillaka SD kort möjligheten och på nästa års modell kommer troligtvis utbytbart batteri tillbaks.
Av en " ny" sak fick de sälja 3 generationer. Det enda som skiljer s8 från s5 (om den får utbytbart batteri) är materialet den tillverkas i.

Om du dragit isär en s6:a och typ en s3a eller s4a någon gång så ser du enorma skillnader. Designen av s6 hade sett radikalt annorlunda ut med SD-kort och utbytbart batteri. Det finns en anledning att i princip alla som bygger i glas och metall limmar igen telefonerna. Sen hade jag personligen gärna sett en något tjockare telefon med större batteri (batteritiden är helt enkelt det stora minuset med s6-familjen).

Sen är det enorm skillnad på komponenterna också. Processorn i S6 är mil mer effektiv och snabbare än den i exempelvis S4. Ok, visst är det så att få appar använder detta på ett vettigt sätt. Men som enhet betraktad är det enorm skillnad.

Skickades från m.sweclockers.com

Visa signatur

Dator: Corsair 250D Mini Itx | Corsair 600W 80 Plus Bronze | MSI Z77IA-S01 mITX | Intel Core i7 3770k @ 4,4 ghz | Kingston HyperX blu 8GB 1600Mhz | EVGA GTX 1080 Gaming | Corsair H60 | 120 GB Samsung SSD | 2TB Toshiba HDD | Windows 10 64x bit.
Kringutrustning: EIZO Foris FS2333 | Samsung UE55KS8005 |

Permalänk
Skrivet av seraj5:

1440p är så onödigt på så liten skräm, drar bara mer ström.

Skärmen på S6 är fullständigt fenomenal dock. Övertygad om att den är största försäljningsanledningen. Amoled i den upplösningen är nästan omöjligt att nedgradera från.

Skickades från m.sweclockers.com

Visa signatur

Dator: Corsair 250D Mini Itx | Corsair 600W 80 Plus Bronze | MSI Z77IA-S01 mITX | Intel Core i7 3770k @ 4,4 ghz | Kingston HyperX blu 8GB 1600Mhz | EVGA GTX 1080 Gaming | Corsair H60 | 120 GB Samsung SSD | 2TB Toshiba HDD | Windows 10 64x bit.
Kringutrustning: EIZO Foris FS2333 | Samsung UE55KS8005 |

Permalänk
Skrivet av backfeed:

"Istället för att använda plastmaterial [...] används istället [...] metall. Bättre material [...]"

Eller sämre. Metall är ett synnerligen opassande materialval för skalet till en telefon. Det och att batteriet inte längre kan kommas åt gjorde att jag valde en S5 framför S6, och i framtiden blir det heller ingen Samsung för mig om de inte slutar med detta (vilket de knappast gör förrän om Apple gör det).

För mig är det helt tvärtom, hade gärna haft SD-plats men hade de fortsatt med plast har jag definitivt valt HTC i stället. Med större batteri hade dessutom utbytbart inneburit att luren blivit bra mycket tjockare. Inbyggt batteri är klart mer platseffetivt.

Skickades från m.sweclockers.com

Visa signatur

Dator: Corsair 250D Mini Itx | Corsair 600W 80 Plus Bronze | MSI Z77IA-S01 mITX | Intel Core i7 3770k @ 4,4 ghz | Kingston HyperX blu 8GB 1600Mhz | EVGA GTX 1080 Gaming | Corsair H60 | 120 GB Samsung SSD | 2TB Toshiba HDD | Windows 10 64x bit.
Kringutrustning: EIZO Foris FS2333 | Samsung UE55KS8005 |

Permalänk
Medlem
Skrivet av Yoshman:

Huvudfrågan här är egentligen: kan någon hävda att den upplösning som Iphone använder är för låg? Om svaret på den frågan är "nej" så är vi ju redan överens, enda vi träter om då är exakt hur mycket sämre det blir med onödigt hög upplösning. Har då aldrig hört någon klaga på just upplösningen och några regnbågar har jag inte sett eller hört andra klaga på (men vet exakt vilken effekt du menar då jag sett den på andra skärmar).

Då är det väl en smaksak? "Skärmeffekten" syns även på 400-500 PPI. Men den blir mindre och mindre ju högre upplösning man har. Och om det inte finns någon kostnad för användaren så är det väl inte så mycket snack om saken om man ser skillnad. Enda nackdelen är ju lägre prestanda vid tungdrivna applikationer. Och personligen spelar jag inte på telefonen.

Skrivet av Yoshman:

Antar att du spelar lite dum nu, är det inte uppenbart varför ditt sätt att bevisa att jag har fel inte fungerar? Det går att jämföra olika Iphones därför att man där kan köra exakt samma programvara på alla enheter. Att dra jämförelsen mot Android fungerar inte då det är långt mer än bara upplösningen som ändrats. Min observation gällde bara Iphone6 vs Iphone6+, i 6S versionerna verkar GPUn har blivit så pass stark att det kvittar givet den "låga" upplösning Iphone kör. Vidare skrev också att min övertygelse är att Android är sedan version 5 mer effektiv än iOS (som gått bakåt i effektivitet de två senaste versionerna känns det som). Apple kan dock kompensera med långt bättre systemkrets, ingen Android matchar ännu CPU-delen i Iphone5s...

Om ditt snack om L3 skulle vara det minsta relevant för flytet i en telefon så skulle man se prestandaskillnad mellan telefoner med L3 och utan L3. Det gör man inte. Och just därför måste man jämföra mellan olika iPhonemodeller. Och just därför borde man se prestandaproblem på samtliga Androidlurar. Eftersom det inte syns någonsomhelst skillnad så är ditt snack om L3 fullkomligt irrelevant för diskussionen utan mest bara en avledningsmanöver.

Skrivet av Yoshman:

Målet med "project butter" i Android var att allt i UI skulle gå i 60 FPS, om det nu bara behövs <10 % för att dra runt 2560x1440 borde alla lurar klarar det utan att svettas. Ändå har det visat sig att i många fall får man i bästa fall 30 FPS på de flesta enheter. Det kanske handlar om <10% i genomsnittlig last i något "typiskt" fall, mobil GPUer får jobba rätt mycket mer än 10% för att dra runt ens enkla saker i 2560x1440. GPUn i Core M är till och med snabbare än GPU i Apples systemkretsar och de är i sin tur snabbare än de snabbaste Android enheter. Core M orkar dra runt Windows i 3200x1800, men det är ungefär gränsen för vad som är möjligt.

Uppenbarligen så är det inte ett stort problem eftersom man inte ser någon signifikant skillnad i batteritid. Du har fortfarande inte presenterat några sådana siffror, bara avledningsmanövrar.

Skrivet av Yoshman:

Och för att få en känsla för vad upplösning gör för batteritid. Finns ju laptops där enda skillnaden mellan två modeller är skärmen, 1920x1080 och 3200x1800 (t.ex. ZenBook och XPS13). Hur kommer det sig att det skiljer ett par timmar i batteritid mellan dessa modeller om högre upplösning inte ändrar strömförbrukningen speciellt mycket?

Enda skillnaden? Det är helt olika datorer från helt olika märken. Nu är det ju bevisat att det är viktigare för dig att finta bort för att "vinna" diskussionen snarare än att tro på dina egna argument. Sedan har du helt olika skärmar med helt olika specifikationer i övrigt. Varför finta iväg på något fullkomligt ojämförbart när man har siffror svart på vitt redan?

Skrivet av Yoshman:

Edit: Sedan 14 MB per frame, d.v.s. strax över 200 MB/s om "project butter" hade lyckats, förutsatt att man antar en "overdraw factor" (hur många gånger varje pixels läses/skrives per frame) på ett vilket är rätt orealistiskt. Ändå långt ifrån kapaciteten, men att skyffla data till/från RAM äter ström.

Och 200MB/s är så långt ifrån kapacitetstaket att det lär vara precis samma låga powerstate på minnet oavsett om man kör 1080P eller 1440P.

Har känslan av att du har en iPhone och försöker försvara den låga upplösningen. Precis som applefolk försökte försvara 3,5" skärmar hur länge som helst innan stora skärmar plötsligt var värsta grejen.

Permalänk
Medlem
Skrivet av fermia:

Sköter man om batteriet och aldrig låta den gå under 20% håller batteriet länge.
Har en S3 som jag haft i många år nu och den har samma kapacitet i batteriet som det vore nytt.

Laddar den ofta och korta perioder oftast inte ens till 100%

Det här är en nyhet för mig. Är det vedertaget att batteriet i praktiken inte slits ut om man aldrig går under 20%?

Permalänk
Datavetare
Skrivet av Aleshi:

Då är det väl en smaksak? "Skärmeffekten" syns även på 400-500 PPI. Men den blir mindre och mindre ju högre upplösning man har. Och om det inte finns någon kostnad för användaren så är det väl inte så mycket snack om saken om man ser skillnad. Enda nackdelen är ju lägre prestanda vid tungdrivna applikationer. Och personligen spelar jag inte på telefonen.
Om ditt snack om L3 skulle vara det minsta relevant för flytet i en telefon så skulle man se prestandaskillnad mellan telefoner med L3 och utan L3. Det gör man inte. Och just därför måste man jämföra mellan olika iPhonemodeller. Och just därför borde man se prestandaproblem på samtliga Androidlurar. Eftersom det inte syns någonsomhelst skillnad så är ditt snack om L3 fullkomligt irrelevant för diskussionen utan mest bara en avledningsmanöver.
Uppenbarligen så är det inte ett stort problem eftersom man inte ser någon signifikant skillnad i batteritid. Du har fortfarande inte presenterat några sådana siffror, bara avledningsmanövrar.
Enda skillnaden? Det är helt olika datorer från helt olika märken. Nu är det ju bevisat att det är viktigare för dig att finta bort för att "vinna" diskussionen snarare än att tro på dina egna argument. Sedan har du helt olika skärmar med helt olika specifikationer i övrigt. Varför finta iväg på något fullkomligt ojämförbart när man har siffror svart på vitt redan?

Och 200MB/s är så långt ifrån kapacitetstaket att det lär vara precis samma låga powerstate på minnet oavsett om man kör 1080P eller 1440P.

Har känslan av att du har en iPhone och försöker försvara den låga upplösningen. Precis som applefolk försökte försvara 3,5" skärmar hur länge som helst innan stora skärmar plötsligt var värsta grejen.

Angående mina jämförelser: just för att de ska ha så lite fel som möjligt jämförde jag

  1. Iphone6 med Iphone6+, dessa kan jämföras de de kör samma program, samma OS, har samma CPU, har samma GPU. Det som skiljer är upplösning samt marginellt högre klockning på 6+

  2. jämförde XPS13 med 1920x1080 med samma XPS13 modell fast med 3200x1800 skärm

  3. för att visa att det inte är en engångsföreteelse pekade jag på att samma effekt kan man även se på Zenbook med 1920x1080 när den ställs mot samma Zenbook fast med 3200x1080 skärm

Tror tyvärr man inte kan göra en mer äpplen mot äpplen jämförelse med någon Android-telefon. Går inte direkt att jämföra en sådan sak som batteritid mellan Iphone6 och Iphone6+ heller då den senare dels har större skärm, dels har större batteri så går inte att separera ut effekten av upplösningen.

Vad har "powerstate" med att det är ett faktum att minnesaccesser mot RAM är runt en tiopotens mer energikrävande än motsvarande mot cache? Det finns ett hål i mitt tes just i detta fall och det är att jag inte riktigt vet (och har inte heller hävdat att jag vet) hur stor den absoluta effekten är för accesser mot RAM är. Om absolutvärdet är helt irrelevant jämfört med t.ex. den effekt skärm eller något annat drar så spelar det inte så stor roll att det är en tiopotens lägre mot cache. Nu tror jag effekten för minnesaccesser är signifikant då jag läst att mängden RAM man stoppar in i dagens telefoner är mer begränsad av hur mycket ström det drar än kostnad.

Om GPU kapaciteten inte är i närheten att vara flaskhals, varför nådde man då inte målet att alltid ha minst 60 FPS med "project butter"? Iphone med sin bedrövligt låga upplösning når detta väldigt nära 100% av tiden.

Om du läst vad jag tycker om iOS så borde det vara helt uppenbart att jag inte försöker försvara Iphone p.g.a. av kärlek till Apple. Jag tycker Android är bättre än iOS, tycker iOS har blivit sämre i de senaste versionerna. Men på det stora hela är det tyvärr så att Apples HW är så brutalt mycket bättre designad, då främst deras systemkrets, att jag trots iOS ändå tycker Iphone blir det bättre valet. Drömmen vore ju en Iphone (eller annan telefon med Apples systemkrets) körades Android!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av arch:

Det här är en nyhet för mig. Är det vedertaget att batteriet i praktiken inte slits ut om man aldrig går under 20%?

Dagens batterier ska man aldrig köra helt slut..Bättre med många korta laddningar fick jag tipset av Samsung

Visa signatur

╔ Corsair 32GB DDR4 CL15 3000Mhz VENGEANCE RGB ■
╠ ASUS-ROG-MAXIMUS-X-HERO ■ ASUS-ROG-STRIX-RTX2070-OC ■ i7 8700K
╠ DeepCool Captain 280EX RGB ■ 2x Samsung 970 EVO 500GB■
╠ Deepcool NEW ARK 90 Electro Limited Edition NR58 ■ XFX PRO1000W Limited Black Edition
╚ Samsung SE790C 34" Ultrawide 3440x1440@75Hz

Permalänk
Medlem
Skrivet av Yoshman:

Angående mina jämförelser: just för att de ska ha så lite fel som möjligt jämförde jag

Iphone6 med Iphone6+, dessa kan jämföras de de kör samma program, samma OS, har samma CPU, har samma GPU. Det som skiljer är upplösning samt marginellt högre klockning på 6+

Du framställde Apples L3 som något som förklarade varför Apple skulle ha mindre "lagg" genom att den skulle användas som framebuffer. Då borde man inte se detta laggfriare beteende hos Appletelefoner utan L3. Eller hur? Därför kan du jämföra prestandan på en rad Apple-apprater, det stannar inte på något vis vid iPhone 6, och eftersom vi kan få samma "laggfria" upplevelse på mer eller mindre alla Apple-telefoner och plattor så kan vi klart konstatera att ditt svammel om L3 som förklaring till det hela är totalt grundlöst. Nu försöker du såklart finta bort det hela genom att låtsas att mitt argument om detta skulle handla om batteritidsjämförelser mellan 6 och 6+. Det är bara oärlig diskussionsmetod. Du försöker fortfarande finta bort diskussionen istället för att hålla dig till de argument som framförs. Argumentet med jämförelser mellan olika telefoner gällde ju att Apple skulle ha bättre flyt. Eller hur?

Skrivet av Yoshman:

jämförde XPS13 med 1920x1080 med samma XPS13 modell fast med 3200x1800 skärm

Då får du allt visa att det stämmer. XPS13 har iaf samma batteritid oavsett skärm:
http://www.prisjakt.nu/produkt.php?j=3425193,3483941

Återigen så säger du saker, men backar inte upp det med faktiska länkar. Och du blundar FORTFARANDE för när jag visade en länk med ett ganska skärmintensivt test på en androidlur som visade på mindre än 2% skillnad i batteritid vid 1440P och 1080P.

Skrivet av Yoshman:

för att visa att det inte är en engångsföreteelse pekade jag på att samma effekt kan man även se på Zenbook med 1920x1080 när den ställs mot samma Zenbook fast med 3200x1080 skärm

Återigen, sluta komma med tomma påståenden och börja istället backa upp med länkar. Det enda jag hittat i frågan hittills om XPS 13 visar att du har helt fel. Och angående Zenbook så säljs de med olika batterier så jag har inte hittat 2 som är tillräckligt lika för en jämförelse. Och oavsett vilket så ÄR det äpplen och päron. Eftersom du pratar om datorer med LCD-skärmar. LCD-skärmar drar olika mycket ström beroende på upplösning, men också beroende på modell.
Som kuriosa kan jag nämna att jag har varit med om att en dator sålts med två olika skärmpaneler utan att det gått att se någon skillnad på datorns produktnummer eller någonting, inte ens när man kollar upp hårdvarukonfigurationen hos datortillverkaren kan man se att det är olika tillverkare på skärmarna. Man ser inte ens skillnaden med blotta ögat om man inte öppnar upp och studerar deras kretskort eller klisterlappar på panelernas baksida. Ändå har de helt olika minimum- och maximum-ljusstyrkor, på två datorer av EXAKT samma modell i övrigt ner till sista 3 siffrorna i serienumret. Vilket innebär att de klarar batteritest helt olika.
Kör man med två olika paneler med olika upplösningar på en dator så drar de olika mycket ström för det är så LCD-skärmar fungerar, och för att det omöjligen är samma modell av skärm. Trots det förväntar jag mig försumbara skillnader. Poängen är ändå att det är äpplen och päron när det kommer till upplösningens inverkan på batteritiden på mobiltelefoner med OLED-skärmar. OLED lider ju som bekant inte av problemet med att ljuset måste skina igenom olika täta paneler vid olika pixeltätheter. Så även OM det skulle finnas batteritidsskillnader mellan i övrigt identiska Zenbookmodeller (vilket du hade fel om med XPS 13) så säger det ingenting. Eftersom det är stor risk att detta snarare beror på att det är olika paneler. Testa istället en enda dator med 1440P-skärm mot sig själv med upplösningen sänkt till 1080P, se om du ser någon skillnad. Som med mitt telefontest du ignorerar.

Skrivet av Yoshman:

Tror tyvärr man inte kan göra en mer äpplen mot äpplen jämförelse med någon Android-telefon. Går inte direkt att jämföra en sådan sak som batteritid mellan Iphone6 och Iphone6+ heller då den senare dels har större skärm, dels har större batteri så går inte att separera ut effekten av upplösningen.

Nej, eftersom du totalignorerar när jag presenterar siffror svart på vitt. Du vill svamla iväg om cachenivåer helt dedikerade till framebuffers och förbrukning på RAM-minnen.

Skrivet av Yoshman:

Vad har "powerstate" med att det är ett faktum att minnesaccesser mot RAM är runt en tiopotens mer energikrävande än motsvarande mot cache? Det finns ett hål i mitt tes just i detta fall och det är att jag inte riktigt vet (och har inte heller hävdat att jag vet) hur stor den absoluta effekten är för accesser mot RAM är. Om absolutvärdet är helt irrelevant jämfört med t.ex. den effekt skärm eller något annat drar så spelar det inte så stor roll att det är en tiopotens lägre mot cache. Nu tror jag effekten för minnesaccesser är signifikant då jag läst att mängden RAM man stoppar in i dagens telefoner är mer begränsad av hur mycket ström det drar än kostnad.

När du använder din telefon är inte RAM helt i vila, du slipper inte RAM-accesser bara för att du har en L3-cache även OM den nu var helt dedikerad till framebuffer. Och med de ynka bandbreddskraven så kommer det inte göra någon som helst märkbar skillnad i RAM-minnets energiförbrukning och än mindre i telefonens förbrukning som helhet. Det är bara trams att ta bandbredd och RAM-minnets energiförbrukning med i ekvationen.

Skrivet av Yoshman:

Om GPU kapaciteten inte är i närheten att vara flaskhals, varför nådde man då inte målet att alltid ha minst 60 FPS med "project butter"? Iphone med sin bedrövligt låga upplösning når detta väldigt nära 100% av tiden.

För att man inte tokscrollar stora hemsidor så fort man orkar exakt varje sekund man har en telefon igång. Det är extrema skillnader i belastningen vid normalt användande och de hypotetiska scenarion som skulle ge en GPU dessa prestandaproblem 24/7. Det skulle nog kunna ge märkbar skillnad i batteritid om du tokscrollade hemsidor i 1440P och 1080P exakt hela tiden. Men det är inte så man använder telefoner. Du förstår ju såklart detta, men vad du förstår och inte förstår är ju irrelevant för hur du för diskussionen då du bara ska avleda. Detta är ytterligare en avledning då du mycket väl vet att en GPU inte belastas till särskilt många procent i snitt vid vanligt bruk. Om GPUn låg på 90-100% hela tiden skulle telefonen bli mycket varm.

Permalänk
Skrivet av fermia:

Dagens batterier ska man aldrig köra helt slut..Bättre med många korta laddningar fick jag tipset av Samsung

Du får inte glömma att batterier har ca 1000 laddningscykler också.

Men stämmer att batteriet inte ska bli helt urladdat (därför mobilen stängs av vid 0%, finns ju laddning kvar som ska skydda batteriet).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Datavetare

@Aleshi: Vet inte vad du hittar dina jämförelse kring batteritid, SweClockers har testat XPS13 och modellen med 1920x1080 hade 35% bättre batteritid än 3200x1800 modellen vid surfning, knappast något som lastar GPUn supermycket. Men jag har antagligen fel ändå

Tittar jag på vad som typiskt drar mest ström på min telefon är det webbläsaren, rätt säker att mycket av batteritiden gått åt att scrolla innehållet. Fast det är säker för att det är en Iphone, på andra lurar är upplösningen irrelevant för strömförbrukning.

Angående L3-cachen, om möjligt åk till ett Apple-kapell eller besök storkyrkan i Täby. Lägg Iphone6 och Iphone6+ bredvid varandra, surfa in på en lite "tygre" sida och testa att scrolla runt. Försökt sedan hävda att det inte är klart mjukare på Iphone6. Ett problem här är att 6+ både har högre upplösning + att det är en upplösning som inte får plats i L3 så tyvärr får man två effekter. Men givet att Apples systemkretsar har kraftigare GPU än alla samtida lanserade Android systemkretsar och att 6+ trots allt har "låg" upplösning (1920x1080) skulle jag säga att L3-cachen är en rimlig skillnad. Och det är en cache, GPUn kan precis som CPUn använda hela cachen då en cache innehåller de läsningar/skrivningar som ligger närmast i tiden.

Och du har fortfarande inte kommentera varför Androider inte kan hålla 60 FPS om 2560x1440 inte är det minsta påfrestande för GPUn... Iphone kan hålla 60 FPS i 1344x750.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

@Aleshi: Vet inte vad du hittar dina jämförelse kring batteritid, SweClockers har testat XPS13 och modellen med 1920x1080 hade 35% bättre batteritid än 3200x1800 modellen vid surfning, knappast något som lastar GPUn supermycket. Men jag har antagligen fel ändå
http://cdn.sweclockers.com/artikel/diagram/9508?key=9d3d78f496be4b43f03314562868c60a

Ja men tack, äntligen en länk. Jag hittade inga jämförelser och du gav inte direkt ut vart ifrån din data kom så fick gå på officiella siffror. Men som sagt, LCD-teknik drar mer ström vid högre upplösningar vid samma ljusstyrka, vilket gör det irrelevant för OLED-telefoner. Undrar, hur mycket av det där som är GPU-belastning. Ska vi testa det mer rättvist ska vi nog testa QHD-skärmen i 1080P med så ser vi hur mycket av skillnaden som kan tillskrivas att det är annorlunda hårdvara i datorerna.

Skrivet av Yoshman:

Tittar jag på vad som typiskt drar mest ström på min telefon är det webbläsaren, rätt säker att mycket av batteritiden gått åt att scrolla innehållet. Fast det är säker för att det är en Iphone, på andra lurar är upplösningen irrelevant för strömförbrukning.

Bara om man envisas med att vara totalt blind inför testet jag länkade till.

Skrivet av Yoshman:

Angående L3-cachen, om möjligt åk till ett Apple-kapell eller besök storkyrkan i Täby. Lägg Iphone6 och Iphone6+ bredvid varandra, surfa in på en lite "tygre" sida och testa att scrolla runt. Försökt sedan hävda att det inte är klart mjukare på Iphone6. Ett problem här är att 6+ både har högre upplösning + att det är en upplösning som inte får plats i L3 så tyvärr får man två effekter. Men givet att Apples systemkretsar har kraftigare GPU än alla samtida lanserade Android systemkretsar och att 6+ trots allt har "låg" upplösning (1920x1080) skulle jag säga att L3-cachen är en rimlig skillnad. Och det är en cache, GPUn kan precis som CPUn använda hela cachen då en cache innehåller de läsningar/skrivningar som ligger närmast i tiden.

En annan förklaring kan ju vara att det drar mer GPU-prestanda helt enkelt. För tycker att t.ex. 5S klarar sig utmärkt utan L3. Inte gjort sida-vid-sida jämförelser. Men beror ju på OS också. Med iOS9 så är ju iPhone 6 långsammare på sådant också. Men då kommer vi åter till övertygelsen att telefonen inte behöver göra RAM-accesser vid surfning bara för att den har L3 och därmed kan spara ström på mindre RAM-användning. Du förstår inte varför det antagandet är lite tveksamt? Ja hela SoC:en har tillgång till L3, men att L3 då till 90%+ används till framebuffer och inte har andra funktioner känns ytterst tveksamt. Allra helst som framebufferns blygsamma bandbreddskrav knappast bör kunna ge synliga prestandaproblem.

Skrivet av Yoshman:

Och du har fortfarande inte kommentera varför Androider inte kan hålla 60 FPS om 2560x1440 inte är det minsta påfrestande för GPUn... Iphone kan hålla 60 FPS i 1344x750.

Jo, för att de inte orkar med de mest krävande sakerna, men man använder inte telefonen med att tokscrolla åt alla håll allt man kan oavbrutet tills batteriet dör. Eftersom det är ungefär 4 gånger så tung belastning på androiden så kan du knappast tillskriva det till att Apple har L3, det är ju rimligt att GPU, stötvis blir ganska belastad. Men hur är det överlag? Hur är snittbelastningen? Det är ju det som är relevant för batteritid. Du ser det inte rimligare att en GPU blir överbelastad vid tungt scrollande åt alla håll än att totala bandbreddskraven av detta skulle överstiga ~25GB/s?

Som sagt från telefontestet som du så förbannat envist ignorerar, det var MINDRE ÄN 2% SKILLNAD! Prestandaskillnaden var tydlig, men inte skillnaden i batteritid.

Permalänk
Datavetare
Skrivet av Aleshi:

Ja men tack, äntligen en länk. Jag hittade inga jämförelser och du gav inte direkt ut vart ifrån din data kom så fick gå på officiella siffror. Men som sagt, LCD-teknik drar mer ström vid högre upplösningar vid samma ljusstyrka, vilket gör det irrelevant för OLED-telefoner. Undrar, hur mycket av det där som är GPU-belastning. Ska vi testa det mer rättvist ska vi nog testa QHD-skärmen i 1080P med så ser vi hur mycket av skillnaden som kan tillskrivas att det är annorlunda hårdvara i datorerna.
Bara om man envisas med att vara totalt blind inför testet jag länkade till.
En annan förklaring kan ju vara att det drar mer GPU-prestanda helt enkelt. För tycker att t.ex. 5S klarar sig utmärkt utan L3. Inte gjort sida-vid-sida jämförelser. Men beror ju på OS också. Med iOS9 så är ju iPhone 6 långsammare på sådant också. Men då kommer vi åter till övertygelsen att telefonen inte behöver göra RAM-accesser vid surfning bara för att den har L3 och därmed kan spara ström på mindre RAM-användning. Du förstår inte varför det antagandet är lite tveksamt? Ja hela SoC:en har tillgång till L3, men att L3 då till 90%+ används till framebuffer och inte har andra funktioner känns ytterst tveksamt. Allra helst som framebufferns blygsamma bandbreddskrav knappast bör kunna ge synliga prestandaproblem.

Jo, för att de inte orkar med de mest krävande sakerna, men man använder inte telefonen med att tokscrolla åt alla håll allt man kan oavbrutet tills batteriet dör. Eftersom det är ungefär 4 gånger så tung belastning på androiden så kan du knappast tillskriva det till att Apple har L3, det är ju rimligt att GPU, stötvis blir ganska belastad. Men hur är det överlag? Hur är snittbelastningen? Det är ju det som är relevant för batteritid. Du ser det inte rimligare att en GPU blir överbelastad vid tungt scrollande åt alla håll än att totala bandbreddskraven av detta skulle överstiga ~25GB/s?

Som sagt från telefontestet som du så förbannat envist ignorerar, det var MINDRE ÄN 2% SKILLNAD! Prestandaskillnaden var tydlig, men inte skillnaden i batteritid.

I en LCD skärm har man backlight, hur ljus skärmen är väldigt kopplat till strömförbrukningen så gissar att själva panelen inte skiljer sig jättemycket i strömförbrukning med avseende på upplösning. I fallet Zenbook med Core M ser man ungefär en 19% försämring av batteritid vid surfning när man jämfört 1920x1080 mot 3200x1800 modellen.

Och angående den länk du postade initialt, det är två gigantiska problem med detta test

  1. de beskriver överhuvudtaget inte vad man testar här, om det ingår 3D tester som inte är FPS-begränsade så kommer ju GPUn dra precis lika mycket i lägre upplösning då den bara går på högre FPS

  2. när de kör i 1920x1080 så skalas bilden upp hela tiden, de har överhuvudtaget ingen aning om hur mycket den processen kostar och frågan är hur energioptimerad skalningen är då den väldigt sällan används i praktiken

Här är ett test av GSM Arena som har ett batteritest där man simulerar en användare som surfar, telefonerna är Oppo Find 7 (2560x1440) samt Oppo Find 7a (1920x1080). Tyvärr är HW inte identisk i dessa, Find 7 har 200 MHz högre maxfrekvens på CPU och 1 GB extra RAM men den har också 3000 mAh batteri mot Find 7a med 2800 mAh (ca 7% lägre batterikapacitet i 1920x1080 modellen). Modellen med lägre upplösning klarar 7:09h mot 5:05h vad det gäller surfning, total "Endurance rating" går från 60 timmar till 44 timmar med den högre upplösningen. Inte totalt äpplen mot äpplen, men det handlar trots allt om 40% längre surftid och 36% bättre "Endurance rating" (som i någon mån ska representera "typisk användning") med 1920x1080.

Och angående L3 diskussionen. Sa inte att det inte fungerar utan, sa att om man har L3 och kör en upplösning där "frame-buffer" får plats i L3 så kommer GPUn jobba med effektivt, både sett till total prestanda (mer bandbredd mot L3 än RAM) och energieffektivitet (är långt billigare att läsa från L3). Är inte kostnadsmässigt och tekniskt rimligt att idag stoppa in L3$ stor nog för att hantera 2560x1440, ingen telefon kan i dag ens få plats med 1920x1080 i L3. Att storlek på L3 och storlek på "frame-buffer" i Iphone6 matchar så väl kan vara en slump, men Apple har ändå visat att man kan tänka några extra steg i HW-design så tror att det är mer än en slump.

Men det ovan är ändå mest detaljer: min huvudinvändning är att redan 1920x1080 är mer än tillräckligt och till och med vi två verkar vara överens om att det är fel att ha högre upplösning än nödvändigt. Om inte annat påverkas användarupplevelsen negativt då enheten svara långsammare (hur mycket kan diskuteras) ju högre upplösning den ska driva.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer