Intel Lakefield imponerar inte i prestandatest

Permalänk
Melding Plague

Intel Lakefield imponerar inte i prestandatest

Femkärniga hybridprocessorn som blandar Sunny Cove- och Tremont-kärnor lider av låg enkeltrådad prestanda.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Att tile-baserade renderare misslyckas med en så udda processorlösning är inte konstigt. Ungefär samma sak händer i t ex blender när man väljer blandad CPU+GPU-rendering. Grafikkortets enda "tråd" är ungefär 4-5 gånger snabbare än processorns (i mitt fall) 24 trådar, så är det få tiles kommer en väldigt stor andel av totalen att gå på "långsamma" trådar. I blender löser man det genom att ha väldigt små tiles, men i Cinebench är storleken låst.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

Haha alltid funderat på hur det förhandlats med microsoft om en förändring i schemaläggaren.

Kärnor som "är bättre än andra" har ju funnits sen Intel Turbo Boost 3.0 (Skylake X och jag tror även nya mainstream-processorerna har dessa) och då har Intel skeppat sin egen lilla systemapp som ska dirigera jobb till specifika kärnor. Väldigt inelegant lösning. Kanske är tanken att den appen ska installeras med Lakefield-system också men hoppas egentligen på att Windows förändras snart istället.

Visa signatur

i9-10980XE ~4.6GHz | 128GB DDR4-3600 | ASUS WS X299 PRO | RTX 4070 Super, Founders Edition
i7-7820X 4.8GHz | 64GB DDR4-3200 | ASUS WS X299 PRO | RTX 3080, Founders Edition

Permalänk
Medlem
Skrivet av cyklonen:

Att tile-baserade renderare misslyckas med en så udda processorlösning är inte konstigt. Ungefär samma sak händer i t ex blender när man väljer blandad CPU+GPU-rendering. Grafikkortets enda "tråd" är ungefär 4-5 gånger snabbare än processorns (i mitt fall) 24 trådar, så är det få tiles kommer en väldigt stor andel av totalen att gå på "långsamma" trådar. I blender löser man det genom att ha väldigt små tiles, men i Cinebench är storleken låst.

Fast nu handlade det väl om det test som enbart belastar en kärna och att det ändå spreds över de klena kärnorna när det inte skulle gjort det. Säkert något som kommer korrigeras med windows patch eller drivare från Intel.

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Inaktiv

Allt har har nog runnit ut i sjön. 😉

Permalänk
Medlem
Skrivet av tellus82:

Fast nu handlade det väl om det test som enbart belastar en kärna och att det ändå spreds över de klena kärnorna när det inte skulle gjort det. Säkert något som kommer korrigeras med windows patch eller drivare från Intel.

Ah, missade det.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem

Synd att det inte fungerar bättre, jag tycker arkitekturen med en huvudkärna och flera hjälpkärnor låter sund.
Problemet borde dock ligga i mjukvaran. Skulle det här få fart kanske vi kan få se tripp-trapp-trull kärnkluster.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem

Schemaläggaren var något man fnulade mycket med när man kangade Android roms, en inte helt oviktig funktion

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Ser definitivt ett användingsområde som casual surfdator till mormor till exempel. Om batteritiden är extrem och prislappen väldigt låg. Det är ju trots allt Atom kärnor? Vanliga laptops är för tunga, för varma, eller för dyra.

Hoppas dessa ger ett budget-segment inom ultraportabla.

*edit*
14000 för en galaxy book s? Vad betalar man för?

Permalänk
Medlem

Fast intel har ju varit tydliga med att det är dags att sluta titta på prestandasiffror... 🙄

Permalänk
Medlem

För min 3900X växlar den kärnor också istället för att köra på den snabbaste så det verkar ju mer vara ett beteende hos Cinebench

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Låt oss få se om intel kan få fart på microsoft att göra om sin hantering av kärnor. Nått som AMD fick jobba mycket för.

Permalänk
Medlem
Skrivet av str8forthakill:

Ser definitivt ett användingsområde som casual surfdator till mormor till exempel. Om batteritiden är extrem och prislappen väldigt låg. Det är ju trots allt Atom kärnor? Vanliga laptops är för tunga, för varma, eller för dyra.

Hoppas dessa ger ett budget-segment inom ultraportabla.

*edit*
14000 för en galaxy book s? Vad betalar man för?

OT men asså 14k är ju ingenting?
Du får ju knappt en mobiltelefon under 12k i dagens läge.
En vanlig thinkpad får man ge över 30k för osv.

Tycker 14k verkar vara relativt prisvärt

Visa signatur

Desktop: Corsair Carbide 400C | 3770K@4.4GHz | RX 6700 XT | 32GB DDR3 | RM750X | P8Z77-V Deluxe | 860 EVO 1TB
HTPC/Server: FD Array R2 | Intel i5-650 | Zotac 1156 mini-ITX H55 | 8GB DDR3 | 5st WD RED 3TB RAID 5

Permalänk
Medlem
Skrivet av flukke:

OT men asså 14k är ju ingenting?
Du får ju knappt en mobiltelefon under 12k i dagens läge.
En vanlig thinkpad får man ge över 30k för osv.

Tycker 14k verkar vara relativt prisvärt

Jag tycker i alla fall 14k är mycket pengar men visst det finns mycket dyrare bärbara datorer också. Nu har jag inte använt datorn själv så svårt att avgöra vad den bör kosta.

Vad har du för extrema krav om du knappt får en telefon för 12k? Skulle säga att telefoner för 5-6000 är riktigt bra
Exempelvis nya modellen av iPhone se.

Edit missade ett "inte"

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem
Skrivet av jOnÄTÄn:

Jag tycker i alla fall 14k är mycket pengar men visst det finns mycket dyrare bärbara datorer också. Nu har jag använt datorn själv så svårt att avgöra vad den bör kosta.

Vad har du för extrema krav om du knappt får en telefon för 12k? Skulle säga att telefoner för 5-6000 är riktigt bra
Exempelvis nya modellen av iPhone se.

Ja 14k är inte ett pangpris för denna prestanda, du kan exempelvis få en MS surface platta eller ultrabook för mindre pengar med en i5 4c8t (icke atom baserad) och de är inte heller superprisvärda direkt.

Blir bättre, den har en UFS SSD dessutom...

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Medlem

Vänta bara. Snart kommer Intel ut med tester där de "bevisar" att denna minsann klår Ryzen 9 4900hs i "real world tests".

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem

så atom cpuer är tillbaka... fast nu är de plötsligt "premium"

Visa signatur

i5 10400f | asus b460-f | 2x8gb kingston 2666 | zotac 3060ti | corsair mp510 960gb (OS) + samsung 860 evo 1tb + 2x kingston a400 480gb | corsair vx450 | tr true black | fractal r3 | asus mg279q + lg w2363d | dt 880 | win 10 x64 | deathadder chroma | glorious 3xl | tb impact 600 | oculus quest 2

Permalänk
Föredetting
Skrivet av Herr Kantarell:

För min 3900X växlar den kärnor också istället för att köra på den snabbaste så det verkar ju mer vara ett beteende hos Cinebench

Ett icke-problem i processorer där alla kärnor har samma prestanda. Gigantiskt problem i processorer likt Lakefield där enbart en kärna finns för att dra de tunga lassen.

Visa signatur

Internet of Things. Translation: Anything that connects to the internet, no matter how useless nor how much of a security risk it poses.

Permalänk
Medlem
Skrivet av Herr Kantarell:

För min 3900X växlar den kärnor också istället för att köra på den snabbaste så det verkar ju mer vara ett beteende hos Cinebench

Troligen så är det för att sprida ut energin över substraten, rätt bra faktiskt Om det inte skett så skulle det totala resultatet blivit lägre om en eller några få kärnor nått upp till max temp och klockat ner.

Däremot så är det förödande på Intels lösning med 1 Sunny Cove + 4 Tremont, verkar nästan som att Sunny Cove slår i taket och att Tremont kärnorna tar över för att sänka enrgi/temp.
Något jag i enfald trodde att intels "Hardware Guided Scheduling" tog hand om...

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Datavetare

För bärbara enheter är designen i Lakefield det bästa sättet att skapa något som både reagerar bra på interaktiv användning (som nästan enbart behöver maximal enkeltrådprestanda) samtidigt som man har OK hantering av fall som kan skalas över kärnor (många långsamma kärnor är mer energieffektivt än få starka för dessa fall).

Ställer mig lite frågan till hur vanligt det ändå är att köra något som har någon större skalning över CPU-kärnor på ultra tunna bärbara, men finns säkert någon som ser ett fall. Gissar att PR-värdet är huvudpunkten, att försöka sälja en telefon som inte har 8 CPU-kärnor är tydligen rätt hopplöst i vissa regioner... (Testa monitorera en modern Android-telefon, försökte det själv och lyckades aldrig använda mer än 3 kärnor i något läge på en Samsung S10+ genom att använda de appar jag brukar köra, ofta används bara 1 kärna).

Att designa programvara för asymmetriska system är svårt. Att ha två typer av CPU-kärnor är ändå i detta kontext bland det enklare att få till, Linux löser det hela bl.a. genom att hela tiden försöka klassificera trådar som "compute-bound" eller "I/O-bound". Den senare klassen bör alltid få förtur till de CPU-kärnor med lägst svarstid, d.v.s. de "stora" kärnorna.

Windows verkar just nu köra OS-schemaläggarvärldens motsvarighet till sorteringsvärldens Bogosort med avseende på hantering av asymmetriska CPU-kärnor...

Skrivet av Herr Kantarell:

För min 3900X växlar den kärnor också istället för att köra på den snabbaste så det verkar ju mer vara ett beteende hos Cinebench

Cinebench har inget med saken att göra, det handlar om Windows schemaläggare. Kör jag enkeltrådfallet på Windows blir belastningen en jämn smet över kärnorna (vilket måste betyda att lasten hoppar runt flera gånger per sekund). Samma fall på Ubuntu (+Wine) så håller sig lasten på samma kärna nästan hela tiden, var 3-4 byten under hela körningen.

Skrivet av Meantek:

Ett icke-problem i processorer där alla kärnor har samma prestanda. Gigantiskt problem i processorer likt Lakefield där enbart en kärna finns för att dra de tunga lassen.

Det kan vara ett icke-problem, det beror på vad programmet gör samt hur systemet är designat. En av de absolut dyraste operationerna sett till energi är dataförflyttning. För Cinebench, där "working-set" är så litet att hela körningen nästan uteslutande körs från CPU-cache, är just denna aspekt irrelevant.

Men rent generellt vill man hålla en beräkning lokalt där data finns. Nvidia är väldigt medveten om detta, CUDA (programvaran) kräver att en beräkning som jobbar på ett viss datamängd stannar inom samma SM.

Det trista den här informationen också då säger är att Windows on ARM även lyckades göra en soptippsbrand av big.LITTLE, är det något man lyckats få rätt? Hade faktiskt förvänta mig att just den här aspekten inte skulle vara ett problem för Lakefield då Microsoft borde ha löst detta när man skapade Surface X, den har fyra "stora" kärnor och fyra "små" kärnor -> presterar sämre än den borde p.g.a. av detta problem.

Hur kan inte Microsoft få till detta när man kan titta på Linux där problemet löstest rätt tidigt i big.LITTLE eran? Gissningsvis har även Apple också löst detta då Iphone/Ipad kört en sådana konfiguration ett par generationer, vilket då betyder att man redan löst det för MacOS då iOS och MacOS kör samma OS-kärna.

Skrivet av Bengt-Arne:

Troligen så är det för att sprida ut energin över substraten, rätt bra faktiskt Om det inte skett så skulle det totala resultatet blivit lägre om en eller några få kärnor nått upp till max temp och klockat ner.

Tvärtom faktiskt, att flytta runt beräkningar försämrar energieffektiviteten i det allmänna fallet (kvittar för just CB då det har ett minimalt "working-set" per tråd). Testade lite snabbt att låsa resp. inte låsa CB15 single-thread till en specifik kärna. På en SP4 (i7-6650U) gjorde det noll skillnad, vilket pekar på att värme är ett icke-problem i detta fall -> man borde få samma prestanda då alla kärnor är likvärdiga.

På 3900X ser man någon enstaka procent skillnad mellan att köra på den "bästa" kärnan vs låta det hoppa runt. 3900X har ju fyra CCX som inte delar någon cache, så där kan kostnaden i energi bli en faktor för vissa program om beräkningen skulle hoppa runt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Vet inte hur smart det är av Intel att starta ett flerfronts-krig när de redan förlorar mot AMD där de traditionellt vart starka. Riskerar att bli ett mediokert alternativ i samtliga scenarion.

Permalänk
Medlem
Skrivet av flukke:

En vanlig thinkpad får man ge över 30k för osv.

Det beror ju så klart vad du är ute efter men skulle nog ändå säga att en Thinkpad för 30k är i överkant.

Visa signatur

Stationär: Fractal Design Meshify 2 Compact, Ryzen 7 5700x, MSI MAG B550 Tomahawk, Kingston HyperX Fury 32GB 3600Mhz CL18, Sapphire Radeon RX 5700 Pulse, Kingston A2000 1TB (x2), Seasonic Focus GX 650W, Noctua NH-U14S

NAS: Fractal Design Define R5, Ryzen 3 1200AF, Asus Prime B450M-A, 32GB ECC DDR4 @ 2133Mhz, 5x WD Red 4TB (Raidz2), WD Red 2TB (stripe), TrueNAS 12.0

Permalänk
Medlem

Det har väl knappt aldrig körts program på detta i Windows. Så känns som att microsoft och Intel ska kunna fixa detta. Känns som att det är ett måste med tanke på Apples övergång till ARM. Låter som detta skulle kunna konkurrera om det blir gjort rätt

Permalänk
Medlem
Skrivet av flukke:

OT men asså 14k är ju ingenting?
Du får ju knappt en mobiltelefon under 12k i dagens läge.
En vanlig thinkpad får man ge över 30k för osv.

Tycker 14k verkar vara relativt prisvärt

Går knappt att få en telefon för under 12k? Och 14k är ingenting?
Nu lugnar vi oss lite va.

Jag köpte då min Pixel 3a för ca 200 euro. Skulle aldrig falla mig in att betala en spänn över 4000 kr för en mobil.

Permalänk
Medlem
Skrivet av flukke:

OT men asså 14k är ju ingenting?
Du får ju knappt en mobiltelefon under 12k i dagens läge.
En vanlig thinkpad får man ge över 30k för osv.

Tycker 14k verkar vara relativt prisvärt

Jösses, är du ens medveten om vilken extrambubbla du lever i om du ser på det sådär?

Permalänk
Medlem

@Yoshman Då måste väl varje rendering av varje tile (?) vara en ny tråd och som avslutas iom att den är färdig.
Finns mängder av program som har affinity och fortsätter att köra på samma kärna.
Annars är det ju en väldigt dålig idé att byta kärna (context switching) när man redan har laddat program och cache minnen på en.

Telecom kunden jag jobbar åt nu har haft ett stort problem med detta.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Presterar väl ungefär som förväntat dvs inget vidare.

Tycker laptop med U serien är ett bättre köp om man inte behöver så lätt laptop som möjligt.
och finns väl laptops runt kilot med bra prestanda, och vem behöver lättare än så.

Visa signatur

Acer Predator Helios 300

Permalänk
Datavetare
Skrivet av Herr Kantarell:

@Yoshman Då måste väl varje rendering av varje tile (?) vara en ny tråd och som avslutas iom att den är färdig.
Finns mängder av program som har affinity och fortsätter att köra på samma kärna.
Annars är det ju en väldigt dålig idé att byta kärna (context switching) när man redan har laddat program och cache minnen på en.

Telecom kunden jag jobbar åt nu har haft ett stort problem med detta.

Rätt uppenbart att Cinebench inte använder sig av explicit CPU-trådaffinitet. Det normala sättet att hantera den typ av arbetslast man har i Cinebench är via något form av work-stealing. D.v.s. varje "tile" hanteras som ett separat jobb, dessa jobb hanteras sedan av en trådpool som typiskt är en OS-tråd per CPU-tråd. Så OS-trådarna startar och dör inte per tile, de återanvänds till hela scenen är färdig.

Man kan tycka att det då är rimligt att låsa varje OS-tråd till en specifik CPU-tråd. I just detta fall hade nog det enkelt kunna lösa problemet, framförallt då en sådan lösning också gör det trivialt att prioritera vissa kärnor över andra (så jobben hanteras i första hand av "stora" kärnor). Men då ignorerar man att det kanske finns andra saker som kör på systemet, bara ta två program som kör just denna policy för att inse att man då lätt hamnar i ett läge där båda programmen kör på den enda "stora" kärnan medan resten står oanvända.

Man har ett OS just för att det ser hela systemet och därmed kan ta beslut som är optimalt för systemet som helhet. Applikationer ska bara bry sig om sin del av världen, annars måste ju varje applikation också implementera delar av ett OS vilket är kod-duplicering -> dåligt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Rätt uppenbart att Cinebench inte använder sig av explicit CPU-trådaffinitet. Det normala sättet att hantera den typ av arbetslast man har i Cinebench är via något form av work-stealing. D.v.s. varje "tile" hanteras som ett separat jobb, dessa jobb hanteras sedan av en trådpool som typiskt är en OS-tråd per CPU-tråd. Så OS-trådarna startar och dör inte per tile, de återanvänds till hela scenen är färdig.

OKej låter ju vettigt! Tack för infon!

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Testpilot
Skrivet av flukke:

OT men asså 14k är ju ingenting?
Du får ju knappt en mobiltelefon under 12k i dagens läge.
En vanlig thinkpad får man ge över 30k för osv.

Tycker 14k verkar vara relativt prisvärt

Är rätt säker på att min MacBook Pro Late 2014 presterar bättre än vad nya Galaxy Book S gör, en idag 6 år gammal dator alltså som jag fick för 4000:- för ca. 1 år sedan, istället för 14,000:- med detta "skräpet" till CPU & UFS-SSD (kan vara en okej hastighet på disken om det är UFS 3.1 vi snackar, annars bläääh).

Sedan finns det en myriad av bra telefoner ute för 7000:- och neråt, gav 6200:- för en ny ROG Phone II som exempel. En kompis plockade upp OnePlus 7T Pro för drygt 5k nyligen med. Kan man nöja sig med fjolårets flaggskepp eller årets "midrange - High-midrange" så finns det bra telefoner från allt mellan 3.5-7k.

Så... Ser inte hur Samsungs nya Galaxy Book S är prisvärd någonstans? Du betalar i alla fall inte för prestandan. Så det ska vara att det är i särklass en förhimla bra batteritid och det enda man gör är att sitta i Word isåfall

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | VGN K75 Pro | Deathadder V2 Pro >