Intel skrotar officiellt Tick-Tock-modellen

Permalänk
Datavetare
Skrivet av anon159643:

Att mobilcpuer utveckling går så snabbt framåt beror väl helt enkelt på att de ligger så långt efter, när de nu börjar närma sig prestanda kommer utveckling att stagnera enligt S kurvan.

Dock tycker jag det är dåligt att Intel inte gör något 8 kärniga ghettos cpuer, släng ut all j-dra igpu och andra dumheter och ge oss billiga flerkärniga processorer. Nu kommer dessutom ramminnet att sjunka i pris och man kan redan få 64GB ramminne för 5000kr, så folk kommer köra en jädra massa skit på sina burkar samtidigt.

Om du är ute efter just 8-kärniga Intel CPUer så finns ju billiga sådana från Intel i form av Avoton (t.ex. C2750). Sedan finns 8-kärniga även i form Xeon D och E-serien som inte är superbilliga men ändå billigare än Xeon E5. Ingen av de modeller som nämns här har iGPU.

Lyfter man blicken lite så är det inte konstigt att majoriteten av CPUerna för skrivbordet fortfarande är 2 kärnor + HT (4-kärniga CPUer finns knappt längre på laptops utanför budgetträsket med Atom), det täcker mer än väl in behovet för 90 % av datoranvändarna. Vidare täcker dagens iGPUer in behovet för en klar majoritet, så att volymmodellerna har iGPU är ju p.g.a. rent marknadskrav.

Till och med på mobilsidan börjar man ju nyktra till, Snapdragon 820 fimpar "octacore" dravlet och i stället kör man med 2+2 konfiguration, d.v.s två högt klockade CPU-kärnor för interaktiva laster samt två lägre klockade CPU-kärnor med lågläckage transistorer för allt som händer i bakgrunden.

CPU med många kärnor har absolut sin plats, total beräkningskraft och perf/W blir betydligt högre med flera lite långsammare kärnor än få starka. Dock kräver detta också att programvaran och problemen man vill lösa på sitt system lämpar sig för att köras på många kärnor, interaktiva program är skolboksexempel på problem som nästan uteslutande beror av latens och passar därmed system med svagare CPU-kärnor extremt illa. Hög enkeltrådprestanda är det enda som i praktiken fungerar när latens är flaskhals och antal anrop "in-flight" är låg (vilket nästan alltid är fallet för en skrivbordsdator)

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Låter bra det, då håller förhoppningsvis min 6700K ett tag till. Brukar uppgradera runt vart tredje år jag. Ser ingen anledning att byta tidigare faktiskt.

Permalänk
Medlem
Skrivet av Adam West:

Dom ska ner ända till 5nm alltså? Undra hur mycket problem som dyker upp vid den övergången månne.

Skickades från m.sweclockers.com

Vi skall inte glömma att TSMC enligt egen utsago skall ha lina redo redan 2020 för produktion av 5nm.

Det tror jag på när jag ser det men det uttalandet var säkert mer tänkt att pigga upp aktien lite.
Övergången till 16nm gick inte direkt smärtfritt för dem heller.

Permalänk
Medlem
Skrivet av perost:

Även om AMD inte har så mycket att sätta emot för tillfället så konkurrerar Intel även med sig själva. Om utvecklingen saktar in så saktar även försäljningen in, eftersom det finns mindre orsak att uppgradera gamla processorer. Vi ser ju redan det med alla här på forumet som sitter på gamla 2500K/3570K/etc. och inte ser någon orsak att uppgradera.

Att ställa sig och vänta på att konkurrenterna ska komma ikapp är också ett bra sätt att bli överkörd.

Intels konkurrens med sig själva, och att PC-marknaden krymper delvis för att uppgraderingsbehoven minskat, är väl det stora problemet. Men intel överger ju inte sin årliga kadens av nya produkter, och de är extremt duktiga på att segmentera marknaden för maximal vinst. Dessutom spelar de ju plattformsspelet, där nya features utanför CPUn kräver en helt ny dator.
Det kommer nog att gå bra för intel länge än.
Det här är bara att de sätter en positiv spinn på ett faktum, istället för att de framstår som underpresterande pga förseningar.

Skickades från m.sweclockers.com

Permalänk
Inaktiv
Skrivet av Yoshman:

Om du är ute efter just 8-kärniga Intel CPUer så finns ju billiga sådana från Intel i form av Avoton (t.ex. C2750). Sedan finns 8-kärniga även i form Xeon D och E-serien som inte är superbilliga men ändå billigare än Xeon E5. Ingen av de modeller som nämns här har iGPU.

Lyfter man blicken lite så är det inte konstigt att majoriteten av CPUerna för skrivbordet fortfarande är 2 kärnor + HT (4-kärniga CPUer finns knappt längre på laptops utanför budgetträsket med Atom), det täcker mer än väl in behovet för 90 % av datoranvändarna. Vidare täcker dagens iGPUer in behovet för en klar majoritet, så att volymmodellerna har iGPU är ju p.g.a. rent marknadskrav.

Till och med på mobilsidan börjar man ju nyktra till, Snapdragon 820 fimpar "octacore" dravlet och i stället kör man med 2+2 konfiguration, d.v.s två högt klockade CPU-kärnor för interaktiva laster samt två lägre klockade CPU-kärnor med lågläckage transistorer för allt som händer i bakgrunden.

CPU med många kärnor har absolut sin plats, total beräkningskraft och perf/W blir betydligt högre med flera lite långsammare kärnor än få starka. Dock kräver detta också att programvaran och problemen man vill lösa på sitt system lämpar sig för att köras på många kärnor, interaktiva program är skolboksexempel på problem som nästan uteslutande beror av latens och passar därmed system med svagare CPU-kärnor extremt illa. Hög enkeltrådprestanda är det enda som i praktiken fungerar när latens är flaskhals och antal anrop "in-flight" är låg (vilket nästan alltid är fallet för en skrivbordsdator)

AMD Zen väntar jag på, sedan behöver inte alls programmen vara så optimerade för flera kärnor då många kör en väldigt massa program samtidigt som vardera drar väldigt mycket datorkraft, vanligt idag är att man sprider ut programmen på en väldigt massa datorer, men privatpersoner har inte denna budget och vill kunna köra all dritt på en och samma maskin.
Detsamma gäller användare, upp till 20 personer som arbetar på samma maskin samtidigt är inget ovanligt idag, inom konsument, så 4 personer på samma maskin är inget unikt. -Både farsan och morsan brukar vara inne på min burk och bröta under tiden jag jobbar, det kan vara att morsan ska redigera en film etc.
T.o.m samma windowsinstans brukar flera vara inne på och arbeta samtidigt, och innan man startar om windows eller gör något idag så är det praxis och kolla vilka som mer är inne på windows. Detta har varit mer inom kommersiellt användning för, men allt mer privatpersoner arbetar idag såhär.

iGPU handlar väl om att budgetmodellerna behöver ha det och de byggs ifrån samma waffer så de bättre modellerna får saker som "ingen använder"? Jag är t.ex. tveksam till om så många som kör i7-4790k väljer att inte investera i ett externt grafikkort. Och min förhoppning är att Amd med Zen kan leverera en billig processor åt oss som har lite behov av datorkraft. Jag tror inte AMD Zen kommer spöa Intels cpuer när det gäller prestanda, men det blir prisvärt och man kan ha dem som avlastningsdator.

Alltså man har en "tunn klient" som man styr sin snabba i7a som man jobbar emot, sedan har man AMD Zen som en avlastningsmaskin som gör allt möjligt. Smidigt hade då varit ett san, men de är lite dyra idag för konsumenter. (de kommer nog aldrig bli en riktig konsumentprodukt)

Permalänk
Medlem

...så min i7 3770k kommer hålla tills minst 2020 alltså? Tråkigt...

Har sagt det hur länge som helst för övrigt, att Moores lag mest är struntprat nu för tiden, men nu har de alltså gått ut med det själva. Inte konstigt dock, fysikens lagar sätter väl stopp helt enkelt.

Permalänk
Medlem
Skrivet av Ninjaflipp:

...så min i7 3770k kommer hålla tills minst 2020 alltså? Tråkigt...

Har sagt det hur länge som helst för övrigt, att Moores lag mest är struntprat nu för tiden, men nu har de alltså gått ut med det själva. Inte konstigt dock, fysikens lagar sätter väl stopp helt enkelt.

Jepp och det är riktigt roligt att se. Det som är roligt är att de som hävdat annorlunda blir emotsagda av fakta.

Permalänk
Datavetare

@anon159643: att multitasking skulle dra någon större nytta av flera kärnor är i majoriteten av fallen en myt, även om du har väldigt många program igång samtidigt befinner sig normalt alla i någon form av vänteläge (väntar på I/O, väntar på input från användare etc). I sådana lägen är det åter igen viktigast att varje enskilt anrop avklaras snabbt. Bl.a. BitTech har gjort "multitask" tester och även när man kör 4 st relativt CPU-krävande program är en i3 minst lika snabb som 8350, det trots att man kör fler program än vad en i3 har fysiska kärnor.

Hela grunden till att virtualisering är vettigt är just att program tenderar att spendera majoriteten av sin tid väntandes på någonting och då pratar vi ändå om serverprogramvara där det under last trots allt ofta går att utnyttja många CPU-kärnor.

Tveksam till att multiuseranvänding är speciellt utbrett bland normalanvändarna, var hittar du arbetsplatser där inte varje medarbetare har en PC av någon form på sitt skrivbord? Detta lär i än större utsträckning gälla hemanvändare. Och även när man delar dator, sitter själv ofta på en dual Xeon E5 maskin via SSH och utvecklar, hur ofta gör man något CPU intensivt samtidigt? Framförallt något där det blir ett problem med 8 eller fler kärnor? Det viktiga är då mer massor med RAM och väldigt snabb disk (vilket typiskt också är det viktigaste vid virtualisering).

Vad det gäller iGPU: vet inte heller hur ofta iGPU används i olika modeller. Totalt sett har Intel runt 70 % marknadsandel för GPUer på PC, så ändå en majoritet som inte behöver något annat.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Ska bli intressant o se om intel plöjer ner några pengar i alternativa CPU tekniker närmsta åren. Saktar ju så klart ner innan det blir billigare med teknikskifte. Fick ju dessutom väldigt många år med dagens kiselupplägg.

Skickades från m.sweclockers.com

Visa signatur

Regn är snö på sommarn.

Permalänk
Medlem

Moores lag har blivit ersatt med principen om tillgång och efterfrågan;
Det finns knappt något behov för den beräkningskraft som finns i en modern CPU.
Tack vare detta konkurerar Intels senaste CPUer med Intel äldre CPUer. Något som innebär minskad försäljning.

Intel väljer helt rätt väg som fokuserar på energieffektivitet och inte krympning av tillverkningsteknik. Knappast påverkar den stora volymen av CPUer för kontorsmaskiner eller oss entusiaster. Men en serverhall med tusentals CPUer har mycket att vinna om man sänker effektåtgången för varje CPU; mindre energi går åt att driva, mindre värme skapas.

Permalänk
Inaktiv
Skrivet av Yoshman:

@Johan86c: att multitasking skulle dra någon större nytta av flera kärnor är i majoriteten av fallen en myt, även om du har väldigt många program igång samtidigt befinner sig normalt alla i någon form av vänteläge (väntar på I/O, väntar på input från användare etc). I sådana lägen är det åter igen viktigast att varje enskilt anrop avklaras snabbt. Bl.a. BitTech har gjort "multitask" tester och även när man kör 4 st relativt CPU-krävande program är en i3 minst lika snabb som 8350, det trots att man kör fler program än vad en i3 har fysiska kärnor.

Alla applikationer är inte interaktiva, speciellt inte de som vi utvecklare kör på våra maskiner.
Och programmerare är nu det vanligaste yrket i huvudstaden enligt SCB, så det är ett antal personer som gör mer än enbart surfar på sin dator: http://computersweden.idg.se/2.9741/1.566444/sa-manga-knackar...

Vilket innebär att vi kör allt mer skit i bakgrunden på våra maskiner samtidigt som vi gör annat, denna skit är inte alltid något interaktiv program.

Skrivet av Yoshman:

Hela grunden till att virtualisering är vettigt är just att program tenderar att spendera majoriteten av sin tid väntandes på någonting och då pratar vi ändå om serverprogramvara där det under last trots allt ofta går att utnyttja många CPU-kärnor.

Det finns många olika anledningar till att virtualisera, det vanligaste idag är att man helt enkel kan köra en annan maskin virtuellt och man slipper skaffa en väldigt många. Jag själv skulle behövt ha uppemot 100st kraftfulla datorer om jag istället inte körde de virtuellt, där jag nu startar dem efter behov. (Alternativet Dual booat fungerar dåligt, då man behöver använda flera samtidigt och det är svårt att låna ut en maskin till en kamrat)

Skrivet av Yoshman:

Tveksam till att multiuseranvänding är speciellt utbrett bland normalanvändarna, var hittar du arbetsplatser där inte varje medarbetare har en PC av någon form på sitt skrivbord? Detta lär i än större utsträckning gälla hemanvändare. Och även när man delar dator, sitter själv ofta på en dual Xeon E5 maskin via SSH och utvecklar, hur ofta gör man något CPU intensivt samtidigt? Framförallt något där det blir ett problem med 8 eller fler kärnor? Det viktiga är då mer massor med RAM och väldigt snabb disk (vilket typiskt också är det viktigaste vid virtualisering).

Även om man har en bra dator så ska man ofta in på andra maskiner och pilla, att dela maskiner blir allt vanligare då detta sänker kostnaden. Varför t.ex. köpa flera exemplar av ett program om man istället kan nöja sig med en som man delar på? Och då såklart köper till de licenser som behövs för detta) Förutom licens så är det en massa konfiguration.
Som min morsa, varför ska hon skaffa en dyr filmredigeringsdator då hon kan låna datorkraft av mig de gångerna hon har behov?

Och nej jag påstår inte att alla behöver ha 8 cores idag, det jag påstår är att det finns många idag som det inte finns någon prisvärd multicore processor till. Och jag ser framemot AMD Zen då de kanske kan lever en sådan som gör många glada.

*edit*
Ett program kör jag dessutom via remote App, så både farsan och morsan har en ikon på skrivbordet för programmet och det ser ut som vilket program som helst. När det startar se de ingen skillnad, men programmet körs helt på min dator.
Detta blir allt mer vanligare genom Microsoft Azure, fast då är det främst MS som hostar med datorkraft. Många privatpersoner apar dock efter och gör likadant.
Så det jag vill säga är andelen användare som kör mycket mer än en interaktiv applikation i taget med en användare ökas och det finns många idag som lider av att det inte finns någon som marknadsför någon vettig cpu åt oss. (jag väntar på Zen)

*edit2* Angående licenser så ger många programtillverkare en support för att just installera deras program virtuellt så att flera användare kan delar på samma installation och de tycker det är skitsmart, då det det inte alltid är fler än en i taget som använder programvaran. -En ren och klen windows med enbart deras mjukvara och inget annat som kan störa, kan det bli bättre?

Nå Back till topic, så hoppas jag mycket på Amd de har fördelen att de försöker göra en processor riktad åt oss som vill ha billigare multicores cpu. Viljan räcker dock tyvärr inte alltid.
Så det som någon skrev ovanför hur skulle AMD kunna göra en bättre cpu än intel, jo de skippar iGpu dritten och fokuserar på att göra en bra cpu. så skulle de kunna göra en intressant och prismedveten cpu.

Permalänk

Till dom som säger att man skall kasta ut i-gpu så tycker jag personligen det är en dålig idé. Igpun an användas för att bl.a accelerera multimedia encoding och köra annat på din primära GPU. OBS kan t.ex dra nytta av Quicksync som ger väldigt liten prestanda påverkan samt lägre latens med just OBS.

I framtiden kan även quicksync användas och ge förbättring likt matte processorn gjorde förr

Nu finns det inte många användnings områden som jag märkt, men i framtiden kan det komma att bli bättre. Jag tycker det är en bra sak!

*spekulationer*

Det kan bli nästa grej i spel t.ex! Istället för nvidias PhysX så kan man lägga, inte nödvändigtvis fysik, saker på en Igpu som en AMD APU eller Intel med inbyggd grafikkrets. Det kan ge en skjuts i spel samt skulle nu där sitta HBM eller L4 Cache så kan det användas för att ge en prestanda boost.

Intel och AMD måste haft funderingar på detta. Kanske blir möjligt med DX12?

någon kommer säker påpeka att det är spekulationer :)
Permalänk
Datavetare
Skrivet av anon159643:

Alla applikationer är inte interaktiva, speciellt inte de som vi utvecklare kör på våra maskiner.
Och programmerare är nu det vanligaste yrket i huvudstaden enligt SCB, så det är ett antal personer som gör mer än enbart surfar på sin dator: http://computersweden.idg.se/2.9741/1.566444/sa-manga-knackar...

Vilket innebär att vi kör allt mer skit i bakgrunden på våra maskiner samtidigt som vi gör annat, denna skit är inte alltid något interaktiv program.

Hur stor andel av tiden har du som programmerare en CPU-last på 100%? Även om kompilering är CPU-intensivt är det väldigt sällan man kompilerar om allt (om inte designen är vansinnig i alla fall), i många fall kompileras idag saker allt eftersom man skriver koden -> typisk interaktiv användning.

Har du verkligen saker som hela tiden äter CPU? Känns som ett systemfel någonstans, detta är vad jag ser på min maskin

top - 14:24:21 up 44 days, 2:57, 2 users, load average: 0.00, 0.01, 0.05 Tasks: 773 total, 1 running, 772 sleeping, 0 stopped, 0 zombie Cpu0 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu1 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu2 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu3 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu4 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu5 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu6 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu7 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu8 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu9 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu10 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu11 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu12 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu13 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu14 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu15 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu16 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu17 : 0.3%us, 0.7%sy, 0.0%ni, 99.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu18 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu19 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu20 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu21 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu22 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu23 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu24 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu25 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu26 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu27 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu28 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu29 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu30 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Cpu31 : 0.0%us, 0.0%sy, 0.0%ni,100.0%id, 0.0%wa, 0.0%hi, 0.0%si, 0.0%st Mem: 131517952k total, 22877856k used, 108640096k free, 1534248k buffers Swap: 1951740k total, 0k used, 1951740k free, 18169408k cached

Dold text
Skrivet av anon159643:

Det finns många olika anledningar till att virtualisera, det vanligaste idag är att man helt enkel kan köra en annan maskin virtuellt och man slipper skaffa en väldigt många. Jag själv skulle behövt ha uppemot 100st kraftfulla datorer om jag istället inte körde de virtuellt, där jag nu startar dem efter behov. (Alternativet Dual booat fungerar dåligt, då man behöver använda flera samtidigt och det är svårt att låna ut en maskin till en kamrat)

Vilket är ett praktexempel på när fler CPU-kärnor inte på något sätt förbättrar för virtualisering, du använder virtualisering främst som ett sätt att kunna testa olika konfigurationer, något som fungerar utmärk även på en laptop bara den har tillräckligt med RAM.

Edit:

Skrivet av SwedenVirre:

Intel och AMD måste haft funderingar på detta. Kanske blir möjligt med DX12?

Det är definitivt möjligt med DX12 (och även med Vulkan).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av Yoshman:

Hur stor andel av tiden har du som programmerare en CPU-last på 100%? Även om kompilering är CPU-intensivt är det väldigt sällan man kompilerar om allt (om inte designen är vansinnig i alla fall), i många fall kompileras idag saker allt eftersom man skriver koden -> typisk interaktiv användning.

Om man vill få kund att betala fakturan får man jobba effektivt och ha igång applikationerna samtidigt som när man utvecklar, så ja, processorn ligger oftast runt 100% på alla 4 cores per virtuell maskin som jag brukar ha. Det behövs då mer av prestanda per kärna och fler.
*edit*
Jag själv har applikationer som har en uppstartstid på över 1h, glöm att stänga av dessa hela tiden. (olika program ska synka data mellan varandra)

Skrivet av Yoshman:

Har du verkligen saker som hela tiden äter CPU? Känns som ett systemfel någonstans, detta är vad jag ser på min maskin

Nej vissa saker ska kräva datakraft, det är t.ex. logisk att en trendserverapplikation som har till uppgift att logga allt vad som ändrar hela tiden kommer dra datorkraft, likaså all larmhanteringsprogram o.s.v. Detsamma gäller databaserna, har man väldigt mycket trafik och frågor till dessa så ska de dra datakraft.
Jag pratar alltså om grundprogram som har kostat någon miljard eller så att utveckla och det inte är supernenkelt att bara dra ner cpubehovet till typ 0.

Skrivet av Yoshman:

Vilket är ett praktexempel på när fler CPU-kärnor inte på något sätt förbättrar för virtualisering, du använder virtualisering främst som ett sätt att kunna testa olika konfigurationer, något som fungerar utmärk även på en laptop bara den har tillräckligt med RAM.

Det jag påstod var att den vanligaste orsak till virtualisering nog var detta, både professionellt och privat. Och ingen av oss har självklart igång alla hundratals maskiner samtidigt så det enda som alla måste ha är mycket hårddisk.
Däremot kör många av oss flera virtuella maskiner igång samtidigt, där såklart ram är första flaskhalsen för att en praktisk kunna starta dem. Skrivhastighet till hårddisk likaså.
Men som jag sa, både ram och hårddisk går ner i pris, kvar blir cpun som är dyr. T.ex. En Samsung 950-series PRO 512GB klarar fint av 3st virtuella maskiner beroende på vad man gör, många moderkort stöder dubbla såna hårddiskar och man skulle då kunna driva 6st virtuella maskiner med en 64GB ram. Nu är ram och ssd lite dyr, men de rasar riktigt i pris, det finns inget som sjunker lika snabbt inom datorteknik. (dock osäker på grafikkort)

Permalänk
Medlem
Skrivet av anon159643:

Att mobilcpuer utveckling går så snabbt framåt beror väl helt enkelt på att de ligger så långt efter, när de nu börjar närma sig prestanda kommer utveckling att stagnera enligt S kurvan.

Dock tycker jag det är dåligt att Intel inte gör något 8 kärniga ghettos cpuer, släng ut all j-dra igpu och andra dumheter och ge oss billiga flerkärniga processorer. Nu kommer dessutom ramminnet att sjunka i pris och man kan redan få 64GB ramminne för 5000kr, så folk kommer köra en jädra massa skit på sina burkar samtidigt.

Det kommer Zen, var så säker

Skrivet av Ozzed:

Tick-Tack och hej Intel.

Ja vad säger man.. Intel kan ju inte trolla med knäna när fysikens lagar sätter stopp. Detta borde innebära att deras tillverkningstekniska försprång också tynar bort så sakterliga, och att AMD kan komma in i matchen igen, Vilket jag ser fram emot.

Jag har också funderat på det tidigare. AMD är lite räddad av gongongen. Nu när tillverkningstekniken slår i väggen kommer snart nog alla spelare ligga på ungefär samma tillverkningsteknik, och det har ju varit det som varit Intels stora fördel många många år och det som "räddade" Intel under Athlon-tiden.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem
Skrivet av Spawnbadboy:

De har ingen motstånd för tillfället i processormarknaden

Hoppas AMDs nya Zen ändrar på det

Klassikern att skylla ett företags tillkortakommanden på ett annat, oftast AMD.
Intel har haft stora problem att gå över till ny tillverkningsprocess i tid. Och har bara att vinna på att gå över så fort de har kapacitet även om de inte är pressade av konkurrens. Lägre tillverkningskostnader på sikt är en stor motivator. Haswell Refresh var en nödlösning som signalerade början på det hela. De hade inte kunnat byta tillverkningsprocess snabbare om de velat.

Permalänk
Medlem

Jag tycker inte Intel behöver krympa tekniken så mycket mer, när man är nere runt 5 nanonmeter så smälter ju nästan kretsarna. Tycker dom kan bygga något större kretsar och få in mer grejer om det behövs. Jag tycker den viktigaste biten för Intelatt ta tag i är iGpu (den interna grafiken i CPU).

Jag har en i7:a idag (Haswell), det känns som den kommer räcka minst 5-7 år utan större problem.

Det enda jag känenr att man har nytta av att krympa arkitekturern är energieffektivitet och billigare tillverkning. Nya funktioner är alltiv välkommet förståss. Jag känner inget extremt stort behov att cpu är byggd på under 10 nanometer, men om 20 år så är det väl dags för nästa steg som är under 1 nanometer.

Visa signatur

AMD Ryzen 7 5700X 3,4GHz
Asus GeForce RTX 4070 Dual OC 12GB
Asus ROG Strix X570-E Gaming
G.Skill Trident Z Neo DDR4 3600MHz 32GB
Samsung 980 Pro Series 1TB

Permalänk
Medlem
Skrivet av GilbertG:

Det kommer Zen, var så säker

Jag har också funderat på det tidigare. AMD är lite räddad av gongongen. Nu när tillverkningstekniken slår i väggen kommer snart nog alla spelare ligga på ungefär samma tillverkningsteknik, och det har ju varit det som varit Intels stora fördel många många år och det som "räddade" Intel under Athlon-tiden.

Mja, det som räddade intel då var att de mutate tillverkare till att bara sälja intel, fast AMD var bättre. Det är också en del av förklaringen till AMD's skrala ekonomi idag.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av affero:

Tick-Tock-Tack?

Tänkte precis samma. För det är ju inte "Tock-Tock" i steg 2 och 3. Det är ju inte 2 nya arkitekturer utan en optimering, så 3 helt olika steg.

Skrivet av MakeCoke:

Hur stor prestandaökning väntas Kaby Lake ge?

Skickades från m.sweclockers.com

Ingen vet. Men jag hoppas se Kaby Lake med liknande cache som broadwell, även om den nu (om jag förstått rätt) ska vara på 64 MB, så lär den göra skillnad. Ingen hade ju förväntat sig att Broadwell skulle slå allt och alla på spelfronten direkt @ 3,6Ghz turbo

Skrivet av elajt_1:

Vad får dig att tro det? Intel gör ju otroliga vinster och spenderar förmodligen mer på forskning, än något annat företag inom detta området. Bara för att utvecklingen saktar ned på grund av fysikens lagar så betyder det ju inte att det går fortare för de andra.

Är väl lite som en bilkö... Du kan köra fortare än han bakom, men när vägarbetena hindrar dig och du står still kommer de snabbt i kapp.
Det som Intel har levt på är ju 2 saker, mindre nod och bättre arkitektur i grunden. Nu har AMD en ny arkitektur och den tillverkas på 14nm om jag förstått det rätt, även om de inte är "exakt" som Skylakes nod så är de iaf en hel del bättre än tidigare. Eftersom Intel nu inte kan köra fort framåt så kommer kostnaden för RnD att gå i taket, samtidigt som konkurrens från AMD (förhoppningsvis för oss) trycker ner priset, så deras fördelar är snabbt borta.

Återstår att se dock... inget är ju säkert.

Skrivet av Ozzed:

Mja, det som räddade intel då var att de mutate tillverkare till att bara sälja intel, fast AMD var bättre. Det är också en del av förklaringen till AMD's skrala ekonomi idag.

Den skiten minns jag... bekanta som köpte "värsting" P4 Prescott eller Celeron, för de var ju bättre än AMDs X2 och Athlon.

Permalänk
Inaktiv
Skrivet av GilbertG:

Det kommer Zen, var så säker

Ja Zen ser jag framemot, vissa drömer om världsfred jag drömmer om Zen.

Idag kan man fixa 2st Samsung 950-series PRO 512GB M.2 NVMe och 64GB DDR4 för runt 11000kr, dessa två eller likvärdiga lär sjunka mycket i pris.
Och jag tror att allt dessa "IO-moduler" för de flesta professionella användare ska klara av att leverera data data till cpun så att allt 8 kärnor har att göra.

Nå får se vad jag bygger för dator, det beror helt på vad Zen kommer med. Ingen mening att överdriva IO om Zen inte levererar eller tvärt om att jag behöver ha bättre som ramdrive etc.

Jag gillar som sagt inte Intels fokus att strunta oss entusiastsegmentet med lite pengar, då det för flera som mig känns som att det inte någon cpu för oss. Köp en svindyr lågt klockad Xeon, eller köp en billig i7 där typ halva cpun inte använts överhuvudtaget p.g.a. igpu.

Även om jag är lite ovanlig så skulle jag gissa på att majoriteten av alla här på swelclockers som har en dator för över 15 0000kr inte är så happy över den där iGPUn som de troligen har i deras cpu.

Permalänk
Medlem
Skrivet av Ozzed:

Mja, det som räddade intel då var att de mutate tillverkare till att bara sälja intel, fast AMD var bättre. Det är också en del av förklaringen till AMD's skrala ekonomi idag.

Jag syftade enbart på det tekniska. Muthistorierna är jag mycket väl införstådd med.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Datavetare
Skrivet av Ozzed:

Mja, det som räddade intel då var att de mutate tillverkare till att bara sälja intel, fast AMD var bättre. Det är också en del av förklaringen till AMD's skrala ekonomi idag.

Exakt! Att AMD hade extremt höga kostnader för ett bolag av deras storlek vid den tiden var helt irrelevant. Att man satt på 4,2 miljarder dollar i reda pengar som man i sin oändliga visdom brände på ATi, en affär ingen begrep logiken i (se citatet nedan), är helt Intels fel.

"This is the math we can’t understand. AMD bought a 5 billion dollar company, paid 4.2 billion dollars in cash for it and instead of becoming a $15 billion company the market says that today the company is worth less than when it started the merger process. Once again, two business days before announcing it was going to acquire ATI, AMD was worth $10.65 billion, its value dropped to $9 billion on the day before the announcement and today it is worth $8.5 billion."

Att AMD sedan spenderade massor mer resurser för att driva sin "Fusion" tanke som i slutändan blev en APU vilket ytterst få begriper poängen av på PC-sidan kan inte heller anses vara någon annan än Intels fel.

Att man som kund fick vänta väldigt länge på att få Opteron-baserade system levererad under Pentium 4 eran då AMD sålde precis var enda krets de kunde tillverka, något som fick många att välja Intel då de inte kunde vänta, måste ju också vara Intels fel Där jag jobbade då körde vi uteslutande AMD på servers, man fick lära sig att ha rätt rejäl framförhållning vid inköp av nya system... (något som jag tyckte var värt väntan då Athlon/Phenom Opteron var en långt bättre server CPU än P4).

Att man också bedömde marknaden för mobila kretsar som totalt ointressant och därför avyttrade den mobil GPU som ATi jobbat med innan uppköpet till Qualcomm (idag Adreno) vet vi ju också vems fel det måste vara...

Skrivet av Paddanx:

Ingen vet. Men jag hoppas se Kaby Lake med liknande cache som broadwell, även om den nu (om jag förstått rätt) ska vara på 64 MB, så lär den göra skillnad. Ingen hade ju förväntat sig att Broadwell skulle slå allt och alla på spelfronten direkt @ 3,6Ghz turbo

En sådan CPU finns redan baserad på Skylake. Dels finns modeller med 128 MB eDRAM (Iris Pro Graphics 580) i form av i5-5350HQ, i7-6870HQ och i7-6970HQ, dels finns modeller med 64 MB eDRAM (Iris Graphics 540/550) i form av i5-6260U och i5-5360U (båda 15 W TDP) samt i5-6267U och i6-6287U (båda 28 W TDP).

Skrivet av GilbertG:

Jag syftade enbart på det tekniska. Muthistorierna är jag mycket väl införstådd med.

Intel var inte speciellt långt före AMD vad det gäller tillverkningsteknik på den tiden, AMD var typiskt på samma nod inom ett halvår. Första gången Intel hade ett försprång på över ett år var 32 nm, ett försprång som blev ännu större med 22 nm.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Exakt! Att AMD hade extremt höga kostnader för ett bolag av deras storlek vid den tiden var helt irrelevant. Att man satt på 4,2 miljarder dollar i reda pengar som man i sin oändliga visdom brände på ATi, en affär ingen begrep logiken i (se citatet nedan), är helt Intels fel.

"This is the math we can’t understand. AMD bought a 5 billion dollar company, paid 4.2 billion dollars in cash for it and instead of becoming a $15 billion company the market says that today the company is worth less than when it started the merger process. Once again, two business days before announcing it was going to acquire ATI, AMD was worth $10.65 billion, its value dropped to $9 billion on the day before the announcement and today it is worth $8.5 billion."

Att AMD sedan spenderade massor mer resurser för att driva sin "Fusion" tanke som i slutändan blev en APU vilket ytterst få begriper poängen av på PC-sidan kan inte heller anses vara någon annan än Intels fel.

Att man som kund fick vänta väldigt länge på att få Opteron-baserade system levererad under Pentium 4 eran då AMD sålde precis var enda krets de kunde tillverka, något som fick många att välja Intel då de inte kunde vänta, måste ju också vara Intels fel Där jag jobbade då körde vi uteslutande AMD på servers, man fick lära sig att ha rätt rejäl framförhållning vid inköp av nya system... (något som jag tyckte var värt väntan då Athlon/Phenom Opteron var en långt bättre server CPU än P4).

Att man också bedömde marknaden för mobila kretsar som totalt ointressant och därför avyttrade den mobil GPU som ATi jobbat med innan uppköpet till Qualcomm (idag Adreno) vet vi ju också vems fel det måste vara...

Halvhalmgubbe Alltså det är klart att det andra kan ha spelat in.. Men det intel gjorde var som att putta till någon med dålig balans. Jag säger inte att allt _bara_ var intels fel, men deras fulspel var ju en del i pusslet. OM AMD fått konkurrera fritt hade de förmodligen lyckats forska fram något som stog sig bättre mot Core-arkitekturen när den kom.

Sen att de köpte ATI är väl ett mysterium för de flesta, men å andra sidan har de idag den bästa kombinationen av CPU/GPU även om de är långt ifrån bra.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Datavetare
Skrivet av Ozzed:

Halvhalmgubbe Alltså det är klart att det andra kan ha spelat in.. Men det intel gjorde var som att putta till någon med dålig balans. Jag säger inte att allt _bara_ var intels fel, men deras fulspel var ju en del i pusslet. OM AMD fått konkurrera fritt hade de förmodligen lyckats forska fram något som stog sig bättre mot Core-arkitekturen när den kom.

Sen att de köpte ATI är väl ett mysterium för de flesta, men å andra sidan har de idag den bästa kombinationen av CPU/GPU även om de är långt ifrån bra.

Vad är en halmhubbe i att AMD orsakade i princip alla sina nuvarande problem genom att bränna hela sin kontantreserv på ATi? Även om man ignorerar de uppenbara problem som funnits i att slå ihop dessa två företag p.g.a. extrem olika företagskultur och det uppenbara problemet att 2006 hade båda dessa företag problem med höga kostnader, så var storleken på förvärvet inte rimligt för AMDs del. Man tog helt enkelt en större tugga än vad man kunde hantera, man köper inte något som kostar mer än hela kassakistan! Efter köpet har AMD hela tiden fått dra ner på FoU och avyttra saker för att hålla sig flytande.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Intel var inte speciellt långt före AMD vad det gäller tillverkningsteknik på den tiden, AMD var typiskt på samma nod inom ett halvår. Första gången Intel hade ett försprång på över ett år var 32 nm, ett försprång som blev ännu större med 22 nm.

Jaså? Hade för mig att Intel oftast var ett steg före, men att AMD ändå lyckades bli bättre i slutändan då arkitekturen var långt mycket bättre.

Visa signatur

Räkna ut hur kraftigt nätaggregat du behöver på OuterVision Power Supply Calculator. 500W räcker för de allra flesta vanliga system. Seasonic är bäst. ;) – Elektrostatisk urladdning är ett verkligt problem.
"People who are serious about software should make their own hardware" – Alan Kay
Bojkotta maffian

Permalänk
Medlem
Skrivet av Yoshman:

Vad är en halmhubbe i att AMD orsakade i princip alla sina nuvarande problem genom att bränna hela sin kontantreserv på ATi? Även om man ignorerar de uppenbara problem som funnits i att slå ihop dessa två företag p.g.a. extrem olika företagskultur och det uppenbara problemet att 2006 hade båda dessa företag problem med höga kostnader, så var storleken på förvärvet inte rimligt för AMDs del. Man tog helt enkelt en större tugga än vad man kunde hantera, man köper inte något som kostar mer än hela kassakistan! Efter köpet har AMD hela tiden fått dra ner på FoU och avyttra saker för att hålla sig flytande.

Uppenbarligen tyckte till och med intel att det inte var värt att bråka då de gick med på en hyffsat fet förlikning. 1.25 dollar må vara småpengar för intel, men knappast något som ett företag ger bort frivilligt.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Datavetare
Skrivet av GilbertG:

Jaså? Hade för mig att Intel oftast var ett steg före, men att AMD ändå lyckades bli bättre i slutändan då arkitekturen var långt mycket bättre.

Den period där AMD hade en bättre CPU var under 130 nm och 90 nm, Intel var före i båda fallen men AMD var inte alls långt efter. Första Intel CPU på 130 nm var PIII "Coppermine" i april 2001 medan AMD lanserade sin Athlon MP tio månader senare.

Ännu jämnare var det till 90 nm där Intel var först med P4 "Prescott" i februari 2004, AMD nådde den noden i oktober samma år med Athlon 64 "Winchester", d.v.s. åtta månader senare.

Däremot hade AMD inte alls samma genomsnittliga "yield" på noderna som Intel, just att snabbt trimma in noderna är nog Intels främsta fördel då det har givit dem bättre ekonomi i varje nod (är nog viktigare än att man först nått nya noder). Även om Intel haft stora problem att trimma in 14 nm så pekar mycket ändå på att TSMC och Samsung har betydligt sämre "yield" om man plottar "yield" mot "antal månader sedan noden introducerades".

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

En sådan CPU finns redan baserad på Skylake. Dels finns modeller med 128 MB eDRAM (Iris Pro Graphics 580) i form av i5-5350HQ, i7-6870HQ och i7-6970HQ, dels finns modeller med 64 MB eDRAM (Iris Graphics 540/550) i form av i5-6260U och i5-5360U (båda 15 W TDP) samt i5-6267U och i6-6287U (båda 28 W TDP).

Yoshman, är någon av dem en desktop Socket 1151, 65/80/95W upplåst ersättare till Broadwell? Nej. Varför tar du då upp dem. Vet att du också kan gå igenom Intels ARK, men faktum kvarstår, där finns ingen Skylake CPU med L4 cache som är av något intresse för desktop.

Hela poängen jag sa ovan var ju för att få spel i highend desktop att flyga, samtidigt som den skulle ha nog med kraft att göra andra saker också, dvs upplåst, med L4 och möjlighet med OC att iaf nå ca 4GHz+, annars kommer ju en OCad Skylake/Kabylake att slå den på fingrarna ändå.

Dessa CPUer är för det syftet jag nämnde ovan inte en ersättare, inte ens till någon specifik nytta. Ev om vi är långsökta skulle 45W modellerna kunna vara det med AMDs externa grafikkort lösning på en släpbar "laptop", men de är ändå kraftigt TDP begränsade och 35/45W i en laptop är inte enkelt att kyla ändå.

Permalänk
Medlem

För att återknyta till det här med många kärnor: visserligen har ingen egentligen sagt något annat, men jag är inte en speciellt avancerad användare och jag skulle ha nytta av flera kärnor. Ett av mycket få tillfällen då jag upplever att CPU-prestanda håller mig tillbaka är vid import/export i Lightroom. Lightroom är inte hjälpt av HT, men absolut av fysiska kärnor. Kommer jag hem med 700 bilder - vilket inte är jättevanligt men händer - tar det lång tid att importera dessa.
De här jätteimporterna upptar en liten andel av min totala datortid, men när jag gör dem är önskan efter flera kärnor påtaglig.

Visa signatur

Stationär dator: Ryzen 9 7950X3D | Asus ROG Strix B650E-F | 64 GB DDR5-6000
MSI RTX 4090 | 4+8 TB SSD | 8 TB WD Red
NZXT H7 Flow Vit | Arctic Liquid Freezer II 360
Phanteks AMP 1000 W v2 | Win11
Skärm: Dell U3011 2560x1600 | HP Reverb G2

Permalänk
Datavetare

@Paddanx: du skrev "Men jag hoppas se Kaby Lake med liknande cache som broadwell, även om den nu (om jag förstått rätt) ska vara på 64 MB, så lär den göra skillnad."

Läser man det påståendet så låter det som att en av förändringarna med Kaby Lake är möjlighet till att få extra cache likt Crystalwell i Haswell/Broadwell, vilket inte är sant då Skylake specifikt designades för att kunna använda eDRAM i långt många fler områden än vad som var möjligt i Haswell/Broadwell. Det jag pekade på att det också redan finns modeller som använder denna teknik.

Rykte är att det även ska komma modeller avsedda för stationära datorer, men finns det verkligen någon information om huruvida dessa modeller är baserade på Skylake eller Kaby Lake? Sedan är det rätt mycket överdrift att 5775C skulle "slå allt och alla på spelfronten", 6700K är i praktiken lika snabb i spel och den är snabbare i allt utanför spel. Det som är imponerande med 5775C är att den håller jämna steg med 6700K i spel med 65 W TDP mot 91 W TDP i den senare, dock lite av en nisch (super för mini-ITX).

Tyvärr är inte 5775C med här, men 5960X brukar uppvisa liknande fördelar i spel tack vare sin massiva L3-cache (20 MB), notera att 5960X inte alls hänger med 6700K i Rise of the Tomb Raider: http://www.techspot.com/review/1128-rise-of-the-tomb-raider-benchmarks/page5.html

Om Nvidia har rätt kring problemen med cache-trashing i DX11 och att detta problem går att undvika i DX12/Vulkan (via bindless resources) så är tyvärr 5775C inte alls något superbra val för spel, 6700K är ur det perspektivet mer "framtidssäker".

Det sagt: sättet Skylake / Kaby Lake använder eDRAM är långt mer generellt än tidigare, den kan nu cacha alla former av minnesaccesser inklusive DMA. Så hoppas verkligen att det kommer en rad modeller som har eDRAM. Om det är 64 eller 128 MB eDRAM beror idag på vilken iGPU som används, Iris Pro är parad med 128 MB med Iris (utan Pro) har 64 MB. Rent tekniskt är grafikdelen och eDRAM helt frikopplad i Skylake, så fullt möjligt att slänga i eDRAM i modeller som överhuvudtaget inte har iGPU.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer