Skrivet av kelthar:
AMD kommer få mest stryk av dessa korten när de kommer till konsument. Tycker lite synd om dem.
Helt ärligt ser jag bara positivt med det. Önskar CPU marknaden hade en 3:e part också.
Ja det kommer göra det tuffare att få marknad, men för oss innebär det att de kommer satsa hårt på att utveckla prisvärda kort också, och inte bara som Nvidias 10000krs leksaker.
Skrivet av Bengt-Arne:
Var även min första tanke, men sen så slog det mig att Intels problemföljetong 10 nm som begränsar maxfrekvens kraftigt på CPU sidan kanske kan vara OK för GPU. Se nedan...
Beräkningsenheterna (cuda core - Nvidia, compute units - AMD) är ju repeterande mindre byggblock som inte kräver lika stora resurser att optimera (är en beräkningsenhet optimerad, så är alla optimerade) för en tillverknings process.
Att dom siktar på en snabb övergång till 7 nm ser jag som ett tecken på fortsatta problem med 10 nm, dåligt utfall?
Skulle tro att 10nm har blivit en gigantisk flopp, ja.
De kan inte konkurrera i närheten med 14nm med den, och måste "börja om", vilket är varför istället för något halvdant på 10nm, man väljer att ta CPU till 2022 och satsa på något bra.
Har sagt några gånger att Intel behöver börja om och göra rätt nu, de kan inte bara fortsätta som de gjort i 10 år innan och det verkar vara exakt vad de gör. Tvivlar lite på att de håller 2022 deadlinen dock, pga det är tajt och förutsätter att mycket bara ska fungera, men även om det är 2023 så är det bättre än 3,5-4Ghz 2021 när AMD redan har fördelarna där.
För grafikkort dock är det precis som du säger, en annan design. Men det är också så att Intel inte siktat på top-end, utan på mellan-klassen, där TSMC 7nm är AMDs väg och om jag förstår det rätt, Nvidia går på Samsungs nya väg. Det är mao en helt annan klass och marknad, och du behöver inte 5Ghz nivåer, eller 300W chip.
Perfekt för 10nm som bör kunna leverera effektiv prestanda i lägre frekvenser och effektnivåer, vilket även passar laptop CPU. Så de lär köra GPU + laptop CPU på 10nm pga detta, så de iaf kan hålla sig på marknaden och få lite tillbaka på den enorma summa som 10nm lär ha kostat dem.
Skrivet av pHr33:
Det har varit integrerade GPUer. Helt annan power-budget och design. Och tillika helt värdelös i både prestanda och funktion. Jag syftade på produkter som konkurrerar med AMD och Nvidias high-end-alternativ.
Just High-end tror jag inte Intel når, än iaf.
De har mer än nog resurser och pengar att kunna göra high-end kort inom rimlig tid dock, men går inte från noll till ledare på en generation. Så alla som väntar på high-end Intel GPUn, lär bli besvikna ett tag.
Betyder inte att det är omöjligt att skala upp iGPUn dock. Allt handlar om hur många kärnor du slänger på, TDPn du måste hålla och VRAM du har att jobba med.
Antalet kärnor är ju på iGPU begränsat, oavsett AMD eller Intel, så de måste vara effektiva, speciellt på TDP. På ett dGPU kan du ju öka antalet beräkningsenheter och öka TDPn relativt enkelt och få betydligt mer prestanda.
Och största problemet är VRAM. DDR4 i all sin ära är långsamt som tusan för VRAM. Vi pratar i absolut bästa fall runt 2000Mhz eller 4000MT effektivt vs GDDR6 (som bygger på DDR4) med bandbredd på 12-14GT effektivt. Laptop är skillnaden ännu större, så vi pratar lätt 3-4 gånger högre bandbredd.
Du kan titta på 1030 DDR4 vs GDDR5 om du vill se hur enormt det gör, även på lägsta GPU nivåerna. Så där är mer än bara en bra design i GPUn.
Som sagt, förväntar mig inte 2080Ti krossare... men en 1060/580 och 2060/5600 konkurrent... troligen. Kanske tom en nivå till, men inte säkert med bra Perf/Watt då.
Och tittar man på vad som används mest på tex Steam så är det rätt tydligt att där har du mest marknad att slå dig in på. Där är trots allt fler med Intel HD 4000 (Broadwell/Haswell) eller 620 (Skylakes) än med 2080Ti kort i %.
Skulle tro det är mao vettigt att satsa iaf gen 1, kanske 2 på denna marknad, och ignorera tronen. Och deras iGPU med rätt TDP, VRAM och beräkningsenheter kan säkert ge dem en tävling för pengarna.