Intels första Xe-grafikkort tar sikte på mellanklassen

Permalänk
Datavetare
Skrivet av employed:

De mest använda GPUerna enligt Steam är 1060/1050/1050ti med nästan 30% av marknaden. Räknar man med AMDs RX 400/500-serie och GTX16XX-serien så är det 50% av marknaden. Det är där massan och pengarna finns.

Intel har redan avtal med x-antal datortillverkare som gör pre-builds. Allt som krävs är att de "frågar" om de kan välja deras GPU istället för Nvidia eller AMD. Föräldrar och Kids köper pre-builds. När de blir äldre så kanske de väljer en Intel GPU till sitt första bygge. Intel har ju även rätt hårt grepp om den bärbara marknaden där de kan använda deras egna GPU istället för konkurrenterna.

Har ett rätt rejält frågetecken kring det fetmarkerade.

Kolla Nvidias finansiella resultat de senare åren. Grafikkortsmarknaden är rätt begränsad, men Nvidia äger helt high-end och det syns i deras siffror. Nvidia har numera högre bruttomarginaler än Intel och de har 70 % större omsättning än AMD. Gissar att det inte kommer av att man säljer enorma mängder low/mid-end GPUer...

Där har du orsaken till att Intel känner sig tvungna att ge sig in i grafikkortsmarknaden. GPGPU kan definitivt inte användas överallt (är t.ex. värdelöst i det jag bryr mig mest om: systemets prestanda för programutveckling), men proppen har verkligen gått ur GPGPU de senaste åren och allt fler områden som Intel tidigare dominerat med Xeons ersätts nu med betydligt enklare CPU-del och ett gäng GPUer.

Ett fall de flesta här på SweC nog känner till är Blender. Det var länge en av de program man kunde utnyttja sin HEDT CPU fullt ut, går i.o.f.s. fortfarande men idag går det fortare att rendera på ett 2060S än på ThreadRipper 3970X.

Intel har dock en rejäl uppförsbacke i datacenter. Är övertygad om att det är långt enklare för dem att bryta sig på konsumentmarknaden. Där behövs ju "bara" vettigt prestanda/pris och bra drivare.

För datacenter är problemet för både Intel och AMD att CUDA är de-facto-standarden majoriteten utvecklar för, det är också vad de flesta universitet använder när de lär ut GPGPU-programmering. Precis som Intel ger bort massor med programvara som man handoptimerat för Xeon ger Nvidia bort handoptimerade bibliotek för GPGPU, alla helt beroende av CUDA!

Tar man t.ex. Matlab/Octave finns det i.o.f.s riktigt bra open-source bibliotek för x86 CPUer. Intel har pushar väldigt hårt för sitt MKL (som är standard i Matlab, men kan användas till en rad andra program, bl.a. Octave). Vill man köra Matlab/Octave på sin GPU, vilket för vissa fall kan ge enorm prestandavinst, är man i praktiken helt utelämnad till Nvidias cuBLAS (som så klart använder CUDA...).

Få se om AMD/Intel slår sig ihop mot Nvidia på datacenter. Gör man inte det lär Nvidia fortsätta dominera de närmaste åren. AMD/Intel kan självklart komma ikapp, men det kommer kosta rejält med FoU i form av programutveckling. För någon som utvecklar programvara är helt enkelt Nvidia det rationella valet just nu, programvaran runt CUDA är tekniskt överlägsen allt annat på marknaden...

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av SweDragon:

Det här var ju tyvärr riktigt tråkigt. Om de knappt blir bättre än det bästa inbyggda grafikchippet i en processor, ...

Du glömde att det är en processor för laptop.

Skrivet av loevet:

... även om de motsvarar samma antal shaderenheter som i integrerade lösningar sannolikt bygger på en väldigt annorlunda design. ...

Jag har svårt att tänka mig att de använder en annan arkitektur bara för att det är ett diskret kort.
Högre effektbudget (frekvens) och bättre minne, ja, men längre än så sträcker det sig nog inte.
Prestandan måste i integrerat utförande vara rejält begränsad av minnet för att göra det diskreta kortet meningsfullt.

Permalänk
Lyxfällan 🎮
Skrivet av GamerGertzy:

Förlåt om jag är lite seg, men vad är "en EU"? Trodde det handlade om Europeiska unionen men så var det plötsligt en del av tekniken? Blev väldigt förvirrad av det här.

Som det står beskrivet i artikeln handlar EU:s om Execution Units, enheter som bland annat består av ett antal shaderenheter. Förstår om det kan bli spretigt när artikeln tar upp EaEU också 🙂

Skickades från m.sweclockers.com

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Lyxfällan 🎮
Skrivet av Olle P:

Du glömde att det är en processor för laptop.

Jag har svårt att tänka mig att de använder en annan arkitektur bara för att det är ett diskret kort.
Högre effektbudget (frekvens) och bättre minne, ja, men längre än så sträcker det sig nog inte.
Prestandan måste i integrerat utförande vara rejält begränsad av minnet för att göra det diskreta kortet meningsfullt.

Nej det handlar sannolikt om samma arkitektur, men olika design för implementation av denna. När AMD använt samma grafikarkitektur i iGPU som dedikerade grafikkort har den övergripande designen skiljt sig åt.

Skickades från m.sweclockers.com

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Medlem

Ser ju inte så vidare lovande ut. Men riktigt kul med ny tech!

Återstår om det blir succe eller flopp.

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Avstängd
Skrivet av GamerGertzy:

Förlåt om jag är lite seg, men vad är "en EU"? Trodde det handlade om Europeiska unionen men så var det plötsligt en del av tekniken? Blev väldigt förvirrad av det här.

Dedikerade EU-ministrar som hjälper till en i realtid att avkoda vad som händer på spelet. EU-Tracing.

Tycker dem lika gärna kunnat lanserat något ballt, typ CrossFire stöd tillsammans med deras ordinarie iGPU-kretsar. 8)

Permalänk
Inaktiv
Skrivet av ThomasLidstrom:

Jag tror vi skall se på Intels "satsning" på diskreta grafikkort som en sidoaffär.

Den strategin funkar inte riktigt inom spelsegmentet... Iom den stora mängd resurser som måste satsas på drivrutiner och spelutvecklarkontakter så är det snarare all in som gäller. Annars kan intel ge upp innan de ens försökt, precis som de gjorde med larrabee.

Skrivet av sesese:

Kommer leverera om de kör 14nm 5GHz på gpun 👍😃
CS +1000Fps

1.5kW strömförbrukning emellertid, men visst... Blir nog schysst!

Permalänk
Avstängd

@loevet: ah, tack för förtydligandet! Det framkommer ingenting om minnesmängd och eventuellt stöd för strålspårning?

Permalänk
Quizmaster Malmö 22

Mellanklass = xx60
Prestandaklass = xx70
Entusiastklass = xx80
Superentusiastklass = xx80TI

Stämmer inte detta längre?

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem
Skrivet av Campaigner:

Mellanklass = xx60
Prestandaklass = xx70
Entusiastklass = xx80
Superentusiastklass = xx80TI

Stämmer inte detta längre?

De flesta utgår från prisklass. 2-3k mellanklass; under det, insteg/low-end/budget; över det high-end/entusiast etc.
Problemet med detta är förstås att priserna ständigt ökar tillsammans med beteckningarna så att mellanklass är snarare 3-4k idag.
Så jag tycker ditt sätt är bättre då man kan jämföra med tidigare generationer men som sagt, folk föredrar prisklasser istället och blir sura när de måste punga ut 1k+ i det segment man köper i. Prestanda/pris är anledningen, det har minskat rejält i mellansegmentet.

Permalänk

Jag hörde att det viskades om att överklassen ska kunna för köpa dessa för trippla beloppet..

Visa signatur

8700K@ 5Ghz, Noctua NH-D15, MSI RTX 2080 Ti VENTUS OC, Asus ROG STRIX Z370-F GAMING, Corsair Vengeance LPX Black 32GB 3000MHZ, Corsair RM850W, AOC C32G1 144Hz

Permalänk
Testpilot

Man kan ju anta att detta är första kortet som är tänkt för billiga OEM's möjligen. Tror inte ens Intel är så dumma att dom kommer försöka lansera detta som sitt "gaming" kort.

Sure, vi kanske inte får se 2080Ti prestanda. Men tror helt klart vi får se kort med någonstans runt RX 590-VEGA64/GTX 1660-RTX2060 prestanda åtminstone vid lansering.

Visa signatur

R < ROG G17 | R9 5900HX | 32GB 3200 MHz | RTX 3070 >

G < R9 5900X | 32GB 2666MHz | ROG RTX 3090 Ti >

B < RK96 | Leobog Hi75 | Deathadder V2 Pro >

Permalänk
Quizmaster Malmö 22
Skrivet av scara:

De flesta utgår från prisklass. 2-3k mellanklass; under det, insteg/low-end/budget; över det high-end/entusiast etc.
Problemet med detta är förstås att priserna ständigt ökar tillsammans med beteckningarna så att mellanklass är snarare 3-4k idag.
Så jag tycker ditt sätt är bättre då man kan jämföra med tidigare generationer men som sagt, folk föredrar prisklasser istället och blir sura när de måste punga ut 1k+ i det segment man köper i. Prestanda/pris är anledningen, det har minskat rejält i mellansegmentet.

Jag utgår också från prisklass. Det SKA man göra! T.ex 2070 som är som 1080 för samma pris OCH prestanda! Helt vansinnigt.....skulle fått en stämpel ”Nvidia ocker” lr nåt....

När jag köpte mitt GTX 570 2011 så var det som vi skriver, (xx60 för 2-3K).

Jag är beredd att justera mitt tänk så xx60 är på 3-4K o.s.v. fast är alla med på det?
Jag undrar om inte Intels inträde kommer sänka priserna till hur det var 2011-2017....fast jag e tveksam.....

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Avstängd
Skrivet av Campaigner:

Jag utgår också från prisklass. Det SKA man göra! T.ex 2070 som är som 1080 för samma pris OCH prestanda! Helt vansinnigt.....skulle fått en stämpel ”Nvidia ocker” lr nåt....

När jag köpte mitt GTX 570 2011 så var det som vi skriver, (xx60 för 2-3K).

Jag är beredd att justera mitt tänk så xx60 är på 3-4K o.s.v. fast är alla med på det?
Jag undrar om inte Intels inträde kommer sänka priserna till hur det var 2011-2017....fast jag e tveksam.....

Hur trevligt det än vore så känns det inte så troligt. Sett till de prissatt sina processorer senaste åren så tror jag inte de kommer göra bättre grafikkort för lägre priser och riskera gå i förlust för den goda sakens skull. Men med tiden så kanske de kan bidra till det. Men lär ta ett tag.

Permalänk
Medlem

@Campaigner: Det beror på bristande konkurrens. Nvidia tar betalt vad de vill utan att behöva jämföra sig med konkurrenter. Hoppas det ändrar sig om eller när AMD blir mer konkurrenskraftiga i toppsegmentet.