Intels Xe-grafikkort skymtas – instegskort med 3 GB grafikminne

Permalänk
Melding Plague

Intels Xe-grafikkort skymtas – instegskort med 3 GB grafikminne

Intel DG1 dyker återigen upp i en databas för prestandatest, och specifikationer i listningen bekräftar platsen i instegsklassen.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Avstängd

Jag är riktigt glad att Intel ska släppa GPU. Ska bli extremt spännande!

Visa signatur
Permalänk
Medlem

Bilderna på kylaren ger inga höga förhoppningar.
Stock kylare 2.0 typ, så fort det går varmt så lär dom brumma satan

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk

Som jag har väntat på detta högpresterande monster!

Permalänk

Egentligen kanske ganska tråkigt kort prestandamässigt, men datanörden i mig älskar konstig eX°ti$k hårdvara.
...Man blir sugen på ett bara för att benchmarka, hitta quirks, akilleshälar och oväntade prestandafördelar i denna knasiga Intel-arkitektur. 😀

Visa signatur

Dator: EEE901 N270/ 1GB / 20GB SSD ... Kraftigt nedbantat/tweakat Win7 x86 for speeeEED!
Facebook användare? Hatar tidslinjen? gå med i denna FB-grupp:
Undo Timeline ...med lite tur får h*lvetet ett slut!

Permalänk
Medlem
Skrivet av hakd:

Bilderna på kylaren ger inga höga förhoppningar.
Stock kylare 2.0 typ, så fort det går varmt så lär dom brumma satan

Det är ett kort som drar max 75W (enbart el via pci-e), och antagligen mindre än så. Den kylningen är ju ut som vanliga modeller som finns upp emot rtx 2060, och de funkar helt okej för ändamålet. Det är trots allt inget prestandakort.

Visa signatur

Instead, why don't you go get me a big cup of coffee with so much fake sugar that the coffee itself gets cancer?

Louqe Ghost S1 MkII Limestone | Intel Core i5 11400F | Noctua NH-L12 Ghost S1 | Asrock B560M-ITX/AC | Crucial Ballistix 16gb 3466Mhz Cl16 | HP 3060 Ti Arctic Mod | WD Blue Nvme 1Tb | Corsair SF600 Platinum

Permalänk
Medlem

Hoppas verkligen att Intel tänker släppa medel och high-end kort så småning om. Då kan vi kanske få en sundare marknad.

Permalänk
Medlem

14nm?

Permalänk
Medlem
Skrivet av hakd:

Bilderna på kylaren ger inga höga förhoppningar.
Stock kylare 2.0 typ, så fort det går varmt så lär dom brumma satan

Tror ingen kommer vilja spela med det endå. det är nog gjort för väldigt enkla saker, typ titta på youtube och kunna se skrivbordet i windows.
drar du igång crysis 3 med allt på ultra low kommer det låta och vara ospelbart på samma gång och dom saker slår ut varandra direkt.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Tror ingen kommer vilja spela med det endå. det är nog gjort för väldigt enkla saker, typ titta på youtube och kunna se skrivbordet i windows.
drar du igång crysis 3 med allt på ultra low kommer det låta och vara ospelbart på samma gång och dom saker slår ut varandra direkt.

Klarar det inte crysis 3 på lägsta är det total flopp. 1650 klarar väl det mesta i 1080p medium på 75w. Visst 1650 är inte speciellt snabbt relativt sett, men det går absolut att spela på, och drar runt enklare populära titlar utan problem vilket gör att det lämpar sig i billiga oem burkar och laptops.

Frågan är dock hur stor marknaden är för ett kort i denna prestandaklass. Men kollar man steam hw survey så är det ändå hyfsad, kort som 1060, 1050ti, 1650 ligger alla före något amd eller rtx-kort i popularitet.

Permalänk
Medlem

Ska bli intressant. Gissar på att detta mest kommer hamna i OEM datorer med beteckningen "awesome 3GB gaming dedicated performance!"

Visa signatur

|ASUS Z170-A||6700K@4.6Ghz||Corsair H50 Scythe GT 1450RPM PnP||16GB Crucial DDR4 2133Mhz@2800Mhz||MSI RTX 3070||Crucial P3 2TB||Corsair HX 1050W||Fractal Design - Define R2 Black Pearl|Citera för svar
Fotoblogg: PlanetStockholm

Permalänk
Medlem

OK och nu när till och med 4GB börjar bli lite för många spel. Vet inte riktigt vilken grupp detta kort ska vända sig till. Men kul att se något livstecken!

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem
Skrivet av sKRUVARN:

Klarar det inte crysis 3 på lägsta är det total flopp. 1650 klarar väl det mesta i 1080p medium på 75w. Visst 1650 är inte speciellt snabbt relativt sett, men det går absolut att spela på, och drar runt enklare populära titlar utan problem vilket gör att det lämpar sig i billiga oem burkar och laptops.

Frågan är dock hur stor marknaden är för ett kort i denna prestandaklass. Men kollar man steam hw survey så är det ändå hyfsad, kort som 1060, 1050ti, 1650 ligger alla före något amd eller rtx-kort i popularitet.

trodde detta var rent skräp som geforce 220 eller liknande? det kvarstår dock att alla som bryr sig om ljudnivå ändå inte kommer slänga ett öga på detta kort PGA prestandan.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av Machiavellian:

Jag är riktigt glad att Intel ska släppa GPU. Ska bli extremt spännande!

Japp, hoppas det blir bättre denna gång än förra!

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Inaktiv

Är detta ens designat att vara ett spelgrafikkort eller vad snackar folk om? 3Gb är ej mycket att hänga i granen så om det inte är otroligt billigt har jag svårt att se folk köpa detta för en budgetspeldator, särskilt när budgetkorten i nvidias 1600-serie är rätt bra bang for buck

Permalänk
Medlem
Skrivet av anon242437:

Är detta ens designat att vara ett spelgrafikkort eller vad snackar folk om? 3Gb är ej mycket att hänga i granen så om det inte är otroligt billigt har jag svårt att se folk köpa detta för en budgetspeldator, särskilt när budgetkorten i nvidias 1600-serie är rätt bra bang for buck

Till stor del är det för OEM-datorer där de bara behöver nämna att det finns separat grafikkort, så att kunden tror att grejer ska funka. Och det lär väl nog funka att spela Minecraft, Sims och Fortnite...

Den kundgruppen är förvånansvärt stor, och de vet inte hur mycket de skulle kunna få för 1000kr mer.

Visa signatur

Instead, why don't you go get me a big cup of coffee with so much fake sugar that the coffee itself gets cancer?

Louqe Ghost S1 MkII Limestone | Intel Core i5 11400F | Noctua NH-L12 Ghost S1 | Asrock B560M-ITX/AC | Crucial Ballistix 16gb 3466Mhz Cl16 | HP 3060 Ti Arctic Mod | WD Blue Nvme 1Tb | Corsair SF600 Platinum

Permalänk
Medlem

@Herr Kantarell:
Om det är tänkt dur utveckling av mjukvara för plattformen så fungerar det nog att ta mindre minnes kretsar och få 3GB istället för 6GB. Sen för low end, 1,5GB hade varigt för lite. Skulle ju kunna vara en 96-bitars bus med 3GB. Tre stycken 32-bits minnen på 1GB var. Ställt mot t.ex. Nvidia 1660 Ti 6GB som har sex tycken 32bitar med 1GB var. Borde gå samt, inte bli för dyrt.

Min spekulation inget annat.

Edit:
Tänkte även om att det säkerligen är lättare att bygga en arkitektur som ska vara skalbar att låta den klara av större chipp(lagring kapacitet) sedan avgöra om man ska bredda bussen eller inte. Istället för att ändra om hur minneskontrollern fungerar.

Intel säger de lärt sig mycket av Larrabee så vi får hoppas på det samt att man får hoppas på att de inte glömt (skulle förvåna mig om de gjort) NetBurst.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av MarkSix:

Skulle väl starta på 10 nm (möjligen 7 nm), Radja var ju över i Korea och besökte Samsung för lite mer än ett år sedan.

Källa: Intel Courting Samsung to Manufacture Xe GPUs

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Inaktiv
Skrivet av Sando:

Till stor del är det för OEM-datorer där de bara behöver nämna att det finns separat grafikkort, så att kunden tror att grejer ska funka. Och det lär väl nog funka att spela Minecraft, Sims och Fortnite...

Den kundgruppen är förvånansvärt stor, och de vet inte hur mycket de skulle kunna få för 1000kr mer.

Det har du helt rätt i och visst borde det funka åt mer lättdrivna spel som de du nämnde. De som bygger OEM-datorer har väl avtal med de som gör komponenterna så får väl nån sorts deal på cpu och gpu då får man anta

Permalänk
Medlem

Kul att se!
Om de gör bra ifrån sig i budgetsegmentet så öppnar det möjligheter för förstagångsbyggen (Fler medlemmar i PC-klubben är bra) och det skapar konkurrens vilket är bra för alla konsumenter.
Hoppas de satsar hårt på det här och kliver upp i prestandanivå med tiden.

Permalänk
Moderator
Testpilot

Jag kan inte se detta på något annat sätt än extremt positivt. Även om det visar sig att det är potatisprestanda i jämförelse med AMD och NVidia så kommer dessa två jättar inom området självklart att vara mycket uppmärksamma på Intel.

Skulle de dessutom lyckas få prestanda på korten ändå upp i mellanklassen så kan det verkigen visa sig bli en guldålder för PC-gaming. Priserna just nu är rätt höga så konkurrens är välkommet i alla avseenden.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Dinoman:

Jag kan inte se detta på något annat sätt än extremt positivt. Även om det visar sig att det är potatisprestanda i jämförelse med AMD och NVidia så kommer dessa två jättar inom området självklart att vara mycket uppmärksamma på Intel.

Skulle de dessutom lyckas få prestanda på korten ändå upp i mellanklassen så kan det verkigen visa sig bli en guldålder för PC-gaming. Priserna just nu är rätt höga så konkurrens är välkommet i alla avseenden.

Definitivt. Intel behöver inte nå upp till RTX 2080 Ti-nivå för att ha en påverkan på priserna i toppsegmentet. Om de t.ex. kunde nå upp till RTX 2060-nivå för konkurrenskraftiga priser (säkert minusaffärer i början) så skulle det tvinga ner priserna i det segmentet. Om man plötsligt får RTX 2060-prestanda för 2000kr så blir Nvidia och AMD tvungna att sänka priserna i de segmenten, vilket gör att segmentet över måste sänkas för att hålla okej prisvärdhet. Sen blir det en kedjeeffekt genom hela marknaden.

Förhoppningsvis kommer vi snart igen till en tid då toppkorten kostar kanske 700 usd, och inte 1000 usd i teorin och 1200 usd i praktiken.

Visa signatur

Instead, why don't you go get me a big cup of coffee with so much fake sugar that the coffee itself gets cancer?

Louqe Ghost S1 MkII Limestone | Intel Core i5 11400F | Noctua NH-L12 Ghost S1 | Asrock B560M-ITX/AC | Crucial Ballistix 16gb 3466Mhz Cl16 | HP 3060 Ti Arctic Mod | WD Blue Nvme 1Tb | Corsair SF600 Platinum

Permalänk
Medlem

Det drar ihop sig.
Ser fram emot "all Intel inside vs all AMD inside"
Nu när vi har två aktörer som både tillverkar CPUer och GPUer kanske det finns chans att något nytt protokoll uppstår? Dedikerade beräkningskort kanske?

Permalänk
Keeper of the Bamse
Skrivet av MarkSix:

Du, det är faktiskt 14nm+++++.

Visa signatur

i7 10770K, NH-D15. 16GB corsair. RTX 3080. 3TB nvme. Samsung G9. Fractal Torrent Compact. Corsair RM850.
Logitech G pro wireless mouse. Logitech TKL915 wireless. Logitech Pro X Wireless.
Macbook pro M1 (16GB, 512GB). HP Reverb G2.
www.bamseclockers.com

Permalänk
Medlem
Skrivet av Aka_The_Barf:

trodde detta var rent skräp som geforce 220 eller liknande? det kvarstår dock att alla som bryr sig om ljudnivå ändå inte kommer slänga ett öga på detta kort PGA prestandan.

Det känns extremt osannolikt, kylaren tyder på att det faktiskt är ett 75w kort (”skräp”-kort kan man kyla passivt utan problem), och den har nästan dubbelt så många au som iris pro och är 50% högre klockad. Kort som 710 eller andra några hundralappar kort är väl helt utspelade sedan länge av igpu, nvidia uppdaterar väl knappt dom modellerna utan de flesta korten är väl riktigt gamla så hade vart konstigt att släppa ett kort som inte är mycket uppgradering över igpu.

Målet borde vara 1650 iom att det är det snabbaste kortet som inte kräver extra ström, får väl helt enkelt vänta å se vart det hamnar i förhållande till det i pris och prestanda.

Permalänk
Medlem
Skrivet av sKRUVARN:

Det känns extremt osannolikt, kylaren tyder på att det faktiskt är ett 75w kort (”skräp”-kort kan man kyla passivt utan problem), och den har nästan dubbelt så många au som iris pro och är 50% högre klockad. Kort som 710 eller andra några hundralappar kort är väl helt utspelade sedan länge av igpu, nvidia uppdaterar väl knappt dom modellerna utan de flesta korten är väl riktigt gamla så hade vart konstigt att släppa ett kort som inte är mycket uppgradering över igpu.

Målet borde vara 1650 iom att det är det snabbaste kortet som inte kräver extra ström, får väl helt enkelt vänta å se vart det hamnar i förhållande till det i pris och prestanda.

Ja. Jag har ett gammalt 210 som felsöknings kort. Det duger dom till

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Datavetare
Skrivet av sKRUVARN:

Det känns extremt osannolikt, kylaren tyder på att det faktiskt är ett 75w kort (”skräp”-kort kan man kyla passivt utan problem), och den har nästan dubbelt så många au som iris pro och är 50% högre klockad. Kort som 710 eller andra några hundralappar kort är väl helt utspelade sedan länge av igpu, nvidia uppdaterar väl knappt dom modellerna utan de flesta korten är väl riktigt gamla så hade vart konstigt att släppa ett kort som inte är mycket uppgradering över igpu.

Målet borde vara 1650 iom att det är det snabbaste kortet som inte kräver extra ström, får väl helt enkelt vänta å se vart det hamnar i förhållande till det i pris och prestanda.

Tror du verkligen DG1 behöver ens i närheten av 75W? Tänk på att en Xe-krets med lika många EU kommer vara integrerad i Tiger Lake U CPUer, där ska en TDP 15-25 W delas med CPU.

Möjligen kommer GPU i Tiger Lake U ha lägre frekvens, Intel har ju klockat sina iGPU runt 1,0-1,2 GHz under väldigt många generationer. Notebookcheck lägger sin gissning på att de DG1-kort vi sett har en effekt på ~25 W.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Tror du verkligen DG1 behöver ens i närheten av 75W? Tänk på att en Xe-krets med lika många EU kommer vara integrerad i Tiger Lake U CPUer, där ska en TDP 15-25 W delas med CPU.

Möjligen kommer GPU i Tiger Lake U ha lägre frekvens, Intel har ju klockat sina iGPU runt 1,0-1,2 GHz under väldigt många generationer. Notebookcheck lägger sin gissning på att de DG1-kort vi sett har en effekt på ~25 W.

Kylaren hade väl vart helt overkill vid 25w? De flesta kort i den klassen är passivt kylda eller har någon liten skit fläns och kylare.

Länken är väl för mobil-variaten? Är väl rätt troligt att det är konfigurerbar tdp och att den kan klockas lägre för laptops. 1.5ghz är ändå hyfsat klockat.

Sen kan det absolut vara så att det är mindre än 75w, men det hade imo vart ett felsteg för en dgpu, den måste ända ha prestanda nog för att fylla funktion. Dom har endå demat den med spel, så spel lär vara en del av dess syfte.

Permalänk
Datavetare
Skrivet av sKRUVARN:

Kylaren hade väl vart helt overkill vid 25w? De flesta kort i den klassen är passivt kylda eller har någon liten skit fläns och kylare.

Länken är väl för mobil-variaten? Är väl rätt troligt att det är konfigurerbar tdp och att den kan klockas lägre för laptops. 1.5ghz är ändå hyfsat klockat.

Sen kan det absolut vara så att det är mindre än 75w, men det hade imo vart ett felsteg för en dgpu, den måste ända ha prestanda nog för att fylla funktion. Dom har endå demat den med spel, så spel lär vara en del av dess syfte.

Länken är specifikt för det externa kortet då den integrerade varianten knappast kommer använda GDDR6. Frågan är kanske mer om det överhuvudtaget kommer någon produkt baserad i form av ett instickskort baserad på Xe-LP (LP = Low Power, i praktiken riktat mot bärbara) eller om det endast kommer användas i form av en krets direkt på PCB i bärbara?

Att kyla 25-30 W passivt verkar vara gränsfall. Nog för att "ingen" tänkt sig att man skulle köra GPU-versionen av folding@home på ett 1030, men kunde inte låta bli att testa... Är en rätt rejäl kylfläns på det 1030 kort jag har, det är helt passivt. Utan luftflöde från chassifläktar verkar det kortet (som har 30 W TDP) överhetta under långvarig (många timmar) GPGPU-last. Inga som helst problem att använda kortet i desktop, men då lär det knappast dra maxeffekt under någon längre tid.

Man kan också jämföra med laptops, 15 W TDP CPUer är inget man kyler passivt (fast självklart delvis beroende på väldigt begränsat utrymme). Det närmaste jag kan komma på är Surface Pro 5 där i5 versionen var passiv (i7 hade fläkt), fast möjligen körde man den då i cTDP-down vilket ger 12 W TDP.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Länken är specifikt för det externa kortet då den integrerade varianten knappast kommer använda GDDR6. Frågan är kanske mer om det överhuvudtaget kommer någon produkt baserad i form av ett instickskort baserad på Xe-LP (LP = Low Power, i praktiken riktat mot bärbara) eller om det endast kommer användas i form av en krets direkt på PCB i bärbara?

Att kyla 25-30 W passivt verkar vara gränsfall. Nog för att "ingen" tänkt sig att man skulle köra GPU-versionen av folding@home på ett 1030, men kunde inte låta bli att testa... Är en rätt rejäl kylfläns på det 1030 kort jag har, det är helt passivt. Utan luftflöde från chassifläktar verkar det kortet (som har 30 W TDP) överhetta under långvarig (många timmar) GPGPU-last. Inga som helst problem att använda kortet i desktop, men då lär det knappast dra maxeffekt under någon längre tid.

Man kan också jämföra med laptops, 15 W TDP CPUer är inget man kyler passivt (fast självklart delvis beroende på väldigt begränsat utrymme). Det närmaste jag kan komma på är Surface Pro 5 där i5 versionen var passiv (i7 hade fläkt), fast möjligen körde man den då i cTDP-down vilket ger 12 W TDP.

Jag pratar om instickskort för stationära nu, alltså det som visas på bild i artikeln, och det handlade inte den länken om, står specifikt mobile och laptop i var och varannan mening. Och vi kan ju jämföra den designen med ett gt720 med 20w rtp

Edit. Just det där kortet är nog dock lite nerklockat för att komma undan med sådan liten kylare, men oavsett kolla på kortdesign på kort runt denna tdp, kortet som visas i artikeln är betydligt bitigare. Och som sagt, dessa kort är rätt utspelade vid det här laget, finns inte mycket poäng att släppa ett instickskort (eller ja, nån nytta finns såklart) som man ska spela på som inte är mycket snabbare än igpu.

Edit2.
Kanske kan droppa diskussionen, ser inte ut att bli något instickskort?

https://www.techpowerup.com/266920/intel-xe-dg1-silicon-not-m...