Intel visar upp tre massiva Xe-grafikkretsar

Permalänk
Melding Plague

Intel visar upp tre massiva Xe-grafikkretsar

Grafikchefen Raja Koduri visar upp tre ordentliga grafikdoningar baserade på Xe-arkitekturen för bruk i datacenter.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Avstängd

Dem måste ju suga ström som ett element. Nej, jag tror inte intels gpuer kommer vara något för dem som vill ha en effektiv dator när det kommer värme och energiprestanda.

Det gäller verkligen att dem presterar efter priset.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem

Lika stor som mina Pentium Pro från '96

Permalänk
Medlem

Lite roligt ändå att det ser någorlunda bra ut på nån front för Intel iallafall! Bara att hoppas att dom lyckas med Xe och Nvidia äntligen kan få lite konkurrens.

Samt känns lite som att Intel behöver få en framgång nu när det går så otroligt bra för dom ^^

Visa signatur

here we go!

Permalänk
Medlem
Citat:

Den tidigare uppvisade kretsen förefaller vara Xe HP-paketet i bilden innebär det att dess rejäla paketyta på 3 700 m² bleknar i jämförelse med Xe HPC, som sannerligen gör skäl för paketeringsnamnet "Big Fabulous Package". Den enorma kretsen lär sannolikt sällskapas av en väl tilltagen kylarlösning när den tar plats i högpresterande superdatorer.

Mjaa, 3700m² låter väl lite väl mycket?

Visa signatur

| nVidia RTX3090FE | R9 5950x | MSI x570 Unify | Ballistix sport 3000c15 32GB DR@3800c16 | Custom Loop EKWB | 9TB nvme, 3TB sata SSD | RM1000x | Creative X4 | Lian Li o11 Dynamic | Alienware aw3821dw | >Zen2 på 3-400 mobo< | >x570 VRM< | :::AMD Zen Minnesguide:::|:::AMD Zen & Zen+ Överklockningsguide:::

Permalänk
Lyxfällan 🎮
Skrivet av tellus82:

Mjaa, 3700m² låter väl lite väl mycket?

Nej det skulle in ett ”m” till där. Psst, rättelsefunktionen

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Inaktiv

"Big fabulous package, BFP", tillämpar MCM-strukturen där flera kretsar ansluts till varandra på ett och samma substrat"

Nä, Pass. Intel har sagt att ihoplimmade chip inte är något att ha.

Permalänk
Medlem
Skrivet av _Merc_:

Dem måste ju suga ström som ett element. Nej, jag tror inte intels gpuer kommer vara något för dem som vill ha en effektiv dator när det kommer värme och energiprestanda.

Det gäller verkligen att dem presterar efter priset.

Vad baserar du detta på? Att top-produkten har hög TDP säger absolut ingenting. Med ett så stort paket kan det motsvara flera separata GPU:er. Eller är Zen2 ett element pga att epyc går upp till 280W tdp?

Skrivet av anon228747:

Nä, Pass. Intel har sagt att ihoplimmade chip inte är något att ha.

Detta håller på att bli en "640K" historia.

Det är denna slide som det kommer ifrån:

Jag förstår inte hur man kan tolka detta som att "ihoplimmade" chip överlag inte är något att ha.

Permalänk
Inaktiv

@sKRUVARN: om jag lagt till en så hade synts att mitt inlägg inte var seriöst. nästa gång!

Permalänk
Snusfri

@sKRUVARN: Tyvärr är det så att man måste basha Intel och Nvidia idag och höja AMD till skyarna.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem
Skrivet av THB:

@sKRUVARN: Tyvärr är det så att man måste basha Intel och Nvidia idag och höja AMD till skyarna.

Visst är det synd att Intel och Nvidia faktiskt ger folk något att basha? AMD gör iallafall något rätt medan Intel? Not so much. Visst kan deras XE-arkitektur visa sig vara något av hästväg men samtidigt... Intel har inte givit något i huvud taget som pekar mot det. Det kombinerat med deras oförmåga att bete sig på CPU sidan gör ju att man inte har allt för stora förhoppningar. Så det du kallar för "Bash" kallar jag för rättmätig kritik. Och framförallt relevant sådan.

Sedan har vi ju detta med att större kretsar tenderar att dra mer ström.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Datavetare
Skrivet av anon228747:

@sKRUVARN: om jag lagt till en så hade synts att mitt inlägg inte var seriöst. nästa gång!

Fast hur är det ens lustigt? Intel har påstått en hel del tveksamma saker, men just påståendet om första generationen Epyc var riktigt träffsäkert.

Det var aldrig användning av MCM man kritiserade, Intel använde MCM redan på Pentium Pro tiden (vilket förklarar de bilder vi ser längre upp, dessa var stora just p.g.a. att de är MCM). Intel använder också MCM i alla deras U-serie laptops samt de har patent på "superlim" för kretsar (EMIB, lär vara det man använder i kretsarna som visas i artikeln).

Skrivet av Xinpei:

Visst är det synd att Intel och Nvidia faktiskt ger folk något att basha? AMD gör iallafall något rätt medan Intel? Not so much. Visst kan deras XE-arkitektur visa sig vara något av hästväg men samtidigt... Intel har inte givit något i huvud taget som pekar mot det. Det kombinerat med deras oförmåga att bete sig på CPU sidan gör ju att man inte har allt för stora förhoppningar. Så det du kallar för "Bash" kallar jag för rättmätig kritik. Och framförallt relevant sådan.

Sedan har vi ju detta med att större kretsar tenderar att dra mer ström.

De läckta resultat från Tiger Lake U pekar på att Xe verkar prestera bättre än Vega relativt den teoretiska beräkningskapaciteten. Dessa läckta resultat visar också hur många totalt missförstod vad den dGPU Intel visade upp på CES faktiskt var, det var inte ett försökt till en dGPU utan det var bara en paketering av den GPU som kommer sitta i Tiger Lake U för utvecklare. Av allt att döma kommer iGPU i 28 W Tiger Lake U vara 50 % högre klockad än den dGPU man visade (verkar bli 1,5-1,6 GHz).

Inget som kommer hota AMD/Nvidias gaming-kort, men om dessa läckta resultat stämmer handlar resten egentligen bara hur väl Intel lyckas skala upp kretsen. GPUer tenderar skala väldigt linjärt med teoretisk kapacitet då de i praktiken endast används till "embarrassingly parallel" problem.

Och det gör därför sista påståendet inkorrekt i just detta kontext. En krets med fler transistorer drar självfallet mer ström, men det är mer energieffektivt att nå en viss teoretisk beräkningskapacitet med många långsamma beräkningsenheter än få snabba. Många har försökt utmana Intel på CPU-sidan på det sättet, vilket är dömt att misslyckas då CPUer används primärt att till att lösa problem som inte ens i närheten av att vara "embarrassingly parallel".

GPUer är redan idag överlägsen CPUer på just saker som faller under klassen "embarrassingly parallel". Problemet är att man slagit i gränsen för hur stora kretsar som kan tillverkas, redan vid ~2 GHz börjar GPUer bli rätt rejält strömtörstiga. Nvidia och AMD har redan forskat många många år kring hur man kan skapa större GPUer via MCM, bl.a. Raja Koduri har trott väldigt hårt på detta. Vore ju rätt intressant om det är Intel som lyckas först, men helt osannolikt är det inte då de dels har Raja Koduri som jobbat med detta väldigt länge + de kunde rätt mycket starta från scratch.

Kan också vara så enkelt att Intel bara kör MCM i beräkningskorten. De presentationer jag läst kring detta från Nvidia pekar på att man har idéer kring MCM GPUer som fungerar bra för många problem, men de fungerar dåligt för rastrering (vilket är irrelevant för GPGPU).

Kretsar i alla ära: Nvidia har med brutal tydlighet visat att programvara är långt viktigare än HW när det kommer till att dominera datacenter. Om Xe blir fisk eller fågel i datacenter avgörs helt av hur bra/dåligt Intels oneAPI visar sig vara. Har själv mest använda CUDA för GPGPU, men det jag testat av oneAPI så här långt gör mig försiktigt positiv till att Intel kan lyckas!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Spännande med vad som ser ut som LGA-paket.

Permalänk
Inaktiv
Skrivet av Yoshman:

Fast hur är det ens lustigt? Intel har påstått en hel del tveksamma saker, men just påståendet om första generationen Epyc var riktigt träffsäkert.

Det var aldrig användning av MCM man kritiserade, Intel använde MCM redan på Pentium Pro tiden (vilket förklarar de bilder vi ser längre upp, dessa var stora just p.g.a. att de är MCM). Intel använder också MCM i alla deras U-serie laptops samt de har patent på "superlim" för kretsar (EMIB, lär vara det man använder i kretsarna som visas i artikeln).

Jag tycker att det är lustigt (läs:ger ett barnsligt intryck) att använda sig av termen glued together. Jag tror inte att lim har använts. Intel kunde använda tekniska termer och förklara nackdelarna med AMDs design utan att fula sig i sin marknadsföring. Det är mer respektingivande.
Nog om det, tråden handlar om nåogt annat. Haka inte upp er på min lunchrasttrollning.

Permalänk
Medlem

Heatspreader på en GPU? Låter inte som någon höjdare med tanke på temperaturer.

Permalänk
Rekordmedlem

Och när får vi se benchmarks mot nått obskyrt gammalt kort typ Rendition Verite ?
Det är benchmarks vi vill ha !

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem
Skrivet av loevet:

Nej det skulle in ett ”m” till där. Psst, rättelsefunktionen

Hur kul är det att använda rättelsefunktionen? Då får ju inte världen se att man hittade felet

Visa signatur

Lurkar - läser mycket skriver lite. Vill du få min uppmärksamhet är det citat eller pm som gäller.
Jag anser att AIO-kylare har en plats i världen men det är INTE i fullstora ATX-system.

Permalänk
Medlem

Undrar ja om inte Intels gpu satsning kommer ifrån att de märkte tidigt (tidigare en erkänt) att 10nm noden inte duger till cpu över hela brädet.

Då noden kostat massa pengar i utveckling/forskning så behövdes något de kan tillverka i stora volymer och så föddes deras nya gpu satsning....

Intels 7nm teknik är det gamla tian eller ngn som inte är up and running? Om det är en kommande vart står den mot motsvarande TSMC ?