Intel visar konceptbilder på Xe-grafikkort

Permalänk
Datavetare

Undrar hur mycket fokus Intel Xe Graphics kommer ha på konsumentprodukter, i alla fall initialt?

Om man följde keynote på Nvidias GPU technology conference, GTC, var det svårt att missa att GPGPU verkligen börjar rullas ut på bred front (det efter ca ett decennium av snack, så på tiden...).

För Intel är problemet med detta rätt uppenbart: allt fler saker som idag rullar på deras Xeon-produkter med fina marginaler kommer i de fall som innehåller massiv parallellism allt mer flyttas över till GPGPU. Idag ser man typisk en tiopotens högre prestanda om dessa laster flyttas till GPU, samtidigt ökar också perf/W rätt rejält (men inte fullt lika mycket som prestanda).

Att Intel redan från start siktar in sig på high-end segment i datacenter står klart då de redan säkrat en rejäl fjäder i hatten

"The Intel Xe Graphics are expected to put Aurora over the edge in being the first exascale super computer at least within the United States"

Men finns ett väldigt stort problem för Intel (och även AMD) i datacenter: CUDA!
Hos de kommersiellt viktiga programvarorna har i princip alla CUDA-stöd. Ofta är CUDA det enda som stöds...

Skulle inte ens kalla OpenCL en konkurrent till CUDA längre. Apple drog igång OpenCL och när de drog sig ur saknades en självklar ledare där. OpenCL har aldrig heller varit lika enkelt att använda som CUDA.

De problem ovan är kända och som tur är jobbar Khronos group på något som mycket mer är ett verkligt öppet alternativ till CUDA: SyCL. SyCL använder typiskt OpenCL som en form av lågnivå drivare, men då SyCL ligger på en något högre abstraktionsnivå även än CUDA är det fullt möjligt att även köra det ovan på CUDA (något som också finns i form av hipSYCL). Finns även en variant av hipCYCL som körs på AMD GPUOpen initiativ.

Får se vad som händer. Just för tillfälle är Nvidia egentligen enda realistiska alternativet för de flesta GPU-baserade datacenterprojekt, just p.g.a. CUDA.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Förknippar redan något negativt med Intels nya diskreta GPU satsning, HardOCP är en av mina favoritsiter genom åren... kommer bli jobbigt att se den gå i graven.

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Medlem
Skrivet av Teicaus:

Tror många missar att anledningen till varför Intel ger sig ut på grafikmarknaden är för att de är rädda att tappa Apple som kund. Apple har nu satt stora blickar med att i princip ersätta alla sina Intel processorer + grafiken med Ryzen (högre marginaler). Redan nu kan vi se att Polaris och Vega intagit i princip alla iMacs, jag antar att Apple väntar på Zen 2 så att de kan leverera "Intel" prestanda fast med AMD.

Jag tänker mig 2020, första "Entry level" grafiken kommer och sen får man en liten peak på vad "middle" segmented går och sen 2021 får man "enthusiast" nivån. Dock har jag inte stora förväntningar utan de lär nog fokusera sjukt mycket på prestanda/W.

Jag tror apple rullar ut ARM-baserade Macar inom 5 år. De lär sitta kvar med intel innan det bytet.

Inte konstigare än att Apple bytte ut PowerPC till x86 år 2006. Sen vill de helst ha egenkontroll än att någon extern ska göra något så kritiskt som CPU och liknande delar.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av PlogarN97:

Jag tror apple rullar ut ARM-baserade Macar inom 5 år. De lär sitta kvar med intel innan det bytet.

Inte konstigare än att Apple bytte ut PowerPC till x86 år 2006. Sen vill de helst ha egenkontroll än att någon extern ska göra något så kritiskt som CPU och liknande delar.

Skickades från m.sweclockers.com

Anledningen till varför de har kört med Intel under alla dessa är är Thunderbolt supporten. Nu när Thunderbolt blir en öppen standard så kan Apple lägga in Ryzen (vilket lär supporta thunderbolt).

Jag tror däremot inte att Apple kommer köra ARM spåret, om inte de gör någon lättare version av MB Air vilket jag tvivlar. Apple kommer inte lägga den resurs för att göra att ARM soc fungerar med Mac OS, plus på det så ska det portas flera program allt som kommer kosta och med största sannolikheten kosta mer än att bara köra på en Ryzen processor.

Även om ARM låter bra så är det fortfarande långt borta från att nå en x86 nivå.

Permalänk
Medlem
Skrivet av Jacob:

Jag håller med om det mesta om man breddar diskussionen, det finns så klart långt mycket mer att ta hänsyn till vid köp av ett grafikkort eller processor än strömförbrukningen. Något kan ha väldigt bra energieffektivitet (prestanda/W), men brista på andra punkter. Kan vara specifika funktioner som saknas, "för lite" VRAM eller en viss funktion som är jätteviktig för just mig men inte nödvändigtvis andra. Men att arkitekturen är energieffektiv är helt grundläggande, om det sitter kan resten pusslas ihop efterhand när man ska designa kretsar för olika ändamål.

Var ute efter att bemöta påståendet att energieffektivitet inte är viktigt och bara relevant för bärbara datorer. Tycker det är en villfarelse som ofta dyker upp i forumet att det är något som är mindre viktigt eller rentutav inte spelar någon roll alls, när det i själva verket är helt centralt och har ett direkt samband till prestandan. Ligger man för långt efter i energieffektivitet går det bara skala upp arkitekturen "so far" innan det blir dumdristigt och krasst tar stopp.

^ tänkte precis det samma. Kylningen är ju det som sätter stop för hur mycket man kan skala upp prestandan. Och rent praktiskt så begränsas ju korten av hur varma dom blir. varför effektivitet är viktigt.
Om du har ett kort som är bara 50% effektivt jämfört med konkurrenterna, så kan du bara skala upp till 50% av prestandan av konkurrenterna, för sedan måste du gå över till vattenkylning, eller bygga något brütalt massivt i luftkylningsväg. rent praktiskt finns det ingen anledning för kunderna att välja en sådan lösning.

Permalänk
Inaktiv

Vore smutt med externa GPU från start, och bra open source-drivrutiner.

Skickades från m.sweclockers.com

Permalänk
Medlem

Snåla inte på kylaren tack. vi vill ha tysta kort. (ja jag antar att alla föredrar tysta kort över högljudda med samma prestanda)

Permalänk
Datavetare
Skrivet av Teicaus:

Anledningen till varför de har kört med Intel under alla dessa är är Thunderbolt supporten. Nu när Thunderbolt blir en öppen standard så kan Apple lägga in Ryzen (vilket lär supporta thunderbolt).

Jag tror däremot inte att Apple kommer köra ARM spåret, om inte de gör någon lättare version av MB Air vilket jag tvivlar. Apple kommer inte lägga den resurs för att göra att ARM soc fungerar med Mac OS, plus på det så ska det portas flera program allt som kommer kosta och med största sannolikheten kosta mer än att bara köra på en Ryzen processor.

Även om ARM låter bra så är det fortfarande långt borta från att nå en x86 nivå.

Tror du får omvärdera din syn på ARM. Sista meningen stämmer absolut för alla existerande och antagligen alla kommande 32-bitars ARM CPUer, det är långt ifrån sant för 64-bitars ARM.

Första man måste inse med 32-bitars ARM vs 64-bitars ARM är att det inte går att jämföra med 32-bitars x86 vs 64-bitars. I det senare fallet är det rätt mycket bara en utökning av register och adressering från 32-bitar till 64-bitar. I ARM-fallet handlar det om två separata instruktionsuppsättningar där det råkar finnas en del CPU-modeller som kan köra båda (dock inte Apples senare, de är 64-bit only).

Apples senaste CPU har i en låg rad arbetslaster (typ allt som inte kan använda AVX effektivt) 40-50 % högre IPC jämfört med Skylake! När Apple lanserade Ipad pro hävdade man att den var snabbare än 92 % av alla x86-baserade bärbara datorer. Vet inte hur det mätt det, men det har gjorts en del tester och inget tyder egentligen på att det uttalandet är uppenbart felaktigt.

64-bitars ARM är specifikt designat för att passa den s.k. minneskonsistensmodell som används i C11/C++11 (som i sin tur är väldigt likvärdig den som används av t.ex. Java och C#). x86 är inte en perfekt match, vilket inte borde förvåna någon då dessa delar är något som spikades långt innan multicore-CPUer var standard i PC.

64-bitars ARM är designat så det undviker en lång rad serialiserande moment mellan instruktions, vilket är orsaken till att Apples A12 "Bionic" kan köra upp till 7 instruktioner per cykel. Vore total slöseri med transistorer att göra en så "bred" x86, bredden där är 4 för det generella fallet, finns specialfall där Skylake kan nå 5.

x86 har i ingen nytta av att vara en "CISC", kompilatorer använder i praktiken bara "RISC" instruktioner på x86 då det ger bättre prestanda ("komplexa" instruktioner är inte helt sällan mikrokodade -> skitlångsamma).

Apple kan inte matcha desktop x86 idag, men man får komma ihåg att det rätt mycket beror på att Ipad pro inte möjliggör en TDP på speciellt många Watt då den är passivt kyld. Passiv kylning brukar sätta en gräns på TDP <10 W.

Jag är övertygad att Mac kommer byta till Apples egna CPU innan utgången av 2021.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av sKRUVARN:

Fast här kommer ju Jacobs poäng in, för tillverkare pressar generellt inte korten över 300W, så det är ju just det som sätter stopp. Därför är det prestanda/w som avgör hur snabbt toppkortet kan göras.

Och om du läser första stycket av inlägget, ser du att exakt den poängen håller jag med honom om. Men som jag också sagt tidigare, Intel design och tillverknings situation deras egna ord, har varit pekar mot endast mainstream och budget. Så 300W gränsen är väldigt långt bort på dessa kort.

Skrivet av Jacob:

Var ute efter att bemöta påståendet att energieffektivitet inte är viktigt och bara relevant för bärbara datorer. Tycker det är en villfarelse som ofta dyker upp i forumet att det är något som är mindre viktigt eller rentutav inte spelar någon roll alls, när det i själva verket är helt centralt och har ett direkt samband till prestandan. Ligger man för långt efter i energieffektivitet går det bara skala upp arkitekturen "so far" innan det blir dumdristigt och krasst tar stopp.

Yep, är med på det.
Ville själv bara påpeka att i tex mellan-klassen är det sällan en begränsning. Det blir en begränsning när du ska gå mot high-end dock. Men självklart spelar det roll över en hel generation av kort.

Permalänk
Inaktiv

Undra när vattenblocken kommer visas på bild 🤪

Permalänk
Trollfabrik 🫶🏻
Skrivet av Paddanx:

Och om du läser första stycket av inlägget, ser du att exakt den poängen håller jag med honom om. Men som jag också sagt tidigare, Intel design och deras egna ord, har varit mainstream och budget. Så 300W gränsen är väldigt långt bort på dessa kort.

Yep, är med på det.
Ville själv bara påpeka att i tex mellan-klassen är det sällan en begränsning. Det blir en begränsning när du ska gå mot high-end dock. Men självklart spelar det roll över en hel generation av kort.

Det är första gången jag läser att Intel sagt något sånt. Tvärtom har Intel kommunicerat att Xe ska täcka alla segment av marknaden, från integrerade kretsar i processorer till insteg, mellanklass, entusiastklass och hela vägen upp till datacenter.

Att en arkitektur och i förlängningen en färdigpaketerad krets är mer energieffektiv gör också att man kan bygga ett enklare kretskort och använda en enklare kylare, vilket i sin tur ger större marginaler för att pressa priserna mot slutkund. Att du eller någon annan som köper ett grafikkort struntar i det i exempelvis mellanklassen och tycker det är oviktigt om en dator drar 50-150 W mer är en helt annan sak.

Det finns bara fördelar med att vara mer energieffektiv och inga nackdelar ens för entusiaster oavsett prisklass. Därmed går jag "full-circle" med att det inte alls är något som bara är viktigt i bärbara datorer och att det är en av de enskilt viktigaste sakerna alla som jobbar med kretsdesign arbetar mot.

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Datavetare
Skrivet av Paddanx:

Och om du läser första stycket av inlägget, ser du att exakt den poängen håller jag med honom om. Men som jag också sagt tidigare, Intel design och deras egna ord, har varit mainstream och budget. Så 300W gränsen är väldigt långt bort på dessa kort.

Råder inga tvivel om att Intel siktar på absoluta high-end segmentet redan från start med deras "Xe Compute Accelerators". Sen betyder det i.o.f.s. inte automatiskt att man ger sig på toppsegment för konsumenter direkt.

Nvidias senaste utspel visar ändå att de högre prissegmenten må sälja färre kort, men det som räknas för de flesta företag är storleken på vinsten produkterna genererar. Intel om någon har ju visat att de prioriterar produkter med högre marginaler, vilket ändå ger en vink om att de nog är rätt sugna på high-end segmentet också för konsumenter.

Sen handlar ju inte effekten på kort i mellansegmentet om huruvida kortet kostar några kronor mer eller mindre per år i elräkning. Ett kort som drar mindre kommer låta mindre, ljudvolymen är en egenskap hyfsat många sätter stort värde på.

Skiktar man sedan på bärbara är ju gränsen långt under 300 W, det är trots allt en marknad som börjar närma sig 80 % av PC-marknaden. Marknaden för spel-laptops är en växande marknad.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Råder inga tvivel om att Intel siktar på absoluta high-end segmentet redan från start med deras "Xe Compute Accelerators". Sen betyder det i.o.f.s. inte automatiskt att man ger sig på toppsegment för konsumenter direkt.

Nvidias senaste utspel visar ändå att de högre prissegmenten må sälja färre kort, men det som räknas för de flesta företag är storleken på vinsten produkterna genererar. Intel om någon har ju visat att de prioriterar produkter med högre marginaler, vilket ändå ger en vink om att de nog är rätt sugna på high-end segmentet också för konsumenter.

Är ju en sak att sikta där, en annan att nå dit. Deras egna ord var 2020 mainstream Det mest logiska nivån för 2020 är mainsteam, men naturligtvis så siktar man på toppen idag. Mycket kan ske på 1 år dock.

Sen självklart är hela inkomst källan för Intel deras server-marknad. Detta var nog hela anledningen till varför de ens ville in i den. Men ta Nvidias touring tex... Touring kärnorna i sig kan inte göra spelgrafik optimalt. De är eg bara död vikt i kortet, tills du ger dem ett specifikt syfte. Touring har ju redan innan 20-serien funnits ute på beräkningssidan, men man var tvungen att göra en nish-marknad (RT) för att ens kunna sälja dessa transistorer. För de flesta som spela på sina 20-series kort, använder de inte ens hela chippet... men i beräkning gör du.

Intel kan mycket väl mao göra en kärna som är super-stark i beräkning... men kanske inte ens når mer än mid-end i konsument. Och då kommer ju frågan fram... 250W top-of-the-line Intel, som kanske också blir lite nischad, vs en optimerad lösning från en konkurrent på säg 175W... är det sämre då? Om priset är rätt imho, nej.

Skrivet av Yoshman:

Sen handlar ju inte effekten på kort i mellansegmentet om huruvida kortet kostar några kronor mer eller mindre per år i elräkning. Ett kort som drar mindre kommer låta mindre, ljudvolymen är en egenskap hyfsat många sätter stort värde på.

Detta är precis den poängen som jag starkt hävdar är fel tänkt. För som sagt, klenare kort, klenare kylare. Allt där handlar om prispunkten och vinsten för företagen. Det finns gott om kylare som klarar 250W+ och ändå är tysta, och det finns dinky 1-fläktskylare som låter som tusan, och allt mellan. Tom inom exakt samma krets, exakt samma modell, kan olika tillverkare ha olika bra kylare som låter/mer eller mindre, kyler sämre/bättre. Så det är exakt denna okunskap jag vill banka bort.

Sen ja, det är inte helt osanning, om vi antar exakt samma kylare, men det är rätt dumt att använda samma kylare så, något ASUS 290 korten kan erfarna, där de tog 780 kortets kylare och smällde på, vilket inte kylde VRM, och knappt ens hela kärnan mot heatpipes. Normalt gör de en kylare "per krets generation" iaf... och då är det inte rätt tänkt att en 175W 20-serie skulle låta mer än en 150W 10-serie, bara för det är högre TDP.

Skrivet av Yoshman:

Skiktar man sedan på bärbara är ju gränsen långt under 300 W, det är trots allt en marknad som börjar närma sig 80 % av PC-marknaden. Marknaden för spel-laptops är en växande marknad.

Men bärbara är effektivitet enorm del, det håller jag med om. Men även här är priset om du vill se växande marknad kritiskt. Folk vet inte vad de köper oftast när det kommer till massan.

Men här är samma fel-tänk som ovan många gånger... gör du ordentlig kylning, låter den inte, men de gör tyngre/tjockare laptop. Gör du den "för tunn" kan du ha en super effektiv krets, men det kommer låta uta F ändå när en ensam lite fläkt ska gå i 5000 RPM utan något bra flöde. Så åter... design av kylningen är mer kritiskt för slutresultatet än många tror. Sen ja, har du lägre effekt är det "enklare"... men det betyder tyvärr inte att tillverkaren gör dem lika bra om de kan spara lite $$$.

Permalänk
Medlem
Skrivet av Jacob:

Det är första gången jag läser att Intel sagt något sånt. Tvärtom har Intel kommunicerat att Xe ska täcka alla segment av marknaden, från integrerade kretsar i processorer till insteg, mellanklass, entusiastklass och hela vägen upp till datacenter.

Detta är något man läst på många ställen på sidorna, och det dinky lilla kortet som visas hintar lite om det också, om du nu inte tror tvärt emot dig själv:
https://www.sweclockers.com/nyhet/26990-alienware-orealistisk...

De siktar på datacenter och självklart high-end, men att de skulle nå det 2020... är inte troligt, speciellt inte med tanke på att deras 10nm inte ens är i produktion förrän tidigast typ 3-6 mån från nu, och då i CPU skala. Att få en vettig yield på den till 2020, på kretsstorlekar av Vega/2080Ti... nej, det kan jag inte tro.

Skrivet av Jacob:

https://cdn.sweclockers.com/artikel/bild/66755?l=eyJyZXNvdXJjZSI6IlwvYXJ0aWtlbFwvYmlsZFwvNjY3NTUiLCJmaWx0ZXJzIjpbIndtIiwidD1vcmlnaW5hbCJdLCJwYXJhbXMiOltdLCJrZXkiOiI4Y2M2ZGNhMTdiNDNjYjlhMjIwMDU1NGY3ZWYzNDljYSJ9
Att en arkitektur och i förlängningen en färdigpaketerad krets är mer energieffektiv gör också att man kan bygga ett enklare kretskort och använda en enklare kylare, vilket i sin tur ger större marginaler för att pressa priserna mot slutkund. Att du eller någon annan som köper ett grafikkort struntar i det i exempelvis mellanklassen och tycker det är oviktigt om en dator drar 50-150 W mer är en helt annan sak.

Fury-Nano. Allt jag säger.
Effektiv som tusan i låg frekvens... men törstig och inte lönt när du skulle skala upp.
Det är inte bara vrida upp frekvensen, och allt är bra, det vet du också, vi har tom pratat om det.

Skrivet av Jacob:

Det finns bara fördelar med att vara mer energieffektiv och inga nackdelar ens för entusiaster oavsett prisklass. Därmed går jag "full-circle" med att det inte alls är något som bara är viktigt i bärbara datorer och att det är en av de enskilt viktigaste sakerna alla som jobbar med kretsdesign arbetar mot.

Pris... kan vara en satans nackdel. För om utvecklingen kostar förmögenhet, får du 15kkrs GPUer...
Men förutom det, håller jag med.

Permalänk
Trollfabrik 🫶🏻
Skrivet av Paddanx:

Detta är något man läst på många ställen på sidorna, och det dinky lilla kortet som visas hintar lite om det också, om du nu inte tror tvärt emot dig själv:
https://www.sweclockers.com/nyhet/26990-alienware-orealistisk...

De siktar på datacenter och självklart high-end, men att de skulle nå det 2020... är inte troligt, speciellt inte med tanke på att deras 10nm inte ens är i produktion förrän tidigast typ 3-6 mån från nu, och då i CPU skala. Att få en vettig yield på den till 2020, på kretsstorlekar av Vega/2080Ti... nej, det kan jag inte tro.

Fury-Nano. Allt jag säger.
Effektiv som tusan i låg frekvens... men törstig och inte lönt när du skulle skala upp.
Det är inte bara vrida upp frekvensen, och allt är bra, det vet du också, vi har tom pratat om det.

Pris... kan vara en satans nackdel. För om utvecklingen kostar förmögenhet, får du 15kkrs GPUer...
Men förutom det, håller jag med.

Den där argumentationstekniken du håller på med nu är bara tråkig, du kan bättre. Läs vad du själv skriver och vad jag bemöter utan att försöka vrida mina ord till något annat. Det var du som skrev att Intels egna ord är mainstream och budget, vilket jag visade inte stämmer då de även siktar på entusiaster och datacenter. Du skriver det till och med själv i det här inlägget, så förstår inte riktigt vad det är du försöker med.

Sen kan jag givetvis skriva om ett företag och dess ståndpunkter eller förmedla något av deras budskap utan att dela dess uppfattning personligen, det säger ju sig självt. I fallet Alienware håller jag dock med om att det är orealistiskt att Intel skulle lyckas slå home-run på första försöket, men det ändrar inte det faktum att det är vad Intel siktar på. Vilket också är just vad jag besvarade utan att lägga någon som helst värdering i vad jag själv tror eller tycker.

Jag pratar fortfarande inte om specifika produkter eller priser på dessa utan bemötte villfarelsen om att energieffektivitet bara är viktigt för bärbara datorer, vilket är direkt felaktigt och det finns ingenting som talar för att energieffektivitet är en nackdel. "Pris" är en efterhandskonstruktion som sätts baserat på konkurrenssituationen.

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem
Skrivet av Jacob:

Den där argumentationstekniken du håller på med nu är bara tråkig, du kan bättre. Läs vad du själv skriver och vad jag bemöter utan att försöka vrida mina ord till något annat. Det var du som skrev att Intels egna ord är mainstream och budget, vilket jag visade inte stämmer då de även siktar på entusiaster och datacenter. Du skriver det till och med själv i det här inlägget, så förstår inte riktigt vad det är du försöker med.

Okej. Låt mig säga det så här. Jag tror inte på att Intel kommer nå entusiast nivå 2020. Det är mao irrelevant del av diskussionen för mig. Det jag hänvisa ovan är att jag inte är ensam om den tanken. Och just mainstream + budget är den nivån som har varit mest trolig, till en början. Detta är inte sagt, eller jag säger att de inte satsar på high-end efter 2020... en tolkning ni är snabba på att göra.

Och som jag skrev tidigare, är en skillnad på "vad du siktar på och var du kan nå". Jag siktar på att bli rik, få kanon jobb och allt ska bli perfekt. Verkligheten är inte så alltid, och Intel når inte alltid heller vad de "siktar på". Intel ger oss säker 10GHz snart också... för det var det man siktade på.

Med tanke på Intels förmåga att också "snacka skit", med tex Optane som inte nådde ens delar av vad deras skryt sa... deras första 10nm inte nådde vad de siktade på, och helt ärligt rätt mycket av Intels planer på senare inte direkt ha nått de planer de siktar på, tar jag deras "mål" här med en båtlast med salt. Och om ni vill tro på deras ord att de ska nå dit... kör på det. Intel har gång på gång visat att även om de har enorma problem, även om helvetet fryser till is, så säljer de guld och gröna skogar. Mao bästa källan på Intels framtid, är inte Intels PR avdelning.

I övrigt tycker jag vi var överens, men jag reagerade på att en del andra kommentarer är så besatta på att "en sak" avgör om det blir en bra produkt eller ej. Vilket är bra... trams. Och så vitt jag förstått var vi överens där med, så förstår inte problemet här.

PS. Kan dock tillägga att har jag fel... kanon. För vi behöver konkurrens inom high-end.

EDIT: Jag har rättat mina dumt skrivna inlägg ovan, så ni bättre förstår vad jag menar. Inte Intel officiellt, utan sammandraget om deras tillgängliga teknik, deras situation, kraven på ny krets och omogna drivare är vad "Intel borde säga"... men deras PR är alltid siktande högt. Om Intel släpper high-end, som ärligt konkurrerar med AMD/Nvidia, bjuder jag dig på en dricka i nästa meet...

Permalänk
Medlem

Kan inte Intel bara “göra en AMD“ och köpa Nvidia då så är vi riktigt låsta, haha

Skickades från m.sweclockers.com

Visa signatur

MSI GT73VR Titan

Permalänk
Medlem
Skrivet av cdx873v:

Kan inte Intel bara “göra en AMD“ och köpa Nvidia då så är vi riktigt låsta, haha

Skickades från m.sweclockers.com

Nej för helv*beep! Haha! Då har vi snart rubriker som "Intels Xe-Force 991282 Extreme Edition GPU 59,000:-"
Nej du. Nvidia får allt hålla kvar i sitt företag för nog är priserna åt helsike nu men Intel skulle gå batshit crazy med priserna. För dom vet att gaming och datanördar inte klarar sig utan sin då och då-fix med nytt grafikkort.

Visa signatur

Star Citizen ❤

Permalänk

Snygga kort, söt fläkt (som säkert låter som en liten delta), men det är väl mest prototyper 😊
Inte så troligt att de kommer att se ut såhär väl 🤔

Skickades från m.sweclockers.com

Visa signatur

---CPU---Intel Core 2 QUAD Q9550 2.83GHz 12MB FSB1333
---RAM---DDR2 PC2-8500 1066MHz CL5-5-5-15
---MOBO---Maximus II GENE ( P45/ICH10R , Dual-channel, DDR2 1300)
---PSU----Corsair HX520W ---GPU--- Radeon HD6850

Permalänk
Trollfabrik 🫶🏻
Skrivet av Paddanx:

Okej. Låt mig säga det så här. Jag tror inte på att Intel kommer nå entusiast nivå 2020. Det är mao irrelevant del av diskussionen för mig. Det jag hänvisa ovan är att jag inte är ensam om den tanken. Och just mainstream + budget är den nivån som har varit mest trolig, till en början. Detta är inte sagt, eller jag säger att de inte satsar på high-end efter 2020... en tolkning ni är snabba på att göra.

Och som jag skrev tidigare, är en skillnad på "vad du siktar på och var du kan nå". Jag siktar på att bli rik, få kanon jobb och allt ska bli perfekt. Verkligheten är inte så alltid, och Intel når inte alltid heller vad de "siktar på". Intel ger oss säker 10GHz snart också... för det var det man siktade på.

Med tanke på Intels förmåga att också "snacka skit", med tex Optane som inte nådde ens delar av vad deras skryt sa... deras första 10nm inte nådde vad de siktade på, och helt ärligt rätt mycket av Intels planer på senare inte direkt ha nått de planer de siktar på, tar jag deras "mål" här med en båtlast med salt. Och om ni vill tro på deras ord att de ska nå dit... kör på det. Intel har gång på gång visat att även om de har enorma problem, även om helvetet fryser till is, så säljer de guld och gröna skogar. Mao bästa källan på Intels framtid, är inte Intels PR avdelning.

I övrigt tycker jag vi var överens, men jag reagerade på att en del andra kommentarer är så besatta på att "en sak" avgör om det blir en bra produkt eller ej. Vilket är bra... trams. Och så vitt jag förstått var vi överens där med, så förstår inte problemet här.

PS. Kan dock tillägga att har jag fel... kanon. För vi behöver konkurrens inom high-end.

EDIT: Jag har rättat mina dumt skrivna inlägg ovan, så ni bättre förstår vad jag menar. Inte Intel officiellt, utan sammandraget om deras tillgängliga teknik, deras situation, kraven på ny krets och omogna drivare är vad "Intel borde säga"... men deras PR är alltid siktande högt. Om Intel släpper high-end, som ärligt konkurrerar med AMD/Nvidia, bjuder jag dig på en dricka i nästa meet...

Okej! Förstår fortfarande inte varför du riktar dina utläggningar mot mig. Det enda jag gjort genomgående är att skriva om vikten av energieffektivitet med arkitekturer oavsett användningsområde och att förmedla vad som faktiskt kommunicerats av Intel utan personliga värderingar, tyckanden eller spåkulor. Senast jag kollade var det en rätt betydande del av det jag gör om dagarna. Sammanhang och kontext, sak och person. Lämnar det här, peace out!

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner