Intel ger sig in på grafikkortsmarknaden och anställer Raja Koduri

Permalänk
Hedersmedlem

*** inlägg raderade ***

Jag har raderat och redigerat bort lite onödiga flamebaits.

/KimTjik

Permalänk
Medlem
Permalänk
Medlem
Skrivet av Herr Kantarell:

Samtidigt så skalar inga av AMDs och nVidias kort med antal shaders och råprestanda. Det är helt enkelt svårt att lägga ut arbetet jämnt på alla CU/CUDAs och utnyttja dessa effektivt. Och du tror att intel inte kommer drabbas av detta?

Jag säger inte att intels grafik är dålig men jag tror du ser för optimistiskt på den.

Egentligen skalar de rätt bra, man ser det inte alltid på senaste generationen då toppkorten ofta flaskas av annat. Men jo, visst finns det problem med skalningen. Men finns ingen anledning till varför Intel skulle drabbas hårdare än de andra dock. När jag berömmer intels effektivitet är det jämför med motsvarande AMD-APU-er. Intel borde inte ha svårare att skala upp från den nivån än AMD.
Sedan så är en av Intels absoluta paradgrenar just att hålla beräkningsenheter sysselsatta. Kan de dra nytta av detta för grafik så vore det riktigt bra.

Permalänk
Medlem
Skrivet av SeF.Typh00n:

För att få kalla det Freesync behöver det certifieras också. (Sen kan man ju fråga sig om inte den proceduren behöver skärpas lite).

Men det är tydligen en del företag som inte går igenom den processen och smäller på AMD's logga ändå. Vilket man då självklart inte får.

Freesync är en förlängning av Adaptive Sync.

Jaså det vore intressant att få veta lite mer om allt detta. Kanske något du kan undersöka?

Bra då är vi överrens om att Freesync är en förlängning av Adaptive Sync.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Inaktiv
Skrivet av scara:

Han har know-how och en hel del erfarenhet?
Skickades från m.sweclockers.com

Och se hur bra det har gått för AMD's grafikavdelning dom senaste lanseringarna. Jag vill påstå att han inte var Intels förstahandsval men det lär vi nog inte få veta, inte från Intel i vilket fall.

Permalänk
Medlem

Dregel! Var har du hittat denna? Ser ut att vara innanmätet av en NUC. Vega chippet är rätt mycket större än CPUn.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Det känns lite ironiskt att man sätter hoppet till monopolisterna Intel att öka valfriheten och konkurrensen på GPU-marknaden, men all konkurrens är bra och behövs verkligen. Jag hoppas de kommer satsa även på traditionella grafikkort för spel och utmana Nvidia inom det området.
Kanske blir det en AMD Ryzen 2 med Intel-grafikkort nästa uppgradering

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Avstängd
Skrivet av Herr Kantarell:

Jaså det vore intressant att få veta lite mer om allt detta. Kanske något du kan undersöka?

Bra då är vi överrens om att Freesync är en förlängning av Adaptive Sync.

Bland annat har en representant på Nixeus skrivit det. https://www.reddit.com/r/Amd/comments/5krtx3/opinion_amd_shou...

Jag har aldrig sagt något annat. Det jag har sagt är att Freesync =/= Adaptive Sync och vice versa. Det är viktigt är särskilja det båda.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem
Skrivet av Herr Kantarell:

Dregel! Var har du hittat denna? Ser ut att vara innanmätet av en NUC. Vega chippet är rätt mycket större än CPUn.

https://twitter.com/BitsAndChipsEng/status/928568572141621248

Permalänk
Medlem

Jag tror tvärtemot vad många skriver, att RTG inte kommer säljas till varken Intel eller Samsung. Teknik från RTG används trots allt i deras semicustom-chipp som används i konsoller och även om det inte genererar enorma mängder pengar är det ändå en summa som troligen hjälper AMD att hållas flytande. Att sälja verksamheten ger för visso säkerligen en hel del pengar men det är ändå bara engångsbelopp.

Visa signatur

Stationär: Fractal Design Meshify 2 Compact, Ryzen 7 5700x, MSI MAG B550 Tomahawk, Kingston HyperX Fury 32GB 3600Mhz CL18, Sapphire Radeon RX 5700 Pulse, Kingston KC3000 1TB, Kingston A2000 1TB, Seasonic Focus GX 650W, Noctua NH-U14S

NAS: Fractal Design Define R5, Ryzen 3 1200AF, Asus Prime B450M-A, 32GB ECC DDR4 @ 2133Mhz, 5x WD Red 4TB (Raidz2), WD Red 2TB (stripe), TrueNAS 12.0

Permalänk
Medlem
Skrivet av SeF.Typh00n:

Bland annat har en representant på Nixeus skrivit det. https://www.reddit.com/r/Amd/comments/5krtx3/opinion_amd_shou...

Jag har aldrig sagt något annat. Det jag har sagt är att Freesync =/= Adaptive Sync och vice versa. Det är viktigt är särskilja det båda.

Förutom att jag felaktigt sa att intel nu stödde Adaptive Sync så har jag heller inte sagt något annat.

Tack för länken!

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Avstängd
Skrivet av Herr Kantarell:

Förutom att jag felaktigt sa att intel nu stödde Adaptive Sync så har jag heller inte sagt något annat.

Tack för länken!

"Freesync är AMDs namn på VESA Adaptive Sync. Vet inte om de har nån extra funktionalitet som inte ingår i standarden." från #17103602 är ju felaktigt.

Freesync använder protokollen i Adaptive-Sync standarden för sin teknik. Och eftersom Freesync även omfattar HDMI och proprietär LFC-algoritm så stämmer inte ditt påstående.

Det är petigt, men jag tycker som sagt det är viktigt att särskilja detta då det stödjer olika produkter.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem

Raja började på AMD igen i början av 2013 och det är väl mer eller mindre först nu sett resultatet av detta (VEGA). Visst det kom andra GPU'r innan dess men förmodligen inte som han var med och tog fram arktitekturen till, iallafall inte i toppsegmentet. Det bör väl rimligtvis ta minst 3-4 år innan vi ser något från det nya samarbetet med Intel eller vad tror ni?

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av tvelander:

Hoppas Intel kan trycka till Nvidia så att vi ser en mer äkta prisbild som innan.
Dvs kanske 5-6k för top kort inte upp till liksom 10k där dual gpus låg innan.

Har svårt att se att det skulle ske inom någon snarlik framtid. Intel är så sen på bollen att det måste ske lite av ett mirakel för att de ska kunna rubba de två stora i AMD och Nvidia.

Skrivet av Laglorden:

Via finns väl kvar?

Ja de existerar fortfarande däremot så gör de inte längre grafiklösningar utan snarare fokuserar nästan uteslutande på diverse nätverk och ljudlösningar.

Skrivet av hakan78:

Nu är det kört för AMD. Eller inte?

Kört för AMD? Intel är flera år bort med sin satsning och då har ändå AMD Ryzen att falla tillbaka på. Vad har Nvidia?

Skrivet av Pepsin:

Det känns lite ironiskt att man sätter hoppet till monopolisterna Intel att öka valfriheten och konkurrensen på GPU-marknaden, men all konkurrens är bra och behövs verkligen. Jag hoppas de kommer satsa även på traditionella grafikkort för spel och utmana Nvidia inom det området.
Kanske blir det en AMD Ryzen 2 med Intel-grafikkort nästa uppgradering

Brukar kallas den osynliga handen. Där företag har vinstintresse där pumpar man in pengar och detta får en oanad effekt av att marknaden och samhället utvecklas.. utan att det egentligen är målet för Intel. Med andra ord.. Det är en angenäm bieffekt av Intels intåg eller iallafall en potentiell bieffekt.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Datavetare
Skrivet av str8forthakill:

@Aleshi:
Grafiklösningar inom Compute där CPUer är svaga.
Sweclockers är den enda tekniksajten som tolkar det som grafikkort till konsumenter.

Från Intels pressmeddelande

"In this position, Koduri will expand Intel’s leading position in integrated graphics for the PC market with high-end discrete graphics solutions for a broad range of computing segments."

D.v.s. han är specifikt handplockad för att utöka Intels GPU-portfolio från att idag endast innefatta iGPU till att även innefatta dGPUer.

Varför skulle Intel anställa honom för att tillverka rena beräkningskort? De är redan jämnstora med Nvidia vad det gäller beräkningskort till superdatorer, det via Xeon Phi (som sist jag kollade fanns Xeon Phi i fler topp 500 superdatorer än Nvidia)?

Varför skulle de anställa honom för kretsar för "inference" delen av "machine learning"? Dels är Intel redan den största leverantören här, även om både Google och Nvidia jobbar på att kapa åt sig en rejäl del av denna kaka.

Nvidia är däremot ledande i "training" delen av "machine learning". Något Intel jobbar på att ändra på, de har precis (via sitt uppköp av Nervana) släppt sin "Neural Network Processor".

Raja Koduri blir chef för en nystartad grupp inom Intel som uppenbarligen ska fokusera just på traditionell GPU-teknik.

Skrivet av Zero Cool:

Vad hände med Larrabee?

Den lades ner. Mycket av tekniken man tog fram i Larrabee projektet återuppstod i Xeon Phi.

Skrivet av Herr Kantarell:

Samtidigt så skalar inga av AMDs och nVidias kort med antal shaders och råprestanda. Det är helt enkelt svårt att lägga ut arbetet jämnt på alla CU/CUDAs och utnyttja dessa effektivt. Och du tror att intel inte kommer drabbas av detta?

Jag säger inte att intels grafik är dålig men jag tror du ser för optimistiskt på den.

Som ägare av bl.a. GT750M, GT1030, Iris Graphics 540 och Iris Graphics Pro 580 har jag några reflektioner

  • Iris 580 (72 EUs, ~1,2 GFLOP SP) lär nog inte riktigt nå upp till GT750Ti, det må vara den snabbaste iGPU fram till att Raven Ridge når marknaden. Genomsnittlig 3D-prestanda ligger över GT750M (har den lite snabbare modellen med GDDR5 VRAM), men det är ingen gigantisk skillnad

  • Iris 580 har problem med skalningen, tror ett problem är att spel börjat använda väldigt stora mängder texturer, främsta uppgiften för eDRAM är att hålla z-buffer, g-buffers, color-buffer etc. eDRAM är inte stort nog att också hålla någon relevant mängd texturer -> prestanda begränsas kraftigt av att dual-channel DDR3/4 ska delas med CPU...

  • Redan Iris 540 (48 EU, ~0,8 GFLOPS SP) uppvisar viss trend på flaskhalsar, men här kan mycket väl problemet vara TDP. Iris 550 har exakt samma teoretiska kapacitet som Iris 540 men sitter i 28 W TDP kretsar i stället för 15 W. Iris 550 skalar rätt perfekt över grundmodellerna HD 520/530/620/630 med 24 EU (och därför endast ~0,4 GFLOPS SP)

Tittar man på grundmodellen av Intels GPUer så presterar de väldigt bra kontra sin teoretiska kapacitet.

Det sagt, tror faktiskt inte ens Intel försöker speciellt hårt att pusha 3D-delen av kretsen. Grafikmässigt har HD Graphics varit "tillräcklig" under väldigt lång tid nu.

Där HD Graphics skiner är som GPGPU. Iris 580 må vara chanslös mot GT1030 i spel (och GT1030 är knappast något monster...), men HD Graphics har 1:4 DP vs SP (mot Nvidias 1:32 och AMDS 1:16). FP16 stöd har funnits ett par generationen nu med 2:1 mot SP.

Intel har en rad SDKer som på olika sätt utnyttjar kraften i HD-graphics, både via GPGPU (OpenCL) men även via egna APIer för att kunna nyttja de fixed-function delar som finns i kislet (QuickSync m.fl.)

Några exempel är för köra "inference" steget för "machine learning" på "edge devices", acceleration av bildbehandling (stödjer bl.a. Photoshop).

I botten har man en gratis utvecklingsmiljö för att tillverka GPGPU accelererade applikationer m.h.a. OpenCL och HD Graphics.

Har kört lite GPGPU projekt i ca ett halvår nu, Nvidias CUDA är fortfarande mer moget och enklare att komma igång med jämfört med OpenCL. Dock presterar HD Graphics absolut lysande för detta, till och med min Surface Pro med Iris 540 springer förbi GT1030 i en rad områden!

GT750M har en teoretisk kapacitet på 0,7-075 GFLOPS, GT1030 ligger på 1,1 GFLOPS. I 3D grafik är det bara att konstatera att Iris 580 underpresterar jämfört med Pascal, men det är rätt jämnt sett till teoretisk kontra faktiskt prestanda när man kommer ner till standardmodellerna. Perf/W för grundmodellerna av HD graphics är därför riktigt bra, problemet är att "perf" delen är rätt usel i absolut tal...

För GPGPU är HD Graphics strålande. Skulle säga att Intel numera har en GPGPU-krets som hjälpligt kan agera GPU. Nvidia och AMD har lysande GPUer som fungerar helt OK för GPGPU.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Zache_:

Freesync heter just "freesync" för att det är öppet och kan användas/tillämpas av vem som helst utan hinder. Skulle vara mycket bra om Intel hoppar på Freesync. Ju fler som kan nyttja det desto mer lär det arbetas in i bildskärmar, kanske även 4K TV-apparater

Standarden kommer från Display Port och heter "Adaptive sync" och är den fria standarden. Freesync ÄR Adaptive sync bara det att AMD har satt sitt godkännande på produkten , oavsett om det är en skärm eller ett grafikkort. Så med andra ord om intel kommer kommer göra grafikkort med Adaptive sync men kalla det något eget sync namn så kommer dessa kort fungera med Freesync skärmar.

Visa signatur

i7 7700k @4.7ghz - 16gb ram @3000mhz - 8gb RTX 3070 - Acer 34 ed347ckr 100hz - Oculus Quest2

Permalänk
Medlem
Skrivet av Kenneth:

Intel måste ju ha en egen bildsynkroniseringsteknik. Nvidia har G-sync, AMD har Freesync... Intels kanske heter... i-sync? Core-sync? Hypersync, där har vi det!

Nja, VESA har valt Adaptive Sync (dvs Freesync via displayport) som ny global standard. Varför uppfinna hjulet på nytt.
Är ganska säker på att nvidia och AMD enbart kommer köra detta inom ett par år.
EDIT: OCH Intel

Visa signatur

**ASUS GL502VS (i7-7700HQ, GTX 1070, 16 GB ram, 512 GB M2, 120hz G-sync)**

Permalänk
Skrivet av Startrance:

Med tanke på att Nvidias CEO Jensen Huang sa att "the era of cpus are dead", så tror jag det är det sista Nvidia skulle göra

"Jensen Huang said that Nvidia GPUs will replace CPUs due to the fact that its computational capacities have grown tremendously over the years and is the ideal solution for AI based applications. He further added that designers can hardly work out, advanced parallel-instruction architectures for CPU and therefore, GPUs will soon replace CPUs."

Men det är fel av flera skäl. En GPU kan inte ersätta CPUer i datorer pga:

1) En GPU har mycket högre genomströmning, men inte lägre latency. GPU har massa trådar, men varje tråd är långsam och klen. Tänk dig en cpu med 2048 trådar som alla är trögstartade, och även klena. Visst, när de väl kommer igång så kommer de klara av att köra mycket data. Men det är inte säkert att en vanlig desktop användare gör såna saker att han triggar 2048 trådar. Då är det bättre med få men rappa trådar som dessutom är starka.

För servrar är det dock en annan sak, såna betjänar många användare samtidigt och då behövs många trådar. Men gärna rappa trådar, inte såna som tar lång tid på sig att starta upp.

2) Många problem går inte att parallelliseras. Då spelar det ingen roll hur mågna trådar du har. Arbetslaster har en typisk IPC. T.ex. serverlaster har ofta en IPC på 0.5 eller lägre. T.ex databas TPC-C har en IPC på kring 0.5. Då spelar det ingen roll om CPUn har en IPC på 2 eller 3 eller 10. Själva koden har en maxbegränsning på 0.5. En hög IPC cpu kanske kan klämma ut 0.51 IPC och en låg IPC cpu kanske kan klämma ut 0.48 - men det spelar ingen roll.

Det är precis som att alla bilvägar har hastighetsbegränsningar på 100km/h. Då är det ju korkat att köpa bilar med så hög max hastighet som möjligt. Varför betala dyra pengar på 300km/h eller 350km/h bilar? Det är ju bättre att köpa bilar med hög acceleration istället. Samma med IPC. Folk som fokuserar på IPC är ju okunniga eftersom själva koden har en viss max IPC. En CPU kan inte klämma ut mycket mer IPC än så, oavsett hur hög IPC en cpu har.

Det är ungefär lika korkat som att tro att en kärna på 2GHz är bättre än 2 kärnor på 1 GHz var. Skälet till det är att en kärn som kör flera program samtidigt (vilket alla gör idag) kommer få tömma och fylla cachen hela tiden beroende på vilket program som körs. Om du istället har 2 kärnor så behöver de inte tömma cpu cachen lika ofta. Sen har vi även andra problem med att koden kanske inte är optimalt skriven, så det kan finnas mutex lås och annat som gör att en kärna inte används effektivt. T.ex. om ett program hänger sig eller får andra problem (vilket händer) så stannar hela datorn upp. Om du istället har 2 kärnor, så kommer den andra kärnan att arbeta på utan problem. Det märker man ju när man gick från 1 kärna till 2 kärnor, och till 4 kärnor. Ju fler kärnor, desto rappare blev hela datorn, även om man hade flera svagare kärnor.

Så att fokusera på IPC är lika korkat som att tro att hög GHz ger en snabb cpu. Eller lika korkat som att tro att en snabb kärna är bättre än två långsammare kärnor. I en ideal värld skulle en snabb kärna och två hälften så snabba kärnor vara lika bra - men kod är aldrig perfekt. Det blir alltid synkroniseringar, lås, etc etc som gör att koden lägger beslag på hela kärnan under en kort stund. Då är det bättre med flera kärnor.

Så Nvidia har fel. En GPU kan aldrig ersätta en CPU. Han är okunnig helt enkelt.

Permalänk
Medlem
Skrivet av anon159643:

Är marknaden för externa grafikkort så stor? Nästan varenda kotte idag kör med det interna grafik gpun, detta inklusive jag själv med min i7 7700K. Jag minns när Vista kom och de pratade om att aerografiken var så krävande och man skulle ha hutlösa 128 MB grafikminne. Men idag är det snarare så att vanligt folk ej bryr sig om vad det är för gpu, inte cpu heller för den delen.

Så jag tror att ett företag får ge vika då allt fler lär köra med interna grafikkort. Fast samtidigt kan de väl återanvända arbetet från den interna till ett externt grafikkort.

Vad tror du självkörande bilar behöver ???? Grafik marknaden kommer att explodera om några få år.

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Hjälpsam

Men större delen av Sweclockers forum var ju överens, Raja fick sparken för att Vega är en sån katastrof, hur kan det då komma sig att han fått ett nytt toppjobb?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Raja försökte sälja RTG till Intel

Det har funnits rykten om att Raja försökt bryta ut Radeon gruppen ur AMD och sälja den till Intel. Vilket tydligen skall ha lett till storbråk med Lisa. Hon tog även över direkt ansvar för RTG och vad jag vet är det väldigt ovanligt att en CEO tar direkt kontroll över en underavdelning.

Hardocp rapporterade, om att de fått den informationen från insiders... och detta för snart 1½ år sedan och med vad som hänt de senaste dagarna måste jag säga att det inte känns orimligt. Framför allt när Intel dealen också nämns i läckan och att den stämmer väldigt bra men dealen vi fått höra om.

https://www.hardocp.com/article/2016/05/27/from_ati_to_amd_ba...

Permalänk
Medlem
Skrivet av Ratatosk:

Men större delen av Sweclockers forum var ju överens, Raja fick sparken för att Vega är en sån katastrof, hur kan det då komma sig att han fått ett nytt toppjobb?

Det kan vara så att Intel vill ta tillvara på hans kompetens och ignorerar ett eventuellt fiasko med Vega? Eller så (en teori jag ser som mer trolig) gick hans anställning ut och eftersom Intel givit honom ett erbjudande samt problemen med Vega så valde han att tacka nej till AMD (förutsatt att de erbjöd honom förlängt) och gå till Intel istället. Samtidigt KAN inte det vara en ren tillfällighet att AMD börjar samarbeta med Intel kort före detta avtäcks. Det är allt för lägligt helt enkelt.

Skrivet av MrMasj:

Det har funnits rykten om att Raja försökt bryta ut Radeon gruppen ur AMD och sälja den till Intel. Vilket tydligen skall ha lett till storbråk med Lisa. Hon tog även över direkt ansvar för RTG och vad jag vet är det väldigt ovanligt att en CEO tar direkt kontroll över en underavdelning.

Hardocp rapporterade, om att de fått den informationen från insiders... och detta för snart 1½ år sedan och med vad som hänt de senaste dagarna måste jag säga att det inte känns orimligt. Framför allt när Intel dealen också nämns i läckan och att den stämmer väldigt bra men dealen vi fått höra om.

https://www.hardocp.com/article/2016/05/27/from_ati_to_amd_ba...

Hade det varit fallet så hade han fått sparken redan där och då samt blivit dragen inför rätten. Ser det ryktet som väldigt icke trovärdigt. Kan vara så att man fått nys om Intels avancemang mot Raja och därför spunnit ett eget rykte utifrån detta men skulle det ryktet stämma så kan det räknas som industrispionage och USA har kraftiga lagar mot just detta.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem

Nä ja vet inte jag. Ta tjänstledigt och sedan vips har man jobb hos konkurrenten.. inte snyggt, Koduri.

Visa signatur

Ryzen 5800X3D, Msi B450 Tomahawk, RX 7800XT, 32 Gb Corsair Vengeance Pro, vattenkylning.

Permalänk
Medlem

Detta med Freesync och Adaptive Sync...

DisplayPort Adaptive Sync utvecklades för att man skulle kunna byta uppdateringsfrekvens sporadiskt. Om man till exempel bytte till att visa en film i 24Hz, skulle man kunna byta till den uppdateringsfrekvensen - främst för att spara energi. Apple gör det i moderna iPadar av den anledningen. AMD insåg att man kunde använda den här funktionen för att ändra frekvensen väldigt ofta. Detta är grundfunktionen i Freesync, och det krävs ingen certifiering för att kunna göra det. Intel har sagt att de skall stödja den funktionen, utan att speca när man kommer att göra det:

https://www.sweclockers.com/nyhet/20961-intel-planerar-stod-f...

Sen har AMD lagt till ett antal andra funktioner, som LFC, vilka inte ingår i standarden och ärligt talat inte hör hemma där, eftersom det sköts helt i drivrutinen. Dessa funktioner plus ett par detaljer för att att eventuellt kunna spela i HDR och en regel om att frekvensomfånget måste vara minst en faktor 2 har lagts ihop i något som AMD kallar Freesync 2. Detta måste man certifieras för att få kalla sin skärm. P.g.a HDR-funktionerna är detta något som verkar bli reserverat för lite dyrare skärmar.

Om Intel bestämmer sig för att stödja Adaptive Sync i Ice Lake eller Sapphire Rapids eller liknande, så kommer det att fungera för med en Freesync-skärm som du kan köpa idag. Däremot kommer inte LFC att fungera, om inte Intel lägger in stöd för det i sin drivrutin.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Ratatosk:

Men större delen av Sweclockers forum var ju överens, Raja fick sparken för att Vega är en sån katastrof, hur kan det då komma sig att han fått ett nytt toppjobb?

Dom flest är förmodligen överens om att VEGA inte levererade. Tror i ärlighetens namn inte det här är något problem för AMD. Har svårt att tro att AMD hade gjort sämre ifrån sig utan Raja den här tiden, med tanke på att det gick hyfsat för dom innan.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Inaktiv
Skrivet av anon159643:

Är marknaden för externa grafikkort så stor? Nästan varenda kotte idag kör med det interna grafik gpun, detta inklusive jag själv med min i7 7700K. Jag minns när Vista kom och de pratade om att aerografiken var så krävande och man skulle ha hutlösa 128 MB grafikminne. Men idag är det snarare så att vanligt folk ej bryr sig om vad det är för gpu, inte cpu heller för den delen.

Så jag tror att ett företag får ge vika då allt fler lär köra med interna grafikkort. Fast samtidigt kan de väl återanvända arbetet från den interna till ett externt grafikkort.

Vad pratar du om? Kontorsnissar har alltid haft integrerad grafik i sina datorer, samma gäller de okunniga som köper datorn på elgiganten, dock använder den gruppen idag nästan uteslutande laptops eller kanske nöjer dem sig till och med en telefon.

Efterfrågan på highend GPUer har aldrig varit så stor som den är nu. I vart fall vad gäller omsättning men jag gissar även att det gäller volymer.

Behovet har nog aldrig varit större heller, nästan alla tyngre programvaror kan ju ta hjälp av GPUer som det är idag.

Permalänk
Medlem

AMD Radeon, NVIDIA GeForce GTX och Intel blablabla?

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil

Permalänk
Inaktiv
Skrivet av Vangen:

AMD Radeon, NVIDIA GeForce GTX och Intel blablabla?

Intel Rajadeon förstås.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Vangen:

AMD Radeon, NVIDIA GeForce GTX och Intel blablabla?

Intel Rajeon?

Med tanke på namngivningen av deras CPUer och att deras senaste grafikkort hade det tilltalande namnet "Intel 740" lär den väl heta nåt i stil med "Intel GPU Model i8256"...

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem
Skrivet av Zero Cool:

Vad hände med Larrabee?

https://en.wikipedia.org/wiki/Xeon_Phi

Visa signatur

Assembly är ett högnivåspråk.