AMD ser ingen framtid för stora grafikprocessorer

Permalänk
Melding Plague

AMD ser ingen framtid för stora grafikprocessorer

Nvidia har precis lanserat sin nya grafikkortserie Geforce GTX 200 och AMD kommer snart att lansera sin konkurrerande serie Radeon HD 4800. De två grafikkortstillverkarna har dock skilda meningar om hur värstinggrafikkorten bör designas. Nu kommenterar AMD att Geforce GTX 200-serien förmodligen kommer vara den sista i sitt slag.

Läs nyheten

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Kan nog ligga nåt i det, flerkärniga processorer är ju redan standard så grafik bör väl gå samma väg.

Permalänk
Moderator
Testpilot

Inget nytt. Det här uttalandet gjorde AMD långt innan releasen av GT200.

Jag är övertygad om att han har rätt dessutom, känns som att GT200 är på bristningsgränsen av vad som går att klämma ner i en kärna.

http://www.theinquirer.net/gb/inquirer/news/2006/11/17/big-gp...

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

AMD är nog inne på rätt spår. Det blir mycket billigare att använda 2 GPUer eftersom man då enkelt kan använda samma GPU för både mid och high-end segmentet. Mid-end korten får 1 GPU medan high-end får 2 eller fler. Då blir tillverkningskostnaden mycket mindre eftersom man bara behöver tillverka en typ av GPU.

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Happen
AMD är nog inne på rätt spår. Det blir mycket billigare att använda 2 GPUer eftersom man då enkelt kan använda samma GPU för både mid och high-end segmentet. Mid-end korten får 1 GPU medan high-end får 2 eller fler. Då blir tillverkningskostnaden mycket mindre eftersom man bara behöver tillverka en typ av GPU.

Exakt och kan använda de felaktiga exemplaren till budgetvarianter med delar av kärnan avstängda.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Ungefär lika oväntat "uttalande" som att nVidia anser att Direct X 10.1 är onödigt.

Permalänk

Var det inte Nvidia som "började" med dubbelkort? 7900GX2

Visa signatur

.: Phenom II 940 @ 3Ghz Scythe Ninja 2 | 8192Mb DDR2 800 MHz | Nvidia GTX 275 | 5 TB| Gigabyte Odin GT 800W | Logitech Mx518 Razer Destructor| Saitec Eclipse II| Eizo 2431WK :.

Permalänk
Medlem

9800GX2 visar ju att AMD har rätt. Det är ungefär lika kraftfullt som GTX280 och kostar mindre. Är ju solklart att grafikkorten kommer måsta gå samma väg som processorerna. Snart släpper väl Nvidia ett nytt Geforce FX5800. GTX280 känns ju nästan som ett sådant då ljudnivån har rusat upp igen, även fast prestandan på GTX280 givetvis är extremt bra.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av The_blueflame
Var det inte Nvidia som "började" med dubbelkort? 7900GX2

Jag skulle nog säga att 3DFX var en hel del år före.

Visa signatur

g++

Permalänk
Avstängd

tycker det beror på priset , ett Nvidia GTX280 kommer att ligga på 5500kr ca och frågan är då va kommer amds 4870X2 hamna på är den billigare o presterar nästan lika bra som nvidias GTX280 kort ja då kan jag gott o väl välja AMD o ATI. tycker detta har blitt ett gippo med nya grafikkor var annat kvartal ,och jag kommer nog att sitta kvar på mitt n8800gt 512 klarar o spela dom flesta spel i allfall, och har inte direkt heller en skärm som klarar mer en 1280*1024

Visa signatur

Jag kommer inte att vara trevlig mot er som försöker vara stavnings poliser. Det är inte eran sak att komma o kommendera hur jag ska skriva min svenska.

Permalänk
Medlem

Det här gör ju nvidias uttalande om att dubbla processorer på en PCB är värdelöst lite kul. Dom insisterar ju på att det är bättre att sätta ihop två kort, än att köra AMDs 2-in-1 lösning.

Visa signatur

//Bacon

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Maximo
Ungefär lika oväntat "uttalande" som att nVidia anser att Direct X 10.1 är onödigt.

Med den stora skillnaden att ATi gjorde detta uttalandet redan för längesedan. Så visst är det PR samtidigt som det faktiskt är en sanning i sig, enligt min mening.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

2 GPUs på 1 PCB i dubbelmacka. Sen 4 sådana i crossfire/SLI. 16GPUs totalt och förmodligen en halv hårddisk i minne och 5 siffrig prislapp. Kommer väl Q3 2009 eller något sånt.

Permalänk
Medlem

"Nvidia har visserligen provat på dubbla GPU:er med Geforce 9800 GX2, men har övergett den designen till förmån för den större och kraftfullare grafikprocessorn GT200 i Geforce GTX 200-modellerna."

Vadå övergett den designen? Hade GT200 varit mindre och inte drog så mycket ström skulle man säkert vilja göra kort med dubbla gpus. Nu går det ju knappast men kanske kommer sån kort när man börjar tillverka GT200B.

Man har inte heller "provat" dubbla gpu:s iom 9800 GX2 då man hade liknande kort i 7900-serien med.

På tal om dubbla gpu:s

Voodoo2 korten hade väll också egentligen dubbla gpu:s? En texturenhet samt två grafikchipset med egna minnen?

Permalänk
Medlem

Jag tror att marknaden för diskreta grafikkort är ganska dödsdömd, jag tror att vi kommer att få se 1-2 dedikerade GPU:er på samma kiselplatta som CPU:n. Att man exempelvis släpper en 6 kärnig processor med 4CPU kärnor och 2 GPU kärnor.

Visa signatur

| Errare humanum est |

Permalänk
Medlem

Finns det några prisuppgifter på vad AMD/ATi - korten kommer att kosta då? Det antyds ju att de skulle bli både billigare och bättre men vi får väl se...

Själv är jag jättenöjd med mitt nvidia 9600GT och känner än så länge inget behov av något bättre grafikkort än så.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Rhino
Jag skulle nog säga att 3DFX var en hel del år före.

Precis, Voodoo5 6000 var ju ett riktigt monster med 4 st GPU:er. Fast det släpptes iofs. inte, så det kanske inte räknas. Men de hade ju en del kort med två GPU:er i alla fall.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av The_blueflame
Var det inte Nvidia som "började" med dubbelkort? 7900GX2

Dom började väll med att sätta ihop 2 kort som bryggas och sedan tar upp en plats, men jag TROR ATi var först med 2 GPUs på ett kort, nämnligen med sitt Rage fury maxx. Har inte sett nått annat kort med den där lösningen iallafall än från ATi.

Permalänk
Avstängd

Någon som vet hur mycket GTX280-kärnor som TSMC slänger?

Visa signatur

Space, the final frontier

It's not what you've got, it's how you use it, som gamle Ray Stevens sa.

Permalänk
Medlem

Har ni alla glömt ATI Rage Fury Maxx???

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

GTX 200 kommer ju snart i en mindre version, sen kommer säkerligen ett dubbelkort med den nya GPU från Nvidia också.
Själv kommer jag uppgradera till hösten skulle jag tro, då den nya GPU finns, samt 4870, vilken det blir för mig då får pris/prestanda avgöra

Visa signatur

Acer Predator Helios 300

Permalänk
Medlem

Hej!

Det känns som det är helt rätt tid för en "uppföljare" till GeForce FX5950XT!

Mvh Johan

Visa signatur

AMD Phenom II X4 955 3,2 GHz, Gigabyte GA-MA790FXT-UD5P, Sapphire Radeon HD7750 Ultimate 1 GB, Corsair Vengeance/Kingston HyperX Blu 16 GB, Crucial MX250 250 GB, Crucial m4 128 GB, 2 x Seagate 7200.14 1 TB, Lian Li PC-8FIB, Be Quiet Pure Power 10 CM 600W, Windows 10 64-bit

Permalänk
Moderator
Testpilot
Citat:

Ursprungligen inskrivet av Thallid
Någon som vet hur mycket GTX280-kärnor som TSMC slänger?

Läste någonstans att "yeild" var ungefär 40%. Dessutom läste jag på TheInq. att Nvidia får ut 97st GT200 per 300mm wafer.

Så (97x0.4=~39) 39st GTX 280 per 300mm wafer. Sedan hur många av de defekta GTX 280-kärnorna man kan använda som GTX 260 känner jag inte till men gissningsvis slänger man väl säkert en tredjedel.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

För ett tag sedan hade jag inte hållt med men crossfire och SLI tekniken går frammåt och kan mycket väl komma att bli framtiden. Med tanke på att GTX 280 ger ungefär samma resultat som det billigare 9800 GX2 så har nog AMD en poäng.

Visa signatur

Asus B650 TUF, Ryzen 7600X, 32GB 6000mhz DDR5, Corsair RM1000X, Powercolor 6900XT Red Devil Ultimate, 360mm Corsair AIO, MSI Velox 100P Airflow. Kingston KC3000 M.2.

Permalänk

Det hade väl varit en sak om den nya kärnan bara var stor till storleken, hade man gjort ett dubbelmackekort kunde man säkert fått plats med två, men med den strömförbrukningen kommer det inte vara möjligt att kyla.

Visa signatur

i7 930 @ 3.8 | P6X58D-E | 6GB Corsair XMS3 | 2x R9280X | Intel SSD|
Dell UltraSharp 2707WFP | Logitech Z5500 | Logitech Illuminated | MIONIX Saiph 1800 |

Permalänk
Avstängd

Först med dubbla gpu'er var 3dfx med Voodoo 2 (dock SLI), sedan kom ATI Rage Fury MAXX som var första kortet med flera gpu'er på samma pcb.

Därefter kom 3dfx med sitt Voodoo 5 5500 och det var synd att ATI's radeon 256 MAXX inte kom ut, tydligen för de höga kostnaderna.

Fler kort:
Volari Duo V8 Ultra
Evans & Sutherland ATI RADEON 9700
Så har vi ju Gemini-modellerna från gecube(1,2,3)

etc.

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Medlem

Förhoppningsvis är GTX260 samt GTX280 sista i sitt slag, då annars Nvidia insisterar på att floppa ännu en gång. Deras nya produkt är ju ett dåligt skämt - dyr, dålig prestanda, effektslukande och i allmänhet ypperligt... kass.

AMD har ju rätt på det sättet att billigare lösningar vinner ju alltid, kanske inte alla gånger i enthusiasternas ögon men den stora marknaden vill ju inte ha dyra grafikkort om dyra komponenter i övrigt. Får hoppas på att AMD kan få till något riktigt fränt för priset med 4850 samt 4870, för jag kommer sitta och refresh:a tills dess att det kommit tester på den.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av dragonball
Kan nog ligga nåt i det, flerkärniga processorer är ju redan standard så grafik bör väl gå samma väg.

Inte alls samma sak.Flerkärniga processorer bygger man snarast för att man har yta över att bygga på. GPUer är redan fyllda med hundratals processorer och där använder man fler chip när ytan tar slut istället.

Citat:

Ursprungligen inskrivet av ArtMan
Vadå övergett den designen? Hade GT200 varit mindre och inte drog så mycket ström skulle man säkert vilja göra kort med dubbla gpus. Nu går det ju knappast men kanske kommer sån kort när man börjar tillverka GT200B.

Fast det är ju ett val de gjort, inte så att när de utvecklat GT200 färdigt så insåg den att den blev stor och varm, det visste de ju innan. De har helt enkelt valt att göra ett stort chip, och de var tvungna. De hade redan spelat ut alla sina andra kort och därmed ätit upp sin framtid. Skulle de satsa på ett kort med dubbla GPUer skulle de inte kunna biffa upp sitt chip mycket mer över G92 alls. Den nuvarande uppbiffningen blev ju bara runt 45% på shaderprestandan. Skulle de välja 2 GPUer kanske de fått nöja sig med max 10%. Och det skulle vara en ganska ovärdig uppföljare till G92. Folk skulle klaga på att "tre" generationer i rad mer eller mindre var lika starka och likadana. Så nu släpper de en stor luns för att man måste visa att man går framåt i prestanda, men just det är det som håller dem tillbaka.

Citat:

Ursprungligen inskrivet av Dinoman
Läste någonstans att "yeild" var ungefär 40%. Dessutom läste jag på TheInq. att Nvidia får ut 97st GT200 per 300mm wafer.

Så (97x0.4=~39) 39st GTX 280 per 300mm wafer. Sedan hur många av de defekta GTX 280-kärnorna man kan använda som GTX 260 känner jag inte till men gissningsvis slänger man väl säkert en tredjedel.

Och så har vi ATi som får ut över 200 chip per wafer. De har mycket goda yields, och haft det ända sedans de första RV770 chippen.

Inte så svårt att lista ut vad som är bäst. ATi skulle kunna sätta 5 chip på kort till samma chipkostnad som nVidia sätter ett chip.

Permalänk
Medlem
Visa signatur

//Gelantious
I heard life sucks, that''s why I''m glad I don''t have one.

Permalänk
Medlem

Ingen annan som reagerade på "Rick Bergman, som är vice president på AMD" ?
Det tycker åtminstone jag borde lyda vice VD och inget annat.

men ontopic: Helt klart rätt väg att gå för AMD! Även nVidia borde förstå att det inte är rimligt att producera overkill-processorer till såna höga kostnader när det är billigare (och effektivare) att kombinera billigare processorer. Se bara på superdatorerna - de har arbetat med det konceptet sedan allt började.