ATI och Nvidia försvarar sina strategier

Permalänk
Melding Plague

ATI och Nvidia försvarar sina strategier

I mitten av juni kommer ATI att officiellt visa upp Radeon 4800-serien och Nvidia kontrar detta med sina Geforce GTX200-kort. Av den information som finns tillgänglig idag kommer de båda serierna att skilja sig markant åt vad gäller uppbyggnad, och de båda tillverkarna försvarar nu sina strategier.

Läs nyheten

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk

Jag tror mer på ATIs strategi faktiskt...

Permalänk
Medlem

Jag tror på ATIs strategi i längden men tror inte de kommer vara kvar tillräckligt länge för att se när multigpu korten verkligen innebär en 100% prestandaförbättring i alla spel.

Visa signatur

Core i5 2500K@4Ghz, 8 Gb Kingston Hyper X 1600 DDR3, MSI Z68-GD55, OCZ Vertex 4, Asus GTX670 DC2, Corsair VX 450.
Kyld av Hyper 212 Plus Evo: Corsair SP120 Quiet PWM, 3 Nexus Real Silent 120 mm @ 7V.

Permalänk
Trollfabrik 🫶🏻

Jag tycker inte om dubbelmackorna... Ska bli kul att se en riktig Dual-GPU. Varför finns inte dom redan? Finns ju redan Dual-Core sedan långt tillbaka och Quad-Core som CPU.

Visa signatur

Kontaktas enklast via PM. Önskas svar i forumet citera mina inlägg eller pinga @Jacob. Finns även på Twitter.

"Science and technology have progressed to the point where what we build is only constrained by the limits of our own imaginations." – Justin R. Rattner

Permalänk
Medlem

Alla GPUn består redan av massa små cores, ATIs lösning är i stort sett som att ta 2 processorer och lägga den på en PCB aka kentsfield medan Nvidia bygger in coren direkt i en die aka nehalem.

Så jag tror på nvidia.

Visa signatur

[QX6700 @ 3.20Ghz - Tuniq Tower 120 - Abit IN9 32X MAX nForce-680i SLI - 4x1024 PC2-6400 Team Xtreem @ 800Mhz 3338 - GTX260 216 SLI @ 690/1440/2170 - 2x74GB Raptor - Tagan TurboJet 1100W - 6x TT Blue Led VR - CoolerMaster Stacker 830 Evolution - Samsung SH-S183A SATA - Dell UltraSharp 3007WFP-HC - Logitech Z-5500]

Permalänk
Medlem

Du kommer aldrig att få 1:1 prestandavinst för extra kärnor. Så fort du introducerar flera så blir det automatiskt lite overhead i beräkningarna, och med dagens spel så går en del av beräkningkraften till spillo om beräkningarna inte är helt jämt fördelade mellan kärnorna för varje frame (vilket sällan är fallet och i så fall skulle kräva ytterligare overhead för att se till).

Permalänk
Medlem

Fler kärnor än en är ALLTID en nödlösning. Det är rätt larvigt att någon i branshen påstår att man faktiskt siktar på att köra med produkter med flera kärnor.

Permalänk
Medlem

Nvidia:s teori verkar mer rimlig. Huruvida du har 1 miljard transistorer i ett chip eller delar upp dessa på två bör inte ha någon direkt effekt på effektförbrukninen (förutsatt en likvärdig design). Eventuella effektbesparingar (var nu dessa skulle komma ifrån), lär mycket riktigt motverkas om exempelvis fler minneschip eller en brygga måste användas. Det är också troligt att, som Thomas H skriver, dessa multi-chip-lösningar skalar sämre och att samma mängd resurser lagda på ett chip ger större prestandautbyte.

Permalänk
Medlem

Nu är det ju kul med foliehatt osv. men som någon sagt för ett tag sedan är det intressant att det ofta(st?) länkas till Nvidia-kort när det är "ATI vs Nvidia"-nyheter.

OnT: Klart de försvarar sina respektive strategier, korkat vore ju annars.

Permalänk
Medlem

Båda lösningarna suger... de konkurrerar med varandra så hårt just nu att istället för att ta fram nya arkitekturer satsar de på kortsiktiga lösningar [som bygger på gamla lösningar].

Ahh.. *lutar sig tillbaka*, det där lät riktigt smart från en lekmans-expert aka någon som inte kan nånting.

Visa signatur

i5 10400f | asus b460-f | 2x8gb kingston 2666 | zotac 3060ti | corsair mp510 960gb (OS) + samsung 860 evo 1tb + 2x kingston a400 480gb | corsair vx450 | tr true black | fractal r3 | asus mg279q + lg w2363d | dt 880 | win 10 x64 | deathadder chroma | glorious 3xl | tb impact 600 | oculus quest 2

Permalänk

Att sätta två (eller fler) GPU på en PCB med separata minnen ser jag inte som en bra lösning. Alla fall ingen lösning man bygger hela sin strategi på som ATI gör. Denna lösning kan vara komplementarisk, men inte mer.

Applikationer som använder GPU gynnas mer av ett singel GPU än flera. Och så kommer det förbli en lång tid. Det kan man inte komma undan med.

nVidia har helt rätt i sin strategi.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk

men jag tycker om nvida när de inte säger något om varför de har sina GX2 kort xD när de nu hackar på ATI om deras typ av kort skulle vara "dåligt"

Permalänk
ASUS Nordic

Ekonomiskt sett så är ATI:s strategi överlägsen. Deras strategi innebär att de får fler fungerae chip per wafer. Det är också mycket enkelt att skala prestandan.

Nvidias feta monolith chip är bra för prestandan. Själv är jag grymt spänd på Tri-SLI med 790i i Vantage med deras kommande high-end singel-gpu kort. Dock så lider Nvidia av att antalet fungerade chip per wafer nu är minimal. Därav kan vi vänta oss höga priser från nvidia ännu en gång. Men det är inget en sann entusiast ska klaga på hehe

Permalänk
Medlem

Humor. ATI, läs AMD, påstår i det här fallet att det är en fördel med flera fysiska kärnor. Men det kanske främsta argumentet AMD använt mot Intel är att deras lösning är bristfällig, en lösning som går ut just på att använda flera kärnor.
Vilken strategi är bäst? Tror ingen här, givetvis inklusive mig själv, ens kan föreställa sig hur kompext det egentligen är. Men det är den här sortens konkurrens jag tror vi vill ha. Vore tråkigt om båda gick för samma taktik.

Permalänk
Moderator
Testpilot

Oj oj oj vad många experter som tar stora ord i sina munnar.

Tycker det är riktigt härligt när folk uttalar sig på sådant sätt som att "nej nej, det där går aldrig, dem är ute på helt fel spår".

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Citat:

Ursprungligen inskrivet av kinc
Ekonomiskt sett så är ATI:s strategi överlägsen.

Det är inte så konstigt när det dalar ner för de ekonoiskt. De behövde hitta en lösning som skulle vara ekonomiskt effektiv.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av kinc
Ekonomiskt sett så är ATI:s strategi överlägsen. Deras strategi innebär att de får fler fungerae chip per wafer. Det är också mycket enkelt att skala prestandan.

Nvidias feta monolith chip är bra för prestandan. Själv är jag grymt spänd på Tri-SLI med 790i i Vantage med deras kommande high-end singel-gpu kort. Dock så lider Nvidia av att antalet fungerade chip per wafer nu är minimal. Därav kan vi vänta oss höga priser från nvidia ännu en gång. Men det är inget en sann entusiast ska klaga på hehe

entusiast'er har inte alltid 5000:- över till det där nya nVidiakortet som kom, men däremot kanske har 3000:- till ATI's motsvarande kort ;).

Pengar, alla är inte rika eller har fast jobb :P.

Permalänk

ATi:s lösning är mer flexibel än Nvidias då du slipper ha cripplade chip som inte klarade kvalitetstestet för toppkortet nere i performance-mainstreamsegmentet som drar lika mycket kräm som toppmodellen.

Jag tror knappast att ATi legat på latsidan när det gäller att utveckla sin Crossfire-teknologi med tanke på att de påstår sig vilja satsa fullt ut på multigpu. Bland annat har jag läst rykten om att HD4870x2 ska kunna ha delat minne för bägge GPU:erna istället för att som nu behöva ha två uppsättningar (vilket ökar effektiviteten och prisvärdheten avsevärt). Problemet med den overhead som skapas kan kanske avhjälpas i och med Windows Vista och Dx10. Tycker mig ha hört något om detta, dock får ni ta det här som extremt lösa spekulationer från mig tills dess att jag funnit källa (eller insett att det är bullshit ).

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem

Hoppas verkligen att ATIs serie kommer slå igenom. AMD skulle behöva ett rejält uppryck för att inte Intel&nvidia ska dra ifrån för mycket i försäljningen.

GO AMD!

Visa signatur

NR200P | 2xNF-A12x15 | SF1000L | STRIX B450-I GAMING | 5800X3D | NH-U12S | 32GB LPX 3600 MHz | RX7800XT PULSE

Permalänk
Avstängd

Får hoppas att S3 kommer med ett monsterkort ;P

Visa signatur

Knowledge is not achieved until shared.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ettis
Alla GPUn består redan av massa små cores, ATIs lösning är i stort sett som att ta 2 processorer och lägga den på en PCB aka kentsfield medan Nvidia bygger in coren direkt i en die aka nehalem.

Så jag tror på nvidia.

Ursäktar mig men blandar du ihop nvidia med intel nu ?

Citat:

Ursprungligen inskrivet av kinc
Ekonomiskt sett så är ATI:s strategi överlägsen. Deras strategi innebär att de får fler fungerae chip per wafer. Det är också mycket enkelt att skala prestandan.

Nvidias feta monolith chip är bra för prestandan. Själv är jag grymt spänd på Tri-SLI med 790i i Vantage med deras kommande high-end singel-gpu kort. Dock så lider Nvidia av att antalet fungerade chip per wafer nu är minimal. Därav kan vi vänta oss höga priser från nvidia ännu en gång. Men det är inget en sann entusiast ska klaga på hehe

håller med

Permalänk
Citat:

Ursprungligen inskrivet av ettis
Alla GPUn består redan av massa små cores, ATIs lösning är i stort sett som att ta 2 processorer och lägga den på en PCB aka kentsfield medan Nvidia bygger in coren direkt i en die aka nehalem.

Så jag tror på nvidia.

Vet du vad du pratar om? :/

Kan du förtydliga? Hur menar du att "Nvidia bygger in coren direkt i en die aka nehalem"?

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Hjälpsam

Läst lite var stans att Vista SP1 har gjort mycket för prestanda i CF, men det kan vara fel.
Vore kul om dom lyckades dela på minnet, kan det vara därifrån rycktet om en 512 bitars bus kommer?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hedersmedlem
Citat:

Ursprungligen inskrivet av invztr
Får hoppas att S3 kommer med ett monsterkort ;P

Man kan ju hoppas, dock är det rätt osannolikt. ^^

I övrigt tycker jag ATi's lösning är bäst. Bra pris/prestanda. Inte som något kort som drar +200W men har 10% högre prestanda. Men vill man ha det bästa får man nog räkna med det.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av ettis
Alla GPUn består redan av massa små cores, ATIs lösning är i stort sett som att ta 2 processorer och lägga den på en PCB aka kentsfield medan Nvidia bygger in coren direkt i en die aka nehalem.

Så jag tror på nvidia.

Nu är du väll ute och cyklar väll? Nvidia kör ju bara på en GPU (utom i deras dubbel mackor, där det typ är 2 kort i SLI), medan ATi mer och mer kör på dual-GPU lösningar.
Vill minnas att det var massor med snack om att ATis HD 4800 serie skulle haft riktig Dual-GPU, alltså 2 kärnor i en GPU, för nått år sedan (har för mig att det spekulerades om ett mycket häftigare namn då med än HD 4xxx). Kan inte hitta trådar om det tyvärr så tro inte på det om du inte vill, men jag vet att läst om det på diverse sidor med.

Att göra EN stark GPU är väll i dagsläget bästa alternativet. Det är väll som med CPUer att man måste fixa mycket bättre stöd för multi processorer i programmen (spel) för att faktiskt vinna på det?

Permalänk
Medlem

Tycker helt ärligt att det är lite för osannoligt att ATi skulle krossa nVidia. Dom har det sämre rent ekonomiskt, och bygger på en ide som nVidia kontrade och vann med.

nVidias kort verkar dra ganska mycket mer ström vilket oftast tyder på att det är mycket kraft i kortet, specielt om man jämför 8xxx seriens strömförbrukning och nu de nya. Det här kommer vara grymt starka kort, rå kraft. Dock säger jag inte nödvändigtvis att hög strömförbrukning är bra.

Och nVidia verkar på något sätt lugna och säkra mer "jordnära"

Visa signatur

|AMD Ryzen 9 5900X| |ASUS ROG Strix B550-F| |Crucial Ballistix 32GB CL16@3600MHz| |PNY RTX 4090 XLR8 Gaming| |Samsung 990 Pro 2TB| |Samsung 970 Evo Plus 1TB| |Samsung 860 Evo 1TB| |Corsair RM1000| |Fractal Design Define R5| |LG OLED 48" C2 Evo|

Permalänk
Medlem

Men om man ser på stora datorkluster, är det inte så att overhead-kostnaden för att köra flera processorer minskar med ökande antal chip? Så om AMD gör väldigt små processorer som kanske innehåller ett fåtal streamprocessorer och lägger de på samma pcb, kanske man når en nivå där overheaden för att köra multi-gpu är försvinnande liten i jämförelse med fördelarna: bättre chip-yield samt att man kan använda exakt samma process över hela prestandaspektrat. Är inte det vad intel försöker göra med sin larrabee? Och är inte möjligheten att få mer skalbar prestanda en av de största anledningarna till att man kör med streamprocessorer nuförtiden?

Problemet med minnesdelning har de kanske löst på något sätt och de små processorerna är kanske uformade på sådant sätt att det är meningen att man ska koppla ihop flera tillsammans? Då till skillnad mot tidigare generationers crossfire och sli som är mer som ett lager ovanpå hela GPU-arkitekturen.

Någon nämnde likheten med CPU:er. Nej, den tyngsta delen av grafikberäkningar är inte sekventiellt och GPU:er är inte en von Neumann arkitektur. GPU kör med single-instruction multiple data. De som kan linjär algebra kan se det som när man adderar två vektorer, så tar man ju varje element i vektorn och summerar ihop med motsvarande element i den andra vektorn. Alla andra element, förutom just de två som ska summeras, är oberoende av varandra. På en enkärnig cpu itererar man över varje element ett åt gången:
(Vi har två vektorer, vector1 och vector2, av samma längd)

for (i=1; i < vector1.length(); i++)
vectorResult=vector1[i]+vector2[i];
end;

Medan en GPU kan göra detta på en gång parallelt, eller på ett antal gånger beroende på hur många pipelines den har samt hur lång vektorn är. Det är därför GPU:er skalar så bra jämfört med CPU:er.

Permalänk
Medlem

Tagit ifrån http://mikrodatorn.idg.se/2.1030/1.162343

Det är modellerna Radeo n HD 4850 och 4870 somhar testats mot Nvidias Geforce 9800 GTX. Det uppges då att 4870 är 30 procent snabbare än 4850 och 25 procent snabbare än 9800 GTX. Vilka testprogram som har använts framgår inte.

Tycker det låter bra för ATI;s fördel, och det räcker för mig! Jag tror på ATI!

Visa signatur

Intel E8400 - Radeon 4870 512mb - Corsair XMS2 (2x2gb) Asus P5Q - Antec300

Permalänk
Medlem

Okey suck, folk verkar inte förstå hur en modern GPU är uppbyggt.

Enkelt sagt så innehåller t.ex. en 8800GTX 128 individuella stream processorer som jobbar parallellt.

Varje grön låda är en processor. Denna uppbyggnad kan man grovt säga efterlikna dagens dualcore CPU men med bara 2 cores och inte 128.

Visa signatur

[QX6700 @ 3.20Ghz - Tuniq Tower 120 - Abit IN9 32X MAX nForce-680i SLI - 4x1024 PC2-6400 Team Xtreem @ 800Mhz 3338 - GTX260 216 SLI @ 690/1440/2170 - 2x74GB Raptor - Tagan TurboJet 1100W - 6x TT Blue Led VR - CoolerMaster Stacker 830 Evolution - Samsung SH-S183A SATA - Dell UltraSharp 3007WFP-HC - Logitech Z-5500]

Permalänk
Citat:

Ursprungligen inskrivet av Dunde
Fler kärnor än en är ALLTID en nödlösning. Det är rätt larvigt att någon i branshen påstår att man faktiskt siktar på att köra med produkter med flera kärnor.

..Säger han som sitter på en fyrkärnig cpu.. :S

Visa signatur

Vill du ha svar eller min uppmärksamhet så rekommenderar jag att du citerar ;D