Krönika: AMD borde överge prestandasegmentet

Permalänk
Medlem
Skrivet av Sveklockarn:

Jo, det var i mitten av 2000-talet, vilket var min poäng.

Så med tiden tvättas alla synder bort menar du? (Bara en fråga inget påstående)

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Medlem
Skrivet av Bael:

Så med tiden tvättas alla synder bort menar du? (Bara en fråga inget påstående)

Tror bara att nyttan Nvidia såg med att betala spelutvecklare för att ha sin logo helt upphörde i den eran eftersom AMDs ekonomiska klavertramp gjorde att hela bolaget hamnade i en brant nedförsbacke och slutade vara ett hot.

På den tiden var det ju även standard bland spelare att antingen modda spelet eller lägga till uppstartskommandon i sökvägen för att slippa se eländet, så jag tror inte att dessa [ofta pinsamt töntiga] fördröjningar av spelets uppstart väckte något annat än antipatier ens bland de trognaste Nvidia-fans.

Permalänk
Medlem

Om det nu stämmer känns det udda, att signalera att man inte ens tänker försöka vara bäst har inga positiva effekter på försäljningen av ens övriga produkter heller.

Man kan kanske förklara det från AMD's perspektiv så här:

AMD har en begränsad tillverkningskapacitet tillgänglig från TSMC, ett visst antal kvadratmeter wafer som skall bli produkter som tjänar pengar. Om säg ett Epyc Genoa förbrukar 1000mm2 wafer och ett RDNA3 förbrukar 500mm, (Siffror tagna delvis från luften för illustration) och man kan sälja epyc för 100 000 kr per styck så blir det en förlustaffär att sälja rdna3-grafikkort för 15 000 kr så länge det finns kunder som vill ha Epyc.

I mellansegmentet finns affärer som tex PS5 och Xbox, och man har ju också sina laptopchip att tänka på.

Så sett kan det vara vettigt för AMD att överge de stora prestandachippen - men det är ju en tråkig strategi för Sapphire. XFX, Powercolor m fl. Istället för ett fläskigt Sapphire "8900 toxic" får vi ett "8700 unhealthy" som toppkort liksom hur kul är det? :-/

Permalänk
Avstängd
Skrivet av Aleshi:

Hur menar du att den varit annorlunda? Till vems fördel?
För att tala ur personlig erfarenhet här. AMD har inte levererat det jag vill ha i generation efter generation. Först i ren effektivitet och prestanda. Och sedan i ren funktionalitet med RT, beräkningstillämpningar osv. Så nu sitter en av forumets största AMD fanboys med nVidia GPU i samtliga datorer.
Hade kag inte varit så märkestrogen så hade jag kanske köpt fler nVidia-kort.
Har svårt att se det omvända, att fler skulle köpa AMD-kort ifall alla la ner fanboy-beteendet.

Nu är t.ex. RT förhållandevis nytt, det har under många gånger varit så att folk har fått mer för pengarna om de hade gått och köpt AMD istället. Under många perioder så borde AMD ha kunnat få högre marknadsandelar och därmed även tjänat mer pengar vilket hade gett oss bättre produkter och med det bättre konkurrens.
Man får hoppas att Intel lyckas röra om i grytan, ingen tjänar på att Nvidia hela tiden är på topp.

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk
Medlem
Skrivet av Kaleid:

Nu är t.ex. RT förhållandevis nytt, det har under många gånger varit så att folk har fått mer för pengarna om de hade gått och köpt AMD istället. Under många perioder så borde AMD ha kunnat få högre marknadsandelar och därmed även tjänat mer pengar vilket hade gett oss bättre produkter och med det bättre konkurrens.
Man får hoppas att Intel lyckas röra om i grytan, ingen tjänar på att Nvidia hela tiden är på topp.

Sett till ren prestanda/krona så kanske Polaris och Vega hade lite att komma med. Men det finns fler variabler, så för mig var helheten ändå inte värd kontra alternativen hos nVidia, samtidigt som det gav för lite mot mitt gamla 7970.

Permalänk
Medlem
Skrivet av Söderbäck:

Jag tycker det här låter lite som ett försök att föröka procecera nvidias inlåsningsstrategier på konkurrenterna. Är det så att man besväras över inlåsningen så låter det då inte riktigt balanserat att bara vara sur på ena parten utan då finns det bra med underlag att ävenvara sur på nvidias metoder för att låsa ute konkurrens.

Vi behöver inte utesluta möjligheten att det stämmer. AMD kanske börjat med inlåsning/utlåsningsleken som nvidia hållt på med de senaste årtiondena. Om så skulle vara fallet så har de väl gått in på en liknande linje som nvidia.

Givet hur historien har sett ut, där den ena många gånger under årens lopp har låst inte med proprietära lösningar och har skapat teknologier som missgynnat den andre och hur den andre gång efter annan har löst samma problem på andra sätt och gjort till en öppen standard som båda har haft stöd för, så är det minst lika troligt att det är nvidia som håller emot. Av det som presenterats såhär långt finns det ingen substans i några anklagelser. Och att inte svara på frågor om hur avtal ser ut med partners? Det gör inte nvidia heller. De är under NDA.

Permalänk
Medlem

bryr mig inte ett skvatt om raytracing, för mig är raster mycket viktigare, men jag är nog i minoritet. jag hör till gruppen som alltidbstänger av post processin och motion blur.

Visa signatur

2x Xeon E5-2699 v4, 256gb Quad Channel RAM, 2x nVIDIA 980ti
----
AMD Ryzen 5950X, 128gb Dual Channel RAM, 2x AMD 6900XT
----
Massiv amiga och 3dfx-samling.

Permalänk
Medlem

Ganska intressant diskussion.
Många menar AMD är sämre men är de det? Ja i absoluta toppen men prestanda per krona så ligger de ungefär lika o i många fall bättre. Ja de har något omogna drivers i början men har blivit bra på uppdatera dem så korten blir märkbart snabbare med tiden och därmed en del snabbare än motsvarande Nvidia kort.
Men helt klart, Nvidia ligger i topp o tar betalt därefter.
And AMDs "troliga" satsning på mellansegmentet så håller jag med om att et nog kan vara vettigt. Kanske ha kort som nosar övre segmentet. Nu har de läge att bli starkare. Nvidia har gått all in på Ai och där är efterfrågan så extrem att jag gissar Nvidia kommer halvt skita i grafikkort för gamers pga Ai boomen ger så mkt högre intäkter. Visst kommer de att fortsätta tillverka kort men de kommer ta betalt för dem också, rejält. Vi kan glömma att de skulle sänka priserna nämnvärt.
Nvidias erbjudanden i mellansegmentet nu är eg rent skit.. 4060, 4070.. men de ska ha betalt.. rejält betalt.. o verkar inte särskilt brydda över att de knappt säljer dessa kort.
Så, ja. Vettigt av AMD att satsa mellansegmentet o försöka få större närvaro där. Detta också med tanke på att de måste börja slåss med Intel där.

https://youtu.be/gQyWm6Aosy8

Visa signatur

Lian-Li Tu150 (fläktmoddad) w Corsair SF750 Platinum SFX / Asus Strix B550-i Itx / Ryzen 5600x @ 4.92.. Scythe Fuma 2 / Crucial Ballistix 2x16 3600@4000 / WD Black SN850 NVME + Kingston A2000 NVME / MSI Radeon RX 6800 referens / 2x120mm Noctua NF-A12x15 golv. 2x120mm Noctua NF A12x25 In och Utblås. Fläktmod tak 1x140mm Noctua NF A14 utlblås via kammare baktill. Samsung 34" c34j791 3440x1440.

Permalänk
Medlem
Skrivet av EvonS:

Ganska intressant diskussion.
Många menar AMD är sämre men är de det? Ja i absoluta toppen men prestanda per krona så ligger de ungefär lika o i många fall bättre. Ja de har något omogna drivers i början men har blivit bra på uppdatera dem så korten blir märkbart snabbare med tiden och därmed en del snabbare än motsvarande Nvidia kort.
Men helt klart, Nvidia ligger i topp o tar betalt därefter.
And AMDs "troliga" satsning på mellansegmentet så håller jag med om att et nog kan vara vettigt. Kanske ha kort som nosar övre segmentet. Nu har de läge att bli starkare. Nvidia har gått all in på Ai och där är efterfrågan så extrem att jag gissar Nvidia kommer halvt skita i grafikkort för gamers pga Ai boomen ger så mkt högre intäkter. Visst kommer de att fortsätta tillverka kort men de kommer ta betalt för dem också, rejält. Vi kan glömma att de skulle sänka priserna nämnvärt.
Nvidias erbjudanden i mellansegmentet nu är eg rent skit.. 4060, 4070.. men de ska ha betalt.. rejält betalt.. o verkar inte särskilt brydda över att de knappt säljer dessa kort.
Så, ja. Vettigt av AMD att satsa mellansegmentet o försöka få större närvaro där. Detta också med tanke på att de måste börja slåss med Intel där.

Det handlar om arkitektur. Om AMD har en sämre arkitektur så måste de kasta mer resurser på att få samma jobb utfört. Mer kretsyta och högre frekvens. Alltså sämre prestanda/mm² och sämre prestanda/watt. Det översätts till sämre prestanda/krona i produktionsledet. Därför har de också sämre förutsättningar för att vara lönsamma i mellansegmentet.

De kan i så fall mycket riktigt bygga kort för mellansegmentet och lite till. Men de kan inte göra det med samma lönsamhet som nVidia Och kan inte priskriga särskilt aggressivt.

Ingen(?) ifrågasätter väl huruvida AMD ska fokusera på mellansegmentet om de inte kan konkurrera i toppen. Alla verkar vara ense. Frågan är väl om de har möjligheten att "bli kungar" där.
Krönikan, eller någon i forumet för den delen, misslyckas med att förklara hur det ska gå till.

Hur ska AMD, förutsatt att deras arkitektur inte duger till toppen, ta andelar och fortfarande göra vinst i mellansegmentet?
Det är inte bara det att AMD då troligtvis har högre tillverkningskostnad vid en given prestanda, de måste ha lägre priser bara för att sälja så bra som de gör. Hur ska de klara ett priskrig?

Jag tror AMD vet vad de gör när de inte startar krig de inte kan vinna. De lägger priserna för att maximera vinst med det de har, för att överleva och slåss en annan dag.

En sak många nte tycks förstå är också att det är dyrare att utveckla dagens grafikkort än vad det var att utveckla dem för 15 år sedan. Priserna är högre nu och vi får leva med det.

Permalänk
Medlem
Skrivet av Aleshi:

Hur ska AMD, förutsatt att deras arkitektur inte duger till toppen, ta andelar och fortfarande göra vinst i mellansegmentet?

Det beror på vad svagheten med arkitekturen är. Om problemet är att den inte kan skala, så kan AMD mycket väl vara konkurrenskraftiga i mellanklassen även om de inte når den översta klassen.

Det problem AMD hade med Polaris/Vega (och även med Fiji innan dess) var att arkitekturen inte skalade som den skulle för de största enheterna. Om du vill ha detaljerna så har AMD själva beskrivit dem i ett whitepaper här:

https://www.amd.com/system/files/documents/rdna-whitepaper.pd...

Just det där whitepapret är läsvärt, men om jag skall summera saken så handlar problemet om att GCN behöver ett stort antal oberoende programtrådar att jobba med för att shaderbanken skall användas fullt ut. Om man tar Vega 56 och klockar den precis som Vega 64, så skiljer prestandan med mindre än 2%, trots att Vega 56 har förlorat en åttondel av alla shaders. De där sista shaderna gör ingen större skillnad, för det finns inte nog med trådar för att de skall ha något att göra. Faktum är att Hawaii med sina 44 CU var ännu mer effektivt är Vega 56, så hela designen knakade betänkligt i fogarna när vi kom till Vega.

RDNA gjorde egentligen bara två förändringar, men den viktiga var att de reducerade antalet trådar som behövdes för full prestanda till en fjärdedel. Detta gjorde att 5700XT kunde använda de shaders som den hade mycket bättre.

Risken är att vi är i samma situation igen nu - att designen inte skalar så bra till de största modellerna, men att det fortfarande fungerar i mellanklassen. Försöken med dual issue kan tolkas så, men det är alldeles för tidigt att säga vad det egentligen handlar om.

Vi vet också att Nvidia traditionellt tjänade mest på sina x60-kort. Nu har ju priserna stuckit iväg något alldeles vansinnigt i toppen så det kanske inte är sant längre, men i allmänhet hade Nvidia lyckats med premium-pyramiden, som vi kallade den i bilbranschen - gör kraftfulla grejer och sälj dem till högt pris men dålig marginal eftersom det är svårt att täcka utvecklingskostnader. Hela toppklassen fungerar som reklam för mellanklassen, där du kan ha en ohemul marginal på en mycket större volym. Om det är det vi talar om fortfarande, så kan AMD absolut tjäna på detta. Gör en hel massa kort i x60/x70-klass, sälj dem billigare än Nvidia och gör en liten men rimlig vinst. Som plan är det fullt möjligt - återstår att se om de lyckas exekvera den.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Aleshi:

Det handlar om arkitektur. Om AMD har en sämre arkitektur så måste de kasta mer resurser på att få samma jobb utfört. Mer kretsyta och högre frekvens. Alltså sämre prestanda/mm² och sämre prestanda/watt. Det översätts till sämre prestanda/krona i produktionsledet. Därför har de också sämre förutsättningar för att vara lönsamma i mellansegmentet.

De kan i så fall mycket riktigt bygga kort för mellansegmentet och lite till. Men de kan inte göra det med samma lönsamhet som nVidia Och kan inte priskriga särskilt aggressivt.

Ingen(?) ifrågasätter väl huruvida AMD ska fokusera på mellansegmentet om de inte kan konkurrera i toppen. Alla verkar vara ense. Frågan är väl om de har möjligheten att "bli kungar" där.
Krönikan, eller någon i forumet för den delen, misslyckas med att förklara hur det ska gå till.

Hur ska AMD, förutsatt att deras arkitektur inte duger till toppen, ta andelar och fortfarande göra vinst i mellansegmentet?
Det är inte bara det att AMD då troligtvis har högre tillverkningskostnad vid en given prestanda, de måste ha lägre priser bara för att sälja så bra som de gör. Hur ska de klara ett priskrig?

Jag tror AMD vet vad de gör när de inte startar krig de inte kan vinna. De lägger priserna för att maximera vinst med det de har, för att överleva och slåss en annan dag.

En sak många nte tycks förstå är också att det är dyrare att utveckla dagens grafikkort än vad det var att utveckla dem för 15 år sedan. Priserna är högre nu och vi får leva med det.

Rent tekniskt har de kanske inte större chans i mellanklass ijmf med toppklass (ja, beroende på hur pass bra/dåligt de skalar då). Men mellanklass är så ohyggligt mkt större än toppklass och därmed så kan det iaf finnas utrymme för dem.

Tror inte det handlar om att bli "kungar" dock. Mera att de ändå behöver GPU-verksamheten eftersom de har en styrka i att kunna erbjuda APU:er. Dels för konsoler men oxå för PC där de dessutom, som det verkar, har en utökad satsning med klart starkare GPU del (pratas ju om mot upp till 40 CUs framöver).

Så AMDs närvaro på dGPU-marknaden tror jag av AMD bara ses som ett komplement till den viktigare APU-marknaden. I det perspektivet så är det kanske inte så konstigt om de strutar i de allra fetast dGPU chippen, tänker jag.

Permalänk
Medlem
Skrivet av mpat:

Det beror på vad svagheten med arkitekturen är. Om problemet är att den inte kan skala, så kan AMD mycket väl vara konkurrenskraftiga i mellanklassen även om de inte når den översta klassen.

Det problem AMD hade med Polaris/Vega (och även med Fiji innan dess) var att arkitekturen inte skalade som den skulle för de största enheterna. Om du vill ha detaljerna så har AMD själva beskrivit dem i ett whitepaper här:

https://www.amd.com/system/files/documents/rdna-whitepaper.pd...

Just det där whitepapret är läsvärt, men om jag skall summera saken så handlar problemet om att GCN behöver ett stort antal oberoende programtrådar att jobba med för att shaderbanken skall användas fullt ut. Om man tar Vega 56 och klockar den precis som Vega 64, så skiljer prestandan med mindre än 2%, trots att Vega 56 har förlorat en åttondel av alla shaders. De där sista shaderna gör ingen större skillnad, för det finns inte nog med trådar för att de skall ha något att göra. Faktum är att Hawaii med sina 44 CU var ännu mer effektivt är Vega 56, så hela designen knakade betänkligt i fogarna när vi kom till Vega.

RDNA gjorde egentligen bara två förändringar, men den viktiga var att de reducerade antalet trådar som behövdes för full prestanda till en fjärdedel. Detta gjorde att 5700XT kunde använda de shaders som den hade mycket bättre.

Risken är att vi är i samma situation igen nu - att designen inte skalar så bra till de största modellerna, men att det fortfarande fungerar i mellanklassen. Försöken med dual issue kan tolkas så, men det är alldeles för tidigt att säga vad det egentligen handlar om.

Vi vet också att Nvidia traditionellt tjänade mest på sina x60-kort. Nu har ju priserna stuckit iväg något alldeles vansinnigt i toppen så det kanske inte är sant längre, men i allmänhet hade Nvidia lyckats med premium-pyramiden, som vi kallade den i bilbranschen - gör kraftfulla grejer och sälj dem till högt pris men dålig marginal eftersom det är svårt att täcka utvecklingskostnader. Hela toppklassen fungerar som reklam för mellanklassen, där du kan ha en ohemul marginal på en mycket större volym. Om det är det vi talar om fortfarande, så kan AMD absolut tjäna på detta. Gör en hel massa kort i x60/x70-klass, sälj dem billigare än Nvidia och gör en liten men rimlig vinst. Som plan är det fullt möjligt - återstår att se om de lyckas exekvera den.

Riktigt intressant läsning, tack för infon.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av mpat:

Det beror på vad svagheten med arkitekturen är. Om problemet är att den inte kan skala, så kan AMD mycket väl vara konkurrenskraftiga i mellanklassen även om de inte når den översta klassen.

Det problem AMD hade med Polaris/Vega (och även med Fiji innan dess) var att arkitekturen inte skalade som den skulle för de största enheterna. Om du vill ha detaljerna så har AMD själva beskrivit dem i ett whitepaper här:

https://www.amd.com/system/files/documents/rdna-whitepaper.pd...

Just det där whitepapret är läsvärt, men om jag skall summera saken så handlar problemet om att GCN behöver ett stort antal oberoende programtrådar att jobba med för att shaderbanken skall användas fullt ut. Om man tar Vega 56 och klockar den precis som Vega 64, så skiljer prestandan med mindre än 2%, trots att Vega 56 har förlorat en åttondel av alla shaders. De där sista shaderna gör ingen större skillnad, för det finns inte nog med trådar för att de skall ha något att göra. Faktum är att Hawaii med sina 44 CU var ännu mer effektivt är Vega 56, så hela designen knakade betänkligt i fogarna när vi kom till Vega.

RDNA gjorde egentligen bara två förändringar, men den viktiga var att de reducerade antalet trådar som behövdes för full prestanda till en fjärdedel. Detta gjorde att 5700XT kunde använda de shaders som den hade mycket bättre.

Risken är att vi är i samma situation igen nu - att designen inte skalar så bra till de största modellerna, men att det fortfarande fungerar i mellanklassen. Försöken med dual issue kan tolkas så, men det är alldeles för tidigt att säga vad det egentligen handlar om.

Vi vet också att Nvidia traditionellt tjänade mest på sina x60-kort. Nu har ju priserna stuckit iväg något alldeles vansinnigt i toppen så det kanske inte är sant längre, men i allmänhet hade Nvidia lyckats med premium-pyramiden, som vi kallade den i bilbranschen - gör kraftfulla grejer och sälj dem till högt pris men dålig marginal eftersom det är svårt att täcka utvecklingskostnader. Hela toppklassen fungerar som reklam för mellanklassen, där du kan ha en ohemul marginal på en mycket större volym. Om det är det vi talar om fortfarande, så kan AMD absolut tjäna på detta. Gör en hel massa kort i x60/x70-klass, sälj dem billigare än Nvidia och gör en liten men rimlig vinst. Som plan är det fullt möjligt - återstår att se om de lyckas exekvera den.

Ja OM det finns en sådan begränsning. Vilket vi inte har någon anledning att tro. Dessutom så var det precis lika låg effektivitet på Polaris som på Vega, om inte lägre. Så de stora problemen med GCN under 4096 shader var inte skalning, den var ineffektiv vid alla skalor. Precis som att RDNA är effektivare i både små och stora kort.
Den uteblivna skillnaden i prestanda mellan Vega 56 och Vega 64 vid samma klockfrekvens kan till stor del förklaras av att det var just bara shaders som var nerskalat i Vega 56. Vega 56 hade fortfarande lika många shader engines som Vega 64, lika många ROPs, lika bred buss osv. Stäng av en hel shader engine och du får annat resultat.
Den stora skalningsproblemet för GCN var alltså inte ineffektiviteten i de kretsar de gjorde. Skalningsproblemet var bara förklaringen till varför de inte gick över 4096 shaders. På de korten under 4096 shaders så var problemet där oavsett skala. Inte helt samma problem.

Och återigen. Hur ska de stjäla andelar? Du priskrigar inte för hårt om du har högre tillverkningskostnader för samma prestandasegment. Och det är som du säger dessutom motvind när nVidia har prestandatronen och den gratisreklam det innebär.

Tror som sagt AMD vet vad de gör.

Permalänk
Medlem
Skrivet av ipac:

Rent tekniskt har de kanske inte större chans i mellanklass ijmf med toppklass (ja, beroende på hur pass bra/dåligt de skalar då). Men mellanklass är så ohyggligt mkt större än toppklass och därmed så kan det iaf finnas utrymme för dem.

Tror inte det handlar om att bli "kungar" dock. Mera att de ändå behöver GPU-verksamheten eftersom de har en styrka i att kunna erbjuda APU:er. Dels för konsoler men oxå för PC där de dessutom, som det verkar, har en utökad satsning med klart starkare GPU del (pratas ju om mot upp till 40 CUs framöver).

Så AMDs närvaro på dGPU-marknaden tror jag av AMD bara ses som ett komplement till den viktigare APU-marknaden. I det perspektivet så är det kanske inte så konstigt om de strutar i de allra fetast dGPU chippen, tänker jag.

Nä, alla är ju överens om att om de inte kan nå toppen så ska de satsa på att vara med i mellansegmentet. Frågan är hur de ska gå till väga om de har en sämre arkitektur. Att det finns en stor marknad hjälper inte i frågan om andelar av sagda marknad.

Permalänk
Medlem
Skrivet av Aleshi:

Nä, alla är ju överens om att om de inte kan nå toppen så ska de satsa på att vara med i mellansegmentet. Frågan är hur de ska gå till väga om de har en sämre arkitektur. Att det finns en stor marknad hjälper inte i frågan om andelar av sagda marknad.

Det jag menar. Ambitionsnivån kanske är rätt låg även för mellanklass dGPU-marknaden men att de finner att det är bättre att iaf existera där än att inte göra det.

Permalänk
Medlem

En allmän tanke är att RDNA trots allt är närmare Nvidias arkitekturer än vad GCN var mot slutet och RDNA 3 är inte lika hopplöst efter i yteffektivitet kontra Ada än exempelvis Polaris ställt mot Pascal. Energieffektiviteten är inte bra dock då Nvidia tagit kraftiga steg med Ada.

Oavsett vad så tror jag inte att AMD drar sig ur dGPU-marknaden iom att arkitekturerna finns klara som ett biresultat av APUer (konsoler, mobilt osv) och till viss del att de behövs för att AMD ska kunna konkurrera med sina lösningar för datacenter.

Permalänk
Medlem
Skrivet av Sveklockarn:

Vilket spel såg du senast med en Nvidia-logga som splash-screen (eller överhuvudtaget)?

Från Nvidia license agreement för DLSS,

"(b) NVIDIA Trademark Placement in Applications with the DLSS SDK or NGX SDK. For applications that incorporate the DLSS
SDK or NGX SDK or portions thereof, you must attribute the use of the applicable SDK and include the NVIDIA Marks on
splash screens, in the about box of the application (if present), and in credits for game applications."

Permalänk
Medlem
Skrivet av Aleshi:

Ja OM det finns en sådan begränsning. Vilket vi inte har någon anledning att tro. Dessutom så var det precis lika låg effektivitet på Polaris som på Vega, om inte lägre. Så de stora problemen med GCN under 4096 shader var inte skalning, den var ineffektiv vid alla skalor. Precis som att RDNA är effektivare i både små och stora kort.

Om vi talar om effektivitet i meningen att kortet använder de resurser det har, så är Polaris 10 (Radeon 480 osv) förhållandevis effektiv. Däremot är kortet ganska ineffektivt i prestanda per watt, men det beror på den genomusla GloFo 14nm-processen.

(AMD hade verkligen ingen tur med Vega. Förutom designen, som ju var deras ansvar, så fick de använda en usel process och de första HBM2-minnena höll inte vad de hade lovat.)

Citat:

Den uteblivna skillnaden i prestanda mellan Vega 56 och Vega 64 vid samma klockfrekvens kan till stor del förklaras av att det var just bara shaders som var nerskalat i Vega 56. Vega 56 hade fortfarande lika många shader engines som Vega 64, lika många ROPs, lika bred buss osv. Stäng av en hel shader engine och du får annat resultat.

Jag förstår inte riktigt ditt argument här. Radeon 470 med 28 CU tappar ungefär vad den ”skall” jämfört med Radeon 480. På samma sätt tappar de modernare korten, som 6800XT, 5700 inte XT, 6600 inte XT osv. Alla dessa har bara färre CU (och lägre klockfrekvens) med samma antal ROPpar, SE osv. AMD stänger väldigt sällan av en hel SE - 7900 GRE är ett av väldigt få exempel.

Om vi vänder på diskussionen - det finns inget som tvingar AMD att sätta precis 64 CU i Vega 64. De hade kunnat sätta 56 och uppnå 98,5% av prestandan, och sparat en hel del på kretsytan. Hade AMD vetat att de inte kunde skala ordentligt till 64 så hade de kunnat sänka siktet lite och göra ett billigare chip. Ingen designar väl ett 484mm2 chip med HBM2 och interposer för att konkurrera med 314mm2 GP104 (dvs, 1080). Målet måste ha varit 471mm2 GP102 (1080 Ti/Titan X/XP).

Citat:

Den stora skalningsproblemet för GCN var alltså inte ineffektiviteten i de kretsar de gjorde. Skalningsproblemet var bara förklaringen till varför de inte gick över 4096 shaders. På de korten under 4096 shaders så var problemet där oavsett skala. Inte helt samma problem.

Enligt Anandtech, på den tiden de var bra (innan Anand Lal Shimpi själv gick till Apple), så var 64CU en absolut gräns i GCN. Den kunde ha 16 CU per SE och 4 SE. Det är troligt, eftersom mellanklassen började få 4 SE i Tonga och Polaris 10 efter att ha haft en effektivare design med 2 SE tidigare. Navi 10/5700XT är åter 2 SE, med 20 CU i varje SE. Det löstes då genom att CUrna organiserades 2 och 2 i WGPer, så att varje SE innehöll 10 WGPer. Navi 22 använder samma setup, och Navi 21 dubblar allt och återgår till 4 SE. Det första kort som har fler än 4 SE är Navi 31 (det har 6 st), så där nånstans måste de ha löst begränsningen med 4 SE.

Citat:

Och återigen. Hur ska de stjäla andelar? Du priskrigar inte för hårt om du har högre tillverkningskostnader för samma prestandasegment. Och det är som du säger dessutom motvind när nVidia har prestandatronen och den gratisreklam det innebär.

Tror som sagt AMD vet vad de gör.

Tror inte att de vill vinna marknadsandelar i det här läget, jag tror att de vill förbättra lönsamheten.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Radeon 4850 och 4870 för $199/$299 var ju bland de bästa ATi (nu AMD) släppt, så visst borde de även nu kunna producera bra produkter utan att vara med i toppsegmentet.

Det har också skett en enorm förskjutning av hela grafikkortsmarknaden. Det segment som idag kallas high-end fanns knappt för 5-10 år sedan. Ingen hade kunnat föreställa sig de priserna vi har idag för t.ex. 4080 och 4090. Det som idag räknas som mid-range är ungefär vad som skulle kallats ultra high-end förr om man ser till pris och relativ prestanda. Så även om de bara fokuserar på "mid-range" innebär det grafikkort som duger till 99% av alla användare.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Medlem

För att bara rätta mig själv från ovan: Radeon 470 har 32 CU och inget annat. Påverkar inte min allmänna poäng, men rätt skall vara rätt.

Skrivet av Pepsin:

Det har också skett en enorm förskjutning av hela grafikkortsmarknaden. Det segment som idag kallas high-end fanns knappt för 5-10 år sedan. Ingen hade kunnat föreställa sig de priserna vi har idag för t.ex. 4080 och 4090. Det som idag räknas som mid-range är ungefär vad som skulle kallats ultra high-end förr om man ser till pris och relativ prestanda. Så även om de bara fokuserar på "mid-range" innebär det grafikkort som duger till 99% av alla användare.

Det här har jag också tänkt på. När jag köpte mitt Radeon 290 så var det det näst bästa AMD hade, och det kostade $399. Dollarkursen var bättre då, så jag köpte mitt neråt 3300 kr ungefär. Det får man ju knappt ett grafikkort för idag om det inte är rea. Om AMDs plan är att strunta i en ersättare till Navi 31 och bara hålla sig till nivån under, så slutar pris-stegen nånstans runt $5-600 (om vi tittar på vad Navi 22 kostade). Precis som du skriver så hade det varit high-end förr. Helt OK för min del, faktiskt.

Visa signatur

5900X | 6700XT

Permalänk
Avstängd

Iom att Nvidia brukar sänka priser på grafikkorten dom känner har konkurrens från Amd så brukar flesta välja Nvidia. Amd kommer knappast öka sin andel på grafikkortsmarknaden.

Visa signatur

The more I get to know people, the more I love my dog.

Permalänk
Medlem
Skrivet av sasfoxi:

Iom att Nvidia brukar sänka priser på grafikkorten dom känner har konkurrens från Amd så brukar flesta välja Nvidia. Amd kommer knappast öka sin andel på grafikkortsmarknaden.

Så bibehålls ett praktiskt monopol. Har förresten detta hänt den här generationen?

Visa signatur

| 212965 00 ] == :^D * ==)

Permalänk
Medlem
Skrivet av ThomasLidstrom:

Problemet är inte om AMD skall vara med i segment x eller y, problemet är felaktig prissättning;
AMD ligger kraftigt efter Nvidia, ändå prissätter de sina grafikkort som om de låg jämsides.
AMD behöver prissätta sina grafikkort för "inbrytning"; lägga sig en kategori lägre än Nvidia
Tex prissätta 4080-konkurenten i nivå med 4070s pris
På så vis blir de det självklara valet, "varför köpa ett 4080 när jag kan få samma prestanda för priset av ett 4070?"
Vad tror ni skulle hänt om 7900XT hade lanserats med en MSRP på 599USD istället för de 899USD de lanserades för?

Tyvärr tror jag att det är TSMC som är problemet, de står för 100% av kretstillverkningen av GPUer.
Det i kombination med att AMD säljer CPUer som glass en varm sommardag gör att AMD väljer att prioritera CPUer

Låter helt orimligt, 7900XT är prisat runt 4070Ti som är nästa kort ner under 4080, 4070 kostar ca hälften av vad 4080 kostar, vansinnigt stort hopp i pris att ta för något slags fjäskande för ett segment av konsumenter som oftast kommer köpa nvidia till ett par tusenlappar mer ändå för att de fått lära sig av varandra att det helt enkelt inte finns något alternativ.

Nu tycker jag att 7900XT prismässigt är rätt trist, 7900XTX är det intressanta kortet och även det är ju billigare än 4080.

Tycker absolut inte att de ska försöka konkurrera i 4090's prisklass, och känner att om de inte kan konkurrera med 4080 utan att det blir den sortens priser som 4080 går för så borde de skippa även den- men 12-13k max för toppkort tycker jag inte är orimligt.

Tycker jag väl egentligen att 7900XTX är den naturliga konkurrenten till 4080, iallafall prestanda/pris mässigt, särskilt om man har i åtanke att många kommer känna någon slags ångest över att köpa något som inte har DLSS osv, då är det ju plåster på såren att iallafall få bättre prestanda för pengarna i native.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av dagas:

Minns Radeon HD 4870. Deras bästa GPU den generationen och kostade 299 dollar. Var väldigt bra dessutom. För att inte tala om 4850. Samma kärna och bara lite sämre minne. High end prestanda för 199 dollar.

Presterade typ som GTX 260 som kostade 449 dollar.

GTX 280 var visserligen bäst men var totalt ointresserad med sina 649 dollar.

Nvidia sänkte priset sen tex GTX 275 kostade 249 dollar och alltså betydligt mindre än 260 när den kom fast 275 var bättre men det var tack vare AMD satte press på dem. Annars hade de nog inte sänkt.

Så om det sätter press på priset så är jag på. Behöver inte kort som kostar 15-20k.

Minns dessa dagar jag med, känner samma sak. Behöver inte ett topp kort som kostar en tredjedel av min bil... Men ja, ser hellre att man kan uppgradera GPU för ett hyfsat pris och faktiskt få det för en hyfsad budget med ^^

Visa signatur

Ryzen 9 5900x 4.8ghz. 32GB DDR4 3600Mhz. Radeon 6800 XT. MSI Gaming Plus B550. 1000GB SN850 M.2. Noctua Nh-U14S. 1x 1024GB M.2 Kingston A2000. Seasonic Focus PX 850 Platinum. Fractal Design Define R6 USB-C. Predator XB273UGX.

Permalänk
Avstängd
Skrivet av Kolsvart Katt:

Så bibehålls ett praktiskt monopol. Har förresten detta hänt den här generationen?

Inte vad jag sett. Nvidia anser sig nog inte ha varit tillräcklig hotade av Amd´s priser den här generationen.

Visa signatur

The more I get to know people, the more I love my dog.

Permalänk
Medlem

Förstår inte varför AMD inte bara släpper en helhetslösning för mellansegmentet. Som en PS5 platta men för windows. Typ mobo/gpu/delat minne för gpu/cpu, lite åt Apple hållet men för gaming.
Så köper man ssd, chassi och psu själv med typ mitx format. Så kan de ha olika prisklasser med olika prestanda om det tar fart.
Då får de in mer pengar per sälj, det kommer dra mindre el, bli mindre varmt och det kommer erbjuda mer bang for buck.

Nvidia har inte möjlighet att göra detta idag då spelen fortfarande kör x86.

Permalänk
Medlem
Skrivet av KAN1N:

Förstår inte varför AMD inte bara släpper en helhetslösning för mellansegmentet. Som en PS5 platta men för windows. Typ mobo/gpu/delat minne för gpu/cpu, lite åt Apple hållet men för gaming.
Så köper man ssd, chassi och psu själv med typ mitx format. Så kan de ha olika prisklasser med olika prestanda om det tar fart.
Då får de in mer pengar per sälj, det kommer dra mindre el, bli mindre varmt och det kommer erbjuda mer bang for buck.

Nvidia har inte möjlighet att göra detta idag då spelen fortfarande kör x86.

Du menar desktop Steamdeck på steroider alltså?

Permalänk
Medlem
Skrivet av Novdid:

Du menar desktop Steamdeck på steroider alltså?

Typ så. Steamdeck desktop eller motsvarande som Apple gjort med sitt m1/m2. AMD har ju kapacitet och tekniken för att bygga ett mobo med delat minne för inbyggd cpu och gpu men för Windows, fattar inte varför de inte gör det.

Tänk en modern PS5 mobo med dagens noder och som får dra mer watt. 32GB GDDR6 delat system-minne med RDNA3++ på ny nm teknik. Motsvarande 8 core 7000 serien etc.
Typ alla dessa tre i en mobo man köper bara med två eller fler tomma m.2 platser.

Visst det blir svårare att uppgradera separata delar men oftast är det ändå dags med ny CPU när det är dags för ny GPU. Sen kommer totalkostnaden pris/prestanda vara många procent bättre än att köpa separata delar.

Permalänk
Medlem
Skrivet av Aka_The_Barf:

Dumt för oss entusiater som söker topp prestanda. Då behöver inte nvidia göra lika högpresterande kort om det inte finns någon utmanare. Räcker med att dom lägger sig precis över sitt gamla kort i prestanda.

EDIT: se bara hur intel släpade sig fram i snigeltakt när amd låg efter.

Precis som i Intelfallet beror det ju på att folk köpte Intel oavsett om konkurrenten presterade bättre/$ eller inte och just så är det ju fortfarande med Nvidia.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730

Permalänk
Medlem
Skrivet av Tempel:

Precis som i Intelfallet beror det ju på att folk köpte Intel oavsett om konkurrenten presterade bättre/$ eller inte och just så är det ju fortfarande med Nvidia.

Det måste ju finnas en marknad för att konkurrens ska uppstå. Intel fick betala dyrt för sin snigeltakt till slut när Ryzen dundrade in med sina 8 core mm. Man köpte Intel för att AMD inte hade något att konkurrera med alla åren med Bulldozer failen.

Nividias monsterkort är ju "egentligen" konsument-varianter på deras teknik för high-end enterprise så det är mer en bonus de utnyttjar för sitt teknik-försprång där. Och där gräver de guld nu med all ai utveckling. AMD ligger tyvärr i lä på den fronten och därav också än så länge sina high end kort. När man lägger 25 tkr för ett RTX 4090 eller 3090 för att få BIS så är det ingen konkurrens och i stegen under dessa kort är det för lite prisskillnad för att inte välja Nvidia då deras drivers nästan alltid är bättre och korten drar mindre energi/värme och även DLSS2/3 och Raytracing.