Nvidias vd Jen-Hsun Huang svarar om Geforce GTX 970

Permalänk
Medlem

Tack Jen-Hsun Huang för att du ordnade så jag och alla andra glada ägare av 970 fick 512mb mer minne än vi egentligen skulle fått. Vi alla är ytterst tacksamma att du satta ner näven i bordet och skrek ut. "Nej de skall inte ha 3,5 det skall vara 4" Detta för att våra användare skall få den bästa produkten som finns för sina pengar.
Vill passa på att återigen tacka dig för att du tog tillfället i akt att trots att vi fått extremt låg hastighet i det segmentet minne skall vi ändå vara tacksamma för att vi fått 4 gig och inte 3,5!
Vi borde egentligen inte gnälla över en bagatell som att 1/8 av minnet lider en enorm prestandaförlust eftersom det egentligen bara är en bonus från er sida.

Med vänliga hälsningar
Triton

Permalänk
Medlem
Skrivet av Woods:

Gillar din optimism dock

Jag försöker. Brukar bli så mycket hat i denna typen av trådar ändå, så kan lika gärna försöka se på saker positivt. ^^

§1 i citat
Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Inaktiv
Skrivet av Minsc S2:

Loxus, använd det senaste prestandaindexet istället. Du länkar tester från December 2014.
Här är några från 2015 med uppdaterade drivrutiner:

Ja, GTX 970 drar mindre ström (och är en generation nyare), men i ren råprestanda ligger det bakom R9 290X, så att då säga att "AMD inte har något att komma med" som Goldfinger gjorde, är inget annat än rent struntprat.

Dom använder äldre drivrutiner till nvidia där.

§1 i citat
Permalänk
Medlem

Har alltid tyckt att det funnits lite väl många AMD fanboys här som varit helt jobbiga med att ta den här chansen att hata på nvidia med helt dumma kommentarer som "jävla svin" (siktat mot nvidia).
Tyckte de var löjliga de gångerna vissa sagt "it's not a bug, it's a feature" då jag aldrig hörde nvidia säga något i den stilen, bara att det var ett misstag att informationen inte kom ut rätt.

Men efter kommentarerna från VD:en vet jag fan, han säger i princip "it's not a bug, it's a feature"... Han borde ha hållit käften helt ärligt och bara hållit sig till att det här inte ska hända igen men inte försöka vinkla det och få det att låta som att det var helt ärliga tankar. Det han erkänner nu är ju att de visste att det inte var 4Gb. Med andra ord handlar det inte om att det var marknadsföringsavdelningen som inte kände till att det inte riktigt var 4 Gb helt fungerande. De var helt medvetna om problemet och valde att inte säga något. Här lurar de ingen.

AMD har varit duktiga på riktigt höga upplösningar på sistone, men om ryktena stämmer så verkar det som att 390X kommer att kräva vattenkylning. Det vet jag inte om jag gillar. Jag behöver ett monsterkort snart och har väntat på något bättre än GTX 980 men om AMD inte kan släppa något senast April, möjligen juni, så tror jag att jag får helt enkelt skaffa ett GTX 980.
Möjligen kollar jag möjligheterna med crossfire.

Permalänk
Medlem

Var inte så arg innan och funderade inte ens på att byta mitt kort, men det här brevet är ju bara sådant jävla skitsnack... Att så här långt efteråt försöka med "Vi har lyckats göra ett 4GB-kort av ett 3GB-kort" när de uppenbart har cripplat arkitekturen från GTX980... Som sagt... Jag var inte särskilt irriterad eller besviken innan med tanke på att jag fortfarande är lika nöjd med mitt kort.
Om han nu verkligen inte blåljuger, vilket jag nu absolut tror att han gör, så har de ju parallellt utvecklat GTX970 och GTX980 till att bli ett rent 4GB-kort och sedan ett 3-GB-kort där de uppfinner fantastiskt segmenterat minne så att det också blir ett typ 4GB-kort. Jag tror knappast ens att Nvidia är så fruktansvärt slösaktiga med tid och resurser, för vad skulle korten i så fall kosta...

Som sagt.... WHAT A LOAD OF FUCKING BULLSHIT!!

Visa signatur

CPU: 5600X | RAM: 2x8GB | GPU: RTX3080 | MOBO: ASUS B550-F | DISPLAY: Mi Curved Gaming Monitor 34"

PHONE: Samsung S21 Ultra 128GB | TV: Sony BRAVIA X93J 75" | CAR: BMW 330e Xdrive

*** Bättre att vara som man blev när man ändå inte blev som man borde ***

Permalänk
Medlem
Skrivet av voidkahn:

AMD har varit duktiga på riktigt höga upplösningar på sistone, men om ryktena stämmer så verkar det som att 390X kommer att kräva vattenkylning. Det vet jag inte om jag gillar.

Mja. Jag vet väl inte om det kommer att så mycket "krävas" vattenkylning som att det kommer att komma med det ur kartong?
Det är fortfarande referens, även om de går mot en AIO-kylare. Andra partnerföretag kommer (som vanligt) att köra sina egna lösningar.

§1 i citat
Permalänk
Medlem
Skrivet av xXxlGurrAlxXx:

"This is a good design" Haha.

Förstår verkligen inte hur det kan vara en bra design när 512 MB delen går långsammare än DDR3 system minnet många gånger...

Skickades från m.sweclockers.com

Visa signatur

Nybörjare på Linux? Se hit! #15665841

Permalänk
Skrivet av Minsc S2:

Han har inte fel, men det hela har hanterats väldigt dåligt från Nvidias håll, och det är definitivt inte okej att ändra specs i efterhand.

Med det sagt så är 3,5+0,5 GB vRAM bättre än enbart 3,5 GB vRAM. På Jen-Hsung låter det som att det var antingen eller.

Suck, blir så trött på denna typen av inlägg.
Du inser att trots att GTX 970 är ett väldigt kompetent kort, så ligger det ändå bakom R9 290X i råprestanda både i 1080p och för att inte nämna 1440p va?

Varför postar du samma grejer om och om igen ett R9 290X är knappast bättre än ett gtx 970 vad gäller gaming i 1080P snarare lite sämre och det med brister som tex. kortet blir varmare och drar betydligt mer ström och inte för att nämna skillnaderna mellan korten vad gäller hårdvara där ett R9 290x har följande:

Better floating-point
performance 5,632 GFLOPS vs 3,494 GFLOPS More than 60% better floating-point performance
More shading units 2,816 vs 1,664 1152 more shading units
More texture mapping units 176 vs 104 72 more texture mapping units
Significantly wider memory bus 512 bit vs 256 bit 2x wider memory bus
More render output processors 64 vs 56 8 more render output processors

Och fortfarande inte bättre snacka om dålig verkningsgrad på graffen till skillnad från ett gtx 970. Här med kommer även länk på ett test mellan ett R9 290x och ett gtx 970

test:
Full HD, All MAX, 4xMSAA
i7-4790K@4,7 (Thermaltake Water 3.0 Ultimate)
R9 290X 8Gb @1150 / 1400 (5600) МГц
AMD Catalyst Omega (14.12 WHQL)
GTX 970 @1450 / 1823 МГц
GeForce Game Ready Driver WHQL 344,75

(Notera även att R9 290x har 8gb vram) medans gtx 970 har "3.5" gb and still better :P!!!

/sigma

Permalänk
Medlem

Jag förstår att folk är nöjda med prestandan på gtx 970 det är ett bra kort och det har inte blivit sämre nu pga "skandalen"
Men tyvärr lever vi i en värld där tystnad betyder ja och gör man inte motstånd betyder det också ja

Vad jag vill komma till är att var nöjda med kortet men var missnöjda med Nvidia och gör det känt annars får ni skylla er själva nästa gång.

Visa signatur

Thanks for the party, the house, the girls, the press, and..
Oh yeah, doing my laundry

Permalänk
Medlem
Skrivet av bojaka:

så har de ju parallellt utvecklat GTX970 och GTX980 till att bli ett rent 4GB-kort och sedan ett 3-GB-kort där de uppfinner fantastiskt segmenterat minne så att det också blir ett typ 4GB-kort. Jag tror knappast ens att Nvidia är så fruktansvärt slösaktiga med tid och resurser, för vad skulle korten i så fall kosta...

Om du hade orkat ta reda på någonting om hur arkitekturen är uppbyggd, så hade du kanske haft en annan uppfattning i frågan. En stor vinst med Maxwell är som sagt möjligheten att ta GPUer som är defekta/klockar sämre, och skala ner dem utan att få lika grova prestandaförluster som det hade blivit på motsvarande arkitektur utan deras "crossbar". Känns det enklare att fantisera ihop egna scenarios, eller vad är det som gör att folk inte orkar ta reda på grundläggande fakta?

Skrivet av NodCommander:

Förstår verkligen inte hur det kan vara en bra design när 512 MB delen går långsammare än DDR3 system minnet många gånger...

Kan du ge ett enda exempel på ett sådant scenario?

Permalänk
Medlem

Jag har endast ägt nvidia kort fram till att jag köpte ett R9 290, var väldigt nöjd med kortet. Nu sitter man med ett 970 och hade planer att uppgradera till SLI, men det blir ju inte av nu längre och jag kan tänka mig att det finns många andra som sitter i samma sits som mig. Som tur är så tar de flesta ÅF emot återköp, och jag får väl spara mitt 970 till en lite svagare burk där jag inte tänker köra SLI. Sen att AMD har åldrande kort och kan fortfarande prestera likvärdigt med ett 970 ser jag som en positiv del för AMD.

Skickades från m.sweclockers.com

§1.5/§1.6 i citat
Permalänk
Medlem
Skrivet av Sveklockarn:

Om du hade orkat ta reda på någonting om hur arkitekturen är uppbyggd, så hade du kanske haft en annan uppfattning i frågan. En stor vinst med Maxwell är som sagt möjligheten att ta GPUer som är defekta/klockar sämre, och skala ner dem utan att få lika grova prestandaförluster som det hade blivit på motsvarande arkitektur utan deras "crossbar". Känns det enklare att fantisera ihop egna scenarios, eller vad är det som gör att folk inte orkar ta reda på grundläggande fakta?

Kan du ge ett enda exempel på ett sådant scenario?

Vad jag menade var att OM han VD'n Jim Jang Hung eller vad han heter verkligen har rätt i sitt brev och inte bara blåljuger, så har de utvecklat parallellt (Och det har de ju inte). Du missförstod mig eller så var jag inte tydlig nog

Visa signatur

CPU: 5600X | RAM: 2x8GB | GPU: RTX3080 | MOBO: ASUS B550-F | DISPLAY: Mi Curved Gaming Monitor 34"

PHONE: Samsung S21 Ultra 128GB | TV: Sony BRAVIA X93J 75" | CAR: BMW 330e Xdrive

*** Bättre att vara som man blev när man ändå inte blev som man borde ***

Permalänk

Känner mig lite förvirrad... Jag trodde att nVidia medvetet inaktiverade en uppsättning L2-cache i alla utrullade GM204 från fabriken som skulle bli GTX 970 för att kunna utnyttja delvis defekta kretsar där 1 av 8 st uppsättningar L2-cache var defekt och därmed öka yielden vilket skulle leda ett lägre pris än vad som annars hade varit möjligt. Sweclockers skrev ju förut:

"I diagrammets övre del syns CUDA-kärnor i SMM-kluster, samtidigt som videominneshantering och L2-cacheminne huserar på den andra sidan tvärbalken. Enligt Nvidia ger det bland annat flexibilitet för att hantera delvis defekta kretsar, där olika delar kan inaktiveras oberoende av varandra utan att kommunikationen påverkas.
Nytt för generation Maxwell är att inte bara beräkningskluster kan inaktiveras vid behov utan även delar av logiken för minneshanteringen, något som för Kepler krävde att hela sektionen skrotades. I praktiken innebär det att Geforce GTX 970 saknar en uppsättning L2-cache samt tillhörande anslutning mot tvärbalken jämfört med storebror GTX 980."

Men nu skriver ju Jen-Hsun:

"This new capability was created so that reduced-configurations of Maxwell can have a larger framebuffer – i.e., so that GTX 970 is not limited to 3GB, and can have an additional 1GB."

Så minneslogiken är då trots allt kopplad till SMM-klustrerna trots den där tvärbalken eller snackar han bullshit nu för att hela situationen ska låta bättre?

Visa signatur

[AMD Ryzen 5 3600] [ASUS RTX 4070 Dual] [ASUS ROG Strix B450-F Gaming] [Corsair Vengeance DDR4 3200MHz 32GB] [Corsair MP510 480GB] [Corsair RM750X V2] [Fractal Design Define C] [BenQ CQ32G1] [Logitech G513 Carbon Tactile] [Corsair Gaming Harpoon RGB] [Logitech Z533] [SteelSeries Arctis 7 2019 Edition] [Google Pixel 7a]

Permalänk
Medlem
Skrivet av bojaka:

så har de utvecklat parallellt

Nej, det är precis vad de inte har. Det är det som är så smart med Maxwell!

Permalänk
Medlem
Skrivet av retro123:

Ok, kanske så du uppfattar det, men jag är bara galet nöjd med mitt 970 som används på en 1920x1080 skärm. Så är det faktiskt, tro vad du vill.

Fast det huvudsakliga problemet som folk har med detta är väl INTE hur prestandan påverkas, utan att Nvidia, ett skitstort företag, har gjort en så pass stor tabbe att de har publicerat felaktiga prestationssiffror till en av deras största grafikkortssläpp i år. Om de siffrorna sedan i praktiken gör en 50% eller 0,00005% påverkan av prestandan spelar ingen roll, bara att skriva fel siffror är helt enkelt inte OK och ska inte kunna göras av ett så pass stort företag. Håller du inte med om det?

Och sedan när var man tvungen att äga en produkt för att få uttala sig om den?

---

För övrigt tror jag på vad Hsun Huang säger om att det är en feature med Maxwell att kunna avaktivera vissa delar av chippet och ändå behålla viss funktionalitet jämfört med tidigare generationer. Att de inte från första början försökte sälja detta som en feature är dock i mina ögon en gigantisk PR-miss.

Visa signatur

CPU: AMD Ryzen 5 3600 XT | RAM: 16GB 3200MHz | MB: Asus Prime B350-Plus | GPU: Sapphire Radeon RX 5600 XT Pulse | PSU: EVGA 650 GQ | Chassi: Fractal Design Define C | SSD: Intel 600p 512 GB

Permalänk
Medlem
Skrivet av JonteP0nte:

För övrigt tror jag på vad Hsun Huang säger om att det är en feature med Maxwell att kunna avaktivera vissa delar av chippet och ändå behålla viss funktionalitet jämfört med tidigare generationer. Att de inte från första början försökte sälja detta som en feature är dock i mina ögon en gigantisk PR-miss.

Problemet är nog att det bara är en liten klick entusiaster som förstår konceptet binning, och bland dem som förstår konceptet är ju tyvärr inte kunskaperna alla gånger så utbredda kring vilka fördelar och begränsningar det har. Jag tror att det skulle bli svårt att marknadsföra "defekta produkter" på ett sätt som gjorde att folk skulle vilja köpa dem, trots att kunderna i praktiken är de som får mest nytta av det.

Permalänk
Inaktiv
Skrivet av voidkahn:

Har alltid tyckt att det funnits lite väl många AMD fanboys här som varit helt jobbiga med att ta den här chansen att hata på nvidia med helt dumma kommentarer som "jävla svin" (siktat mot nvidia).
Tyckte de var löjliga de gångerna vissa sagt "it's not a bug, it's a feature" då jag aldrig hörde nvidia säga något i den stilen, bara att det var ett misstag att informationen inte kom ut rätt.

Men efter kommentarerna från VD:en vet jag fan, han säger i princip "it's not a bug, it's a feature"... Han borde ha hållit käften helt ärligt och bara hållit sig till att det här inte ska hända igen men inte försöka vinkla det och få det att låta som att det var helt ärliga tankar. Det han erkänner nu är ju att de visste att det inte var 4Gb. Med andra ord handlar det inte om att det var marknadsföringsavdelningen som inte kände till att det inte riktigt var 4 Gb helt fungerande. De var helt medvetna om problemet och valde att inte säga något. Här lurar de ingen.

AMD har varit duktiga på riktigt höga upplösningar på sistone, men om ryktena stämmer så verkar det som att 390X kommer att kräva vattenkylning. Det vet jag inte om jag gillar. Jag behöver ett monsterkort snart och har väntat på något bättre än GTX 980 men om AMD inte kan släppa något senast April, möjligen juni, så tror jag att jag får helt enkelt skaffa ett GTX 980.
Möjligen kollar jag möjligheterna med crossfire.

Kan varmt rekommendera Sapphire Tri-X. Kommer säkerligen en knäpptyst och sval variant till 390X

Skickades från m.sweclockers.com

Permalänk
Medlem

Undrar hur högt upp beslutet togs att lura kunderna. Vilka chefer kommer få sparken för detta? Känns som att ett sådant hör beslut måste ha tagits rätt så högt upp. Men nVidia har kanske har mest att vinna på att inte avslöja detta. Det blir väl tysta och långsamma omstruktureringar och få pressen att sluta skriva om ämnet ASAP.

Permalänk
Hedersmedlem

*Tråd rensad *

Tagit bort inlägg som fick tråden att spåra rejält. Vänligen undvik fanboy-förklaringar och liknade.

Citat:

§ 1.5 Att uttala sig provocerande endast för att reta upp andra (så kallat trollande) är inte tillåtet.
§ 1.6 Meningslösa inlägg som inte för diskussionen framåt är förbjudna.

/moderator

Visa signatur

Danskjävel så krattar som en skrivare...

Permalänk
Medlem

Luktar tjurskit lång väg. Bra att de faktiskt ber om ursäkt men att bokstavligt talat mena att det är en feature är ett skämt.

Ja, låt gå för att ni helt enkelt inte berättade för ert reklamteam vad det innebar (nej, jag tror inte på det heller), men ni utgav fortfarande fel specifikationer. Hur ska ni förklara det? Hade detta brev varit sanningen hade de inte väntat så länge med att ge svar på tal heller.

Förhoppningsvis lär de inte försöka med en likadan fuling igen i alla fall.

Permalänk
Avstängd

"Our only intention was to create the best GPU for you. We wanted GTX 970 to have 4GB of memory, as games are using more memory than ever."

... So we decided to kinda lie to you by manipulating specifications".

Låter som en bra ursäkt..

Skrivet av NodCommander:

Förstår verkligen inte hur det kan vara en bra design när 512 MB delen går långsammare än DDR3 system minnet många gånger...

Skickades från m.sweclockers.com

För att företagets VD går ut med det... Duuuh. Han har ju absolut inga motiv alls att skylla ifrån sig.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av Woods:

Förvisso men slutresultatet är ganska likt inte sant? Även om den lilla biten är snabbare än att skicka till ram så är det ingen större tröst iom att den lilla biten fortfarande är otroligt seg jmf med huvudminnet. Är det inte bättre att det bara tar stop vid 3.5 istället, 3.5 räcker väldigt långt trots allt.

Gillar din optimism dock

Så enkelt är det väl inte, om applikationen behöver mer minne än vad som är tillgängligt på grafikkortet så vänder den sig automatiskt mot system minnet.
Tror inte det går att undvika.

Skrivet av NodCommander:

Förstår verkligen inte hur det kan vara en bra design när 512 MB delen går långsammare än DDR3 system minnet många gånger...

Skickades från m.sweclockers.com

Det är ju det den inte gör..
Trotts reduceringen är den ju snabbare än systemminnet.

Permalänk

Jag förstår inte varför de har valt att köra på det här med att "we failed to communicate this internally to our marketing team". Som Emil sa i fredagspanelen för några veckor sedan så känns det fruktansvärt osannolikt att ingen av teknikerna snappat upp den här missen bland de tiotal recensioner som gjorts av kortet.

Hela den här historien stinker som fan.

Permalänk
Avstängd
Skrivet av Therasense:

Jag förstår inte varför de har valt att köra på det här med att "we failed to communicate this internally to our marketing team". Som Emil sa i fredagspanelen för några veckor sedan så känns det fruktansvärt osannolikt att ingen av teknikerna snappat upp den här missen bland de tiotal recensioner som gjorts av kortet.

Hela den här historien stinker som fan.

Det är rent skitsnack. Han försöker påstå att det blev ett fel någonstans på PR delen av Nvidia men i verkligheten försökte de med en fuling och det gick inte hem.

Visa signatur

||NZXT H440 Black/Red||Intel i5 2500k @ 4,2GHz ||Noctua NH-D14 ||GA-Z77X-UD3H ||8 gb Corsair Vengeance 1600mhz DDR3 ||MSI GeForce GTX 970 ||OCZ Agility 3 120GB SSD ||Samsung Spinpoint F3 1TB ||Corsair HX750W||
Software is like sex, it's better when it's free. - Linus Torvalds

Permalänk
Medlem
Skrivet av sigmaBeta:

Varför postar du samma grejer om och om igen ett R9 290X är knappast bättre än ett gtx 970 vad gäller gaming i 1080P snarare lite sämre

Jag postar dom "om och om igen" (2 gånger?) för att folk häver ur sig dumheter som att "AMD har inte en chans mot GTX 970", när faktum är att GTX 970 och R9 290X är väldigt lika när det kommer till 1080p-gaming.
Enligt Sweclockers senaste prestandaindex (som jag enligt dig postar "om och om igen", så därmed tänker jag inte visa det igen) så ligger 290X marginellt före GTX 970 @ 1080p, och märkbart före @ 1440p.

Skrivet av sigmaBeta:

och det med brister som tex. kortet blir varmare och drar betydligt mer ström och inte för att nämna skillnaderna mellan korten vad gäller hårdvara där ett R9 290x har följande:

Att kortet drar mer ström är ingen "brist", däremot är det en nackdel.
Dock jämför du ett topp-kort från förra generationen med ett "övre-mitten"-kort från den nuvarande generationen. Självklart kommer det att sluka mer ström.
Jämför däremot R9 290X med GTX 780 Ti så kommer du se att korten är ungefär lika törstiga.
Temperatur däremot påverkas mer av vilken kylare kortet har, men av naturliga orsaker så kommer (för att inte nämna "borde") GTX 970 vara svalare.

När du sen rabblar upp de olika specifikationerna på korten så gör du dig själv en otjänst, för den skillnaden betyder absolut ingenting. Du hade lika gärna kunnat säga att ett GTX 770 i 1000 MHz är bättre än ett GTX 780 i 950 MHz, eftersom frekvensen är högre.
Vad som spelar roll är hur korten presterar i verkligheten.

Skrivet av sigmaBeta:

Här med kommer även länk på ett test mellan ett R9 290x och ett gtx 970

Tack, men det testet ger jag inte mycket för, av 4 anledningar.

1) Man kan se att korten har olika inställningar in-game ibland, eftersom spelen ser helt annorlunda ut.
2) Test-scenerna är inte identiska, utan många av klippen är captionade i olika vinklar. Klart att fps:en blir annorlunda?
3) Det är på Youtube............ Hur ska vi få någon uppfattning om flyt när han dessutom har cappat fps:en vid 50?
4) Men främst: 290X är klockad till 1150 MHz på kärnan, medans GTX 970 är klockad till 1450 MHz.

Nä, jag fortsätter nog att lita mer på Sweclockers tester och prestandaindex.

Med det sagt så presterar Nvidia-kort lite bättre i vissa titlar, och AMD-kort lite bättre i andra titlar. Det är ingen hemlighet.

Skrivet av sigmaBeta:

(Notera även att R9 290x har 8gb vram) medans gtx 970 har "3.5" gb and still better :P!!!

Vill inte låta spydig, men du vet inte hur vRAM fungerar i ett grafikkort, eller hur? Mer vRAM betyder inte per automatik bättre fps.
För övrigt så har 290X 4 GB vRAM, inte 8. (Edit: i standardutförande då.)

Sen om det spelar någon som helst roll, eller om det får mig att framstå som mer "trovärdig" så har jag suttit på Nvidia-kort de senaste 3 åren. Jag gick över till det röda laget igen så sent som igår kväll.

Förtydligande.
Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk

"We wanted GTX 970 to have 4GB of memory, as games are using more memory than ever." ?? Kortet kommer ju inte dra nytta av 4Gb är det ju konstaterat............

Visa signatur

ALIENWARE Predator 2.0 chassi svart | i7 4770k | ASUS strix GTX 970 4GB | corsair RMX750 | Corsair 16GB DDR3 1600MHZ | AOC G2460PF | Razer Blackwidow Ultimate Stealth | Razer Deathadder ELITE | Razer Tiamat 2.2

Permalänk
Medlem

Har träffat Jen-Hsun flera gånger och tror inte detta var medvetet fusk från deras sida. Han har alltid slagit mig som en person som oftast säger som det är. Det måste ha blivit fel i kommunikationen i något led som han påtalar i brevet. Men jag tycker det är trist för återförsäljare osv som får stora problem tack vare detta.

Visa signatur

CPU: i7-5930K GPU: 2x 1080 TI SLI MODERKORT: ASUS X99-DELUXE

Permalänk
Medlem
Skrivet av Minsc S2:

Jag postar dom "om och om igen" (2 gånger?) för att folk häver ur sig dumheter som att "AMD har inte en chans mot GTX 970", när faktum är att GTX 970 och R9 290X är väldigt lika när det kommer till 1080p-gaming.

Att kortet drar mer ström är ingen "brist", däremot är det en nackdel.
Dock jämför du ett topp-kort från förra generationen med ett "övre-mitten"-kort från den nuvarande generationen. Självklart kommer det att sluka mer ström.
Jämför däremot R9 290X med GTX 780 Ti så kommer du se att korten är ungefär lika törstiga.
Temperatur däremot påverkas mer av vilken kylare kortet har, men av naturliga orsaker så kommer (för att inte nämna "borde") GTX 970 vara svalare.

När du sen rabblar upp de olika specifikationerna på korten så gör du dig själv en otjänst, för den skillnaden betyder absolut ingenting. Du hade lika gärna kunnat säga att ett GTX 770 i 1000 MHz är bättre än ett GTX 780 i 950 MHz, eftersom frekvensen är högre.
Vad som spelar roll är hur korten presterar i verkligheten.

Tack, men det testet ger jag inte mycket för, av 4 anledningar.

1) Man kan se att korten har olika inställningar in-game ibland, eftersom spelen ser helt annorlunda ut.
2) Test-scenerna är inte identiska, utan många av klippen är captionade i olika vinklar. Klart att fps:en blir annorlunda?
3) Det är på Youtube............ Hur ska vi få någon uppfattning om flyt när han dessutom har cappat fps:en vid 50?
4) Men främst: 290X är klockad till 1150 MHz på kärnan, medans GTX 970 är klockad till 1450 MHz.

Nä, jag fortsätter nog att lita mer på Sweclockers tester och prestandaindex.

Med det sagt så presterar Nvidia-kort lite bättre i vissa titlar, och AMD-kort lite bättre i andra titlar. Det är ingen hemlighet.

Du vet inte hur vRAM fungerar i ett grafikkort, eller hur?
För övrigt så har 290X 4 GB vRAM, inte 8.

Sen om det spelar någon som helst roll, eller om det får mig att framstå som mer "trovärdig" så har jag suttit på Nvidia-kort de senaste 3 åren. Jag gick över till det röda laget igen så sent som igår kväll.

Finns faktiskt en 8gb version av R9 290X

Permalänk
Medlem
Skrivet av rustax:

Finns faktiskt en 8gb version av R9 290X

Jo så klart, men det är ju inte riktigt standard.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem

Vilket skitsnack. Det är ju solklart att de visste vad de höll på med, att skriva 4gb säljer mer än 3.5gb. Man måste vara extremt blåögd (grönögd!?) om man på fullaste allvar tror att de har glömt att korrekturläsa --ALL-- information som de har pumpat ut inför och efter release av 970.

Intressant att se hur ägare till kortet eller fanboys sitter och försvarar Nvidia i tråden. Hade jag köpt en produkt som inte hade de specifikationer som uppgavs så hade jag varit förbannad, detta oavsett om just jag påverkas av den försämrade prestandan. Nvidia ljög sina kunder rakt i ansiktet och hoppades komma undan med det.