Nvidia lanserar två olika Geforce RTX 4060 Ti

Permalänk
Skrivet av Dinkefing:

Antar att man inte kan släppa RTX 4070s med 16GB utan då måste man släppa dem med 24GB minne som är dubbelt upp mot 12GB istället. Tror det beror på minnesbussen. Kan säkert ha fel.

Kan och kan, de släppte ju en 3080 med 12 GB.

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Medlem

Hmm.
Att 4060 och 4060Ti bara skulle ha 8GB VRAM (enligt rykten) var en av anledningarna att jag köpte 4070.
Hade jag vetat att det skulle komma 4060Ti 16GB så kanske jag hade köpt det istället.

Men sen är det ju inte bara minnesmängden som spelar roll.
Minnesbandbredd och GPU kraft spelar också roll.
Så frågan är hur bra ett 4060Ti 16GB kommer prestera i scenarion där 12GB inte räcker till.
Kommer minnesbandbredd och GPU kraft räcka till för att ge bra prestanda?

Säg att man har ett scenario där 4070 12GB ger 20 FPS och 4060Ti 16GB ger 25 FPS.
Då ger ju 4060Ti 16GB mer prestanda p.g.a. mer VRAM.
Men det är fortfarande inte bra prestanda.
Om man sänker inställningarna för att få bättre prestanda så kanske man kommer till där 4060Ti 16GB förlorar sitt övertag.

Permalänk
Medlem
Skrivet av GuessWho:

Hmm.
Att 4060 och 4060Ti bara skulle ha 8GB VRAM (enligt rykten) var en av anledningarna att jag köpte 4070.
Hade jag vetat att det skulle komma 4060Ti 16GB så kanske jag hade köpt det istället.

Men sen är det ju inte bara minnesmängden som spelar roll.
Minnesbandbredd och GPU kraft spelar också roll.
Så frågan är hur bra ett 4060Ti 16GB kommer prestera i scenarion där 12GB inte räcker till.
Kommer minnesbandbredd och GPU kraft räcka till för att ge bra prestanda?

Säg att man har ett scenario där 4070 12GB ger 20 FPS och 4060Ti 16GB ger 25 FPS.
Då ger ju 4060Ti 16GB mer prestanda p.g.a. mer VRAM.
Men det är fortfarande inte bra prestanda.
Om man sänker inställningarna för att få bättre prestanda så kanske man kommer till där 4060Ti 16GB förlorar sitt övertag.

När minnet tar slut så hackar det ofta ner till ensiffrig FPS (eller krashar), dvs totalt ospelbart om man inte vrider ner texturinställningarna i spelet. På senare tid kan det istället (vissa spelmotorer) visa sig som grafikfel och/eller riktigt lågupplösta texturer. Du får med största sannolikhet stabilare FPS med ett kort som har tillräckligt med minne, jämfört med ett kort som ligger under eller på gränsen. Dvs betydligt högre minimum fps utan hack, men något lägre avg / max fps.

Värt att nämna så brukar inte större texturer sänka prestandan nämnvärt om de får plats i minnet, därav gör dom ofta en rätt stor grafisk skillnad. Att sänka texturinställningar i vissa spel är som att gå tillbaka 10 år i tiden.

Permalänk
Medlem
Skrivet av mr bulle:

Är inte minnesbussen på många av de nya korten väldigt smal?
Hur motiveras det?

Memory controllers krymper nästan inte alls längre, så för att undvika att själva chippet blir för stort och dyrt drar Nvidia ner den så långt de kommer undan med. AMD kör med chiplets istället.

Skrivet av Matfer:

Varför lanserar man ett 4060 med 16gv vRam men sätter det inte på 4070?

För att Nvidia har insett att man behöver 12GB minne för att klara av ett spel med en prestandaprofil som motsvarar en PS5 eller Xbox Series X. Med 192 bitar i 4070 så klarar den sig med 12GB, men det går inte med de 128 bitar som finns i en 4060 Ti. Där blir det 8 eller 16, och då får det bli 16 i en variant.

Skrivet av Bogey:

Mycket minne som behövs nuförtiden, fast 8 /12 /16 Gb grafikkort har ju funnits ett tag
nu.

Undras när nästa mängd kommer? Blir det 24 / 32 då?
Hmm.. såg att 24Gb redan finns, det märks att man inte lirar spel längre och hänger med.

...och jag som trodde att vi aldrog skulle behöva mer än 512kb i någon dator, nånsin.

Nästa gång kravet höjs blir väl om PS6 kommer med mer minne. Alternativet är väl att att raytracing utvecklas ännu mer som ögongodis ovanpå PS5-nivån, eftersom det kan dra en del VRAM, men då talar vi ju verkligen extra ögongodis och absolut inget man måste ha för att spela.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mrnez:

Kanske har något med GDDR6 vs GDDR6X att göra..

Nej, G6 och numera även G6X kör med 2 GB moduler.

Permalänk
Medlem
Skrivet av mpat:

AMD kör med chiplets istället.

Ja, eller äldre/billigare tillverkningsprocess (TSMC N6). Och ändå bara 128 bit buss.

Permalänk
Medlem

När man läser denna tråd så inser man behovet av en "minnesmängder i grafikkort, how does it work"-skola här på Swec. Det är inget jätteavancerat ämne direkt så det blir en rätt kort lektion.

Permalänk
Medlem
Skrivet av Xverminator:

Känns som nånstans mellan 10, 12 eller 14 GB vore rimligt.

8 känns för lite och 16 för mycke på 4060 Ti

Känns? Spelar ju mindre roll när 16GB ÄR enda alternativet (iaf för AD106 chippet).

Om man nu inte är skäggig konsol-designer på Microsoft. Då är de mest udda konfigurationerna möjliga.

Permalänk
Medlem

Sen hur mycket minne använder egentligen spelet vs hur mycket som allokerads utan att faktiskt användas. Är också viktigt att diskutera.

Men hela 4xxxx serien känns som budget gpu:er med 60% överdrivet pris (förutom 4090 som bara är dyr och enorm).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem
Skrivet av ipac:

Ja, eller äldre/billigare tillverkningsprocess (TSMC N6). Och ändå bara 128 bit buss.

På Navi 33, ja. Det kortet kommer sannolikt inte ens upp i klass med 4060, och risken att det fastnar på VRAM när det klarar sig på ren shader-prestanda är rätt liten. Det är en helt annan sak med Nvidias mellanklass.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av Nozomi:

Jedi Survivor, Last of Us, Hogwarts? Säkert något mer, speciellt när man aktiverar RT, och ja korten är kapabla ihop med DLSS att spela spel med RT. Ottoblom kanske vet fler. Har ju varit världens kalabalik på Sweclockers, reddit, hbu mm över VRAM senaste tiden även i 1080p ju.

Alla dom spelen går att spela bra med 8GB. Men om kräver = absolut högsta inställningar, då stämmer det.

Permalänk
Medlem
Skrivet av Lussarn:

Alla dom spelen går att spela bra med 8GB. Men om kräver = absolut högsta inställningar, då stämmer det.

Kan bara tala för Hogwarts, det går utmärkt att spela med maxade inställningar native i 1080p med 8gb vram.

Permalänk
Medlem
Skrivet av ipac:

Nej, G6 och numera även G6X kör med 2 GB moduler.

Sade inget om storleken. Tänker att det är skillnad på hastigheten. 4070 har 12GB GDDR6X och fler Cudakärnor. De billigare korten har GDDR6 och lägre antal kärnor osv.. Det är väl där skillnaden ligger. Nog för att man undrar över vissa beslut, men kan inget annat än lita på att Nvidia någonstans har en plan med det dom gör.

För övrigt ser jag fram mot att läsa en guide inom en snar framtid. Alltid trevligt

Visa signatur

ASUS ROG STRIX Z790-F Gaming | Intel Core i5-13600K | Corsair Dominator Platinum RGB | ASUS ROG STRIX RTX 3080 OC | Samsung 980 PRO | Corsair H115i Elite Capellix | Corsair AX1600i | Corsair 500D RGB SE | ASUS ROG PG279Q

Permalänk
Medlem
Skrivet av Nicklidstrom:

https://youtu.be/T5mHQ3z6j2g äre detta kortet alltså...

Intressant video!
Som casual gamer i 1440p, fortfarande relativt nöjd med gtx1080 kanske rtx4060ti med 16gb kan bli ett värdigt lyft.. ska bli spännande att se tester och PRIS

Permalänk
Avstängd
Skrivet av Nozomi:

Jedi Survivor, Last of Us, Hogwarts? Säkert något mer, speciellt när man aktiverar RT, och ja korten är kapabla ihop med DLSS att spela spel med RT. Ottoblom kanske vet fler. Har ju varit världens kalabalik på Sweclockers, reddit, hbu mm över VRAM senaste tiden även i 1080p ju.

______

Nvidia släpper för lite VRAM: Wäääh skit!
Nvidia släpper kort med två valmöjligheter: Wääääh skit de spelar bara i 1080p och 1080p spel kommer ALDRIG använda med än 8GB VRAM!!!

16GB varianten är ju skitbra dessutom om man pillar med AI/Stable Diffusion där mer minne = bättre. Även om it/s kanske håller sig lågt så kan du göra dubbelt så många saker samtidigt än ett kort med hälften så mycket VRAM. Låg kostnad för AI då än idag Nvidia > AMD men det kanske ändrar sig snart.

Ja i just det där känns det riktigt rövigt att det inte går få ett nytt Nvidiakort med 16GB Vram för en rimlig summa.
Jaja, det finns begagnade kort, men det är inte lika lättvindigt man gör avdrag på begagnade grejer med företaget, och alltså får betala med redan momsade, arbetsgivaravgiftade och inkomstskattade pengar.

Det är som...
Det är inget snack om saken när man ställer ett begagnat kort för 7000 mot ett nytt kort för 16.000, för man får inget 16gb Nvidiakort för de pengarna.
8K går det visserligen hitta 3090 för, men nånstans blir det väl en fråga om rimlighet när man inte har någon garanti kvar för de pengarna heller, plus att det presterar sämre än 4080 i många scenarion.

Permalänk
Medlem

Är väl bra att dom gör 2 versioner så folk kan köpa den dom vill . Att ha lite extra Vram på ett kort med 3070 prestanda ser jag bara som positivt .Speciellt för dom som vill köra 1440 p

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av mrnez:

Sade inget om storleken. Tänker att det är skillnad på hastigheten. 4070 har 12GB GDDR6X och fler Cudakärnor. De billigare korten har GDDR6 och lägre antal kärnor osv.. Det är väl där skillnaden ligger. Nog för att man undrar över vissa beslut, men kan inget annat än lita på att Nvidia någonstans har en plan med det dom gör.

För övrigt ser jag fram mot att läsa en guide inom en snar framtid. Alltid trevligt

Ett GDDR6-chip är 32 bitar brett. Om minnesbussen är bredare än så, sätter man flera chip i bredd - exempelvis 128 bitars minnesbuss innebär att man sätter 4 chip i bredd.

Chippens storlek beskrivs i standarden från JEDEC, men någon skall ju producera chippen också. Idag, 2023, finns det 1GB och 2GB GDDR6-chip. När Nvidia lanserade Ampere-korten 2020 fanns det redan 2GB GDDR6, men bara 1GB GDDR6X. Det gjorde att Nvidia hade lite lite minne på en del kort med stor minnesbandbredd - specifikt 3080 med bara 10GB VRAM.

Vill man ha mer minne än vad man kan uppnå med ett minne per 32 bitar, kan man sätta två chip efter varandra. Detta sätts då oftast på baksidan av grafikkortet (för att minimera signalens längd), och kallas därför ofta en dubbelmacka, eller clamshell på engelska. Detta är dock förhållandevis dyrt, och förekommer mest på toppkorten (ex. 24GB på 3090). För att kunna utnyttja den bandbredden man har på bästa sätt, måste hela bussen bestyckas jämnt - dvs, om man har max 8GB med ett chip per kanal, så kan man få 16GB med två. 12GB funkar inte, för då får man en situation där den effektiva bandbredden till delar av minnet går ner markant.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av källarinvånare:

Kan och kan, de släppte ju en 3080 med 12 GB.

Ja det kan ju ALDRIG bero på att det i binningen för 3080 12 GB valdes ut kretsar med alla minneskanaler intakta.

Permalänk
Medlem
Skrivet av ottoblom:

Är väl bra att dom gör 2 versioner så folk kan köpa den dom vill . Att ha lite extra Vram på ett kort med 3070 prestanda ser jag bara som positivt .Speciellt för dom som vill köra 1440 p

Håller med, även om jag brukar visa att 8GB fungerar bra i alla spel det tjafsas om. Men jag tycker inte man skall släppa nya 8GB kort om dom inte är riktigt billiga. Folk får köpa vad dom vill, och det kanske finns use-case för dom, 8GB grejen kanske är lite hysterisk. Men jag tycker ändå dom kunde gå upp till 12-16GB minimum på dyrare varianter.

Permalänk
Medlem

Först måste jag berömma dig för Like-farmen du smällde ihop här med så ofattbart lite material. Imponerande!

Skrivet av sweisdapro:

Nu citerar du dock som fan citerar biblen, problemet med 970 var ju de berömda 4=3.5, de hade för övrigt samma mängd vram på 1070 och 1080 utan att det skreks något om det, och med 2070 och 2080

GTX 970 hade 4 GB VRAM, såväl fysiskt som adresserbart, ingen semantik i världen kommer ändra på det.

När 970 togs fram ur kiselhögen så såg Nvidia att det gick att använda en mindre nedkapad krets genom att bara offra en av åtta minneskanaler, och därefter låta memory crossbar controllern ta två minnesmoduler på någon position för att klämma på 500 MB ytterligare till en prestandaförlust som folk i princip enbart hittade i syntetiska benchmarks.

Denna mindre nedkapade GPUn hade alltså högre prestanda än 970 kanske borde ha haft, sen är det också nästan givet att den extra minnesmängden kom dit för att göra kortet mer attraktivt på marknaden utan att behöva skriva en uppsats för att förklara/låtsas ta avstånd ifrån.

När du försöker dra paralleller till 10- respektive 20-serien så framgår det tydligt att du, likt många andra här, är mer intresserad av vad som är en populär åsikt än hur något verkligen förhåller sig.

I slutänden fick pöbeln som de ville, sämre kort på respektive position och därtill högre pris, som väntat.

Permalänk
Skrivet av Sveklockarn:

Ja det kan ju ALDRIG bero på att det i binningen för 3080 12 GB valdes ut kretsar med alla minneskanaler intakta.

Jasså, varför inte?

Visa signatur

PC: B550 TOMAHAWK | 5800X3D | Palit 4090 GameRock @2520 MHz, 925 mV | G.Skill Trident Z 2x16GB 3600MHz CL16 | Peerless Assassin | WD Black SN850 1TB | Intel 660P 1TB | Seasonic Prime PX 1300W | Kolink Void X | Corsair iCUE ML120 RGB ELITE x4 | Arctic P12 x2 Kringutrustning: LG OLED55C15LA | Centrum subwoofer | Keychron K2 | Logitech G305 | PS5 DualSense Edge @8000Hz | Xbox trådlöst headset HTPC: Biostar B550MX/E PRO | 3600 @4.05 GHz, 1.22 V | ASUS 1070 Turbo @1822 MHz, 2702 MHz, 943 mV | G.Skill Trident Z 2x16GB 3200MHz CL14 | Dark Rock TF 2 | Crucial P3 1TB | Intel AX200NGW | Cougar GEX 750W | SilverStone GD09 | Finlux 40FLHY127B ROG Zephyrus G14: 4800HS | 1660 Ti Max-Q

Permalänk
Medlem
Skrivet av mpat:

Ett GDDR6-chip är 32 bitar brett. Om minnesbussen är bredare än så, sätter man flera chip i bredd - exempelvis 128 bitars minnesbuss innebär att man sätter 4 chip i bredd.

Chippens storlek beskrivs i standarden från JEDEC, men någon skall ju producera chippen också. Idag, 2023, finns det 1GB och 2GB GDDR6-chip. När Nvidia lanserade Ampere-korten 2020 fanns det redan 2GB GDDR6, men bara 1GB GDDR6X. Det gjorde att Nvidia hade lite lite minne på en del kort med stor minnesbandbredd - specifikt 3080 med bara 10GB VRAM.

Vill man ha mer minne än vad man kan uppnå med ett minne per 32 bitar, kan man sätta två chip efter varandra. Detta sätts då oftast på baksidan av grafikkortet (för att minimera signalens längd), och kallas därför ofta en dubbelmacka, eller clamshell på engelska. Detta är dock förhållandevis dyrt, och förekommer mest på toppkorten (ex. 24GB på 3090). För att kunna utnyttja den bandbredden man har på bästa sätt, måste hela bussen bestyckas jämnt - dvs, om man har max 8GB med ett chip per kanal, så kan man få 16GB med två. 12GB funkar inte, för då får man en situation där den effektiva bandbredden till delar av minnet går ner markant.

Väldigt intressant!

Visa signatur

ASUS ROG STRIX Z790-F Gaming | Intel Core i5-13600K | Corsair Dominator Platinum RGB | ASUS ROG STRIX RTX 3080 OC | Samsung 980 PRO | Corsair H115i Elite Capellix | Corsair AX1600i | Corsair 500D RGB SE | ASUS ROG PG279Q

Permalänk
Medlem
Skrivet av källarinvånare:

Jasså, varför inte?

Förlåt, jag var sarkastisk, men där har du anledningen till att minnesmängden begränsas till vilken binning kretsen har, och hur många minneskanaler som finns i designen respektive hur många som behöver offras för att få tillräckligt många GPUer att sälja i olika nivåer.

Det figurerar säkerligen ett flertal 3080 10 GB ute i det vilda som har alla tolv kanaler intakta, men när de ursprungligen tillverkades så fanns det högst sannolikt ett mycket större antal kretsar med 1-2 defekta kanaler, och då blir det i princip bara matte på slutet för att försöka bestämma (eller segmentera) hur mycket minne som kan hängas på samtidigt som man får ut en tillräcklig andel GPUer att sälja som 3080.

Permalänk
Medlem

3080 är ett lite speciellt fall. Det lär ha varit planen att bygga den av ett chip som hette GA103, och som bara hade en 320 bits buss. Man började dock med GA102, för 3090, med planen att använda de halvtrasiga till 3080 i första vevan. Då gjorde man det till ett 320 bitars kort, för att kunna ersätta det med GA103 så småningom. Det visade sig dock att yielden på GA102 var sämre än vad Samsung lovade, så planerna på GA103 lades på is - men behövde ett kort för att konsumera de halvtrasiga chippen. När dammet hade lagt sig lite gjorde man en 3080 Ti som bättre utnyttjade vad som i själva verket kom ut ur processen.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Bra är en del spel du måste ha minst 12GB för att kunna maxa i 1080P idag så helt rätt. Men inte OK att de stryper bussen på det viset. Det kommer ge sämre prestanda. Väldigt trött på den extrema nivån av artificiell segmentering överallt nu för tiden.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Ozzed:

Bra är en del spel du måste ha minst 12GB för att kunna maxa i 1080P idag så helt rätt. Men inte OK att de stryper bussen på det viset. Det kommer ge sämre prestanda. Väldigt trött på den extrema nivån av artificiell segmentering överallt nu för tiden.

Sitter inte minnes interfacet på gpu-kretsen? Säger du att AD106 har en minneskontroller för mer än 128bitar, eller vad menar du med att den är strypt/artificellt segmenterad? Vad jag förstått det som är ada designad med 16MB L2 cache per 64-bit minneskontroller, AD106 ser ut att ha 32MB L2, så hela kretsen är väl designad från grunden att använda en 128bitars minnesbuss.

Sen kan man tycka att det är snålt, men det är ju en helt annan sak än strypning eller artificell segmentering.

Permalänk
Medlem
Skrivet av sKRUVARN:

Sitter inte minnes interfacet på gpu-kretsen? Säger du att AD106 har en minneskontroller för mer än 128bitar, eller vad menar du med att den är strypt/artificellt segmenterad? Vad jag förstått det som är ada designad med 16MB L2 cache per 64-bit minneskontroller, AD106 ser ut att ha 32MB L2, så hela kretsen är väl designad från grunden att använda en 128bitars minnesbuss.

Var någon som förklarade att man har en kontroller per minneskrets och det verkade stämma när jag tittat på hur det ser ut på andra chip. Men det är nog jag som har fått fel information i så fall och tittat på fel saker för att verifiera om det stämmer.

Men är det som du säger så har de ju varit pantade från början och designat kretsen för snålt. Då blir det här mer en "klistra på" - lösning för att möta kritik de absolut inte hade räknat med ett få. Patetiskt.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av Sveklockarn:

Först måste jag berömma dig för Like-farmen du smällde ihop här med så ofattbart lite material. Imponerande!
GTX 970 hade 4 GB VRAM, såväl fysiskt som adresserbart, ingen semantik i världen kommer ändra på det.

När 970 togs fram ur kiselhögen så såg Nvidia att det gick att använda en mindre nedkapad krets genom att bara offra en av åtta minneskanaler, och därefter låta memory crossbar controllern ta två minnesmoduler på någon position för att klämma på 500 MB ytterligare till en prestandaförlust som folk i princip enbart hittade i syntetiska benchmarks.

Denna mindre nedkapade GPUn hade alltså högre prestanda än 970 kanske borde ha haft, sen är det också nästan givet att den extra minnesmängden kom dit för att göra kortet mer attraktivt på marknaden utan att behöva skriva en uppsats för att förklara/låtsas ta avstånd ifrån.

När du försöker dra paralleller till 10- respektive 20-serien så framgår det tydligt att du, likt många andra här, är mer intresserad av vad som är en populär åsikt än hur något verkligen förhåller sig.

I slutänden fick pöbeln som de ville, sämre kort på respektive position och därtill högre pris, som väntat.

Nvidia ljög om hur många ROPpar 970 hade, hur stor L2 den hade och hur stor minnesbandbredd den hade i praktiken. Den sista biten är svårare att fälla dem för (varenda Wi-Fi-router gör precis samma sak), men de blev stämda för de andra två, och gjorde till slut upp i godo. Historien är mest intressant för att Nvidia uppenbarligen inte hade koll på sitt eget chip när de marknadsförde det.

Jag tror inte för en sekund att Nvidia designade sina senare kort med tanke på den stämningen. De behöver bara kommunicera bättre.

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Kommer det en 16 GB variant så blir det nog en uppgradering sålänge de inte lägger sig helt idiotiskt i pris.

...så det lär ju inte bli en uppgradering nä...

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
DATOR 2011 års modell: Underbara Sandy Bridge, i7 2600K@4,7 GHz på ett P67 Sabertooth-bräde. Radeon HD 7770

Permalänk
Medlem
Skrivet av Sveklockarn:

Först måste jag berömma dig för Like-farmen du smällde ihop här med så ofattbart lite material. Imponerande!
GTX 970 hade 4 GB VRAM, såväl fysiskt som adresserbart, ingen semantik i världen kommer ändra på det.

När 970 togs fram ur kiselhögen så såg Nvidia att det gick att använda en mindre nedkapad krets genom att bara offra en av åtta minneskanaler, och därefter låta memory crossbar controllern ta två minnesmoduler på någon position för att klämma på 500 MB ytterligare till en prestandaförlust som folk i princip enbart hittade i syntetiska benchmarks.

Denna mindre nedkapade GPUn hade alltså högre prestanda än 970 kanske borde ha haft, sen är det också nästan givet att den extra minnesmängden kom dit för att göra kortet mer attraktivt på marknaden utan att behöva skriva en uppsats för att förklara/låtsas ta avstånd ifrån.

När du försöker dra paralleller till 10- respektive 20-serien så framgår det tydligt att du, likt många andra här, är mer intresserad av vad som är en populär åsikt än hur något verkligen förhåller sig.

I slutänden fick pöbeln som de ville, sämre kort på respektive position och därtill högre pris, som väntat.

Vet inte om jag ska tacka för berömmet, blev väl många likes för att det bara var lite material som behövdes för att bemöta de poänger du försökte göra i ditt inlägg.

Vad är det du egentligen vill ha sagt, du flyttar målstolpar till höger och vänster; du började med att säga att eftersom 970 och 980 hade samma mängd vram så blev folk arga (för att 970 skulle haft mindre, eller 980 skulle haft mer?), vilket ledde till att nvidia skulle ändrat något i sin product stack. Men både i 1000 och 2000 var det ju fortfarande samma mängd minne på xx70 och xx80 korten, så vad är det du menar ändrades?
Det är ju först med 3000-serien det faktiskt skiljer i minnesmängd mellan 70 och 80 korten.

Du får jättegärna förklara mer ingående vad det är du menar, för som det är nu känns det mer som att du försöker plocka billiga poäng själv och försvara nvidias fulspel med GTX970.
3.5GB debaklet var ju i första hand inte ens om prestandaförlust i realiteten, utan mer att i allt material som fanns att tillgå vid release och innan det uppdagades så skulle 970 ha alla åtta minneskanaler och 4GB sammanlänkat minne, var först när det började grävas som det framkom att en var avstängd och minnet uppdelat 3.5 + 0.5.

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P