Rykte: Nvidia har skrotat planerna med RTX 4090 Ti

Permalänk
Medlem
Skrivet av Xinpei:

Problemet är väl att det är långt ifrån den svaga kronan enbart som är orsaken till priserna utan det är inflationen kombinerat med prisökningar från företagen som är orsaken. Exempel är ju ett RTX 4060 som egentligen är ett RTX 4050 men fått benämningen 4060 bara för att man skall kunna maximera vinsten.

Ja precis, det var därför jag skrev "och att priserna på kort dalat"

Visa signatur

Dator: Lian Li O11 Dynamic, R9 5900X, MSI X570 ACE, Corsair H150i Pro, G.Skill TridentZ@3733MhzCL16, ASUS RTX 3090 TUF OC, Firecuda 530 2TB, 990 Pro 2TB, Corsair RM850x.
Skärm: LG OLED 42C2

Permalänk
Medlem

Attans. Hade tänkt köpa två...

Permalänk
Medlem
Skrivet av mpat:

Tidigare har det sagts att Nvidia inte har några chiplets på gång, men inte fan kan de köra en 512bits minnesbuss på 3nm? Kommer ju att kosta som ett hus eller två med såna chip. Jag vet att Nvidia mycket väl kan SÄLJA dem för pris som ett hus, men de skall ju ha sin marginal också…

Ett par njurar brukar räcka

Permalänk
Medlem

Känns ju ännu bättre att man sitter på ett 4090 då. Då kommer det vara bäst ett bra tag till.

Visa signatur

CPU: AMD Ryzen 7 5800X3D Mobo: Gigabyte x570 UD SSD: PNY CS3030 M.2 NVMe 1TB, Samsung SSD EVO Basic 840 250GB Minne: Corsair Vengeance LPX Black 32GB (2x16GB) @ 3600MHz CPU Kylare: Noctua NH-D15S Chromax.Black Grafikkort: ASUS TUF GeForce RTX 4070 Ti 12 GB Gaming OC Nätagg: ASUS TUF Gaming 850w Chassi: Fractal Design North Svart/Glas Hörlurar: Philips Fidelio X3 DAC: Aune X1s Silver

Permalänk
Medlem
Skrivet av dagas:

Tycker det är bra om de fokuserar på mellansegmentet som det står istället.

En uppdatering med Super kort som 2000 serien men till samma pris tex. Men de har ju precis släppt 4060 så 4060 super lär väl dröja.

Finns plats för 4080ti också med liknande prestanda som 4090 men med 12GB VRAM. Men blir kanske konstigt när 4080 har 16 men om den baseras på 4090 så kan de bara välja 12 eller 24 och 24 skulle göra 4090 onödig.

Det stoppade dom inte att släppa 1080ti som gjorde Titan onödig/värdelös men däremot finns det gott om prestandautrymme mellan 4080 och 4090.

Permalänk
Medlem

Asså "satsa på mellansegmentet" ja är juuh extremt enkelt för dom, sänk priset på 4060 korten och 4070 korten med 100-300 dollar! Nya kort från nvidia i dagsläget är helt ointressant juuh.....

Visa signatur

here we go!

Permalänk
Medlem

Färdigväntat då alltså

Visa signatur

Moderkort: Asus x570 Crosshair VIII extreme
Grafikkort: Aorus 3090 WB
Processor: Rysen 5950X
Minne: 128 GB G.Skill Trident Z Neo DDR4-3600 C16

Permalänk
Medlem

Om Nvidia ska satsa på mellansegmentet hoppas jag de inser att de behöver flytta upp varje kort ett snäpp i prestanda. 4060 Ti behöver exempelvis använda AD104 för att bli ett bra kort.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem
Skrivet av Clasito:

Om Nvidia ska satsa på mellansegmentet hoppas jag de inser att de behöver flytta upp varje kort ett snäpp i prestanda. 4060 Ti behöver exempelvis använda AD104 för att bli ett bra kort.

Precis! Att sänka priserna vore såklart välkommet, men det räcker inte. Framförallt 4060 och 4060 TI presterar alldeles för dåligt, både i förhållande till motsvarande 30-kort och i förhållande till högre kort i 40-serien. De är i princip samma kort som förra generationen, plus DLSS3. Även 4070 känns som ett totalt onödigt kort som borde ha ersatts av 4070 TI. 4070 borde istället kallats 4060 TI.

Det man får hoppas på är att AMD och Intel lyckas erbjuda lite mer konkurrens i det segmentet så Nvidia blir tvungna att introducera "Super"-modeller med väsentligt förbättrad prestanda. Frågan är om någon av GPU-tillverkarna bryr sig om gamers längre då de stora pengarna finns inom AI/Datacenter.

Visa signatur

Ryzen 7 3800X, Asus Prime X370 Pro, 32 GB LPX 3600, Gainward RTX 3060 Ti Ghost, 7 TB SSD + 4 TB HDD

Permalänk
Snusfri

5090 2025, då hinner jag spara ihop till iaf en fläkt på kortet

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem
Skrivet av Sveklockarn:

Kostnaden per chip minskar dock generellt med tätare noder, även om wafern kostar mer, och siffrorna som finns verkar ju bara vara uppskattningar av kostnaden som inte tar hänsyn till att Nvidia t.ex. är en enormt stor kund för TSMC, där volymerna antagligen ytterligare reducerar wafer-priserna. Det enda är att Jensen påstår att det är mycket dyrare nu, men det är ju inte ett uttalande som är värt någonting utan de faktiska siffrorna [som är en affärshemlighet], så man får nog betrakta det som ett sätt att dämpa missnöjet med att Nvidia försöker rida på vågen av prisnivåerna från mining-boomen.

Om AI-chippen är så lönsamma som vissa verkar tro så innebär det ju också att det tillförs stora mängder kapital att utveckla mycket bättre teknik för nästkommande generation. Det finns ju också en chans att SEK kan ha blivit mindre dåliga än de är idag, och att ekonomin blivit bättre, vilket kommer påverka priserna positivt.

Det genomgående temat från domedagsprofeter på forumet har sedan åtminstone 2013 varit vilka enorma prishöjningar Nvidia ska göra inför varje ny generation. GTX 1080 kostade mer än ett GTX 980, drygt 7500 kr vid releasen mot knappt 6500 kr. Tack vare att 1080 Ti kom ut ett år senare med samma MSRP som 1080, och snarlikt pris i Sverige, så inbillar sig folk i efterhand att xx80-kort var så mycket billigare, vilket inte stämmer. Diskuterat detta förut och dokumenterat det med prisdata från bl.a. Prisjakt och gamla Sweclockers-tester.

Efter det låg det svenska priset för kort med xx80-suffix runt 7-8000 kr under en artificiellt lång period, ända tills miners orsakade den största prisstegringen i historien för grafikkort. Det är 40-serien som är avvikelsen sett ur perspektivet modellbeteckning/pris, men skulle ändå inte ta ut någonting i förskott om priserna på 50-serien, framförallt baserat på att det varit ett konstant flöde av negativa poster om prishöjningar genom åren som till största delen visat sig felaktiga.

Problemen här är två:

1) Det som brukade gå ner var kostnaden per transistor. En mm2 blev kanske dyrare (har blivit dyrare per nod i rätt många år nu), men man fick in såpass många fler transistorer per mm2 att kostnaden per transistor ändå gick ner. Detta är inte sant just nu - kostnaden per transistor är mer eller mindre konstant.

2) En memory controller krymper inte alls längre. Om den tog 2 mm2 förra noden så tar den 2 mm2 den här noden. När kostnaden per mm2 går upp, innebär det att en memory controller blir dyrare för varje generation.

Resultatet är att memory controllers blir allt dyrare. AMDs lösning med chiplets kringgår det problemet genom att göra dem på en äldre nod, vilket givetvis är en möjlighet, men hittills har jag inte sett några trovärdiga rykten om att Nvidia har något liknande på gång.

Det är inte alls säkert att de två trenderna jag talar om ovan fortsätter för all framtid. Vi är fortfarande i början av EUV-eran, och snart kommer nya transistor-designer (GAA, gate-all-around, som skall ersätta FinFET), men för specifikt 3nm tror jag inte att något av detta kommer. TSMC kör vidare på FinFET för 3nm, och vad vi hör om kostnaderna så blir det inte billigt.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

Problemen här är två:

1) Det som brukade gå ner var kostnaden per transistor. En mm2 blev kanske dyrare (har blivit dyrare per nod i rätt många år nu), men man fick in såpass många fler transistorer per mm2 att kostnaden per transistor ändå gick ner. Detta är inte sant just nu - kostnaden per transistor är mer eller mindre konstant.

Jag har sett uträkningar där man tar kostnadsökningarna i beaktande och räknar på arean av hur många chip som är möjliga att få ut per wafer, och där framträder att kostnaden per chip varit väldigt likartad under relativt lång tid trots mycket dyrare wafers. Yield spelar givetvis roll, vilket blir nära omöjligt att räkna ut exakt. Vi pratar om 2-3 USD/chip i skillnad, men säg att det blir 5 USD/chip nästa gång. Då är det ju fortfarande inte vettigt att priset på ett konsumentkort ökar med 50% baserat på att kiseltillverkningen fördyrats, eller 10000 SEK mer för ett 4080 jämfört med ett 3080. Den prisstegringen har ju andra förklaringar som mest sannolikt inte är relaterade till valutan eller kostnadsökningar i tillverkarled, utan mer på att man hoppas att överpriserna under mining-åren ska gå att fortsätta sälja grafikkort på.

Skrivet av mpat:

2) En memory controller krymper inte alls längre. Om den tog 2 mm2 förra noden så tar den 2 mm2 den här noden. När kostnaden per mm2 går upp, innebär det att en memory controller blir dyrare för varje generation.

Resultatet är att memory controllers blir allt dyrare. AMDs lösning med chiplets kringgår det problemet genom att göra dem på en äldre nod, vilket givetvis är en möjlighet, men hittills har jag inte sett några trovärdiga rykten om att Nvidia har något liknande på gång.

Jag menar att när man tar skalan som detta tillverkas på, och det ökade antalet chip man får ut genom mindre fysisk area per chip, inte motiverar de prisstegringar som skett.

Skrivet av mpat:

Det är inte alls säkert att de två trenderna jag talar om ovan fortsätter för all framtid. Vi är fortfarande i början av EUV-eran, och snart kommer nya transistor-designer (GAA, gate-all-around, som skall ersätta FinFET), men för specifikt 3nm tror jag inte att något av detta kommer. TSMC kör vidare på FinFET för 3nm, och vad vi hör om kostnaderna så blir det inte billigt.

Nej det finns ju många håll det kan gå åt potentiellt, men om inte folk plötsligt börjar ha mer pengar i genomsnitt så finns det inget utrymme att öka priserna på marknaden långsiktigt. Alla företags framgångar baseras på att man har kunder, och när det blir jättar som Nvidia så är det vitalt att ha en någorlunda stabil återkommande kundbas. Varken Nvidia eller TSMC kan ställa sina anläggningar på paus i väntan på bättre tider så att säga.

Permalänk
Medlem
Skrivet av Pepsin:

Precis! Att sänka priserna vore såklart välkommet, men det räcker inte. Framförallt 4060 och 4060 TI presterar alldeles för dåligt, både i förhållande till motsvarande 30-kort och i förhållande till högre kort i 40-serien. De är i princip samma kort som förra generationen, plus DLSS3. Även 4070 känns som ett totalt onödigt kort som borde ha ersatts av 4070 TI. 4070 borde istället kallats 4060 TI.

Det man får hoppas på är att AMD och Intel lyckas erbjuda lite mer konkurrens i det segmentet så Nvidia blir tvungna att introducera "Super"-modeller med väsentligt förbättrad prestanda. Frågan är om någon av GPU-tillverkarna bryr sig om gamers längre då de stora pengarna finns inom AI/Datacenter.

Sätter AMD riktigt bra priser på sina två Navi32 kort så tror jag starkt på att Nvidia släpper en Super-serie. Skulle ungefär bli som när RDNA släpptes 2019 och erbjöd mycket bättre value än 2060 och 2070 vilket fick Nvidia att erbjuda bättre kort nästan direkt.

7700 kommer vinna på walkover oavsett men 7800 behöver kosta 500$ för att verkligen röra om i grytan. 550$ räcker på pappret men inte i verkligheten.

Visa signatur

f0rest stan | Citera mera | 5800x – 6700 XT

Permalänk
Medlem

Dom har kanske, kanske, kommit till insikt att släppa ett kort för 30k inte kommer generera så mycket mer i kassan.
Köpkraften ligger inte hur högt som helst.
Kort som 4060 kränger de ändå till OEM-marknaden.

Permalänk
Medlem
Skrivet av PatrickP:

Jag sitter också på ett dual 4070 (OC) från Asus. Hur mycket undervolt snackar vi? 450 RPM och du når ändå bara 67 grader vid stress test? Låter helt galet. Själv tycker jag mina fläktar låter för mycket vid ca 1100 RPM så jag kör mina GPU fläktar på max 1000 RPM och då kan jag ändå i spel hamna på betydligt högre temperaturer. Speciellt minnena som når 98-100 grader. Själv kör jag dock ingen undervolt (utan en svag överklock) och kortet drar typ 190-200W vid max belastning

@PatrickP

Här har du lite tips, jag håller mitt kort runt 100-120W

https://www.reddit.com/r/nvidia/comments/12pihwo/rtx_4070_eff...

Visa signatur

Asus Tuf Gaming X670E-Plus - Amd 7800X3D Noctua D15 Chromax Black - Corsair 6400MHz cl30 - Asus Tuf 7900xtx - Asus Rog Thor 850W 80+ Platinum - Sound Blaster AE-9 - Asus 26.5" ROG Swift PG27AQDM OLED 240Hz

Permalänk
Medlem
Skrivet av Maximo:

Det stoppade dom inte att släppa 1080ti som gjorde Titan onödig/värdelös men däremot finns det gott om prestandautrymme mellan 4080 och 4090.

Trodde faktiskt att de skulle släppa ett 4080ti och att bilderna på den enorma kylaren var nån sorts utvecklings ex av det...

Permalänk
Medlem
Skrivet av Sveklockarn:

Det är inte wafer kostnaden som är ökningen det är RnD som gått upp 7x på 6 år.
Den är nu samma % av kostnaden per kort som wafern. Wafern var tidigare majoriteten av kostnaden för ett kort.
Här är bilden på Nvidias RnD budget 2017-2023

https://www.statista.com/statistics/988048/nvidia-research-an...

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Det är inte wafer kostnaden som är ökningen det är RnD som gått upp 7x på 6 år.
Den är nu samma % av kostnaden per kort som wafern. Wafern var tidigare majoriteten av kostnaden för ett kort.
Här är bilden på Nvidias RnD budget 2017-2023
<Uppladdad bildlänk>

https://www.statista.com/statistics/988048/nvidia-research-an...

Nu täcker det där förvisso mer saker än grafikkort för konsumenter, och med tanke på hur mycket de har breddat sig till andra områden med datacenter/HPC, AI och nätverk så är den grafen inget oomkullrunkeligt bevis på att just grafikkortsutvecklingen kostar så mycket mer.

Permalänk
Medlem
Skrivet av Sveklockarn:

Nu täcker det där förvisso mer saker än grafikkort för konsumenter, och med tanke på hur mycket de har breddat sig till andra områden med datacenter/HPC, AI och nätverk så är den grafen inget oomkullrunkeligt bevis på att just grafikkortsutvecklingen kostar så mycket mer.

Jag är tveksam på att Nvidia skulle dela upp RnD för konsument vs företag per kort då det är samma wafer. Och väldigt mycket av Nvidias kort kan användas till både Gaming och produktivitet, om än sämre med konsumentkort.

Sen att Nvidia tar så mycket som möjligt från företag skall nog vi konsumenter vara glada för, annars hade nog korten blivit ännu dyrare.

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Swedishchef_90:

Jag är tveksam på att Nvidia skulle dela upp RnD för konsument vs företag per kort då det är samma wafer. Och väldigt mycket av Nvidias kort kan användas till både Gaming och produktivitet, om än sämre med konsumentkort.

Ja, det var det jag skrev...?

Skrivet av Swedishchef_90:

Sen att Nvidia tar så mycket som möjligt från företag skall nog vi konsumenter vara glada för, annars hade nog korten blivit ännu dyrare.

Ja någon som använder produkterna för att tjäna pengar kommer alltid att vara villiga att betala helt andra pengar, och det är också varför Nvidia-grafikkort aldrig kommer skena iväg till prisnivåerna det ofta fantiseras om. Det som möjligen händer på sikt är att utvecklingen stagnerar hos Nvidias konsumentprodukter, men det finns det ju inga tecken på i dagsläget eftersom de satsat på att exempelvis fyrdubbla RT-prestandan och utveckla mer avancerad bilduppskalningsteknik över två generationer.

Permalänk
Medlem
Skrivet av Sveklockarn:

Ja, det var det jag skrev...?

Då missuppfattade jag dig 😊

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag har sett uträkningar där man tar kostnadsökningarna i beaktande och räknar på arean av hur många chip som är möjliga att få ut per wafer, och där framträder att kostnaden per chip varit väldigt likartad under relativt lång tid trots mycket dyrare wafers. Yield spelar givetvis roll, vilket blir nära omöjligt att räkna ut exakt. Vi pratar om 2-3 USD/chip i skillnad, men säg att det blir 5 USD/chip nästa gång. Då är det ju fortfarande inte vettigt att priset på ett konsumentkort ökar med 50% baserat på att kiseltillverkningen fördyrats, eller 10000 SEK mer för ett 4080 jämfört med ett 3080. Den prisstegringen har ju andra förklaringar som mest sannolikt inte är relaterade till valutan eller kostnadsökningar i tillverkarled, utan mer på att man hoppas att överpriserna under mining-åren ska gå att fortsätta sälja grafikkort på.
Jag menar att när man tar skalan som detta tillverkas på, och det ökade antalet chip man får ut genom mindre fysisk area per chip, inte motiverar de prisstegringar som skett.
Nej det finns ju många håll det kan gå åt potentiellt, men om inte folk plötsligt börjar ha mer pengar i genomsnitt så finns det inget utrymme att öka priserna på marknaden långsiktigt. Alla företags framgångar baseras på att man har kunder, och när det blir jättar som Nvidia så är det vitalt att ha en någorlunda stabil återkommande kundbas. Varken Nvidia eller TSMC kan ställa sina anläggningar på paus i väntan på bättre tider så att säga.

Vi talar nog förbi varandra. Jag tror inte att Nvidias priser beror speciellt mycket på marginalkostnaden för att producera korten. Nvidia tar helt enkelt så mycket betalt som de kan komma undan med, med vetskap om att produktionskapaciteten på de här noderna är begränsad och de vill hellre använda de arken till dyrare produkter. Däremot tror jag inte på nån 512-bits minnesbuss ändå, eftersom det leder till högre kostnader för Nvidia, och de är rätt bra på att reducera sådant till det minst som behövs. Med GDDR7 i nästa generation får de redan där en 50%ig ökning av bandbredden (mot GDDR6), så de behöver inte gå bredare just nu.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av mpat:

Vi talar nog förbi varandra. Jag tror inte att Nvidias priser beror speciellt mycket på marginalkostnaden för att producera korten. Nvidia tar helt enkelt så mycket betalt som de kan komma undan med, med vetskap om att produktionskapaciteten på de här noderna är begränsad och de vill hellre använda de arken till dyrare produkter. Däremot tror jag inte på nån 512-bits minnesbuss ändå, eftersom det leder till högre kostnader för Nvidia, och de är rätt bra på att reducera sådant till det minst som behövs. Med GDDR7 i nästa generation får de redan där en 50%ig ökning av bandbredden (mot GDDR6), så de behöver inte gå bredare just nu.

Klassiker.

Jag tänker att 512-bitarsbussen ändå bara kommer hamna på en halo-produkt för 30k, och att de nedskalade versionerna får två kanaler (64 bitar) till jämfört med dagens lineup. Problemet är ju inte bara bussbredden utan hur många kanaler man får att sätta minnen på, och även om GDDR7 kanske startar på 2 GB-moduler (mot 1 GB för GDDR6X) så kommer det dröja innan processen förfinats för bättre yields för att medge större kapaciteter till rimliga priser. Ett 128-bitarskort skulle bli fast igen med 8 GB VRAM, och det känns väl mindre sannolikt att de upprepar det en gång till om drygt ett år.

Permalänk
Avstängd
Skrivet av Mocka:

Man är ju nyfiken på hur mycket snabbare i praktiken 4090Ti hade blivit jämfört med 4090. Synd att vi aldrig får veta det.

Lika meningslöst som 3090 mot 3090 ti. Betydelselös skillnad i prestanda, däremot enorm skillnad i strömförbrukning.

Visa signatur

The more I get to know people, the more I love my dog.

Permalänk
Medlem
Skrivet av sasfoxi:

Lika meningslöst som 3090 mot 3090 ti. Betydelselös skillnad i prestanda, däremot enorm skillnad i strömförbrukning.

Det är väl inte säkert? Ja, 3000-serien var bedrövlig gällande Ti modellerna då det handlade om ett fåtal procent men skillnaden i prestanda mellan 4070 och 4070 Ti är väl runt 20% i 1440p?

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Avstängd
Skrivet av Mocka:

Det är väl inte säkert? Ja, 3000-serien var bedrövlig gällande Ti modellerna då det handlade om ett fåtal procent men skillnaden i prestanda mellan 4070 och 4070 Ti är väl runt 20% i 1440p?

Det finns inget realistiskt skäl att tro ett 4090 ti skulle ha avsevärt bättre prestanda än 4090.

Visa signatur

The more I get to know people, the more I love my dog.

Permalänk
Medlem
Skrivet av Swedman18:

Släpp 5060TI med 4090 prestanda till 4070pris

Kommer väl snarare bli 5060Ti med 4070-prestanda och 4090-pris

Visa signatur

| Corsair Crystal 460X | Z390-F | 9700K | ROG Ryujn 360mm | RTX 3080Ti | ROG Thor 850W | Vengeance Pro 3200mhz 16cl 16GB (2x8) | 970 Pro 2TB + 2xWD Black 4TB | ROG SWIFT PG279Q | Arctis 7 Pro Wireless | ROG Scope Deluxe red silent | ROG Chakram |

Permalänk
Avstängd
Skrivet av Swedman18:

Släpp 5060TI med 4090 prestanda till 4070pris

Sedan vaknade du ur drömmen.

Visa signatur

The more I get to know people, the more I love my dog.

Permalänk
Medlem
Skrivet av sasfoxi:

Det finns inget realistiskt skäl att tro ett 4090 ti skulle ha avsevärt bättre prestanda än 4090.

Jag har ingen aning om vad 11% fler CUDA kärnor betyder i prestanda. Menar bara att alla "Ti" kort gällande 3000-serien inte var mycket snabbare men att både 4060 Ti och 4070 Ti faktiskt har en prestandaskillnad mot de vanliga versionerna varför det skulle kunna peka på att det inte bara blir 5% prestandaskillnad mellan 4090 och 4090Ti utan snarare något tvåsiffrigt.

Men hursomhelst, kommer inte kortet ut spelar det ändå ingen roll.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av sasfoxi:

Sedan vaknade du ur drömmen.

Bara ändra det till "Släpp 5070 med 4090 prestanda till 4070pris" så bör det ju vara rimligt.