Nvidia sänker prognoserna – försäljningen av Geforce RTX-serien sämre än väntat

Permalänk
Medlem

Tolkar även denna nyheten som att vi inte kommer se RTX 3080 Ti för över 20.000:-.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem

Varför verkar vissa ta detta som att det innebär 2080 Ti skulle varit för dyrt? Av det vi fått veta tidigare verkar ju försäljningen av 2080 Ti snarare sagt överträffat deras förväntningar (dvs det som legat till grund för prognosen).

Det har ju snarare varit segmenten under toppkortet som sålt sämre än de förväntat, vilket ju inte är så konstigt då de som går efter det bästa oftast är mindre priskänsliga än de som vill ha det näst bästa eller något mellansegment.

De hade nog hoppats att folk skulle "köpa upp sig" en nivå men det hände nog inte i samma utsträckning.

Permalänk
Medlem

@mrpijey:
Ja man baxnar/"cringe" på överraskande många kommentarer. >_O
(avvaktar rtx pga pris och "obefinltiga" spel/program-skäl).

Permalänk
Medlem

@Ratatosk: Spelen (spelet) har ju blivit snyggare. Battlefield tycker jag är klart snyggare med RTX. Metro Exodus (av de videos vi sett) är betydligt snyggare med RTX. Hitta mig ett spel som är fulare med RTX tack. Snabbare? Ja, jämfört med om samma grafikkvalitet gjorts med traditionell teknik ja, men åter igen så sker det inte alltid ökningar i generell prestanda med ny teknik. T&L t.ex var ju krävande också i början tills det blev standard. Problemet är att du vill äta tårtan och samtidigt ha den kvar. Inte alla spelar CS:G i 640x480 med allt avslaget bara för att kunna få 900000fps heller, utan vissa vill ha riktigt sjysst grafik, och då får man göra avkall på annat. Och om 1-3 generationer så kommer RTX flyta på riktigt bra och inget av det hade varit möjligt utan att de släppt tekniken i första generationen.

Men som jag nämnt tidigare så är ju två av Nvidia misstag både det mycket högre priset samt att de inte släppte motsvarande kort utan RTX. Men och andra sidan så måste du inte heller köpa korten eller uppgradera så det är helt enkelt upp till dig att avgöra om du har råd. Och Nvidias ekonomer och marknadsmänniskor kommer anpassa sin strategi.

Permalänk
Medlem

@mpat: Ja absolut, priset är ett problem. Men att ligga på topp kostar också. Datorer och grafikkort är ju en billig hobby jämfört med många andra också, så allt är relativt. Men vi kanske får se prissänkningar efterhand som Nvidia får upp yielden, och nästa generation kanske innebär krympningar av tekniken = mindre kärnor = fler kärnor per batch = bättre yield = lägre pris per kärna. Och att Nvidia inte jämför bättre yield med högre profit och sänker priserna.

Permalänk
Medlem

De borde släppt GTX 2050 / 2060 / 2070 / 2080 med priser som de kort dessa ersätter.

Sen borde de även släppt RTX 2060 / 2080 för de som är villiga att betala ett högre pris för att testa den nya tekniken och vara early adopters.

Då hade det gått bra för Nvidia, nu ser det bara ut som att dom är giriga. Och ingen gillar ett girigt företag.

Visa signatur

AMD Ryzen 5 1600 3.2 GHz - MSI GeForce GTX 1060 Gaming X 6GB - Corsair 2x8GB 3000MHz

YOMAHA, YOMASO!

Permalänk
Keeper of The Nvidia Drivers

Härligt, ännu en "2xxx serien är dyyyyyyyyr!!!!" tråd Det var några veckor sedan nu, så uppfriskande med en ny ifall någon hade glömt hur dyyyyyyyyyyyyyyr 2xxx serien är.

Visa signatur

AMD FX53 939 | MSI nForce4 939 | Ati Radeon x1800XT OC PE | 2*1024mb G-Skill 1-2-3-2-5 | Comhem 10/1 | Frölunda Indians SM GULD!!!
In Hoc Signo Vinces!

Permalänk
Moderator
Testpilot
Skrivet av Xyborg:

Fast nu har ni ju verkligen inte fattat hur ekonomisk redovisning eller produktutveckling fungerar i huvud taget. Tror ni på riktigt att kostnaden för utvecklingen inträffade samma kvartal som korten såldes? Att Nvidia liksom bara vispar ihop ett helt nytt grafikkort OCH släpper det inom tre månader?

Jag håller med diskussionens huvudpunkt i sak. Nvidia har bevisligen tagit för mycket betalt för RTX-korten (det är bland annat därför jag inte köpt något) och de tjänar uppenbarligen bra trotts dyra utvecklingskostnader. Men att tro att den där bilden är ett underlag för något av det är ju rent ut sagt efterblivet

Om jag skall följa din logik så innebär det att de helt slutar med R&D när de har släppt en produkt.

Även om R&D kan innebära riktade åtgärder som större projekt så har Nvidia garanterat en fast FTE(full time employee) och FTC(Full Time Consultant) utgift, som i samband med att företaget växer också ökar. Just nu arbetar deras R&D på det som skall komma till marknaden om fyra till fem år. Kostnaden för Turing har burits sedan fem år tillbaka.

Att titta på kvartalsrapporter ger absolut en bra fingervisning även om inkomster och utgifter fluktuerar över året. Min poäng kvarstår.

Om jag var du så skulle jag spara på epiteten du klistrar på andra och inte avslöja din egen okunskap inom ämnet på ett sådant uppenbart sätt.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Hjälpsam

@mrpijey: RTX ger absolut snyggare spel inget snack om saken.
Att vi ibland sett överutnyttjande, tror jag bara är en "barnsjukdom" det tar tid att lära sig implementera tekniken rätt.
Tycker dock att det kostar för mycket i dagsläget, i prestanda och i pengar.
Vi får se i framtiden.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Inofficiell ambassadör
Skrivet av Dinoman:

Om jag skall följa din logik så innebär det att de helt slutar med R&D när de har släppt en produkt.

Även om R&D kan innebära riktade åtgärder som större projekt så har Nvidia garanterat en fast FTE(full time employee) och FTC(Full Time Consultant) utgift, som i samband med att företaget växer också ökar. Just nu arbetar deras R&D på det som skall komma till marknaden om fyra till fem år. Kostnaden för Turing har burits sedan fem år tillbaka.

Att titta på kvartalsrapporter ger absolut en bra fingervisning även om inkomster och utgifter fluktuerar över året. Min poäng kvarstår.

Om jag var du så skulle jag spara på epiteten du klistrar på andra och inte avslöja din egen okunskap inom ämnet på ett sådant uppenbart sätt.

Tack, men jag har ganska OK kunskap inom ämnet. Det kan mycket väl vara så att jag använde lite för grova ord, då får jag be om ursäkt för det. Men faktum kvarstår. Man kan inte titta på R&D kostnader för ett kvartal och sen tro att det på något vis skulle bevisa/förkasta tesen om att en viss produkt var dyr att utveckla. Speciellt inte när siffrorna är för hela bolaget - och därmed innefattar produkter i allt ifrån datacenter till bilar.

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Medlem

Sedan så verkar ju SLI inte funka bra heller längre så man kan inte köpa 2 st 2080ti och ha garanterat över 60hz i 4k tyvärr (för ett kort som lanseras som perfekt till 4k ...i vaddå 30fps ??) och då kan man ju lika gärna vänta en generation till då man är tvungen att få en singel gpu som klarar minst 4k i ultra med 60fps minimum.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Mirialia:

De borde släppt GTX 2050 / 2060 / 2070 / 2080 med priser som de kort dessa ersätter.

Sen borde de även släppt RTX 2060 / 2080 för de som är villiga att betala ett högre pris för att testa den nya tekniken och vara early adopters.

Då hade det gått bra för Nvidia, nu ser det bara ut som att dom är giriga. Och ingen gillar ett girigt företag.

Om dom släppt GTX motsvarande hade 95% köpt den serien om priset varit 20-30% under. Hade RTX ens överlevt första halvåret då?

Permalänk
Medlem
Skrivet av Dinoman:

Låt oss kolla lite på fakta då.

https://i.imgur.com/yqeTBhQ.png

Deras kostnader för varken R&D eller Operativa har ökat särskilt dramatiskt, inkomsten har dock skjutit i höjden.

R&D har ökat med 31% medan nettoinkomsten har ökat med 245%. Det talar ju sitt tydliga språk.

Det säger inte mycket.
Kostnader för ett utvecklingsprojekt som RTX läggs ofta i balansräkningen och aktiveras när intäkterna (försäljningen) börjar och räknas då som avskrivning. En faktisk kostnad ska då matchas mot en förväntad intäkt under samma period, det kan slå hårt om intäkten inte lever upp till prognos

Visa signatur

Så blir det!

Permalänk
Medlem
Skrivet av Dinoman:

Om jag skall följa din logik så innebär det att de helt slutar med R&D när de har släppt en produkt.

Även om R&D kan innebära riktade åtgärder som större projekt så har Nvidia garanterat en fast FTE(full time employee) och FTC(Full Time Consultant) utgift, som i samband med att företaget växer också ökar. Just nu arbetar deras R&D på det som skall komma till marknaden om fyra till fem år. Kostnaden för Turing har burits sedan fem år tillbaka.

Att titta på kvartalsrapporter ger absolut en bra fingervisning även om inkomster och utgifter fluktuerar över året. Min poäng kvarstår.

Om jag var du så skulle jag spara på epiteten du klistrar på andra och inte avslöja din egen okunskap inom ämnet på ett sådant uppenbart sätt.

Skrivet av Xyborg:

Tack, men jag har ganska OK kunskap inom ämnet. Det kan mycket väl vara så att jag använde lite för grova ord, då får jag be om ursäkt för det. Men faktum kvarstår. Man kan inte titta på R&D kostnader för ett kvartal och sen tro att det på något vis skulle bevisa/förkasta tesen om att en viss produkt var dyr att utveckla. Speciellt inte när siffrorna är för hela bolaget - och därmed innefattar produkter i allt ifrån datacenter till bilar.

Om man åsidosätter diksussionen om huruvida den senaste rapporten är en bra historisk markör eller ej och istället tittar här: https://www.macrotrends.net/stocks/charts/NVDA/nvidia/net-inc... och väljer "Net income" så ser det ju inte ut som att Nvidia haft det supersvårt senaste åren precis... Om man istället kollar på AMD: https://www.macrotrends.net/stocks/charts/AMD/amd/net-income så ser det ju lite annorlunda ut.

Nu är jag ingen expert så om någon vill förklara för mig varför jag är helt dum i huvudet som ens tror att dessa staplar betyder något alls så gör gärna det så ändrar jag mig om det verkar stämma..

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Hjälpsam
Skrivet av Slägge:

Om dom släppt GTX motsvarande hade 95% köpt den serien om priset varit 20-30% under. Hade RTX ens överlevt första halvåret då?

Nope, då hade folk fått köpa de kort de ville ha och betala för.
Good Riddance RTX.
Vi ses kanske i framtiden.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av Shiprat:

"Nvidia erkänner att priserna kan ha satts för högt"

Nämen!

Ja godmorgon Nvidia...

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Ratatosk:

Tycker att det är ett utmärkt exempel, dyrt att tillverka och priser som varit helt åt helvete, på grund av miningboomen, fanns ingen anledning för en gamer att betala dessa priser.
Priserna gick inte ned pga att Vega fick konkurens från 2070 och 2060, det fixade 1070, 1070Ti och 1080 utmärkt utan RTX-korten, priserna gick ned pga att miningboomen dog ut.

Varför kostade då det billigaste vega64 kortet (vilket jag antar är sapphirea) 6500kr när det snabbare msi armor 2070 gick för under 6000kr. Men ändå är det att rtx-priset vi ska klaga på?

Vega64 har haft usel pris/prestanda under princip hela sin livslängd, och under hela hösten trots att miningboomen var död.

Citat:

Vad fan menar du med "Läser du också konstigt eller?"

För att det inte är traditionell rasterprestanda som citatet avser.

Skickades från m.sweclockers.com

Permalänk
Moderator
Testpilot
Skrivet av Xyborg:

Tack, men jag har ganska OK kunskap inom ämnet. Det kan mycket väl vara så att jag använde lite för grova ord, då får jag be om ursäkt för det. Men faktum kvarstår. Man kan inte titta på R&D kostnader för ett kvartal och sen tro att det på något vis skulle bevisa/förkasta tesen om att en viss produkt var dyr att utveckla. Speciellt inte när siffrorna är för hela bolaget - och därmed innefattar produkter i allt ifrån datacenter till bilar.

Då kan vi väl gräva oss lite djupare i mer fakta då.

Följande tabell visar alltså hur alla deras utgifter förhåller sig till resultatet. Här har du år för år med början av 2016 (alltså senare än när Turing började utvecklas).

Bruttoförtjänsten landar alltså på 59,9% 2018, upp från 56,1% i 2016, en ganska trevlig och hälsosam ökning.

R&D har under samma period sjunkit från 26.6% till 18,5% av totala resultatet.

Nettoförtjänsten har samtidigt då ökat från 12,3% till 31,4%.

Vad säger detta oss då?

Dels talar det om för oss att Nvidia tjänar mycket pengar. De har nästan tredubblat nettoförtjänsten kontra resultatet på tre år. Under samma period så har R&D-kostnaderna inte alls ökat i samma takt utan snarare nästan hållt sig konstant då den andelen sjunker i förhållande till rörelseresultatet. Samma trend kan man se inom Försäljning och allmän administrationskostnad.

Så vad händer på NVidia? Antingen har de effektiviserat något enorm i bolaget, vilket vi inte har fått några indikationer på, eller så tjänar de helt enkelt mycket mer på sina produkter, vilket vi fått hundratals rapporter på.

Jag säger inte att Turing på något vis var billig att utveckla, men att den på något vis skulle vara dyrare att ta fram än Pascal, Maxwell eller Kepler håller jag för osannolikt. Jag tror inte heller att Nvidia börjat lägga mycket mindre pengar på R&D, vilket de bevisligen inte gör då deras senaste kvartalsrapport visar att de lägger mer pengar än någonsin på R&D.

Så allting talar för att Nvidia alltså aldrig har lagt mer pengar på R&D än vad de gör idag samtidigt som de aldrig har gjort så stora nettoförtjänster som de gör just nu. Sen kan du själv dra strecken mellan duttarna.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av MinscS2:

Tolkar även denna nyheten som att vi inte kommer se RTX 3080 Ti för över 20.000:-.

Typ alla 2080Ti säljer ju slut. Men det är för att det är en sån fet krets att det kostar. Går vi ner på 7nm tror jag inte de kommer göra så feta kretsar, speciellt inte direkt. Kanske om två generationer innan 5nm kommer så kommer de göra liknande fet krets som blir svår att tillverka och således får högt pris.

Permalänk
Medlem
Skrivet av wargreymon:

Vill du ha gammal teknik, köp gammal teknik. The future is now, old man.

Det finns ingen gammal teknik att köpa din grabbhalva. Dessutom kan du bara spela Battlefield V med din framtid, lätt värt 4000kr.

Skrivet av evil penguin:

Det snackas ju om 1660 (ibland kallat 1160), så fullkomligt uteslutet är det väl inte att det skulle komma fler kort i Turing-utan-RT-serien... Samtidigt känns det nog som att det sitter hårt inne att de skulle släppa highend-kort i den serien, iaf som marknadstugget går än så länge.

Jag hoppas också på den nya GTX familjen (som mot all resonlig tankegång heter 1660 istället för 1160 som den borde heta) men numera vet man aldrig med nVidia.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av Ratatosk:

Nope, då hade folk fått köpa de kort de ville ha och betala för.
Good Riddance RTX.
Vi ses kanske i framtiden.

Du kommer inte få spel med strålspårning utan att hårdvaran har sägs för det. Och uppenbarligen förespråkar du inte att hårdvaran ska ha stöd för det innan det fika stöd i spel. Hur exakt hade du tänkt att detta skulle ske? Eller tycker du seriöst att vi aldrig ska få strålspårning i spel?

Permalänk
Hjälpsam
Skrivet av sKRUVARN:

Varför kostade då det billigaste vega64 kortet (vilket jag antar är sapphirea) 6500kr när det snabbare msi armor 2070 gick för under 6000kr.

Vega64 har haft usel pris/prestanda under princip hela sin livslängd, och under hela hösten trots att miningboomen var död.

Fortfarande har ett GTX1080 kunnat konkurera med Vega 64 helt på egen hand, behövs inget RTX1070 för detta.

Citat:

För att det inte är traditionell rasterprestanda som citatet avser.

Skickades från m.sweclockers.com

Jag svarade med avseende på vad han svarade på, jag brukar följa konversationstråden.
Sånt kallas läskunnighet, inget annat och absolut inget med inlindade förolämpningar.
Det han svarade på gällde hur snabbt hela kortet var, inte någen enskild funktion som RT, FP16, Async Compute, OpenCl eller Fan och hans Mormor.
#17761984

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av wargreymon:

Typ alla 2080Ti säljer ju slut.

Låter bra först, men sen måste man också ställa frågan; Hur många 2080 Ti har Nvidia pumpat ut? Hur stor är yielden?

Hur stor har efterfrågan varit på RTX 2080 Ti jämfört med GTX 1080 Ti när det begav sig?
Hur många RTX-kort har tillverkats jämfört med GTX? Jag gissar på betydligt färre.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av evil penguin:

Det snackas ju om 1660 (ibland kallat 1160), så fullkomligt uteslutet är det väl inte att det skulle komma fler kort i Turing-utan-RT-serien... Samtidigt känns det nog som att det sitter hårt inne att de skulle släppa highend-kort i den serien, iaf som marknadstugget går än så länge.

fast 1660/1160 är ju mer än bara ett 2060 utan RT delen. Nvidia ska ju tydligen har passat på att skära ner det yligare lite till. så 1660/1160 är ju snarare ett "2050ti" än ett 2060 utan RT. men visst.
så även när nvidia "lyssna på sina kunder" så gör dem ändå inte det. vill du har bättre prestandard MÅSTE du köpa RTX. kommer troligen inte nåt högre än "xx60" kort till GTX sidan.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Medlem
Skrivet av sKRUVARN:

Varför kostade då det billigaste vega64 kortet (vilket jag antar är sapphirea) 6500kr när det snabbare msi armor 2070 gick för under 6000kr. Men ändå är det att rtx-priset vi ska klaga på?

Vega64 har haft usel pris/prestanda under princip hela sin livslängd, och under hela hösten trots att miningboomen var död.

För att det inte är traditionell rasterprestanda som citatet avser.

Skickades från m.sweclockers.com

När var det priset exakt menar du? Priserna på både Nvidia och AMD är ju fortfarande helt förstörda efter miningruschen, men du kan nu få Vega 64 för runt 5k, och jag köpte 2 st Sapphire Vega 64 för 5749 i november 2018.
Oavsett- det faktum att Vega 64 har vart en dålig deal ett bra tag betyder inte att 2070/2080/2080Ti automatiskt är bra deals, eller?

Jag skulle påstå att allt över RTX 2060 och Vega 56 just nu är rätt dålig bang for buck, har ett Vega 64 och ett 1070 och känner inget vidare sug att betala samma pris jag betalade för Vega för något år sedan eller för 1070 för snart 3 år sedan för att få några procent mer prestanda at best.

Om man är ute efter ett nytt kort dock så är 2060 en bra deal, eller om man tror att man absolut behöver 8GB eller bara är sugen på röda teamet så är 56 med bios flash en bra deal med. Allt över det är Meh tills vi ser vad nästa releasecykel bringar.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av mrpijey:

Men som jag nämnt tidigare så är ju två av Nvidia misstag både det mycket högre priset samt att de inte släppte motsvarande kort utan RTX. Men och andra sidan så måste du inte heller köpa korten eller uppgradera så det är helt enkelt upp till dig att avgöra om du har råd. Och Nvidias ekonomer och marknadsmänniskor kommer anpassa sin strategi.

Håller med om det mesta utom just detta. Det är väl självklart att man inte vill konkurrera ut sig själv genom att släppa modeller utan RTX. Det är bättre för Nvidia om folk köper RTX 2080 istället för att köpa ett billigare kort med motsvarande prestanda utan raytracing.

Dessutom skulle det skapa förvirring bland konsumenterna med en massa olika serier där modellnumren inte är jämförbara och dessutom fragmentera marknaden för raytracing om man ändå säljer en massa high-end-kort som inte stödjer DXR.

Om man nu vill ha ett "GTX 2080" så är det väl bara att köpa ett 1080 Ti istället för att gnälla.

Visa signatur

Main Core i9-9900k | NH-D15 | ROG STRIX Z390-F | 16GB DDR4 3200 MHz LPX | STRIX 2080 Ti GAMING OC | Samsung 970 EVO 1TB + Toshiba XG5 256GB | RM650X | R5 Blackout
HTPC/Barndator: Core i5-8400 | ASUS PRIME B360M-A | 16GB DDR4 2666 MHz | STRIX GTX 1070 OC | 2 x Toshiba XG5 256GB
Extradator: Core i7 870 | ASRock H55M-LE | 8GB 1600 MHz | Intel 320 120GB | HD6950 2GB | VX 550W

Permalänk
Medlem
Skrivet av Mocka:

Det finns ingen gammal teknik att köpa din grabbhalva. Dessutom kan du bara spela Battlefield V med din framtid, lätt värt 4000kr.

Finns gott om gammalt på begagnatmarknaden där det hör hemma. Sedan lanserar ju AMD gammal teknik, men du får ju betala samma som att köpa ny.

Permalänk
Medlem
Skrivet av MinscS2:

Låter bra först, men sen måste man också ställa frågan; Hur många 2080 Ti har Nvidia pumpat ut? Hur stor är yielden?

Hur stor har efterfrågan varit på RTX 2080 Ti jämfört med GTX 1080 Ti när det begav sig?
Hur många RTX-kort har tillverkats jämfört med GTX? Jag gissar på betydligt färre.

Varför skippade du typ 90% av mitt inlägg? Yielden är pissdålig för att kretsen är sjukt stor. Närmaste i storlek är Titan V, och det kostar 30k.

Hade 2080Ti haft samma pris som 1080Ti när det lanserades så hade det ju självklart varit extremt populärt. Men det hade inte går att tillverka så många kort. Tillgången är låg på grund av fysikens lagar. Priset är högt för att annars hade det blivit en extremt skrev efterfrågan kontra tillgång.

Permalänk
Medlem

Det kanske är att drömma för högt, men jag hoppas att deras förlust reflekteras på grafikkorten i form av väsentliga prissänkningar.

Permalänk
Medlem
Skrivet av Ozzed:

Nu var det ju riktig prestanda som verkligt folk bryr sig om jag syftade på

Du syftade på en sak men personen du citerade syftade på nått helt annat.
Du kritiserar begrepp i ett citat utan att förstå vad begreppen syftar till.

Förstår du verkligen inte problemet med det?

Citat:

och inte Ray Tracing som finns i vaddå? 2-3 spel? Vem fan bryr sig?

Inte tillräckligt många tydligen. Det var ju lite det texten du citerade handlade om, "...waiting for lower price points and further demonstrations of RTX technology in actual games".

Citat:

vart vill du komma egentligen

Att folk klarar av att förstå det som de citerar innan de kritiserar det citatet ifråga innehåller? Överkurs för dig?

Skrivet av Ratatosk:

Resonerar man som du gör, är Vega 64 mycket snabbare är GTX1080Ti. Hint:"FP16".

Fler som har svårt med det enkla tydligen. Handlar inte om att "resonera" utan om att förstå det skrivna ordet och du gör det då alldeles uppenbarligen inte.

Citat:

Nej Vega är inte snabbare än ett GTX1080Ti heller, det är långsammare.

Om nån skulle skriva "Vega 64 är snabbare än GTX1080Ti vid FP16-beräkningar" så är det rätt mkt hål i huvudet att på det svara "Stopp, stopp. GTX1080Ti är snabbare vid spel". Det är vad man brukar kalla ett Goddag Yxskaft-svar.

Citat:

ett RTX2080Ti presterar som ett RX570 när det kör Raytracing.

Om man belastar ett RTX2080Ti mycket, mycket mer än ett RX570 så kommer frameraten till slut bli ungefär samma. No shit Sherlock. Tror du nu att nån har påstått nått annat eller varför tar du upp det?

Citat:

Hur kan du få det till att RTX korten är snabbare vid RT förstår jag inte

Prova att mata på ett RX570 med motsvarande beräkningsbelastning så borde även du förstå till slut.