Nvidia sänker prognoserna – försäljningen av Geforce RTX-serien sämre än väntat

Permalänk

Skönt att folk inte köper dessa korten. Lägger till en massa gimmicks och trycker upp priserna och tror att det ska säljas? Kanske vaknar dom nu och inser att det är hög tid att sänka priserna på deras grafikkort.

Visa signatur

Bärbar Speldator: AMD Ryzen 5 5600H I Nvidia RTX 3050 Ti
Xiaomi Poco X3 Pro I Nvidia Shield TV V2 I PS4 I

Permalänk
Medlem
Skrivet av hakan78:

Ni som försvarar Nvidias priser?! De som kör samma koncept som Apple. De har en vinstmarginal på 60% på deras grafikkort som säljs privat. Dvs inkomst från försäljning - utveckling+tillverkning
Jämför det med AMDs 36%.
Nvidia är giriga. Observera att det inte är toppmodellerna som har så hög vinstmarginal. De ligger betydligt lägre. 1080ti hade 2% vinstmarginal vid lansering. Det är inte är där ockret sker utan på de kort som ligger i mellan och budgetklassen. Gtx 1050 har över 100% i vinstmarginal.

Var har du hittat dessa siffror?

Permalänk
Medlem

Det kan kännas lite framtidssäkert med RT i alla fall. Men just nu finns det väl typ bara ett spel som har stöd för det och det är Battlefield. Sämsta tänkbara spelet att implementera RT i. Hade varit riktigt skönt och snyggt i ett bilspel till exempel.

Visa signatur

Intel Pentium 2 MMX 233 @263 MHz, 192 mb, Nvidia TNT 16mb, 40gb hdd

Permalänk
Medlem
Skrivet av igelkotte:

Det kan kännas lite framtidssäkert med RT i alla fall. Men just nu finns det väl typ bara ett spel som har stöd för det och det är Battlefield. Sämsta tänkbara spelet att implementera RT i. Hade varit riktigt skönt och snyggt i ett bilspel till exempel.

Eller i RPG/RTS... <3

FPS-spel är sämsta genren för Raytracing.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av Fonus:

Vilket "exakt samma hus" skulle det vara?

Oftast är det väl inte heller husen som är själva grejen så att säga, utan tomten och dess läge.

Finns ett antal exakt identiska hus här i stan som skiljer något enormt i pris, på grund av placeringen av dem.

Permalänk
Medlem
tillägg
Visa signatur

Platon

Permalänk
Medlem

No shit sherlock?

Hade Nvidia valt en lite mer rimlig prissättning hade de fått sälja bra mycket större volymer och därmed också tjänat bättre.

Permalänk
Medlem
Skrivet av Sveklockarn:

Var har du hittat dessa siffror?

Google samt att man följer med deras kvartalsrapporter.

Nvidia:
https://ycharts.com/companies/NVDA/gross_profit_margin

AMD:
https://ycharts.com/companies/AMD/gross_profit_margin

om Nvidia:
https://wccftech.com/nvidia-q4-2017-financial-results/

https://www.bloomberg.com/news/articles/2019-01-28/nvidia-sin...

https://www.cnbc.com/2019/01/29/nvidia-warning-is-tip-of-the-...

Att man har lägre marginal på de högpresterande korten är inte konstigt. Det har ofta varit så.
Därför har man en bred produktserie hela vägen som man dessutom utnyttjar dåliga material som inte klarar kvalitetskraven för de högpresterande korten. Dessa kort får ett lägre pris men betydligt högre vinstmarginal.
Det handlar om marknadsekonomi. Vilka kort tror du säljer mest? Budget och mid-range kort. Kolla på hur många sålda GTX 1050 och GTX 1060 det såldes. Med enkel matematik inser man att de har en profit en bra bit över de genomsnittliga 60%. High end korten får bättre vinstmarginal med tiden då man korrigerat och optimerat tillverkningen. GTX 1080 nådde dock en milstolpe med hela 20%, efter en tid, i vinstmarginal tack vare övergången från Maxwell till Pascal. En annan stor betydande faktor för att en hög vinstmarginal kunde hållas är tack vare mining-faktorn. Nu är det inte lika intressant och då är det svårt att hålla samma priser.
Men nu har ju även Nvidia tappat mark på annan mark också som datacenter som har haft en uppgång på flera hundra procent på ett par år men som fullständigt har planat ut. De skyller gärna på USA-Kina konflikten men den är mer som en krydda på den avkylningseffekt som inträffat. Nvidia är inte ensamma att vinstvarna. Många företag vinstvarnar just nu. Vi är på väg in i en lågkonjuktur.

Visa signatur

Dator - Dell Alienware Oled AW3423DW, Phantek Enthoo Pro, Intel i7 8700K, Noctua NH-14, Asus TUF Z370-PRO, Samsung SSD 840 Pro 128GB, 32 GB DDR4, Gigabyte Geforce GTX 1080 Ti, 2st x 3 TB WD RED, Logitech MX518, Sennheiser Momentum, Qpad Pro MK80.

Permalänk
Medlem

"Nvidia sänker pr..." *meh* sen blev det fel..
Assetto Corsa Competizione (Blancpain GT Series) hamna just I mitt Steam Biblotek och ser inte så pjåkigt ut.. andvänder sig nu av UE4 motorn.
Lär inte avinstallera rFactor 2 för det..

Permalänk
Medlem
Skrivet av Dalton Sleeper:

Inte så konstigt att det dimper, nästa år får man detta prestanda för halva priset, där det borde ligga, eller så får man ett nytt kort med dubbelt antal RT cores.

Tänk också på att raytracingen är pinsamt frånvarande i dessa spel, knappt inga av de viktiga effekterna är implementerade just pga att prestandan är kass. Vi vill ha reflektioner, vi vill ha skuggor, vi vill ha global illumination, dessa får man mer eller mindre gratis av raytracing. Då dagens kort bara klarar ett par % av en bildskärm så kommer vi aldrig att få i närheten av dessa, utan "assisted raytracing" blendad med den vanliga rasterizeringen. Man vill också ha många fler rays per pixel, så även om prestandan dubbleras nästa generation så kommer man mer eller mindre inte ha råd med dom mest grundläggande och efterlängtade effekterna i raytracing.

Så var det väl för 10-15 år sedan när lite mer avancerad Antialiasing skulle släppas på bred front. Grafikkorten gick fullständigt på knäna i nån generation innan det gick att använda det fullt ut.
Tycker dock nvidia gör helt rätt som pushar för kvalitetshöjande teknik per pixel istället för att bara pushat ut högre upplösning med mer fps.
Tror nog 1080p med riktig raytracing som du nämner ovan ser betydligt snyggare ut än vanlig rendering i 4k.

Permalänk
Moderator
Testpilot
Skrivet av trickeh2k:

*facedesk* minst vettiga jag läst på förstasidan.

Nu kanske någon har hunnit påpeka detta men jag har för mig att de sa att Turing varit under utveckling i över tio år. Ett år tillbaka täcker knappast in kostnaderna för denna generation så att kalla det fakta blir nog att tumma lite på sanningen. Det som hamnar som utpost för R&D i år kanske inte ser dagens ljus förrän 2024, eller senare.

Nettoinkomsten är det enda vi egentligen kan dra någon slutsats av och det är garanterat till största del pga miningboomen.

Ok, så efter ett antal kommentarer liknande denna i tråden så tröttnade jag lite på killgissandet och gav mig in i Nvidias finansiella rapporter. Så, ytterligare fakta kommer här.

Så en liten förklaring till engelskan;

Revenue = Intäkter
Cost of revenue = Kostnad för tillverkning och service (denna är intressant att ha koll på när vi pratar om tillverkningskostnader)
R&D = Forskning och utveckling
Net Income = Netto inkomst (alltså direkt vinst)

Var så goda att titta på staplarna och bilda er en uppfattning.

Min slutsats är att under de, tio år som det påstås att Turing varit under utveckling så kostnaderna för forskning & utveckling gått försiktigt uppåt med en skarp uppåt-trend 2013, vilket skulle kunna indikera Turing om vi ska tro på att det tar fem år att utveckla en GPU, sen planar det av lite granna och ligger ganska stabilt.

Tillverkningskostnaden har ökat dramatiskt från 2017 och framåt vilket kan indikera det faktum att Turing och Volta är dyra att tillverka.

Vad som är verkligen intressant dock är hur nettoinkomsten fullkomligt skjutit i höjden från 2016 och framåt, alltså då Pascal lanserades.

Tror vi fortfarande på att Nvidia "måste" ta sådana hutlösa priser för Turing? Jag tror att Nvidia valde att behålla samma GM (gross margin) på Turing som Pascal vilket har resulterat i så höga priser eftersom Turing är så pass mycket dyrare att tillverka. 471 mm² 14nm vs 754 mm² 12nm.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Vad innebär nu detta för oss dödliga? kommer priserna att störtdyka till normal nivå på konsument grafikkort det vill säga under 8000-10000? Eller vad kommer hända med dessa konsumentgrafikkort som ingen köper? Jag tycker priserna fortfarande är katastrofalt för högt.

Permalänk
Medlem

@e3henri: Kan det vara så att du jämför ett 2070 med ett 1080 ? du borde jämföra det mot ett 1070 . Jag förstår att med dom grafikkorten du hade var det en bra uppgradering . Det går dock inte att jämföra mot dom som sitter med ett 1070 eller bättre . Priserna på 1070 är högre nu är när jag köpte för 2.5 år sen ….. Säger nåt om priserna .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk

Men svenskarna har tydligen råd. Jag såg just att mest sålda grafikkortet på Webhallen är RX 2080 Ti.
Priset är ju relativt -Tesla V100 kostar 200 000 med 16 GB HBM2.....så kanske är RX 2080 Ti ett fynd?

Permalänk
Inaktiv

Lite som att ICA skulle höja priset på mjölk till 100 spänn litern och sedan skylla på att det ekonomiska läget ser dystert ut i Kalmar. Sänk priset.

/Slut på överdrift

Permalänk
Moderator
Testpilot
Skrivet av Greyguy1948:

Men svenskarna har tydligen råd. Jag såg just att mest sålda grafikkortet på Webhallen är RX 2080 Ti.
Priset är ju relativt -Tesla V100 kostar 200 000 med 16 GB HBM2.....så kanske är RX 2080 Ti ett fynd?

Källa på det?

Dessutom kostar Tesla V100 drygt 90 000:-.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk

Jomen lite som dagens mobiler. Inte får jag så mycket mera pang om jag lägger dubbla pengarna.
Vi har dessutom ruttnat lite på GPU priserna - mitt 1070 strix har gått upp i pris sedan 2,5 år.
Som mobilerna då, vi byter GPU när vi tycker det är värt det?

Permalänk
Medlem
Skrivet av e3henri:

Så var det väl för 10-15 år sedan när lite mer avancerad Antialiasing skulle släppas på bred front. Grafikkorten gick fullständigt på knäna i nån generation innan det gick att använda det fullt ut.
Tycker dock nvidia gör helt rätt som pushar för kvalitetshöjande teknik per pixel istället för att bara pushat ut högre upplösning med mer fps.
Tror nog 1080p med riktig raytracing som du nämner ovan ser betydligt snyggare ut än vanlig rendering i 4k.

Visst är det kul att det går framåt, dock inte lika kul med priset man får betala för sånt som ses som onödigt av många. En riktig raytracing i 1080p är inte så lätt, nu kanske de har 0.25 rays per pixel i endast reflektioner på selektiva ytor, en riktig rendering skulle behöva kanske 16 rays per pixel över hela scenen, och möjligen en hel del bounces till om belysningen ska se okay ut. Om man fuskar tillräckligt och polerar bort artefakterna/pixligheten kanske man kommer lite lindrigare undan, men jag skulle nog vilja ha 100x mer prestanda i ett kort om det ska klassas som raytracing.

Permalänk
Medlem
Skrivet av sesese:

När Nvidia går över till 7 eller 5Nm i tillverkningsteknik så kommer RTX korten finnas i alla segment vilket kommer att göra serien mycket populär tror jag. Nvidia släppte 2000 serien minst ett år för tidigt där de var tvungen att tillverka kretsen med "gammal" teknik. Men det gynnar AMD som nu kan bedöma Nvidas framfart med RTX korten. (tvivlar på spel titlar sponsrade av AMD får RT)

Detta är en ganska bra poäng, men skulle gissa att enbart motsvarande 1000 seriens övre midrange i prisklass kommer få RTX på 7nm, och gemene dator (med nvidia kort) kommer stödja användbar RTX först ca 2 generationer efter det, i vilket läge fler spel kommer stödja tekniken i större utsträckning, tänk bara på hur länge det har tagit för VR att funka på övre midrange kort (970/1060 eller bättre) sedan tekniken först började finnas tillgängligt (dev kits under 3013).

Visa signatur

"Oh glorious cheeseburger… we bow to thee. The secrets of the universe are between the buns..."
"All my farts come straight from hell, you're already dead if you notice a smell"

Permalänk
Medlem
Skrivet av ottoblom:

@e3henri: Kan det vara så att du jämför ett 2070 med ett 1080 ? du borde jämföra det mot ett 1070 . Jag förstår att med dom grafikkorten du hade var det en bra uppgradering . Det går dock inte att jämföra mot dom som sitter med ett 1070 eller bättre . Priserna på 1070 är högre nu är när jag köpte för 2.5 år sen ….. Säger nåt om priserna .

De som sitter på 1070 eller bättre har ju redan bra grafikkort som klarar marknadens alla spel.

Vet inte om det har med åldern men jag har så svårt för att förstå varför man har behovet att ha alla inställningar på max för att kunna njuta av ett spel.

Jag är även genuint nyfiken på vad det är som driver en människa att betala 14k för ett grafikkort när samma spel går att köra för betydligt mindre peng.

Därmed inte sagt att det är något fel att göra det, var människa har rätten att spendera sina pengar än den behagar. Är som sagt mest nyfiken på drivkraften bakom köpet.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Ratatosk:

Skiter i hur dyrt det är att tillverka jag tänker ändå inte betala mer än det är värt.
Vega har dyrt HBM2, Primitive Shaders som inte används, HBCC minne som vi inte har nytta av ännu, allt detta kostar, ingen som tänker betala 10 000 kr för ett Vega 64 trots detta, 5000-6000 kr är vad de säljs för inte mer.

Har du redan glömt miningboomen?

Du kunde få 12-13 tusen för ett begagnat Vega64.
Sen allt du nämner är helt ointressant för gamers, ingen som tvingar AMD att sälja dessa kort till gamers heller.
HBM2 är inte så dyrt längre heller, så det argumentet håller ej.

Permalänk
Medlem

@Elektron: Jag känner själv att jag vill uppgradera 1070 räcker inte på långa vägar med en 1440p skärm om man vill ha höga fps . Dock så gav jag 3995 kr för över 2 år sen vilket gör det till ett bra köp med dom spelen jag spelade då .

Visa signatur

Dator 1 5800x 32 GB ram B550 plus TUF Kingston 3000 2048 GB EVO 870 QVO 4TB ASUS 370 ti TUF RM 750 X Corsair 4000D Airflow Noctua NH-D15S WIN 10 ASUS PG279Q skärm

Permalänk
Medlem
Skrivet av anon52343:

Lite äckligt att ni kallar raytracing i realtid för en "gimmick".

Men visst, priserna är för höga.

Det är exakt vad det är. För tillfället... eller du kanske menar att Raytracing är vida använt inom spelindustrin? :>

Skrivet av DaddyCoolSwe:

Blir så trött.. folk tänker/beter sig som det vore 1999 igen. En högkonjunktur kan inte stiga för evigt. nVidia är varken första eller sista bolaget som fått/får justera sin prognoser för dom närmsta åren.

Är dock ingen lågkonjunktur och när ett företag får justera sina prognoser när de sitter i Nvidias sits så är det någon som gjort en felberäkning.

Skrivet av Kaine_Uro:

Oftast är det väl inte heller husen som är själva grejen så att säga, utan tomten och dess läge.

Finns ett antal exakt identiska hus här i stan som skiljer något enormt i pris, på grund av placeringen av dem.

Inte bara tomter utan det kan vara lägenheter i samma trapphus bara för att den ena är vänd åt ett specifikt väderstreck. Minns att för ett par år sedan när man tittade på lägenheter i stan så kunde det skilja flera hundra tusen mellan olika lägenheter bara för att de låg en trappa över den andra.. annars var de identiska med varandra.

Skrivet av e3henri:

Så var det väl för 10-15 år sedan när lite mer avancerad Antialiasing skulle släppas på bred front. Grafikkorten gick fullständigt på knäna i nån generation innan det gick att använda det fullt ut.
Tycker dock nvidia gör helt rätt som pushar för kvalitetshöjande teknik per pixel istället för att bara pushat ut högre upplösning med mer fps.
Tror nog 1080p med riktig raytracing som du nämner ovan ser betydligt snyggare ut än vanlig rendering i 4k.

Som jag ser det så gjorde Nvidia ett stor misstag och det var att försöka lansera RT på bred front för tidigt utan någon som helst alternativ för de som inte ville punga upp ett stort prispåslag för en omogen teknologi. Detta gjordes antagligen för att Nvidia överskattade både prestandan man skulle få ut av korten men framförallt.. så överskattade de hur mycket mjukvara det skulle finnas som kunde utnyttja detta från dag ett. Det är ju ändå ganska talande att Nvidia idag mer fokuserar på DLSS än RT när RT var "The big new thing" med denna serie av kort och DLSS var snarare menad som en mindre sak.

Skrivet av dl380g7:

Vad innebär nu detta för oss dödliga? kommer priserna att störtdyka till normal nivå på konsument grafikkort det vill säga under 8000-10000? Eller vad kommer hända med dessa konsumentgrafikkort som ingen köper? Jag tycker priserna fortfarande är katastrofalt för högt.

Finns inga garantier för det. Nvidia sitter i sin egen lilla båt och man har råd att fullständigt ignorera marknaden.

Skrivet av Dinoman:

Källa på det?

Dessutom kostar Tesla V100 drygt 90 000:-.

Dessutom är det inte kortet man betalar för mest utan 24/7 service 365 dagar om året och diverse licenser.

Skrivet av Elektron:

De som sitter på 1070 eller bättre har ju redan bra grafikkort som klarar marknadens alla spel.

Vet inte om det har med åldern men jag har så svårt för att förstå varför man har behovet att ha alla inställningar på max för att kunna njuta av ett spel.

Jag är även genuint nyfiken på vad det är som driver en människa att betala 14k för ett grafikkort när samma spel går att köra för betydligt mindre peng.

Därmed inte sagt att det är något fel att göra det, var människa har rätten att spendera sina pengar än den behagar. Är som sagt mest nyfiken på drivkraften bakom köpet.

Skickades från m.sweclockers.com

För att folk vill ha fin grafik och bra flyt samtidigt? Vilket idag inte är direkt omöjligt och tills ganska nyligen inte överdrivet dyrt heller.

Skrivet av Ryzer:

Har du redan glömt miningboomen?

Du kunde få 12-13 tusen för ett begagnat Vega64.
Sen allt du nämner är helt ointressant för gamers, ingen som tvingar AMD att sälja dessa kort till gamers heller.
HBM2 är inte så dyrt längre heller, så det argumentet håller ej.

Miningboomen är över sedan tid tillbaka. Sedan HBM2 inte dyrt längre? I snitt är en 1GB HBM2 tre gånger så dyrt som lika stor mängd GDDR minnen. 8GB HBM2 kostar t.ex. $160.

https://www.fudzilla.com/news/graphics/43731-vega-hbm-2-8gb-m...

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Skrivet av wargreymon:

Enda vettiga jag läst i tråden. Vi sitter på ett teknikforum och skämmer ut företag som innoverar och kommer med revolutionerande teknik. Fy vad lågt det har gått när vi ska sakta ner utvecklingen så att folk kan få lite billigare kort till gammal teknik.

Vill ni veta vilka de riktiga pengakåta är? Miners! De förstörde hela systemet och det får alla andra sota för.

Tycker inte det är ett dugg lågt. Nvidia är ett företag med historiskt bra grafikkort, ett företag som är känt för sin girighet. I form av Nvidia partner program, priser etc. Nu lanserar de ett nytt kort som är alldeles för dyrt och har lagt till ny teknik för att få det sålt. 💄 på liket!

Fy för Nvidia och ekonomer som styr företag.

Skickades från m.sweclockers.com

Visa signatur

#nul

Permalänk
Medlem
Skrivet av Dinoman:

Ok, så efter ett antal kommentarer liknande denna i tråden så tröttnade jag lite på killgissandet och gav mig in i Nvidias finansiella rapporter. Så, ytterligare fakta kommer här.

https://i.imgur.com/921ozYw.png

Så en liten förklaring till engelskan;

Revenue = Intäkter
Cost of revenue = Kostnad för tillverkning och service (denna är intressant att ha koll på när vi pratar om tillverkningskostnader)
R&D = Forskning och utveckling
Net Income = Netto inkomst (alltså direkt vinst)

Var så goda att titta på staplarna och bilda er en uppfattning.

Min slutsats är att under de, tio år som det påstås att Turing varit under utveckling så kostnaderna för forskning & utveckling gått försiktigt uppåt med en skarp uppåt-trend 2013, vilket skulle kunna indikera Turing om vi ska tro på att det tar fem år att utveckla en GPU, sen planar det av lite granna och ligger ganska stabilt.

Tillverkningskostnaden har ökat dramatiskt från 2017 och framåt vilket kan indikera det faktum att Turing och Volta är dyra att tillverka.

Vad som är verkligen intressant dock är hur nettoinkomsten fullkomligt skjutit i höjden från 2016 och framåt, alltså då Pascal lanserades.

Tror vi fortfarande på att Nvidia "måste" ta sådana hutlösa priser för Turing? Jag tror att Nvidia valde att behålla samma GM (gross margin) på Turing som Pascal vilket har resulterat i så höga priser eftersom Turing är så pass mycket dyrare att tillverka. 471 mm² 14nm vs 754 mm² 12nm.

Intressant! Ja, det får väl antas att den lilla peaken är när de fokuserade mer kanske på Turing/Volta. Att kretsen varit under utveckling i tio år kanske man dock ska ta lite med en nypa salt, men har för mig att Jensen sa det på scen under avtäckningen. Sen kanske det inte forskats hejvilt i tio år som han mer eller mindre fick det att framstå som, det var väl tekniken som inte riktigt var på plats för att göra det genomförbart.

Pascal var ju en bra krets, men det har ju också blivit rejält dyrare. Det blir ju inte svårt att öka på sina marginaler när man är så pass dominant på grafikkortsmarknaden i det övre segmentet. Vi kan väl anta att det är där som de stora slantarna finns att hämta.

Ja, jag håller helt med dig angående Turings priser. Däremot var det en jättekonstig lansering som inte hade någon logik alls. 2080 Ti var det enda kortet som gav någon diskutabel prestandaökning, om än inte mycket att hurra för. Lägg där till att man pratade uteslutande om RTX och hur fantastisk tekniken var, vilket iofs inte går att säga något om - det är jätteimponerade!

Men det blir rätt tydligt att kortet inte skulle vara något att hänga i granen för någon som jagade prestanda och kanske funderade att byta från Pascal då vi inte fick några fps-siffror i spel under hela presentationen, däremot fick vi fakeade rtx off/on bilder som var direkt vilseledande om skillnaderna.

Utvecklarna hade dessutom precis fått börja experimentera med Real time raytracing och det skulle gå ungefär två månader efter lansering innan vi ens hade en produkt med stöd för det i BFV. En implementering som visuellt var ball, men det var sånt kraftig påslag på prestandan att en multiplayer shooter nog var det absolut sämsta spel att implementera det i då folk jagar hög och konstant fps snarare än fokus på ögongodis.

Btw, även om vi killgissat här så hade du trots allt rätt i ditt killgissande. Då får man väl typ lite internetpoäng och kvalificerar sig som legitimerad killgissare?

Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Medlem
Skrivet av Dalton Sleeper:

Visst är det kul att det går framåt, dock inte lika kul med priset man får betala för sånt som ses som onödigt av många. En riktig raytracing i 1080p är inte så lätt, nu kanske de har 0.25 rays per pixel i endast reflektioner på selektiva ytor, en riktig rendering skulle behöva kanske 16 rays per pixel över hela scenen, och möjligen en hel del bounces till om belysningen ska se okay ut. Om man fuskar tillräckligt och polerar bort artefakterna/pixligheten kanske man kommer lite lindrigare undan, men jag skulle nog vilja ha 100x mer prestanda i ett kort om det ska klassas som raytracing.

För att inte tala om att ljussättning via den traditionella arkitekturen kan se mycket, mycket bra ut. Så är det bättre att investera transistorerna i att få den befintliga pipelinen att köra bättre (vilket kommer alla spel till godo), eller skall man spendera dem på något som i praktiken inte fungerar effektivt, och knappt ens går att testköra mer än i någon enda titel?

Det är möjligt att raytracing kan utvecklas till något som ger generellt bättre resultat, till lägre transistor- och prestandakostnad än alternativen. Men vi är inte där, och det är långt ifrån givet att det någonsin händer. Om inte någon av nästa generations spelkonsoler (som i praktiken styr AAA produktionen) har en rendreringspipeline som förutsätter raytracing, kommer tekniken inte att kunna vara annat än en kuriositet det närmaste decenniet ungefär.

Själv har jag fortfarande inte sett någonting som får mig att tro att detta kommer att slå igenom generellt. På någon tidsskala.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Greyguy1948:

Men svenskarna har tydligen råd. Jag såg just att mest sålda grafikkortet på Webhallen är RX 2080 Ti.
Priset är ju relativt -Tesla V100 kostar 200 000 med 16 GB HBM2.....så kanske är RX 2080 Ti ett fynd?

Vi i Sverige köper ju generellt dyrare saker och 2080 Ti är ju det enda kortet i serien som ger prestandamässiga fördelar mot föregående generations kort.

Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Medlem
Skrivet av dl380g7:

Vad innebär nu detta för oss dödliga? kommer priserna att störtdyka till normal nivå på konsument grafikkort det vill säga under 8000-10000? Eller vad kommer hända med dessa konsumentgrafikkort som ingen köper? Jag tycker priserna fortfarande är katastrofalt för högt.

De kort NVidia har idag kommer knappast att gå ner i pris något nämnvärt (se diskussionen om storleken på de chippen). Däremot är det en ny produktlinje med mellanklasskort på gång.

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av EntropyQ3:

För att inte tala om att ljussättning via den traditionella arkitekturen kan se mycket, mycket bra ut. Så är det bättre att investera transistorerna i att få den befintliga pipelinen att köra bättre (vilket kommer alla spel till godo), eller skall man spendera dem på något som i praktiken inte fungerar effektivt, och knappt ens går att testköra mer än i någon enda titel?

Det är möjligt att raytracing kan utvecklas till något som ger generellt bättre resultat, till lägre transistor- och prestandakostnad än alternativen. Men vi är inte där, och det är långt ifrån givet att det någonsin händer. Om inte någon av nästa generations spelkonsoler (som i praktiken styr AAA produktionen) har en rendreringspipeline som förutsätter raytracing, kommer tekniken inte att kunna vara annat än en kuriositet det närmaste decenniet ungefär.

Själv har jag fortfarande inte sett någonting som får mig att tro att detta kommer att slå igenom generellt. På någon tidsskala.

Skickades från m.sweclockers.com

Problemet är ju utvecklarna inte hade fått börja testa tekniken när kortet lanserades mer eller mindre. Sen vet ju alla att det tar lång tid för ny teknik att slå igenom. Vid en snabbgoogling kan jag konstatera att det finns 29st spel som har släppts med stöd för DirectX 12, en teknik som lanserades med Windows 10, sommaren 2015.

Så köper man RTX-kort i hopp om att njuta av titlar med realtime ray tracing inom snar framtid är man rätt naiv. Jag tror dock stenhårt på tekniken, men det kommer att ta tid innan dels utvecklarna får kläm implementering och optimering, samt att jag undrar om dagens toppkort är tillräckligt starkt ändå. Först när vi når 1440p med minst 60fps på high/ultra tror jag det blir något som fler eftertraktar.

Men, jag tror inte vi kommer vara där innan nästa generations grafikkort.

Visa signatur

..:: trickeh2k ::..
Windows 11 Pro - Ryzen 7 7800X3D - ASUS TUF B650-PLUS - Kingston FURY Beast DDR5 64GB CL36 - MSI MAG A850GL - MSI RTX 4080 VENTUS 3X OC - Acer Predator XB271HU - ASUS VG248QE - QPAD MK-85 (MX-Brown)/Logitech G PRO Wireless - Samsung 960 EVO 250GB, Samsung EVO 860 500GB, SanDisk Ultra II 480GB, Crucial MX500 1TB, Kingston KC3000 2TB - Steelseries Arctic 5 - Cooler Master Masterbox TD500 Mesh V2

Permalänk
Hjälpsam

Lite off Topic:
Största problemet med DX12 är nog att inte Windows 7 stödjer det, MS har helt klart underskattat hur sugna folk var på att uppgradera till Windows 10.
Eftersom hälften av användarna inte har W10, är inte heller spelutvecklarna intresserade av att koda för DX12, de måste ändå koda för DX11, eftersom de inte vill exludera hälften av sina möjliga köpare.
De flesta DX12 titlar vi sett, är DX11 med lite habrovinker för att DX12, man får då det sämsta av 2 värdar, för att DX12 måste lyfta skall det kodas och optimeras för DX12 redan från början.
Jämför med Vulkan som också är ett lågnivå API, Doom och Wolfenstein presterar kalasbra i dessa titlar.

Åter till RT:
Utvecklarna vill inte koda för DX12, eftersom bara hälften av oss kan köra DX12, hur många procent av oss kan köra DXR?
Enda orsaken till att någon vill koda för DXR i dagsläget, är att Nvidia betalar utvecklingen, jag har svårt att se något annat skäl.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |