Micron bekräftar GDDR6X för Geforce RTX 3090 – upp till 1 TB/s minnesbandbredd

Permalänk
Medlem
Skrivet av sarlucic:

Sänk upplösningen, sitt 20 cm längre ifrån skärmen, köp ett 3070, drick glögg.

Varför inte gå full circle och bara köpa en spelkonsol istället då?

Skrivet av Dalton Sleeper:

Känns som Nvidia sätter in en bromskloss för att någon ska vilja köra 4k-serien när den kommer... snåla på minne är det idiotiska man kan göra.

Vad behövde folk sina 8 GB VRAM till på Radeon R9 290X år 2013, och hur relevant är det kortet idag?

Permalänk
Medlem
Skrivet av Sveklockarn:

Vad behövde folk sina 8 GB VRAM till på Radeon R9 290X år 2013, och hur relevant är det kortet idag?

Vi ligger mitt i ett generationsskifte, mycket iom konsollerna. Tänk också på att ökning av texturstorlekar ofta fyrdubblar minnesmängden, från 1024 till 2048 eller från 2048 till 4k. Konsollerna siktar på högre upplösning samt högre bilduppdatering, med högre upplösning så behöver också texturerna ökas på, möjligen en LOD-nivå till. Snabbare kort kan också hantera mer komplexa material, lägg till en enda textur på objekt på nära håll, låt oss säga en blendtextur, eller kanske en blendtextur samt en rosttextur, det blir en del. Kanske vill vi ha mer detaljer längre bort nu när folk sitter på 30-80" på 4K.

Snabbare diskar är ju rätt bra, men det kommer ta ett tag innan alla PC hänger med konsollerna, och även fast man kan streama så sätter minnet stopp för hur mycket som kan visas på skärmen på varje frame. Förmodligen så streamar man smådelar av kartan och då blir det alla objekt på skärmen som får dela på minnet (färre unika material eller lägre upplösning).

PBR material har ju hängt med ett tag nu, men det är långt ifrån alla objekt som använder dom. Kör man riktiga materialen en bit längre bort så ökar minnesmängden drastiskt, ofta kör man upp till fem texturer på ett PBR material. Det vore ju lite kul om man kunde köra 8k texturer, typ dagens cinematic när man spelar.

Permalänk
Medlem
Skrivet av Dalton Sleeper:

Vi ligger mitt i ett generationsskifte, mycket iom konsollerna. Tänk också på att ökning av texturstorlekar ofta fyrdubblar minnesmängden, från 1024 till 2048 eller från 2048 till 4k. Konsollerna siktar på högre upplösning samt högre bilduppdatering, med högre upplösning så behöver också texturerna ökas på, möjligen en LOD-nivå till. Snabbare kort kan också hantera mer komplexa material, lägg till en enda textur på objekt på nära håll, låt oss säga en blendtextur, eller kanske en blendtextur samt en rosttextur, det blir en del. Kanske vill vi ha mer detaljer längre bort nu när folk sitter på 30-80" på 4K.

Jag tror inte på idén att köpa "framtidssäkra" lösningar, det är mest därför jag vänder mig emot onödiga minnesmängder. Nu kör jag visserligen bara 1440p, något jag förutser att jag kommer fortsätta med några år till i alla fall, men kan konstatera att jag inte stött på ett scenario ännu där 8 GB VRAM inte varit tillräckligt.

Precis som de är inne på i fredagspanelen så hamnar man lätt i sitationer där minnesmängden inte spelar någon roll eftersom prestandan ändå är inne på avdelningen "blädderblock". Om man kikar på SweClockers testsvit i höstas så kämpar ett 2080 Ti med att ens komma upp i 60 FPS @ 4K utan att ha detaljnivån på max, och om de har klarat sig på 11 GB så lär inte nästa generation behöva nära dubbla minnesmängden i de allra flesta scenarion.

Skrivet av Dalton Sleeper:

Snabbare diskar är ju rätt bra, men det kommer ta ett tag innan alla PC hänger med konsollerna, och även fast man kan streama så sätter minnet stopp för hur mycket som kan visas på skärmen på varje frame. Förmodligen så streamar man smådelar av kartan och då blir det alla objekt på skärmen som får dela på minnet (färre unika material eller lägre upplösning).

PBR material har ju hängt med ett tag nu, men det är långt ifrån alla objekt som använder dom. Kör man riktiga materialen en bit längre bort så ökar minnesmängden drastiskt, ofta kör man upp till fem texturer på ett PBR material. Det vore ju lite kul om man kunde köra 8k texturer, typ dagens cinematic när man spelar.

Jag gjorde nyligen en tråd om lagringstekniken på de nya konsolerna och vad det innebär för PC-spelare. Med ledning av vad jag har upptäckt så säger jag att PC-plattformen inte kommer att lyckas kompensera på något kostnadseffektivt sätt genom att bara ha mer VRAM. Samtidigt kommer det antagligen att ta flera år innan det kommer titlar som drar nytta av den nya konsoltekniken med att strömma resurser direkt mellan SSD och GPU.

Tills dess tror och hoppas jag att PC-plattformen får en motsvarande lösning. Sen är det såklart bra ju mer minne man har tillgängligt, men inte till vilket pris som helst. Om korten ska fördyras med flera tusen, alternativt äta upp marginalerna hos tillverkarna, för något som ytterst få använder, så är det ett mycket bättre alternativ att ha någon specialmodell för dem med dessa utökade krav.

Permalänk
Medlem

@Sveklockarn: Jo om konsolerna hade klarat 1080p med 120 hz på "ultra" så absolut, eller liknande på 2k upplösning, men icke!

Permalänk
Medlem
Skrivet av sarlucic:

@Sveklockarn: Jo om konsolerna hade klarat 1080p med 120 hz på "ultra" så absolut, eller liknande på 2k upplösning, men icke!

Jag vet inte om du kollat den länkade tråden, men den nya teknologin är att GPU kan hämta data direkt från SSD utan att gå via CPU, vilket ökar I/O-prestandan till en sån nivå att SSDn i praktiken kan fungera som ett utökat VRAM. Vad RDNA2-GPUn presterar i sig att svårt att förutsäga nu, men de kommer ha en betydande teknisk fördel över PC på den punkten för en tid framöver.

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag tror inte på idén att köpa "framtidssäkra" lösningar...

OK

Skrivet av Sveklockarn:

...men kan konstatera att jag inte stött på ett scenario ännu där 8 GB VRAM inte varit tillräckligt...

Varför är det så tror du?
Samt, hur länge vill du sitta med ditt kort?

Du skulle bara se hur mycket tweakande de gör för att få ut det sista lilla i prestanda samt minnesanvändning hur de paketerar datan i texturer samt vilket bitdjup de kör (normalmappar körs ibland med reducerat bitdjup samt två vektorer per pixel, tredje beräknas med kryssprodukten i shadern). Avståndet mellan uv-areor (användbar texturarea), återanvändning av textur samt hur texturdensiteten utnyttjas på olika ställen på asseten. Geometrin reducerar de i princip sönder till den graden där en box inte längre är en box, det finns inga trianglar kvar. Det är optimering i hästlängder vi pratar om, och detta ska ske på så extremt kort tid som möjligt (mantimmar). Red Dead Redemption samt Assassing Creed Odyssey är inget man pysslar ihop på ett par dagar. Ofta använder man loddar närmare skärmen än vad man borde göra, måna spel idag har synliga geometri samt texturpoppar.

Alla AAA studios tokoptimerar så mycket det går, varför? För att de vill att eländet ska se så bra ut samt flyta så bra som möjligt på dagens hårdvara, samt konsoller. Oftast bakas allt ihop till en mesh samt ett material där det är en textur per materialkanal, upplösningen är så låg de kommer undan med, ibland 512-1024 per textur på lite avstånd för en hel karaktär.

Vi får se en hel del ooptimerade assets som är hästlängder från gameready, dock vet studiona mycket väl vad de vill åstadkomma, de känner sin hårdvara och försöker punga ut så pass bra kvalite som möjligt utifrån spec. Ofta kommer assets direkt från 3d artisten, från 3ds Max eller Maya i råformat med alla högupplösta mesher samt material (komplexa HLSL shaders). Också UE4 men Unity börjar användas mer och mer, samt Blender.

Minne är inte heller helt relaterat till prestanda, vill du inte öka texturupplösningen så kan du lägga till flera texturer, dvs flera objekt som ser unika ut. Kanske några fler variationer på löv, gräs, sten eller brädor på huset? Alla krukor behöver inte se likadana ut, alla träd behöver inte ha samma texturer. All publik i FIFA, NHL eller F1 behöver inte se likadana ut.

Permalänk
Medlem
Skrivet av pytonOrm:

dessutom kommer inte rtx 3080 ti på tal om nu rtx 3090 blir namnet

Nvidias namngivning har redan förvirrat konsumenten, och produkten är inte ens släppt!

Permalänk
Medlem
Skrivet av Dalton Sleeper:

Varför är det så tror du?

En del av förklaringen är att det inte finns hårdvara som klarar att dra runt spel i den detaljnivån och upplösningen med någon meningsfull framerate. När man kollar aktuell Steam-statistik så sitter 94,88% på 1440p eller lägre, där den dominerande upplösningen fortfarande är 1080p (65.48%) med väldigt god marginal.

Skrivet av Dalton Sleeper:

Samt, hur länge vill du sitta med ditt kort?

Jag byter grafikkort allt oftare, även om den här generationen slog något slags rekord då jag inte hann ha mitt RTX 2080 i 1½ år ens, så byter jag efter senast 3 år med dagens utvecklingstakt. Tänk på de jag nämnde tidigare med sina R9 290X 8 GB som i de allra flesta fall inte haft någon som helst nytta av "övertaget" med mer VRAM, framförallt inte idag när kortet är sju år gammalt.

Skrivet av Dalton Sleeper:

För att de vill att eländet ska se så bra ut samt flyta så bra som möjligt på dagens hårdvara, samt konsoller.

Nu är det ju dock betydande skillnader mellan dagens konsolgeneration och en gaming-PC av någorlunda modernt snitt. Det positiva om något är att kunna skruva upp inställningarna på PC, tack vare att det inte är några portningar per se längre, men det ska ju fortfarande renderas med någon slags fart på skärmen. Om vi befann oss i en värld där toppgrafikkorten sprutade ur sig frames i 4K och högre upplösningar så kunde jag köpa att PC-spel förenklats för mycket... men nu är det ju inte så.

Skrivet av Dalton Sleeper:

Minne är inte heller helt relaterat till prestanda, vill du inte öka texturupplösningen så kan du lägga till flera texturer, dvs flera objekt som ser unika ut. Kanske några fler variationer på löv, gräs, sten eller brädor på huset? Alla krukor behöver inte se likadana ut, alla träd behöver inte ha samma texturer. All publik i FIFA, NHL eller F1 behöver inte se likadana ut.

Vad har du själv för gamingdator idag och vilken upplösning spelar du i?

Ju längre utvecklingen går, desto mer sannolikt är det att det kommer effektivare teknologier för att skapa skillnaderna du efterfrågar. Minnesmängden på grafikkorten kommer helt säkert att ha kommit ikapp innan vi är, särskilt där med tanke på att konsolerna som släpps i höst kommer påverka detaljnivån även för PC under en lång tid framöver. I det här fallet blir det till PC-plattformens fördel att det tar lite tid innan ny teknologi implementeras. Kolla bara på DX12 som exempel på hur lång tid det tar att rulla ut ny teknik i spel.

Permalänk
Medlem

Länken till Micron fungerar inte, den riktiga till "The Demand for High-Performance Memory" White Paper (PDF) - 3.23.2020 är denna. OBS! PDF...

Lägg märke till datumet, informationen har varit tillgänglig i nästan 5 månader

Visa signatur

Engineer who prefer thinking out of the box and isn't fishing likes, fishing likes is like fishing proudness for those without ;-)
If U don't like it, bite the dust :D
--
I can Explain it to you, but I can't Understand it for you!

Permalänk
Medlem
Skrivet av Harddrive:

Nvidias namngivning har redan förvirrat konsumenten, och produkten är inte ens släppt!

är inte förvirrad av namnen på korten utan mängden minnen som floreras hela tiden bättre vänta tills dom släpps så man får exakta informationen vad dom har

själv sitter jag på gtx 970 med 4gb så ett rtx 3080/3090 eller nya rtx titan "ampere" kort blir fin uppgradering i min burk just nu.

Visa signatur

[Intel Core i9@13900KF Raptor Lake@5,5Ghz Oc][Asus ROG Z790 HERO[G-Skill RGB 32GB 6600Mhz cL34][WD Back 2TB NvMe][2TB Samsung 970 Evo + 2x8Tb Samsung 870 Qvo spel disk][Msi RTX 4090 Gaming Trio-X][ASUS ROG Swift OLED PG48UQ][Windows 11][1000/1000Mbits Telia fiber][Razer Ornata Tangentbord.

Permalänk
Medlem
Skrivet av Chibariku:

Finns det RTX Titan med mindre minne? Annars är det ju svårt att avgöra hur mycket dyrare ett kort med 24 kontra 12 GB Vram skulle vara.

I princip är 2080 Ti ett RTX Titan med 11 GB VRAM. Visst, det är säkert en viss skillnad i yield för "felfria" kretsar som gör att Titan-kortet kan ha full uppsättning SM:s - 72 - jämfört med 68 för 2080 Ti, men i stort sett är det samma kort förutom minnet.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag tror inte på idén att köpa "framtidssäkra" lösningar, det är mest därför jag vänder mig emot onödiga minnesmängder.

Många använder grafikkort till mer än spel. Om man sysslar med VRAM-krävande saker är det synd att behöva vara hänvisad till de enormt mycket dyrare specialkorten Nvidia säljer. Nvidia prissätter ju dessa kort för företagskunder, där 50 000 kr är en piss i Mississippi, men har man en hobby som inte generererar inkomst, men ändå innebär att 11-12 GB är begränsande, är det surt. Därför anser jag att toppkorten, som ändå har en vettig prisnivå för en hobbyist, borde ha mycket mer VRAM. Jag hade tyckt att 16 GB vore minimum för en 2080 Ti-ersättare.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

Många använder grafikkort till mer än spel. Om man sysslar med VRAM-krävande saker är det synd att behöva vara hänvisad till de enormt mycket dyrare specialkorten Nvidia säljer. Nvidia prissätter ju dessa kort för företagskunder, där 50 000 kr är en piss i Mississippi, men har man en hobby som inte generererar inkomst, men ändå innebär att 11-12 GB är begränsande, är det surt. Därför anser jag att toppkorten, som ändå har en vettig prisnivå för en hobbyist, borde ha mycket mer VRAM. Jag hade tyckt att 16 GB vore minimum för en 2080 Ti-ersättare.

Vad är det för sysslor "många" använder sina grafikkort till förutom spel, där det behövs stora mängder VRAM? Jag är inte insatt.

AMD kommer säkert ha någon prisriktigare Radeon-modell med 16 GB VRAM inom en snar framtid, annars är det Titan som gäller hos Nvidia. Det är ju trots allt väldigt mycket vettigare att gamingprodukter är anpassade för just gaming, än att gamingkunderna ska betala ett premium för något de aldrig använder.

Permalänk
Medlem
Skrivet av Sveklockarn:

Vad är det för sysslor "många" använder sina grafikkort till förutom spel, där det behövs stora mängder VRAM? Jag är inte insatt.

Bl a 3D-rendering, viss videoredigering, förmodligen en hel rad saker jag inte har koll på.

Skrivet av Sveklockarn:

AMD kommer säkert ha någon prisriktigare Radeon-modell med 16 GB VRAM inom en snar framtid, annars är det Titan som gäller hos Nvidia. Det är ju trots allt väldigt mycket vettigare att gamingprodukter är anpassade för just gaming, än att gamingkunderna ska betala ett premium för något de aldrig använder.

AMD är helt ointressant eftersom de inte har CUDA.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av cyklonen:

Bl a 3D-rendering, viss videoredigering, förmodligen en hel rad saker jag inte har koll på.

AMD är helt ointressant eftersom de inte har CUDA.

Jag kan mycket väl ha fel men jag känner mig rätt övertygad om att de allra flesta som köper ett gamingkort inte har CUDA som huvudmål. Ser de det som en bonus? Absolut, men knappast till den grad att de vill betala ett saftigt premium för den funktionen. Det vore svårförsvarat ens om 50% av de som köpt ett x80Ti kort hade det som huvudmål.

Permalänk
Medlem
Skrivet av Kenneth:

Är inte så säker på att det kommer bli billigare. Troligen så kostar GDDR6X ganska mycket och skulle faktiskt inte bli förvånad om RTX 3090 kostar uppemot 20K, även om det skulle vara väldigt tråkigt

Skrivet av AplAy:

Första april 2021 kom tidigt i år, men jag hoppas att du har rätt!

...än de 20GB som det snackades om tidigare Borde vart tydligare att jag menade jämförelsen mellan 12GB och 20GB.

Ang 20k priset, ingen kommer ju att köpa kortet då Smärtgränsen är redan nådd, 2080Ti blev ingen storsäljare direkt, varför göra ett kort med ett ännu mindre attraktivt pris? Var ju dessutom någon sida som antydde att toppmodellen kommer att bli billigare än 2080Ti, däremot skulle resterande kort bli dyrare än nuvarande modellerna vilket låter vettigt på ett sätt. nVidia säljer ju mest mellanklass modeller varför dessa om något blir dyrare. 2080Ti priset var nog ett experiment som inte gick så bra.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av Mocka:

Smärtgränsen är redan nådd, 2080Ti blev ingen storsäljare direkt,

Om man kollar på Mindfactorys siffror (med försäljnings-/RMA-statistik) så har de sålt nästan lika många 2080 Ti (11,65%) som de sålt 2080/2080S (13%), så priset verkar inte ha varit något större hinder.

Skrivet av Mocka:

Var ju dessutom någon sida som antydde att toppmodellen kommer att bli billigare än 2080Ti, däremot skulle resterande kort bli dyrare än nuvarande modellerna vilket låter vettigt på ett sätt.

Det faktum som folk gillar att förbise är att toppmodellen alltid får en rejält saltad prislapp i Sverige.

Jag köpte två kort ur 900-serien vid respektive korts release, först GTX 980 (MSRP $549) för 5595 kr och sen GTX 980 Ti (MSRP $649) som plötsligt kostade 8200 kr... istället för ca 6615 kr som det borde ha kostat om man tillämpat samma "dollarkurs".

Problemet, om vi uttrycker det så, är att folk både har råd och vill betala för att få det bästa... priserna blir därefter.

Permalänk
Medlem

Priserna har nog varit ganska konstanta i genomsnitt justerat för inflation, men dollarkurs varierar kraftigt och på sista tiden har den varit väldigt hög. Inflation är inte samma i USA och EU heller, och korten prisätts i USD.

Nvidia är varken elaka eller snälla, de gör affärer. När de haft överlägsna produkter, har de tagit ut höga priser (8800GTX, 2080ti tex), och när AMD utpresterat dem har de satt låga priser. (geforce 200 och 400 tex).
Ser man på grafen ovan, så har priserna varierat med prestandakonkurrens, men över hela nvidias historia varit ganska jämn - gamla geforce 2 kostade lika mycket som 1080ti justerat för inflation och dollarkurs.

Skall man vara arg på någon för svag svensk köpkraft så skall man nog se på ~50 år+ av odugliga regeringar. En så enkel sak som att binda kronan till euron, som danmark gjort (± 2.25%), hade gett 30-50% starkare krona. Personligen hade jag velat ha sverige ur eu, men om man skall vara med kan man ju göra det ordentligt och inte ha ett minikrig mot euron.

Permalänk
Medlem
Skrivet av Sveklockarn:

.Det faktum som folk gillar att förbise är att toppmodellen alltid får en rejält saltad prislapp i Sverige.

Jag köpte två kort ur 900-serien vid respektive korts release, först GTX 980 (MSRP $549) för 5595 kr och sen GTX 980 Ti (MSRP $649) som plötsligt kostade 8200 kr... istället för ca 6615 kr som det borde ha kostat om man tillämpat samma "dollarkurs".

Problemet, om vi uttrycker det så, är att folk både har råd och vill betala för att få det bästa... priserna blir därefter.

Varför skulle de tillämpat samma dollarkurs vad två helt olika tidpunkter?

Kronan sjönk som en sten under denna period.

Permalänk
Medlem
Skrivet av Mocka:

...än de 20GB som det snackades om tidigare Borde vart tydligare att jag menade jämförelsen mellan 12GB och 20GB.

Ang 20k priset, ingen kommer ju att köpa kortet då Smärtgränsen är redan nådd, 2080Ti blev ingen storsäljare direkt, varför göra ett kort med ett ännu mindre attraktivt pris? Var ju dessutom någon sida som antydde att toppmodellen kommer att bli billigare än 2080Ti, däremot skulle resterande kort bli dyrare än nuvarande modellerna vilket låter vettigt på ett sätt. nVidia säljer ju mest mellanklass modeller varför dessa om något blir dyrare. 2080Ti priset var nog ett experiment som inte gick så bra.

Flaggskepp brukar inte vara storsäljare eller där dom får in mest pengar. Flaggskepp bär "flaggan" som säger vi är bäst. Möjlig slogan för billigare kort: "köp 3050ti idag av nvidia som gör världens snabbaste kort och krossar motståndet"
Bara vi nurds som köper flaggskepp i de flesta fall.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av ipac:

Varför skulle de tillämpat samma dollarkurs vad två helt olika tidpunkter?

Kronan sjönk som en sten under denna period.

Om man tar hänsyn till förändringen i den faktiska dollarkursen och kör samma påslag som för GTX 980 så borde 980 Ti-kortet ha kostat 7000 kr, men det var ett räkneexempel för att illustrera att toppmodellens prislapp saltas extra i Sverige. Samma fenomen kunde observeras med 20-serien, där 2080 ($699) kunde köpas för 8000 kr samtidigt som 2080 Ti ($999) kostade över 13000 kr.

Permalänk
Medlem
Skrivet av Sveklockarn:

Om man kollar på Mindfactorys siffror (med försäljnings-/RMA-statistik) så har de sålt nästan lika många 2080 Ti (11,65%) som de sålt 2080/2080S (13%), så priset verkar inte ha varit något större hinder.

Jo men var det inte så att det var några procent sälda 2080Ti och resten låg på alla modeller som trots allt har en prislapp under 10k istället för 14-15k?

Skrivet av Sveklockarn:

Det faktum som folk gillar att förbise är att toppmodellen alltid får en rejält saltad prislapp i Sverige.

Jag köpte två kort ur 900-serien vid respektive korts release, först GTX 980 (MSRP $549) för 5595 kr och sen GTX 980 Ti (MSRP $649) som plötsligt kostade 8200 kr... istället för ca 6615 kr som det borde ha kostat om man tillämpat samma "dollarkurs".

Problemet, om vi uttrycker det så, är att folk både har råd och vill betala för att få det bästa... priserna blir därefter.

Jag tycker inte att de 8200kr jag betalade för 1080Ti var SÅ mycket. Iaf jämfört med 980Ti jag köpt generationen tidigare. Denna gången fick jag betala 14350kr vilket är 6150kr mer och nu säger folk att 3090 ska kosta 20k vilket är 5650kr mer. Är det inte lite väl stora hopp...flaggskepp eller inte?

Skrivet av Aka_The_Barf:

Flaggskepp brukar inte vara storsäljare eller där dom får in mest pengar. Flaggskepp bär "flaggan" som säger vi är bäst. Möjlig slogan för billigare kort: "köp 3050ti idag av nvidia som gör världens snabbaste kort och krossar motståndet"
Bara vi nurds som köper flaggskepp i de flesta fall.

Samtidigt måste det vara ett skäligt pris då 2080Ti inte marknadsförs som någon lyxprodukt eller premiumprodukt utan just bara som ett flaggskepp i en gamingserie. Titan är väl just lyxprodukten som väldigt få har råd med.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem
Skrivet av Mocka:

Samtidigt måste det vara ett skäligt pris då 2080Ti inte marknadsförs som någon lyxprodukt eller premiumprodukt utan just bara som ett flaggskepp i en gamingserie. Titan är väl just lyxprodukten som väldigt få har råd med.

2080ti är premium i gaming segmentet och det näst bästa du kan få tag i idag. titan är marginellt snabbare MEN har massiva mängder vram som få som spelar behöver idag.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

Micron-minnen? Var det inte något strul med dessa förr? Minns iaf att man ville ha Samsung på 1070 back in the good old days men det är ju så klart 4 år sedan nu iof. Har Micron fixat "problemet" sen dess? Helt out-of-date här känner jag.

Visa signatur

8700K 5GHz | GeForce GTX960 4GB WFOC | Corsair Vengeance LPX 16GB 3200MHz | Windows 11

Permalänk
Medlem
Skrivet av JonasT:

Vi diskuterade på kontoret idag kring varför det inte finns någon som helst information kring GDDR6X utöver RTX 3000-läckorna. Kul att det äntligen bekräftades och det ska bli oerhört intressant att se det in action i höst!

Tur att du fick en lång och lugn semester denna sommar. Något säger mig att det kommer bli långa dagar inom kort.

Permalänk
Redaktion
Praktikant ✨
Skrivet av m0rk:

Tur att du fick en lång och lugn semester denna sommar. Något säger mig att det kommer bli långa dagar inom kort.

Ser helt klart ut att bli en galen höst/vinter!

Permalänk
Medlem
Skrivet av Dalton Sleeper:

OK

Varför är det så tror du?
Samt, hur länge vill du sitta med ditt kort?

Du skulle bara se hur mycket tweakande de gör för att få ut det sista lilla i prestanda samt minnesanvändning hur de paketerar datan i texturer samt vilket bitdjup de kör (normalmappar körs ibland med reducerat bitdjup samt två vektorer per pixel, tredje beräknas med kryssprodukten i shadern). Avståndet mellan uv-areor (användbar texturarea), återanvändning av textur samt hur texturdensiteten utnyttjas på olika ställen på asseten. Geometrin reducerar de i princip sönder till den graden där en box inte längre är en box, det finns inga trianglar kvar. Det är optimering i hästlängder vi pratar om, och detta ska ske på så extremt kort tid som möjligt (mantimmar). Red Dead Redemption samt Assassing Creed Odyssey är inget man pysslar ihop på ett par dagar. Ofta använder man loddar närmare skärmen än vad man borde göra, måna spel idag har synliga geometri samt texturpoppar.

Alla AAA studios tokoptimerar så mycket det går, varför? För att de vill att eländet ska se så bra ut samt flyta så bra som möjligt på dagens hårdvara, samt konsoller. Oftast bakas allt ihop till en mesh samt ett material där det är en textur per materialkanal, upplösningen är så låg de kommer undan med, ibland 512-1024 per textur på lite avstånd för en hel karaktär.

Vi får se en hel del ooptimerade assets som är hästlängder från gameready, dock vet studiona mycket väl vad de vill åstadkomma, de känner sin hårdvara och försöker punga ut så pass bra kvalite som möjligt utifrån spec. Ofta kommer assets direkt från 3d artisten, från 3ds Max eller Maya i råformat med alla högupplösta mesher samt material (komplexa HLSL shaders). Också UE4 men Unity börjar användas mer och mer, samt Blender.

Minne är inte heller helt relaterat till prestanda, vill du inte öka texturupplösningen så kan du lägga till flera texturer, dvs flera objekt som ser unika ut. Kanske några fler variationer på löv, gräs, sten eller brädor på huset? Alla krukor behöver inte se likadana ut, alla träd behöver inte ha samma texturer. All publik i FIFA, NHL eller F1 behöver inte se likadana ut.

Var på ett föredrag för ett tag sen med en av de som jobbat med filmen Hitta Nemo. Han trodde inte att realtidsanimering av film skulle komma på bra länge. Bara texturen på själva Nemo var runt 10 GB. Tiden för att rendera en bild skulle helst inte överskrida 8 timmar för då kunde man starta renderingen när man gick hem för dagen och sen var resultatet färdigt på morgonen dagen efter så man kunde se hur det blev utan extra väntan på att det skulle blir klart.

Permalänk
Medlem
Skrivet av Mocka:

Jag tycker inte att de 8200kr jag betalade för 1080Ti var SÅ mycket. Iaf jämfört med 980Ti jag köpt generationen tidigare. Denna gången fick jag betala 14350kr vilket är 6150kr mer och nu säger folk att 3090 ska kosta 20k vilket är 5650kr mer. Är det inte lite väl stora hopp...flaggskepp eller inte?

Detta har sagts före de senaste Nvidia-releaserna, men jag tvivlar väldigt starkt på den prisnivån.

Inte ens AdoredTV tror på något massivt prishopp.

Permalänk
Medlem

Skall nvidia chansa med micron igen, kommer ju ihåg hur det blev på 2XXX serien när de lanserades

Visa signatur

10900K @ 5.3GHz || Asus Maximus XII Hero || Custom Loop || EK-CoolStream RAD XE 360 + Alphacool Nexxos XT45 || EK Quantum Velocity CPU Block || EK FLT 360 D5 || Asus Strix RTX 3090 OC || 32GB g.skill Trident-Z CL16 @ 4000MHz || 1TB Samsung 970 EVO Plus - 1TB WD SN750 || Phanteks Enthoo Pro 2 || Seasonic Prime TX 1000W || Asus PG27VQ ||