Premiär! Fyndchans i SweClockers Månadens Drop

Nvidias nästa generations grafikkylare sägs bli en dyr pjäs

Permalänk
Medlem
Skrivet av Maaxan:

När det inte är dyrt nog.

Detta behöver ju dock inte betyda att det blir dyrare för oss.
Det ryktades ju redan att Ampere skulle bli billigare, detta kanske gör att de glider tillbaka till turings priser dock. Vilket är ledsamt.
Men jag kommer ändå sitta där med nästa Ti kort.

Synd att mitt 2080ti antagligen tappar typ 10.000 i värde.
Och även om jag säljer nu måste man ju ha något tills Ampere kommer, och då förlorar man nog det man tjänar på att sälja nu hur som helst.

Permalänk
Medlem

då gissar jag att det blir samma sak när 3000 serien släpps som när 2000 serien släpptes. Man får typ ingen mer prestanda för samma pengarna... än en gång värdelöst nvidia

Permalänk
Medlem
Skrivet av Nekrol:

Detta behöver ju dock inte betyda att det blir dyrare för oss.
Det ryktades ju redan att Ampere skulle bli billigare, detta kanske gör att de glider tillbaka till turings priser dock. Vilket är ledsamt.
Men jag kommer ändå sitta där med nästa Ti kort.

Synd att mitt 2080ti antagligen tappar typ 10.000 i värde.
Och även om jag säljer nu måste man ju ha något tills Ampere kommer, och då förlorar man nog det man tjänar på att sälja nu hur som helst.

Jag har också ett 2080ti, köpte mitt för bara några månader sedan för att orka dra runt en 2k 165hz skärm.
Jag visste att det inte direkt var en klok investering men när är någonsin elektronik det? Ska du ha en hobby där du inte vill tappa massvis med pengar över tid får du nog börja samla på hockey kort eller något.

Visa signatur

"De tillverkares komponenter som just jag råkar ha i min dator är bäst, det vet jag för jag var dum nog att betala för det" (:

Permalänk
Hedersmedlem
Skrivet av trattjaevel:

Jag har också ett 2080ti, köpte mitt för bara några månader sedan för att orka dra runt en 2k 165hz skärm.
Jag visste att det inte direkt var en klok investering men när är någonsin elektronik det? Ska du ha en hobby där du inte vill tappa massvis med pengar över tid får du nog börja samla på hockey kort eller något.

2k skärm ja... Det är ett lite luddigt begrepp.
En del tycker att det innebär 2560×1440. Andra använder det för att beskriva 2910×1080.
Mest rätt är kanske den oficiella 2048×1080 men det är väl mer av en formatstandard för innehåll och används inte i skärmtillverkning riktigt.
Jag vågar inte säga vad som är rätt eller fel. Men det kan innebära en del svårigheter i tolkningen av vad det innebär.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av Söderbäck:

2k skärm ja... Det är ett lite luddigt begrepp.
En del tycker att det innebär 2560×1440. Andra använder det för att beskriva 2910×1080.
Mest rätt är kanske den oficiella 2048×1080 men det är väl mer av en formatstandard för innehåll och används inte i skärmtillverkning riktigt.
Jag vågar inte säga vad som är rätt eller fel. Men det kan innebära en del svårigheter i tolkningen av vad det innebär.

Vet inte om du bara vill peka på "fel" eller om du verkligen inte förstod vilken av ovan nämnda jag syftade på då jag skrev 165hz efter.
Men jag trodde iaf det var rätt uppenbart.

Visa signatur

"De tillverkares komponenter som just jag råkar ha i min dator är bäst, det vet jag för jag var dum nog att betala för det" (:

Permalänk
Medlem

Hur många flänsar är det på det?

Permalänk
Hedersmedlem
Skrivet av trattjaevel:

Vet inte om du bara vill peka på "fel" eller om du verkligen inte förstod vilken av ovan nämnda jag syftade på då jag skrev 165hz efter.
Men jag trodde iaf det var rätt uppenbart.

Nä jag vet på riktigt inte vad 2k innebär i det här fallet.
Just för att olika personer använder samma begrepp för att beskriva olika upplösningar så blir det svårt att veta.

Uppdateringsfrekvensen på 165hz var däremot kristallklart från början ;).

Edit: Jag får be om ursäkt för sidospåret. Och frågan var nog lite för trubbig. Fair.
Men ja, 2K när man pratar skärmupplösning är inte självklart på samma sätt som 4K. Det finns ingen gemensam standard utan folk använder verkligen 2K för att beskriva både 1920*1080 och 2560*1440.

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Medlem
Skrivet av Reiker:

Kliver du upp till 4K upplösning så är det 2,25ggr mer pixlar än 1440p, alltså cirka 6,5x2,25=15Gb VRAM vid maxade spel som krävs. 5K finns ju också samt ultrawide som ger fler pixlar utöver detta. Kliver man sedan upp till 8K så renderas 4ggr mer pixlar än 4K så då behövs cirka 60GB VRAM under samma förhållande. Har man flera skärmar så blir ju detta mera...

OBS. pratar nu utan uppskalning eller andra sätt att spara på mängden pixlar som ska renderas vid högre upplösning.

Så där fungerar det inte. Grafikkortsdata som textures med mera ökar inte i storlek för att man höjer upplösningen. Om nu inte spelet har extra höguplösta texturer för 4K läge, men det lär vara väldigt sällsynt om det ens finns.

Det som ökar i storlek är frame buffer där bilden rendreras för visning på skärmen. Det kan röra som om några hundra MB till kanske upp till en eller att par GB mer, beroende på typ av anti aliasing och andra faktorer.

Här är ett test t.ex.
https://www.tweaktown.com/tweakipedia/89/much-vram-need-1080p...

Permalänk
Medlem

Mesigt att köpa ett 3090Ti. Alla fattar ju att 3090Ti superduper som kommer någon månad senare är grejen.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Lägg på den höga momsen så har ni ett kap....

Min smärtgräns för gpu är 7000 kr och då bör man få det bästa kortet, allt över det är överpris i min värld (såvida det inte handlar om två gpuer på samma kort). Egentligen tycker jag 6500 kr är för mycket, men man har ju inga andra hobbys. R9 295x2 gick på runt 13 vid lansering, vilket ändå är 6500 kr per kort. Sen att det var en stutter-fest är ju en annan sak...

Dessutom kommer konsolerna baseras på RNDA2, vilket gör att många nog kommer utveckla mot den hårdvaran. Får hoppas AMD får ordning på sina drivrutiner till lansering av RNDA2 så att det inte blir en RDNA1 i repris.

Visa signatur

Ryzen 7 5800x, lg 27gl850, rx 7800 xt

Permalänk
Medlem

Det blir säkert ett jätte bra kort men jag saknar behovet så även om det vore kul med uppgradering så tänker jag slita ett eller ett par år till på mitt 2080Ti

Permalänk
Medlem
Skrivet av trattjaevel:

Jag har också ett 2080ti, köpte mitt för bara några månader sedan för att orka dra runt en 2k 165hz skärm.
Jag visste att det inte direkt var en klok investering men när är någonsin elektronik det? Ska du ha en hobby där du inte vill tappa massvis med pengar över tid får du nog börja samla på hockey kort eller något.

Påstod aldrig att jag ångrar mitt köp.
Men det kommer vara betydligt mindre i andra hand tack vare att Ampere verkar bli en så stor uppgradering.
Och det är ju alltid tråkigt att få tillbaka mindre pengar än vad det hade gett från början.
Sånt man får leva med, räknar med att få typ 6-8 tusen för det ändå, ser det som 6-8 tusen jag inte behöver lägga på 3080ti.

Permalänk
Medlem

@magma86: Nuvarande generation baserades också på AMD, så gå inte och få några förhoppningar om att alla spel optimeras till AMD bara för att deras hårdvara sitter i konsoller.

Permalänk
Medlem

Najs! Allting under 19 999 kronor är ovärdigt. Ser fram emot när RTX-korten klassas som något exklusivt för överklassen och hamnar i paritet med Rolex och Porsche. Man ska behöva ett RTX 3090 för att anses vara lite finare och lite bättre än alla andra.

Visa signatur

12900K | 32GB 6000 DDR5 | 3090 FE | PG259QN |

Permalänk
Medlem

Har satt ett max tak 10000kr.
betalar inte mera för toppkortet.

Visa signatur

Morderkort: Gigabyte Z790 Gaming X AX - Processor: Intel Core i7 13700K 3.4GHz - Grafikkort: ASUS TUF GeForce RTX 4090 24GB Gaming - Interminne: Corsair 32GB (2x16) DDR5 6000MHz Vengeance - SSD: WD Black SN850X 1TB Gen 4 & Seagate FireCuda 510 SSD 2TB - Processorkylning: Arctic Liquid Freezer II 360 - Datorlåda: Lian Li PC-O11 Dynamic Svart - Nätaggregat: ASUS TUF Gaming 1000W Gold - Tillbehör: Mus: Logitech G Pro Wireless, G502 Wireless, Tangentbord: Logitech G915 TKL Lightspeed Tactile, Headset: SteelSeries Arctis Pro Wireless, Skärmar: LG 42" C2, Dell S2417DG 24" 1440p

Permalänk
Medlem
Skrivet av Daemon85:

då gissar jag att det blir samma sak när 3000 serien släpps som när 2000 serien släpptes. Man får typ ingen mer prestanda för samma pengarna... än en gång värdelöst nvidia

De prissätter inte grafikkort efter dina personliga kriterier vet du

Permalänk
Medlem
Skrivet av Novdid:

Baserat på den senaste demonstrationen från Epic med all geometri och högupplösta texturer verkar det som att för 4K och neråt så räcker 8GB. Mer än så verkar faktiskt inte behövas för det antal pixlar som visas.

Jag använder en CRG90 och jag kan maxa mitt grafikminne på 8gb (gtx 1080) ganska lätt och i många olika titlar så jag behöver definitivt mer VRAM

Permalänk
Medlem
Skrivet av effe0p:

Jag använder en CRG90 och jag kan maxa mitt grafikminne på 8gb (gtx 1080) ganska lätt och i många olika titlar så jag behöver definitivt mer VRAM

Det beror oftast på att spel är programmerade att utnyttja grafikminnet och inte tömma data i onödan. Effekten blir att allt minne ser ut att användas, men mycket av det är "cache". Lite på samma sätt som Windows gör med RAM.

Edit: Sen är det inte fel med mycket grafikminne ändå, speciellt från nästa år och framåt då konsolerna kommer ha 16GB som standard. Men man ska också tänka på att konsoler även behöver ha programdata i samma minne, medans PC kan använda RAM till väldigt mycket som inte behöver ligga i grafikminne.

Permalänk
Medlem
Skrivet av Nekrol:

De prissätter inte grafikkort efter dina personliga kriterier vet du

Nej men de får f** ta och kolla med min plånbok innan.

Visa signatur

"En superdator är en maskin som kör en ändlös slinga på bara två sekunder" - Okänd

Permalänk
Medlem

Det känns inte rimligt med tanke på att försäljningen gick ner iochmed överpriserna som togs för 2000-serien, inte heller när AMD har toppkort på gång. Antingen så är nVidia väldigt giriga och fullständigt övertygade om att de kommer att kunna behålla monopol i toppsegmentet eller så stämmer det helt enkelt inte.

Visa signatur

7800X3D//4090
MINT XFCE // W11 🤮

Permalänk
Medlem

SweClickbaiters. Vad håller ni på med?

Visa signatur

Ryzen 5 5600X/Noctua NH-D15S/XFX Radeon RX6950XT/Gigabyte B550M Aorus Elite/32GB Kingston HyperX 3600MHz/1TB Corsair Force MP600/Corsair HX1000i/Corsair 4000D Airflow/Valve Index

Permalänk
Medlem
Skrivet av firstofmay:

Det känns inte rimligt med tanke på att försäljningen gick ner iochmed överpriserna som togs för 2000-serien, inte heller när AMD har toppkort på gång. Antingen så är nVidia väldigt giriga och fullständigt övertygade om att de kommer att kunna behålla monopol i toppsegmentet eller så stämmer det helt enkelt inte.

Jag tror de är rädda för RDNA2 och har speccat om serien med ett snäpp större chip i varje modell. RTX3080 skulle ha fått GA104 eller GA103 från början, nu ser det ut som att det blir GA102. Ett monsterchip. även om dom kommer att stänga av delar av det så blir det varmt.

Nackdel: det blir dyrare än tänkt.
Fördel: man riskerar inte lika mycket att bli tvåa efter AMD.

Det sistnämnda är nog värre, därför man gör såhär.

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Känns inte rimligt att tillverkningskostnaden är 1500 kr. Då skulle 3000 kr av grafikkorten pris vara kylaren. 1500 + 60% marginal + 25% moms.

Visa signatur

Idag kom Athlon64

Permalänk
Medlem
Skrivet av trattjaevel:

Jag har också ett 2080ti, köpte mitt för bara några månader sedan för att orka dra runt en 2k 165hz skärm.
Jag visste att det inte direkt var en klok investering men när är någonsin elektronik det? Ska du ha en hobby där du inte vill tappa massvis med pengar över tid får du nog börja samla på hockey kort eller något.

Köp hifiprylar brukar hålla värdet ok

Permalänk
Medlem

Skulle NVLink eller SLI inte finnas på annat än 3090 då? Svårt att tro på detta, så länge 3090 inte är en dubbelgpu och därav dubbla minnesmängden.

Ett grafikkort som ska kunna leda bort 320-350w i värme känns inte kul även om det presterar riktigt bra. Känns som dom dragit upp strömbudgeten en hel del och kommer att köra på dynamiska klockfrekvenser och temperaturgränser, autoöverklockning, samt ta betalt för det. Dessutom måste de få plats med allt annat junk på kortet...

Permalänk
Medlem

Verkar som man får faktorera in priset för ett nytt nätagg i den totala kostnaden också. Jag har bara 850W...

Permalänk
Medlem
Skrivet av Knightmare:

Känns inte rimligt att tillverkningskostnaden är 1500 kr. Då skulle 3000 kr av grafikkorten pris vara kylaren. 1500 + 60% marginal + 25% moms.

Inte rimligt på 5000Kr kort, vad tror du dessa kommer att kosta?

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av DasIch:

Verkar som man får faktorera in priset för ett nytt nätagg i den totala kostnaden också. Jag har bara 850W...

nja, det verkar ju ligga runt 300 watt.
Ett 2080ti kan ju dra runt 280-300 watt så de verkar ha fått ner power draw som fan.
Jag kör på ett Evga G3 850 just nu, 9700K på 5GHz och ett 2080ti. Fungerar fin fint, kanske inte kommer köra någon extrem överklockning men lite OC på kortet klarar det nog av också.

Permalänk
Medlem

@Nekrol: mina personliga kriterier? Jag ser inte meningen med en ny generation om det är samma prestanda för samma pengar

Permalänk
Medlem
Skrivet av Söderbäck:

Nä jag vet på riktigt inte vad 2k innebär i det här fallet.
Just för att olika personer använder samma begrepp för att beskriva olika upplösningar så blir det svårt att veta.

Uppdateringsfrekvensen på 165hz var däremot kristallklart från början ;).

Edit: Jag får be om ursäkt för sidospåret. Och frågan var nog lite för trubbig. Fair.
Men ja, 2K när man pratar skärmupplösning är inte självklart på samma sätt som 4K. Det finns ingen gemensam standard utan folk använder verkligen 2K för att beskriva både 1920*1080 och 2560*1440.

1080p är enbart 80 pixlar ifrån 2K medan 1440p borde helt ärligt klassas som 2,5K, löjligt att avrunda så mkt nedåt.