AMD Radeon R9 Fury X

Permalänk
Medlem

Hmmm.. det känns som om NordicHardware är mer positiva till kortet ifråga. Kan det bero på att på det forumet så har NVidia inte en "egen avdelning":

http://www.sweclockers.com/nyhet/20407-nvidia-kliver-in-pa-sw...

.

Visa signatur

AMD Thunderbird 1.33 GHz (133 MHz Bus), Epox 8K7A, 1 x 256MB Corsair PC2100 DDR SDRAM, 20.5GB 7200 RPM Western Digital EIDE, Visiontek GeForce 3

Permalänk
Medlem

Tror att om dom släppt det för runt 6k hade dom sålt hur många som helst, tills nVidia sänker priset på sina 980ti. Just nu köper jag iaf hellre ett 980ti, och överklockar det för extra prestanda.

Permalänk
Medlem
Skrivet av Yoshman:

Med tanke på hur Fury står sig pris- och prestandamässigt mot 980ti så håller jag med, ingen kan säga med säkerhet hur VRAM användningen blir i framtiden, finns ju inget i resultaten som talar emot 980ti och då har man en "försäkring" i mer VRAM och en bättre upplevelse idag.

Det som nog svider extra i TR resultatet är att Fury X trots allt levererar bättre 1%-worst case FPS än R9 290x, i den senare har man haft rätt gott om tid att optimera drivers. 980 blir i sin tur slagen en hel del på denna punkt av 980ti/Titan X (som har i princip identiskt resultat), så uppmätt "mjukheten" i 4k är bättre på motsvarande prissatt Nvidia-kort i dagsläget.

Jag håller helt med. Sen kan jag vara lite skadad sedan köpet av GTX 680. Räckte till 1440p när det kom, sen ett år senare började vissa titlar ta 2,5GB+. Det har jag ångrat bittert i ett år och avstått titlar som Watch Dogs, Far Cry m.fl. på grund av just detta. I protest mot mig själv

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem
Skrivet av SweMerlin:

Hmmm.. det känns som om NordicHardware är mer positiva till kortet ifråga. Kan det bero på att på det forumet så har NVidia inte en "egen avdelning":

http://www.sweclockers.com/nyhet/20407-nvidia-kliver-in-pa-sw...

.

Kanske. Jag upplevde det som att i takt med att hypen ökade på Sweclockers så pumpade de ut recensioner på bättre och bättre 980Ti-kort. Samtidigt som de hackade på allt negativt bland ryktena kring Fury X. Vet inte hur många gånger de nämnde "bara 4GB".

Kanske tanken var god så här med facit i hand, för att få ner hypen.

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Medlem
Skrivet av SweMerlin:

Hmmm.. det känns som om NordicHardware är mer positiva till kortet ifråga. Kan det bero på att på det forumet så har NVidia inte en "egen avdelning":

http://www.sweclockers.com/nyhet/20407-nvidia-kliver-in-pa-sw...

.

åhh snälla...

Permalänk
Hjälpsam
Skrivet av vrmlnd:

Håller med andra här, kanske lite tidigt att dömma kortet... Men detta bådar inte gott, postades det inte benchmarks här där Fury X skulle slå 980ti?

Så dåligt är det inte, det slår GTX980Ti i höga upplösningar om än knappt, GTX980Ti är dock aningen bättre i lägre.
http://www.sweclockers.com/test/20730-amd-radeon-r9-fury-x/17...

Den här skitstormen vi sett i tråden, är absolut inte befogad.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av femkantig:

det där oljudet hade jag aldrig stått ut med, eller skickar de med öronkåpor till det priset också? effektmätningen är inte helt rättvis då kortet har 50% eller 100% färre minneskretsar att driva än 980 ti respektive titan x.

Minneskretsarna ensamt står för 30 watt mot 15, så är något mer som antingen drar ström för Gddr5 eller optimeringar.

Skrivet av Bascule666:

Var väldigt nyfiken på prestandan efter all hype och gillar även nya tekniklösningar. Efter de tester jag nu läst så var det mest hype och inte så mycket verkstad tyvärr. Helt OK krets, kass totallösning (vad hände med den utlovade överklockningen på E3?). AMD borde haft en 20% bättre lösning än Nvidia för att lyckas rent marknadsmässigt. Hoppas de kan studsa tillbaka, annars verkar det kört för AMD.

Sedan börjar jag reta mig på alla uttalanden på Swecklockers angående grafikminnets betydelse. Det jag specifikt stör mig på är alla hundratals inlägg som låter typ "4GB kanske kan räcka men ska du köra SLI/CF så är det helt kört då behöver du mycket mer minne". Har läst samma/liknande inlägg oändliga gånger senaste tiden. Har alla ni som uttalat er testat 2 eller flera grafikkort?

Myten att två eller flera grafikkort i SLI/CF skulle automatiskt kräva mer grafikminne är fel , det är helt beroende på hur du väljer att utnyttja den ökande prestandan. Väljer du att öka upplösning eller att köra med högre antialiasing (typ att öka från 2x MSAA till 16X MSAA) eller kanske att använda extremt högupplösta texturer så kommer det att användas mer grafikminne. Väljer du att istället öka frameraten på befintliga inställningar så krävs inte det inte en enda MB extra minne.

Några exempel där minnet inte spelar någon roll:

1. Kör Crysis 3 i 1440p med ett GTX 980 i Ultra med taskig framerate (beroende på prestanda ej minne). Lägger till ett kort och nästan dubblar prestandan (inget extra minne behövs). Lägger till ett kort till och ökar ytterligare frameraten utan att använda en enda extra MB minne.

2. Spelar Witcher 3 med allt på max (inkl. Hairworks) i 1440p och får usel prestanda. Klipper i ett eller två extra kort och lyfter frameraten ordentligt utan att använda något extra minne.

3. Kör GTA V i 1440p med allt maxat utan antialiasing (kör FXAA) och hackar mig fram. Trycker i ett eller två extra kort och allt flyter på som attan utan att minnet som behövs på något sätt påverkas.

Några exempel där det kan spela roll:

1. Du vill köra mycket högre upplösning än du kör nu, typ öka från 1080p till 2160p med samma grafikinställningar.

2. Du kör redan 2160p men vill köra med extra antialiasing vilket kräver mycket minne.

3. Det kommer nya spel som fullkomligt äter grafikminne (på riktigt, inte bara allokerar minne).

Kör själv just nu 3st GTX 980 i 3-Way SLI, vilket totalt sett blir 4GB grafikminne. Har aldrig stött på något spel i 1440p där mängden minne på något som helst sätt skapat ett problem.

TL;DR Sluta vara så tvärsäkra angående minnet på grafikkort. Flera grafikkort i SLI/CF kräver inte av automatik mer grafikminne.

Nä, men oftast går man upp i upplösning när man kör flera kort. Är i alla fall den allmänna uppfattningen/myten.. Förr behövde man mycket minne för att köra flera skärmar, idag för att driva 4k typ Men är ju mycket där i mellan så klart.

Men tycker personligen det låter klent med 4Gb minne (inte för dagens titlar utan dom man troligen kommer köra om något/några år).

Visa signatur

Min spel rigg:FD Define R4|VX 550W|i5 2500K|Corsair LP 4GBX2|Mammabräda P67 Extreme4|GTX 670 windforce|23tum u2312hm
Min gamla/HTPC:AMD 6000+|Ram 2GbX2|Radeon HD5770| XFX 450/nu XFX 550
Mitt bygge: ByggloggFri frakt INET:Fraktfritt sweclockers vid köp över 500kr

#Gilla inlägg som är bra & Använd citera/@"namn" vid snabbt svar

Permalänk
Medlem

Det r9 fury har mot 980 ti är väl kylarlösningen. Jag hade valt Nvidia för att slippa vattenkylaren.

Permalänk
Medlem
Skrivet av Ratatosk:

Så dåligt är det inte, det slår GTX980Ti i höga upplösningar om än knappt, GTX980Ti är dock aningen bättre i lägre.
http://www.sweclockers.com/test/20730-amd-radeon-r9-fury-x/17...

Den här skitstormen vi sett i tråden, är absolut inte befogad.

Tror att de flesta "gamers" fortfarande använder skärmar med 144Hz 1080p, i det fallet är Fury X endast ~14% snabbare än 390X. Trots att det ska vara en "överklockares dröm" så tror jag att ett maxat 390X kommer hyfsat nära ett överklockat Fury X vid ovan nämnda upplösning...

Jag tror fortfarande att kortet är mycket bra, men lanseringen blev riktigt dålig p.g.a. en kylare som aldrig borde ha gått igenom kvalitetskontrollen och sunkiga drivrutiner. Med tiden tror jag att kortet kommer få vad det förtjänar, men det finns ingen garanti. Jag kan endast bedöma vad jag ser i dag och spekulera i framtiden.

Visa signatur

Arch Linux - i5 12500@4.75GHz - Asrock B760M PG Riptide - 32GB DDR5 6000MHz - RTX 2070 Super - 1TB SN770 - 1TB SN550 - U32PWQU 4K
Dell Latitude 7400 2 in 1 - Arch Linux - i5 8265u

Permalänk
Medlem

Jag tänkte uppgradera mitt R9 290 antingen till ett GTX 980 Ti (EVGA's SC+ ACX 2.0+ lösning) eller ett R9 Fury X. Jag beställde EVGA:t för några dagar sedan men det är inte skickat än, så möjligheten till att enkelt avbeställa kortet fanns.

Nu när jag har läst recensionerna av båda, så kan jag med gott samvete låta min beställning på 980 Ti:t ligga.
Som FYNXER skrev tidigt i denna nyhetsartikeln;

Skrivet av anon162230:

Äntligen är Fury X här. Nu köper jag en 980Ti.

Fördelar med EVGA 980 Ti SC+ ACX 2.0+:

*Betydligt bättre prestanda i 1080p och 1440p. (4K är totalt ointressant för min egen del, men även där är SC+ ACX bättre.)
*Betydligt bättre OC-potential.
*Betydligt tystare.
*Jag slipper vatten i chassit. (Ja, det finns dom som inte vill ha vattenkylt.)

Fördelar med R9 Fury X:

*...Jag stödjer AMD?

Båda korten behöver ungefär lika mycket ström, och prisskillnaden blir för min egen del försumbar (skiljer inte många kronor.)

Nu är det fullt möjligt att AMD fixar både ljudnivån för de kort som hamnar i butikerna, och att prestandan för kortet blir bättre när drivrutinerna har slipats till, men det är inget som hjälper mig som behöver prestandan nu.

I ärlighetens namn så ser jag ingen fördel med att köpa ett R9 Fury X över ett GTX 980 Ti med eftermarknadskylare just nu, tyvärr. Jag höll tummarna för AMD, på riktigt, men det hjälpte inte. (Nej, att köpa ett R9 Fury X enbart att stödja AMD är inget argument som håller.) Fury X är ett intressant kort, men som Emil sa i podcasten; "Kretsen är grym, men paketeringen är inte särskilt bra, tyvärr."

Måtte R9 Nano och R9 Fury med eftermarknadskylare bli riktiga storsäljare (Fury utan X kan bli en riktig storsäljare då den hamnar i ett segment där Nvidia inte har något att komma med), men för mig som vill ha den bästa prestandan och den smidigaste lösningen så finns det tyvärr bara ett alternativ just nu.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Datavetare
Skrivet av Lifooz:

Nu får ni allt dra på läpparna lite, kortet är ju tvärnytt och förmodligen LÅÅÅÅÅÅÅNGT ifrån så optimerat som det går att få det med drivare.

Tänk på hur AMD´s medel ser ut så kommer vi snabbt fram till att det är oerhört bra lyckat ändå.

/Lifooz

För att sätta det i relation till hur pass mycket man kan förvänta sig från drivare så har eTeknix gjort en jämförelse förra året mellan drivaren som fanns när HD7970 resp 290x lanserades med den som var aktuell vi testtillfället.

För HD7970 ser man ett klar förbättring, för 290x var det i princip ingen skillnad alls. I grunden är det väldigt mycket som är samma för alla GCN-kort, drivarna för denna arkitektur borde i detta läge vara väldigt mogna. Visst kan det komma förbättringar för specifika saker i specifika titlar, men man ska nog inte vänta sig något revolutionerande.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Hjälpsam
Skrivet av Fire_Ice:

Tror att de flesta "gamers" fortfarande använder skärmar med 144Hz 1080p, i det fallet är Fury X endast ~14% snabbare än 390X. Trots att det ska vara en "överklockares dröm" så tror jag att ett maxat 390X kommer hyfsat nära ett överklockat Fury X vid ovan nämnda upplösning...

Jag tror fortfarande att kortet är mycket bra, men lanseringen blev riktigt dålig p.g.a. en kylare som aldrig borde ha gått igenom kvalitetskontrollen och sunkiga drivrutiner. Med tiden tror jag att kortet kommer få vad det förtjänar, men det finns ingen garanti. Jag kan endast bedöma vad jag ser i dag och spekulera i framtiden.

Å andra sidan är GTX980Ti bara 23% snabbare än ett GTX980 i den upplösningen, det är väl lite så, att de dyrare korten ger ganska lite för pengarna, speciellt i lägre upplösningar.

Kylaren håller jag med om, det hade inte krävts mycket, för att justera fläkt och pumpkurvan bättre.
Drivrutinerna håller jag inte med om, det tar längre tid att finslipa dem, det viktigaste är först och främst att de är stabila.
Ja vi får se hur det blir i framtiden, mycket kan hända och händer vi kommer ju tex få en ny version av Windows.
Tycker själv att kyllösning via luft känns mer stabil, med tanke på den att Fury inte är speciellt törstig, borde bra lösningar inte vara speciellt svåra, blir intressant att se de andra korten i familjen om en månad.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk

Fan vad sug!!!

Jag hade förväntat mig något som skulle piska alla nvidia saker.

Dock tror jag detta kort kommer bli grymt med 8 gig minne

Visa signatur

Live for fun, Loyal to none

Permalänk
Medlem
Skrivet av Ratatosk:

Så dåligt är det inte, det slår GTX980Ti i höga upplösningar om än knappt, GTX980Ti är dock aningen bättre i lägre.
http://www.sweclockers.com/test/20730-amd-radeon-r9-fury-x/17...

Den här skitstormen vi sett i tråden, är absolut inte befogad.

Varför jämför du inte mot 980ti tredjepartskort? Jämför mot Gigabytes och Evgas kort så är kritiken befogad då det ser ut att skilja 300-800kr mellan dessa kort och Fury x. I ren prestanda är Fury x rätt långt efter även i 4k, plus vad det verkar en betydligt mer högljudd kylanordning.

Permalänk
Medlem
Skrivet av Bascule666:

Sedan börjar jag reta mig på alla uttalanden på Swecklockers angående grafikminnets betydelse. Det jag specifikt stör mig på är alla hundratals inlägg som låter typ "4GB kanske kan räcka men ska du köra SLI/CF så är det helt kört då behöver du mycket mer minne". Har läst samma/liknande inlägg oändliga gånger senaste tiden. Har alla ni som uttalat er testat 2 eller flera grafikkort?

Myten att två eller flera grafikkort i SLI/CF skulle automatiskt kräva mer grafikminne är fel , det är helt beroende på hur du väljer att utnyttja den ökande prestandan. Väljer du att öka upplösning eller att köra med högre antialiasing (typ att öka från 2x MSAA till 16X MSAA) eller kanske att använda extremt högupplösta texturer så kommer det att användas mer grafikminne. Väljer du att istället öka frameraten på befintliga inställningar så krävs inte det inte en enda MB extra minne.

Om man har köpt ett grafikkort för 7000 så ska man alltså vara nöjd med att inte kunna öka till maxinställningar i vissa spel, eller vad är det du vill säga? Tycker du inte att det förtar lite av vitsen med att köra dubbelkort utan att kunna kräma på med högre inställningar? Någon sådan myt har jag aldrig noterat, utan det är nog så att de som lägger ut avsevärda summor på dubbelkort vill kunna dra full nytta av den ökade prestanda genom att ha tillräckligt mycket grafikminne för alla scenarios som korten klarar.

Permalänk

Lite sent att komma att tänka på det här men... YOU RELEASED THE FOCKING FURY!!!

http://www.fistfulofdave.com/yngwies-infamous-unleash-the-foc...

Visa signatur

Asrock Z77 Extreme4 | i5 3570k | 8 GB Corsair Vengeance LP | MSI HD 7870 TF3 | Samsung 830 128 GB | 2 TB Seagate Barracuda | Optiarc AD-7280S | Antec 650W | Fractal Design Arc | HTC One M8

Permalänk
Medlem
Skrivet av Sveklockarn:

Om man har köpt ett grafikkort för 7000 så ska man alltså vara nöjd med att inte kunna öka till maxinställningar i vissa spel, eller vad är det du vill säga?

Tycker du inte att det förtar lite av vitsen med att köra SLI utan att kunna kräma på med högre inställningar?

Beror på hur mycket minne det snor åt sig. Snackar vi behov av +4gb då har vi inte mycket att välja på, inte ens 970/980 kommer räcka till.
Det är förövrigt en sak jag tycker är för jävligt men givetvis är det med i tillverkarnas planläggning för att kunna få ut nya produkter.
Mina 770 i SLI snurrar på som Fan, benchar Riktigt bra (+17K i grafikpoäng i Firestrike) men stendör när minnet fylls vilket sker ganska omgående i 1440P. Hade dom haft 4gb hade det inte varit så stora problem för Gpu:n slår sällan i taket.

Visa signatur

Är det här man ska skriva upp vilken dator man använder?
Ballongmoddat hopkok som kyls med vatten och kopplat till ett gäng skärmar med en massa pixlar.
Duger det??

Permalänk
Medlem
Skrivet av Sveklockarn:

Om man har köpt ett grafikkort för 7000 så ska man alltså vara nöjd med att inte kunna öka till maxinställningar i vissa spel, eller vad är det du vill säga?

Tycker du inte att det förtar lite av vitsen med att köra SLI utan att kunna kräma på med högre inställningar?

Vad som framgår extremt tydligt (om man kan läsa) i mitt inlägg så kan man välja mellan att köra högre inställningar (och då spelar grafikminnet eventuellt en roll) eller bättre framerate vid samma inställningar man körde tidigare (och då spelar grafikminnet ingen roll).

Svårt att förstå?

Grejen är att ett grafikkort för 7000:- som du refererar till skulle klara allt du vill är rent önsketänkande. Har du ens testat de senare spelen?

Visa signatur

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Permalänk
Medlem

Nu har jag nog fasen läst varenda review på nätet och jag tror nog SweC är den mest negativa, Om inte annat så är forumet här mest negativt på hela nätet

https://www.youtube.com/watch?v=rfCb6oiJ6EI

Visa signatur

|Asrock X370 Pro Gaming| Ryzen 3800XT| 32GB Geil Super Luce 3400mhz ddr4| Hellhound 7900XT | Samsung 950 Pro 512gb & Seagate 600 480gb| Crosair RM1000| Deepcool Dukase| Siberia 840| Zowie EC1-A| Corsair RGB MX Blue| Samsung Odyssey G8 |

Permalänk
Medlem
Skrivet av Hymer:

Nu har jag nog fasen läst varenda review på nätet och jag tror nog SweC är den mest negativa, Om inte annat så är forumet här mest negativt på hela nätet

https://www.youtube.com/watch?v=rfCb6oiJ6EI

Fast pumpen lät åt helvete pjäxa i den recensionen också.
Märkligt att AMD har skickat ut pumpar som låter på det sättet till alla sina recensenter och sen kommer med en brasklapp - inte världens bästa sätt att marknadsföra sig på.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem

@Minsc S2: Absolut det håller jag med om, Men det har dom ju sagt att dom ska lösa. Dåligt att dom inte testat innan dock. Får AMD ner kortet till 6500:- så är det ju det självklara valet.

Visa signatur

|Asrock X370 Pro Gaming| Ryzen 3800XT| 32GB Geil Super Luce 3400mhz ddr4| Hellhound 7900XT | Samsung 950 Pro 512gb & Seagate 600 480gb| Crosair RM1000| Deepcool Dukase| Siberia 840| Zowie EC1-A| Corsair RGB MX Blue| Samsung Odyssey G8 |

Permalänk
Skrivet av Hymer:

Nu har jag nog fasen läst varenda review på nätet och jag tror nog SweC är den mest negativa, Om inte annat så är forumet här mest negativt på hela nätet

https://www.youtube.com/watch?v=rfCb6oiJ6EI

Tror Sweclockers var minst påverkaade av AMD om man skall jämföra med Kitguru som är utslängda av AMD för att dom inte lät sig dikteras av AMD Kitguru

Visa signatur

Intel Core i9 7900X | Asus Prime X299 Deluxe | Corsair 128GB DDR4 3200Mhz | Gigabyte RTX 4090 | Acer X32FP 4K 160Hz | NVMe/SSD 15TB | Corsair AX1200i | Corsair Graphite 760T White | OS Windows 11 Pro

Permalänk
Medlem
Skrivet av smygolf:

Beror på hur mycket minne det snor åt sig. Snackar vi behov av +4gb då har vi inte mycket att välja på, inte ens 970/980 kommer räcka till.

Nej, och det är därför det är tur att 980 Ti/Titan X med 6/12 GB minne finns att tillgå.

Skrivet av Bascule666:

Vad som framgår extremt tydligt (om man kan läsa) i mitt inlägg så kan man välja mellan att köra högre inställningar (och då spelar grafikminnet eventuellt en roll) eller bättre framerate vid samma inställningar man körde tidigare (och då spelar grafikminnet ingen roll).

Svårt att förstå?

Grejen är att ett grafikkort för 7000:- som du refererar till skulle klara allt du vill är rent önsketänkande. Har du ens testat de senare spelen?

Ad hominem-argument, så originellt. 4 GB grafikminne blir en reell begränsning i SLI/CF-konfigurationer, sen må användaren ha hur låga krav som helst. Vi kan ta GTA V som ett populärt exempel, där 4 GB minne nätt och jämnt räcker för att maxa spelet i 1920x1200 med grundläggande inställningar på max. Detta är ett forum för entusiaster, vänj dig vid att folk här har höga krav av befogade anledningar.

Permalänk
Hjälpsam
Skrivet av Hymer:

Nu har jag nog fasen läst varenda review på nätet och jag tror nog SweC är den mest negativa, Om inte annat så är forumet här mest negativt på hela nätet

https://www.youtube.com/watch?v=rfCb6oiJ6EI

Kan ha med att det var en så höga förväntningar här, när det inte blir som man hoppats, blir besvikelsen desto större.
Själv tycker jag att den hårda kritiken är orättvis, jag ger kortet medelbra betyg, med en betydande potential till att få högre, om vissa saker förbättras.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Skrivet av Hymer:

@Minsc S2: Absolut det håller jag med om, Men det har dom ju sagt att dom ska lösa. Dåligt att dom inte testat innan dock. Får AMD ner kortet till 6500:- så är det ju det självklara valet.

Spelar ingen roll om dom får ner priset, kommer inte prestera bättre för det?

Visa signatur

Intel Core i9 7900X | Asus Prime X299 Deluxe | Corsair 128GB DDR4 3200Mhz | Gigabyte RTX 4090 | Acer X32FP 4K 160Hz | NVMe/SSD 15TB | Corsair AX1200i | Corsair Graphite 760T White | OS Windows 11 Pro

Permalänk
Medlem
Skrivet av Sveklockarn:

Nej, och det är därför det är tur att 980 Ti/Titan X med 6/12 GB minne finns att tillgå.

Precis och det är just det som är "fel" i det hela, redan nu börjar 970/980 få stryka på foten.

Visa signatur

Är det här man ska skriva upp vilken dator man använder?
Ballongmoddat hopkok som kyls med vatten och kopplat till ett gäng skärmar med en massa pixlar.
Duger det??

Permalänk
Medlem

@Trinitypcw: Nähä? Vad i prestandan är du inte nöjd med? Går jämt med Ti i 1440p och bättre i 4k och även bättre än Titan X. Vad finns det att klaga på? Du kan inte överklocka? Majoriteten av folk gör inte det ändå.

Det var som någon på kitguru skrev att om AMD gör ett misstag så får dom sjukt mycket kritik för det. Bara för att Fury inte levde upp till allas förväntningar så är det absolut inte ett dåligt kort. Läs på lite andra reviews än bara på SweC.

Like If Game A and B work perfectly on HD 5870 but games C crashes, blame AMD
Game A and C work perfectly on GTX 580 but game B crashes, blame game B's developer?

Ungefär så fungerar det med amd/nvida på forum.

Visa signatur

|Asrock X370 Pro Gaming| Ryzen 3800XT| 32GB Geil Super Luce 3400mhz ddr4| Hellhound 7900XT | Samsung 950 Pro 512gb & Seagate 600 480gb| Crosair RM1000| Deepcool Dukase| Siberia 840| Zowie EC1-A| Corsair RGB MX Blue| Samsung Odyssey G8 |

Permalänk
Medlem
Skrivet av Sveklockarn:

Nej, och det är därför det är tur att 980 Ti/Titan X med 6/12 GB minne finns att tillgå.
Ad hominem-argument, så originellt. 4 GB grafikminne blir en reell begränsning i SLI/CF-konfigurationer, sen må användaren ha hur låga krav som helst. Vi kan ta GTA V som ett populärt exempel, där 4 GB minne nätt och jämnt räcker för att maxa spelet i 1920x1200 med grundläggande inställningar på max. Detta är ett forum för entusiaster, vänj dig vid att folk här har höga krav av befogade anledningar.

Vad i hela friden snackar du om? Vet du alls vad ett Ad hominem-argument är?

Visa signatur

Core i7 5820K @ 4.5GHz | Asus Strix X99 Gaming | Palit Super Jetstream GTX 1080 | 16GB Corsair Vengeance LPX DDR4 2666MHz | Intel® 750 SSD 400GB PCIe, Samsung 840/850 Evo 750GB & 1TB | Asus 12x Blu-Ray Combo | Phanteks Enthoo Luxe | 3x Nanoxia Deep Silence 140mm + 5x 120mm | Corsair H105 | Corsair AX1200i 1200W | Windows 10 Pro | Asus ROG Swift PG348Q | Audio Pro Addon T12 | Sennheiser HD650 | Corsair Vengeance K70 | Mad Catz R.A.T. 7 MMO

Permalänk
Medlem
Skrivet av smygolf:

Precis och det är just det som är "fel" i det hela, redan nu börjar 970/980 få stryka på foten.

Det är väl trevligt att spelutvecklingen börjat ta fart så att man får lite nytta av hårdvaran?

Skrivet av Bascule666:

Vad i hela friden snackar du om? Vet du alls vad ett Ad hominem-argument är?

Karaktärsangrepp istället för att svara på sakfrågan. Trist för dig att du har fel i sakfrågan.

Permalänk

Nu får ni skärpa er, jag kör själv Evga gtx 970 sc samt ett HD5870 på min andra speldator så är definitivt ingen fanboy av varken rött eller grönt - jag är övertygad om att AMD stressat fram detta för att bibehålla någon form av relevans. Jag har arbetat på ett pyttemjukt multinationellt företag och vet att det ofta pressas fram lanseringar innan det egentligen är riktigt redo. Med upplåsning av drivrutiner och lite fix och trix kan fury x säkert matcha Titan x, ljudnivån kan faktiskt till viss del bero på ett taskigt testexemplar.

Ge det lite tid så tror jag AMD rättar till eventuella brister.

Edit: Måste passa på att lyfta på hatten då AMD lyckats ligga i topp trots 4GB ram - samtidigt har de matchat Nvidias Maxwell i strömförbrukning.