Snabbtest: PCI Express 4.0 mot PCI Express 3.0 med Geforce RTX 4060

Permalänk
Medlem
Skrivet av Sveklockarn:

Ja nu har jag inte kollat några tester på länge, men redan med Fallout 4 (2015) var det stora skillnaden i framerate mellan långsamma respektive snabba DDR4-minnen (uttryckt som MT/s), så bandbredden kan nog vara viktigare än latensen i många nyare titlar.

Jag föreställer mig att bandbredd gör mer för genomsnittlig FPS medans låg latens gör mer för 1% och 0.1% "low".

Jag gissar att man använde en i7 6700K för att jämföra DDR3 mot DDR4 och att man följde spec och därför körde 1.35V DDR3 minne i 1600MHz CL11.

DDR3 @ 2133 (9-10-10) mot DDR4 @ 2400 (15-15-15) ger nog ett annat resultat.

Jag gillar Digital Foundry som jag tror gjorde en DDR3 vs DDR4 test men de har ofta en tendens att verkligen försöka framhäva fördelarna med det nya.

Permalänk
Medlem

Hur ser det ut i spel som Forspoken som använder DirectStorage? Då kanske bussen blir mättad till högre grad?

Permalänk
Redaktion
Praktikant ✨
Skrivet av SuperSverker:

8 banor PCI-ex 3 känns väldigt...2011 av någon anledning.
Men visst är det värt 5000kr 2023 även om prestandatappet är väsentligt mindre än jag trodde...

Edit*

Tack för bra test, men ni vet ju vad som händer om man ger fingret....

"Hur ser det ut i 2180 / 4K...är förändringen större?"

Inte 4K, men dock högre upplösning vid 1440p visar samma prestandatapp på 4 procent. Historiskt sett brukar vi se större skillnader med begränsad PCI Express-bandbredd vid lägre upplösningar, det vill säga när fler bildrutor ska skyfflas. Sen är detta inte är universell sanning för alla speltitlar, men dock generellt.

Skrivet av loefet:

Bra att ni kollade detta, men hur ligger det till med RTX 4060 Ti? Den har ju också 8x PCI-e men är något snabbare.
Är skillnaden större eller ligger de i samma linje som här?

Lägger till i uppslagslådan att kika på mer kort med potentiella PCI Express-flaskhalsar, men just i detta nu måste jag dessvärre rulla vidare till nästa recension ska ska hinna ut innan jag går på semester nästa vecka.

Permalänk
Medlem
Skrivet av JonasT:

Lägger till i uppslagslådan att kika på mer kort med potentiella PCI Express-flaskhalsar, men just i detta nu måste jag dessvärre rulla vidare till nästa recension ska ska hinna ut innan jag går på semester nästa vecka.

Något att ha i åtanke när 16 GB versionen skall testas. Den bör ju vara lite snabbare, i alla fall i högre upplösningar.

Permalänk
Skrivet av Dinkefing:

Skulle vara kul om ni kunde göra ett GTX 960, GTX 1060, RTX 2060 och 2060 Super, RTX 3060 mot et RTX 4060 och se hur mycket bättre generationerna blivit. Först med en testsvit av äldre spel där 960 och 1060 har fullt stöd och en nyare testsvit för nya spel.

Ja, fan vad grymt det skulle vara med ett sånt test

Permalänk
Skrivet av JonasT:

https://cdn.sweclockers.com/artikel/diagram/29805?key=e98cf006c02b5c83e33224857719e316

Lägger till i uppslagslådan att kika på mer kort med potentiella PCI Express-flaskhalsar, men just i detta nu måste jag dessvärre rulla vidare till nästa recension ska ska hinna ut innan jag går på semester nästa vecka.

Vem f×n har beviljat dig semester Jonas? Du kom precis tillbaka från FL!!! Ja, jag vet. Semesterlagen och skit. Men du tar väl bara en vecka?

Permalänk
Medlem
Skrivet av Dem8n:

Vilket kasst kort för de pengarna, det är ju inte i närheten ens av det gamla 3070.
Bättre att köpa det bästa och byta kort var 4-5:e generation när de ska hålla priserna på denna nivån.
Eller ännu bättre, hitta en annan hobby. 😃

Hur menar du? Det är ju det billigaste 60 kortet sedan 1060?

Permalänk
Medlem
Skrivet av Swedishchef_90:

Tappar amd mer med färre lanes pga mindre cache?

Borde inte vara relevant då cachen buffrar det som finns i VRAM. PCIE överför väl huvudsakligen data från CPU/RAM till VRAM.

Skrivet av Swedishchef_90:

RX 7600
L0 Cache
32 KB per WGP
L1 Cache
128 KB per Array
L2 Cache
2 MB
L3 Cache
32 MB

4060
L1 Cache
128 KB (per SM)
L2 Cache
24 MB

Skiljer vart cachen är, nu är jag inte så insatt men det olika L är väl lager och ju mer cache närmare desto bättre?

Utan att faktakolla din lista så har ju AMD mer cache enligt den.

Permalänk
Medlem
Skrivet av DevilsDad:

Borde inte vara relevant då cachen buffrar det som finns i VRAM. PCIE överför väl huvudsakligen data från CPU/RAM till VRAM.
Utan att faktakolla din lista så har ju AMD mer cache enligt den.

Mer cache i L3 med högre latens 😊 vore bara intressant att veta, min lista är från techpowerup

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem

Här kör man ett 3060 ti @ x16 2.0. 😬

Permalänk
Medlem
Skrivet av grimmerd:

Hur menar du? Det är ju det billigaste 60 kortet sedan 1060?

Det är ju ett riktigt kasst kort för nästan 4000kr, det är rejält bantat, kretsen skulle få plats i en mobiltelefon.
Men det är väl såhär det kommer vara framöver, Nvidias nya strategi började vid 680 som var en riktigt liten krets, efter det har man tagit rejält betalt för sina kretsar.

Permalänk
Medlem
Skrivet av Ymerio:

Här kör man ett 3060 ti @ x16 2.0. 😬

Berätta mer! Vad har du för spec på systemet i övrigt? Vad får du för prestanda i spel? Spelar du i 1080 el 1440?

Skrivet av Dem8n:

Det är ju ett riktigt kasst kort för nästan 4000kr, det är rejält bantat, kretsen skulle få plats i en mobiltelefon.
Men det är väl såhär det kommer vara framöver, Nvidias nya strategi började vid 680 som var en riktigt liten krets, efter det har man tagit rejält betalt för sina kretsar.

Jag tycker det är imponerande att en krets som "får plats i en mobiltelefon" levererar prestanda väldigt nära ett 3060 Ti men för 50% mindre strömförbrukning och för 2000kr mindre i lanseringspris. Den låga strömförbrukningen ska verkligen inte underskattas då det ger möjligheter att använda ett billigare nätaggregat (billigare PC), mindre chassi p.g.a. mindre värmeutveckling samt att kortet kan göras fysiskt mindre. Sen har vi DLSS 3.0 som ger ytterligare möjligheter att anpassa sin spelupplevelse.

Permalänk
Medlem
Skrivet av Swedishchef_90:

Mer cache i L3 med högre latens 😊 vore bara intressant att veta, min lista är från techpowerup

Nu vet jag inte hur standardiserat cachenivåerna är, men alla L3 cahce har ju inte samma latenser.

Dessutom är det inte så enkelt som att titta på en fiven storlek när de har så många nivåer. Du måste räkna på hur ofta du får en cache-miss och vad varje cache-miss kostar. Med 2MB L2 cache har du mycket högre risk för en cachemiss där, men kostnade att gå till L3 cache är enormt mycket mindre än kostnaden att gå till VRAM. Sedan måste du göra samma annalys för L0, L1, och L3 också. Vad är den totala genomsnittliga latensen? Finna det vissa cache-missar som kostar mer prestanda en andra? Jag misstänker att detta beror enormt mycket på både vilken typ av uppgifter den jobbar med och alla detaljer som du inte har en aning om när de bara anger olika nivåer.

Permalänk
Medlem
Skrivet av DevilsDad:

Nu vet jag inte hur standardiserat cachenivåerna är, men alla L3 cahce har ju inte samma latenser.

Dessutom är det inte så enkelt som att titta på en fiven storlek när de har så många nivåer. Du måste räkna på hur ofta du får en cache-miss och vad varje cache-miss kostar. Med 2MB L2 cache har du mycket högre risk för en cachemiss där, men kostnade att gå till L3 cache är enormt mycket mindre än kostnaden att gå till VRAM. Sedan måste du göra samma annalys för L0, L1, och L3 också. Vad är den totala genomsnittliga latensen? Finna det vissa cache-missar som kostar mer prestanda en andra? Jag misstänker att detta beror enormt mycket på både vilken typ av uppgifter den jobbar med och alla detaljer som du inte har en aning om när de bara anger olika nivåer.

Det är absolut en mer komplex uträkning men generellt ju närmare die du ligger desto mindre latens.

Därav vore de kul att se amds rx7600 i samma test för att se skillnaden mellan den och 4060

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Medlem
Skrivet av DLM:

Berätta mer! Vad har du för spec på systemet i övrigt? Vad får du för prestanda i spel? Spelar du i 1080 el 1440?

Jag tycker det är imponerande att en krets som "får plats i en mobiltelefon" levererar prestanda väldigt nära ett 3060 Ti men för 50% mindre strömförbrukning och för 2000kr mindre i lanseringspris. Den låga strömförbrukningen ska verkligen inte underskattas då det ger möjligheter att använda ett billigare nätaggregat (billigare PC), mindre chassi p.g.a. mindre värmeutveckling samt att kortet kan göras fysiskt mindre. Sen har vi DLSS 3.0 som ger ytterligare möjligheter att anpassa sin spelupplevelse.

Det är ju inte Nvidia som gjort kretsen strömsnål, 40xx-serien är gjord hos TSMC som krympt både kretsytan och spetsen på transistorn så det ska bli mindre strömläckage.
I princip vem som helst kan göra en lika strömsnål krets idag.
DLSS är bara en algoritm som gissar sig fram för att ”öka” prestandan, den ökar inte i verkligheten på kortet.
DLSS kan illasinnade utnyttja för det är fullt av säkerhetshål.

Precis som Intel tidigare hade en algoritm som gissade sig fram till nästa instruktion, den fick de plocka bort för det gick inte att täppa till hålen som uppstod på grund av den.

Permalänk
Medlem
Skrivet av Dem8n:

Det är ju inte Nvidia som gjort kretsen strömsnål, 40xx-serien är gjord hos TSMC som krympt både kretsytan och spetsen på transistorn så det ska bli mindre strömläckage.
I princip vem som helst kan göra en lika strömsnål krets idag.
DLSS är bara en algoritm som gissar sig fram för att ”öka” prestandan, den ökar inte i verkligheten på kortet.
DLSS kan illasinnade utnyttja för det är fullt av säkerhetshål.

Precis som Intel tidigare hade en algoritm som gissade sig fram till nästa instruktion, den fick de plocka bort för det gick inte att täppa till hålen som uppstod på grund av den.

Om det är så enkelt att göra strömsnåla kretsar, varför är amd inte lika strömsnål?

Och varför skulle dlss göra en sårbar? Någon källa på det? Intel körde sina saker på cpu vilket är närmare kritiska komponenter

Visa signatur

Intel i5 12600k OC 5.2GHz | Arctic Freezer II 240 | MSI Pro Z690 A | 2x 16Gb Corsair LPX 3200MHz | Asus Tuf 4070 Ti | Corsair Rm850x V3 | 2x 1Tb Samsung 980 m2 | 7x Noctua A14x25

Permalänk
Hedersmedlem
Skrivet av Dem8n:

Precis som Intel tidigare hade en algoritm som gissade sig fram till nästa instruktion, den fick de plocka bort för det gick inte att täppa till hålen som uppstod på grund av den.

Det där stämmer inte alls. Alla moderna desktop-CPUs använder branch prediction och speculative execution, och om de skulle ta bort det helt och hållet skulle prestandan sjunka något enormt mycket.
De har däremot ändrat en del grejer för att fixa säkerhetshål (Meltdown, Spectre m.fl.). Säkerligen finns flera liknande buggar kvar än idag; mindre allvarliga sådana upptäcks ganska ofta.

Visa signatur

Asus ROG STRIX B550-F / Ryzen 5800X3D / 48 GB 3200 MHz CL14 / Asus TUF 3080 OC / WD SN850 1 TB, Kingston NV1 2 TB + NAS / Corsair RM650x V3 / Acer XB271HU (1440p165) / LG C1 55"
Mobil: Moto G200

Permalänk
Medlem

Hej
Saknar analysen om lägstanivån. Varför tappar lägstanivå i fps? Kan du förklara?

Visa signatur

Ryzen 5800X ROG STRIX X570-f GAMING FlareX DDR43600 cl 14-14-14-34 EVGA FTW3 Ultra RTX 3090

Permalänk
Medlem
Skrivet av Dem8n:

Det är ju inte Nvidia som gjort kretsen strömsnål, 40xx-serien är gjord hos TSMC som krympt både kretsytan och spetsen på transistorn så det ska bli mindre strömläckage.
I princip vem som helst kan göra en lika strömsnål krets idag.

Fast det är ju inte tillverkningsprocessen som styr om en krets blir strömsnål utan det handlar om en korrekt kretsdesign som fungerar att tillverka med en viss process, från Nvidia i det här fallet.

Skrivet av Dem8n:

DLSS är bara en algoritm som gissar sig fram för att ”öka” prestandan, den ökar inte i verkligheten på kortet.
DLSS kan illasinnade utnyttja för det är fullt av säkerhetshål.

Det här är första gången jag hör talas om säkerhetshål i systemet orsakade av DLSS, och Google verkar inte ha några bra sökträffar på ett par olika frågeformuleringar, så du kanske kan länka något som förklarar detta?

Skrivet av Dem8n:

Precis som Intel tidigare hade en algoritm som gissade sig fram till nästa instruktion, den fick de plocka bort för det gick inte att täppa till hålen som uppstod på grund av den.

Var har du läst detta?

Permalänk
Medlem
Skrivet av Dem8n:

Det är ju ett riktigt kasst kort för nästan 4000kr, det är rejält bantat, kretsen skulle få plats i en mobiltelefon.
Men det är väl såhär det kommer vara framöver, Nvidias nya strategi började vid 680 som var en riktigt liten krets, efter det har man tagit rejält betalt för sina kretsar.

Det är absolut inte ett dåligt kort. Sen att det finns bättre kort och bättre/likvärdiga kort för samma peng är en annan sak. Det är fortfarande inte ett dåligt kort.

Permalänk
Medlem
Skrivet av Dem8n:

Nvidias nya strategi började vid 680 som var en riktigt liten krets, efter det har man tagit rejält betalt för sina kretsar.

Jag skulle nog säga att det första stora hoppet kom vid lanseringen av 1080.

680 kostade 5200, och 980 kostade 5600 och sen hoppade 1080 upp till drygt 7500 kr. Sen den historiska dolkstöten mot alla som uppgraderade till 1080 att lansera 1080 Ti något år senare för samma MSRP.

Efter det kostade både 2080 och 3080 ca 8000 kr, det är 40-serien som är den historiska avvikaren där priset plötsligt gick upp runt 10000 kr för ett 4080. Noterar hur andra sällanköpsvaror från USA säljs runt 12 SEK/1 USD idag, och kan genom en snabb googling se att priserna för tio år sedan var runt 9,50-10 SEK/1 USD. Den uppgången förklarar inte prisskillnaden, men i grunden är ju problemet att MSRP för 4080 gick upp $400... vilket blir 4800 SEK bara där.

De tusenlappar ett 4080 kostar ytterligare (relativt MSRP på respektive kort) lär gå raka vägen in på svenska bankkonton däremot, som en direkt konsekvens av miningboomen med 30-serien. Allt förefaller som att Nvidia planerat tjäna mer pengar på att trolla med sina namnscheman en generation, och tro att folk glömmer bort att de haft grafikkort med 80-suffix i alla år samt vad de betalat för dem.

Permalänk
Medlem
Skrivet av DLM:

Berätta mer! Vad har du för spec på systemet i övrigt? Vad får du för prestanda i spel? Spelar du i 1080 el 1440?

Jag tycker det är imponerande att en krets som "får plats i en mobiltelefon" levererar prestanda väldigt nära ett 3060 Ti men för 50% mindre strömförbrukning och för 2000kr mindre i lanseringspris. Den låga strömförbrukningen ska verkligen inte underskattas då det ger möjligheter att använda ett billigare nätaggregat (billigare PC), mindre chassi p.g.a. mindre värmeutveckling samt att kortet kan göras fysiskt mindre. Sen har vi DLSS 3.0 som ger ytterligare möjligheter att anpassa sin spelupplevelse.

fx-6300 @ 4,5 ghz. 24gb ddr3 @ 860mhz. gammalt moderkort som var budget då man köpte det M5A78L-M/USB3. Det ger mig bra fps i dom flesta spel. Iron harvest, black mesa, är inte det bästa exemplet men total war spelen får en bra fps. kör 1440p. var tvungen att köra max 100 fps på spelen i nvidias kontroll panel dock, cpun hänger inte med

Permalänk
Medlem
Skrivet av Sveklockarn:

Jag skulle nog säga att det första stora hoppet kom vid lanseringen av 1080.

680 kostade 5200, och 980 kostade 5600 och sen hoppade 1080 upp till drygt 7500 kr. Sen den historiska dolkstöten mot alla som uppgraderade till 1080 att lansera 1080 Ti något år senare för samma MSRP.

Efter det kostade både 2080 och 3080 ca 8000 kr, det är 40-serien som är den historiska avvikaren där priset plötsligt gick upp runt 10000 kr för ett 4080. Noterar hur andra sällanköpsvaror från USA säljs runt 12 SEK/1 USD idag, och kan genom en snabb googling se att priserna för tio år sedan var runt 9,50-10 SEK/1 USD. Den uppgången förklarar inte prisskillnaden, men i grunden är ju problemet att MSRP för 4080 gick upp $400... vilket blir 4800 SEK bara där.

De tusenlappar ett 4080 kostar ytterligare (relativt MSRP på respektive kort) lär gå raka vägen in på svenska bankkonton däremot, som en direkt konsekvens av miningboomen med 30-serien. Allt förefaller som att Nvidia planerat tjäna mer pengar på att trolla med sina namnscheman en generation, och tro att folk glömmer bort att de haft grafikkort med 80-suffix i alla år samt vad de betalat för dem.

680 hade dock en ruskigt liten krets för de pengarna, den var betydligt mindre än föregångarnas 80-krets.

Permalänk
Medlem
Skrivet av grimmerd:

Det är absolut inte ett dåligt kort. Sen att det finns bättre kort och bättre/likvärdiga kort för samma peng är en annan sak. Det är fortfarande inte ett dåligt kort.

Det är dåligt på så sätt att det inte når upp till 70-serien från föregående generation, inte ens i närheten.
Det är ett ruskigt dåligt kort med en minimal krets.

Permalänk
Medlem
Skrivet av Dem8n:

680 hade dock en ruskigt liten krets för de pengarna, den var betydligt mindre än föregångarnas 80-krets.

Jo, de gick även från 40 till 28 nm från föregående serie. Hur som haver så använde 680 den största kretsen (294 mm2) som fanns i GeForce 600-serien (690 använde två stycken). GTX 1080 (310 mm2) var ju också "liten" med samma logik, trots 40 vs 16 nm.

Var någon i en annan tråd som snackade om kretsytan som om det hade betydelse att man fick mycket kisel, och detta är andra gången jag hör någon liknande åsikt på kort tid. Aldrig hört talas om tidigare i kontexten att grafikkort skulle rankas efter hur stor kretsen är fysiskt.

Permalänk
Medlem
Skrivet av Sveklockarn:

Jo, de gick även från 40 till 28 nm från föregående serie. Hur som haver så använde 680 den största kretsen (294 mm2) som fanns i GeForce 600-serien (690 använde två stycken). GTX 1080 (310 mm2) var ju också "liten" med samma logik, trots 40 vs 16 nm.

Var någon i en annan tråd som snackade om kretsytan som om det hade betydelse att man fick mycket kisel, och detta är andra gången jag hör någon liknande åsikt på kort tid. Aldrig hört talas om tidigare i kontexten att grafikkort skulle rankas efter hur stor kretsen är fysiskt.

Då har du missat något, det handlar om hur Nvidia mjölkar ur spelarna pengar.
680 använde inte den största kretsen i sin serie det fanns redan en krets på 561 mm2, GK110.

Om vi kör vidare på Kepler som exempel, Nvidia gör kretsar med olika storlek för olika ändamål.
680 fick kretsen GK104 som dittils bara hade använts för budgetkort, GK110 släpptes tidigare för beräkningskort.
Gk108 blev senare 780, GK110 användes till 780 Ti.

Ska du köpa nytt kort bör du ha koll på det här, köp inte serien med budgetkretsarna om du inte absolut måste.

Permalänk
Medlem
Skrivet av Dem8n:

Då har du missat något, det handlar om hur Nvidia mjölkar ur spelarna pengar.
680 använde inte den största kretsen i sin serie det fanns redan en krets på 561 mm2, GK110.

Vi får nog hålla oss till fakta, nämligen att 600-serien hade en specifik uppställning när den släpptes 2012, annars kan man ju lika gärna hävda att GT 645 hade en större krets än 680. Det håller ju inte eftersom det dels är en större processnod samt att det är en Fermi.
https://en.wikipedia.org/wiki/GeForce_600_series

Jo, sen kom Kepler refresh som 700-serien, där även 780 använde GK110. Återigen en reviderad tillverkningsprocess som gjorde att man kunde fortsätta på Kepler.

Skrivet av Dem8n:

Om vi kör vidare på Kepler som exempel, Nvidia gör kretsar med olika storlek för olika ändamål.
680 fick kretsen GK104 som dittils bara hade använts för budgetkort, GK110 släpptes tidigare för beräkningskort.
Gk108 blev senare 780, GK110 användes till 780 Ti.

Ibland är det nog bra att fräscha upp minnet med att kolla lite grundläggande fakta innan man försöker argumentera på felaktiga premisser.

Skrivet av Dem8n:

Ska du köpa nytt kort bör du ha koll på det här, köp inte serien med budgetkretsarna om du inte absolut måste.

Den fysiska storleken är underordnad alla andra egenskaper, särskilt då när man diskuterar olika kretsar producerade på olika processnoder.

Permalänk
Medlem
Skrivet av jonaz_81a:

En sak som inte var så viktigt år 2011 men som är viktigt nu om man fortfarande vill spela på en sån gammal Sandy Bridge-häck är ramminnet. Många av dessa system köptes med 2x4GB @ 1333 för att sen uppgraderas med ytterligare 2x4GB av annan typ vilket gör överklockning svårare. 2x8GB vanilla Samsung B/C/D/Q-die @ 2133CL9 gör stor skillnad.

Jag kör faktiskt fortfarande i5 2500K och gtx 970. Märker ator skillnad om jag kör stock eller klockar till 4.6 eller 4.8 GHz. Kör iof mest dota2 så är inte supertungt.

Har du nån data med tips på vad man ska köra? Jag har corsair vengence 4×4Gb idag. Varit på g att byta ut hela datorn men med priserna har jag väntat 😅

Kör du OC på minnena också?

Visa signatur

Burken:
| CoolerMaster HAF 922 | Intel i5 2500K@4.4GHz | Corsair H100 | Asus GTX670 DirectCUII 2GD5 Boost@1201MHz, Mem@6412MHz | GIGABYTE Z68X-UD3H-B3 | Corsair Vengence 8Gb | Corsair TX650W | SSD OCZ-Vertex3 | HDD1 SamsungSpinPoint 1TB | HDD2 Seagate Barracuda 225Gb | HDD3 Seagate Desktop 1TB | HDD4 WD Desktop 2TB |

Permalänk
Medlem
Skrivet av Ymerio:

fx-6300 @ 4,5 ghz. 24gb ddr3 @ 860mhz. gammalt moderkort som var budget då man köpte det M5A78L-M/USB3. Det ger mig bra fps i dom flesta spel. Iron harvest, black mesa, är inte det bästa exemplet men total war spelen får en bra fps. kör 1440p. var tvungen att köra max 100 fps på spelen i nvidias kontroll panel dock, cpun hänger inte med

Tack! Alltid intressant att höra hur hårdvara samspelar när man pressar äldre gränssnitt med ny hårdvara. I det här fallet kanske mer CPUn än PCI-E gränssnittet?

(Uanför ämnet] Total War spelen fram till Attila har ju ingen optimering för flerkärnat utan tar mer nytta av hög CPU hastighet. Har kört Rome 2 ganska mycket och såg alltid EN CPU tråd som gick på 80-90% medans resten vilade. Nyligen släpptes en uppdatering som tog bort chat funktionen i multiplayer men skulle optimera spelet bättre för nyare hårdvara. Har inte testat den dock.

Permalänk
Medlem
Skrivet av Dem8n:

Det är dåligt på så sätt att det inte når upp till 70-serien från föregående generation, inte ens i närheten.
Det är ett ruskigt dåligt kort med en minimal krets.

Fast det kostar inte ens i närheten av ett 3070 heller och som tidigare nämnt i tråden så är kretsens storlek av sekundär betydelse. Helt fel att låsa fokus på det.
40-serien från Nvidia går inte heller att jämföra som tidigare generationer då Nvidia verkar ha blandat ihop korten. 4060 skulle nog egentligen varit ett 4050. 4070 Ti hoppar t.ex. 2 steg i jämförelse då det presterar som ett 3090 Ti fast det enlig tidigare standard borde varit i nivå med 3080 Ti.

Noterar att du helt undviker att svara på många av de motfrågor du har fått i tråden...