Nvidia G-Sync kombinerat med SLI har negativ påverkan på spelprestanda

Permalänk
Melding Plague

Nvidia G-Sync kombinerat med SLI har negativ påverkan på spelprestanda

En nyligen släppt Geforce-drivrutin uppges ha lett till sämre prestanda i spel för vissa användare. Detta specifikt när G-Sync används tillsammans med flera grafikkort i SLI.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Master of Overkill

Brukar va så med nya serier och GPU drivare, alltid något som tar stryk.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

Är inte SLI på väg att dö ut?

Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk
Medlem

Glöm ej att detta är i DX11....

Visa signatur

Intel i9 13900k delid (4090) (Jobb/Lek)
AMD 7900 (4060ti) (Lekserver)
Intel i9 12900K (3090) (barnens)
AMD 7900X (3080ti) (barnens)

Permalänk
Medlem

Det är alltså en specifik drivrutin och helt plötsligt så gör man en artikel om att G-sync knasar med SLI. Jag brukar inte klaga på Aftonbladet-rubriker och många gånger användare gör det är det bara tramsigt, men nu får man nog ställa sig i ledet och bli en av dom.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

Kör folk fortfarande med SLI?

Permalänk
Medlem
Skrivet av skog1s:

Är inte SLI på väg att dö ut?

tills 2000 serien kom med sina priser. multi gpu kommer aldrig att dö ut, bara vara relativt till priser.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Det är alltså en specifik drivrutin och helt plötsligt så gör man en artikel om att G-sync knasar med SLI. Jag brukar inte klaga på Aftonbladet-rubriker och många gånger användare gör det är det bara tramsigt, men nu får man nog ställa sig i ledet och bli en av dom.

Är väl dags att Nvidia också får lite sådana.

Skämt åsido, jag håller med. Lite väl låg nivå.

Visa signatur

AMD RYZEN 9 5900X - ASUS ROG X470-F STRIX - 32GB DDR4 @ 3200MHz - ASUS RTX 3070 Ti

Permalänk
Medlem
Skrivet av skog1s:

Är inte SLI på väg att dö ut?

Jag har iaf fått känslan av att stödet för SLI, eller snarare avsaknaden av det, gör att det i praktiken är på väg att dö ut. Och egentligen har jag inget emot det för annat än extrema applikationer då det tenderar att vara rätt besvärligt i praktiken. Det är iaf min högst personliga erfarenhet.

Permalänk
Inofficiell ambassadör
Skrivet av Buulaa:

tills 2000 serien kom med sina priser. multi gpu kommer aldrig att dö ut, bara vara relativt till priser.

Fast nu är det ju bara GTX 2080 och 2080 Ti som har SLI-stöd. Så det hjälper ju knappast som ett motmedel mot höga priser på toppkretsarna

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Master of Overkill
Skrivet av Buulaa:

tills 2000 serien kom med sina priser. multi gpu kommer aldrig att dö ut, bara vara relativt till priser.

Exakt, där det behövs finns det sjukt bra stöd enligt egen erfarenhet.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av Xyborg:

Fast nu är det ju bara GTX 2080 och 2080 Ti som har SLI-stöd. Så det hjälper ju knappast som ett motmedel mot höga priser på toppkretsarna

Vi borde kräva 2030 och 2050 SLI

Tror ärligt detta är ett resultat av att Nvidia optimerat något, och inte tänkt på att testa SLI efter detta. De bör fixa det, men detta är tyvärr problemet när man lever på hård optimering. Att det inte sker i DX12 är ju pga där kan Nvidia inte göra dessa extrema optimeringar, på gott och ont. De får väl göra bättre hårdvara istället... (vilket de också verkar ha gjort med 20-seriens DX12)

Permalänk
Medlem
Skrivet av deranger:

Glöm ej att detta är i DX11....

Ja eftersom DX12 lägger nästan all fokus på Multigpu stöd hos spelutvecklarna så är det inte så konstigt att detta testas i DX11.

Skrivet av tvelander:

Exakt, där det behövs finns det sjukt bra stöd enligt egen erfarenhet.

Spelar egentligen ingen roll i detta fallet eftersom det premium man betalar för G-sync ska göra denna typ av problem icke existerande. Det är själva idén med ett separat styrkort i skärmarna. Att det inte riktigt visar sig stämma gör ju att det känns si så där att betala extra för G-sync.

Skrivet av Xyborg:

Fast nu är det ju bara GTX 2080 och 2080 Ti som har SLI-stöd. Så det hjälper ju knappast som ett motmedel mot höga priser på toppkretsarna

Vadå? Finns säkert någon tjomme som kör 2080 eller 2080Ti i SLI eller planerar att göra det i framtiden. *Host* Tvelander *Host*. :>

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem

AMD har också detta problem som jag förstår det med vissa setups. Men mycket beror också på vilket spel och version på drivrutinen. Sist jag körde två grafikkort var när jag hade två st 290. Man slapp frysa på vintern, det kan jag säga!

Däremot tycker jag att, oavsett om det är AMD eller Nvidia är de skyldiga att informera de konsumenter som kör med SLI och lösa detta. Där kan tilläggas att 1080 som testats har funnits ute sedan 2016. Borde inte dessa problem redan ha blivit lösta vid det här laget?

Visa signatur

Ryzen 7 5800x, lg 27gl850, rx 7800 xt

Permalänk
Medlem
Skrivet av tvelander:

Brukar va så med nya serier och GPU drivare, alltid något som tar stryk.

Fast pascal var också en kandidat i detta test och dessa är nu snart 3 år gamla.

Visa signatur

Ryzen 7 5800x, lg 27gl850, rx 7800 xt

Permalänk
Master of Overkill
Skrivet av magma86:

Fast pascal var också en kandidat i detta test och dessa är nu snart 3 år gamla.

Därav och GPU drivare.
Båda två kan skapa problem.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk

När jag började få intresse för datorer år 2008 tänkte jag att "SLi/CF är fortfarande nytt och nvidia/ati har bara inte fått ordning på det än men snart kommer det stödjas i alla spel utan problem etc"
Det känns lite stelt att komma tillbaks till swec och se att det fortfarande finns strul med fler-gpu-lösningar tio år senare, varför satsa på en teknik som man aldrig optimerar?

Skickades från m.sweclockers.com

Permalänk
Medlem

Tur att man hoppade av SLI tåget på 980Ti tiden, skiten blir ju allt sämre med tiden.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Skrivet av Xyborg:

Fast nu är det ju bara GTX 2080 och 2080 Ti som har SLI-stöd. Så det hjälper ju knappast som ett motmedel mot höga priser på toppkretsarna

Nepp dem har inte sli stöd.. Dem har däremot stöd för nvlink istället.. så sli är redan utdött. Ja om man inte tänker efter dem som redan kör med sli fortfarande då.. Men annars är sli redan utdött. Nvlink och sli är helt olika saker.. läste att på nvlink så läggs t.ex på en 2080 som har 8gb ihop då att det blir 8x2 så har man 16gb..

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Xyborg:

Fast nu är det ju bara GTX 2080 och 2080 Ti som har SLI-stöd. Så det hjälper ju knappast som ett motmedel mot höga priser på toppkretsarna

betyder det då att sli dör ut eller håller på att gimpas ut?

Permalänk
Medlem
Skrivet av Xinpei:

Vadå? Finns säkert någon tjomme som kör 2080 eller 2080Ti i SLI eller planerar att göra det i framtiden. *Host* Tvelander *Host*. :>

Jag kör nvlink med 2 st 2080ti men är hardvaru fantast, kör lite 3dmark timespy extreme för skojs skull.
Var på plats 29 i söndags och nu 33 det går utför, måste skaffa bättre cpu.

Visa signatur

Intel i9 13900k delid (4090) (Jobb/Lek)
AMD 7900 (4060ti) (Lekserver)
Intel i9 12900K (3090) (barnens)
AMD 7900X (3080ti) (barnens)

Permalänk
Medlem
Skrivet av siglolmic:

När jag började få intresse för datorer år 2008 tänkte jag att "SLi/CF är fortfarande nytt och nvidia/ati har bara inte fått ordning på det än men snart kommer det stödjas i alla spel utan problem etc"
Det känns lite stelt att komma tillbaks till swec och se att det fortfarande finns strul med fler-gpu-lösningar tio år senare, varför satsa på en teknik som man aldrig optimerar?

Skickades från m.sweclockers.com

För att den valmöjligheten ligger i konsumentens intresse och inte i företagens.

Kort blir dyrare pga konkurrens brist, dx12/vulkan implementeras halvsjaskigt med checkar under bordet för att sälja röd eller grön logga på spelet du startar.

amd och nvidia använder samma argument som film branschen använder för pirater, begränsad valmöjlighet= mer konsumtion av det selektiva utbudet.

Därefter får du först sli begränsat till 1070 och uppåt och sedan nvlink 2080 och över.

Inte för att vifta med folie flaggan för hårt men vi kan definitivt lägga ihop ett motiverande argument för dessa beslut.

Permalänk
Medlem

Fake news... GSync har egen hårdvara för att det gör den så myclet bättre än VESAs fri allternativ och har inga proböem alls. Alla vet inte det, men med en GSync skärm blir ens processor snabbare och ens PSU drar mindre ström. Till och med hört rapporter om 2D spel som blir 3D i 8K 240Hz tack vare denna gudomöiga teknik.

Ironi för de som inte kan utläsa sådant.

Att Nvidia, inte ens med sin dyra 20-serie introducerade stöd för en standard för adaptiv sync (de hade kunnat ha kvar Gsync också) är förbluffande. Eller ja... #ngreedia

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Inofficiell ambassadör
Skrivet av Shadow666:

Nepp dem har inte sli stöd.. Dem har däremot stöd för nvlink istället.. så sli är redan utdött. Ja om man inte tänker efter dem som redan kör med sli fortfarande då.. Men annars är sli redan utdött. Nvlink och sli är helt olika saker.. läste att på nvlink så läggs t.ex på en 2080 som har 8gb ihop då att det blir 8x2 så har man 16gb..

Skickades från m.sweclockers.com

Nej, inte helt rätt. Nvlink är bara gränssnittet som korten använder för att kommunicera med varandra. Tekniken att köra två kort tillsammans - och hur det i praktiken fungerar - är fortfarande samma gamla vanliga SLI. Nvlinks ökade bandbredd MÖJLIGGÖR att man teoretiskt skulle kunna dela minnespool mellan korten, men det är inget som görs i dagsläget.

Visa signatur

Mobo Aorus B550 Pro V2 CPU Ryzen 5600X RAM Corsair Vengance 16GB @ 36000 MHZ
GPU MSI GTX 1080 ti Gaming X Skärm Acer X34A

Permalänk
Medlem

Tänk på att det är en komplett systemlösning som Nvidia erbjuder och tar mycket betalt för, inte ett löst ihopplock. Det borde fungera bättre än vad det gör.

Permalänk
Medlem

Orsak #1 varför jag väntar alltid ett tag att uppdatera till de nyaste drivrutinerna.

Visa signatur

There is grandeur in this view of life, with its several powers, having been originally breathed into a few forms or into one; and that whilst this planet has gone cycling on according to the fixed law of gravity, from so simple a beginning endless forms most beautiful and most wonderful have been, and are being, evolved.

Permalänk
Medlem
Skrivet av ClintBeastwood:

Det är alltså en specifik drivrutin och helt plötsligt så gör man en artikel om att G-sync knasar med SLI. Jag brukar inte klaga på Aftonbladet-rubriker och många gånger användare gör det är det bara tramsigt, men nu får man nog ställa sig i ledet och bli en av dom.

Ja, borde varit "Nvidias senaste drivrutiner ger sänkt spelprestanda vid G-Sync kombinerat med SLI"

Visa signatur

Hur många datorer är för många?