Nvidia förbereder nygammal teknik för SLI

Permalänk

Perfect timing för mitt andra 2080 ti är på väg.

Permalänk
Medlem
Skrivet av Varg:

Företaget som tycker att 20 kommer efter 10 kan nog göra undantag där också

Kommer inte 20 efter 10 då ? ;=)

Permalänk
Medlem
Skrivet av Triton242:

Kommer inte 20 efter 10 då ? ;=)

Jo men efter 11, 12, 13, 14, 15, 16, 17, 18 och 19 först

Skickades från m.sweclockers.com

Visa signatur

Dell S2721DGFA ■ 5800X3D (Noctua NH-U12P) ■ RTX 3070 AORUS Master ■ 16x2 3200 CL16 ■ MSI B450M Mortar Max ■ Samsung EVO 970 1 TB ■ Fractal Design North + Switch OLED

Old: Pentium 4 -> Core 2 Duo E6750 -> i7 2600k -> R7 3700X

Permalänk
Medlem
Skrivet av KorvMos:

Jo men efter 11, 12, 13, 14, 15, 16, 17, 18 och 19 först

Skickades från m.sweclockers.com

De jobbar med 10 och 100-tal i höjningarna.
Skulle ju vara ganska tråkigt om bästa grafikkortet idag hette Nvidia 23 som exempel.

Då tycker jag personerligen att det är värre när de lägger in ord som TI och Super efter samma nummer.

Ett tag var det helt galet.
Kolla bara på 6000 serien.
De hade GT, GS GTS och GTX tror jag o säkert några fler.
Var ju en jätte skillnad mellan dessa korten.
Allt för att vi inte skulle förstå ett jota efter ett tag.

Permalänk
Medlem
Skrivet av Defender:

Tror det är för att utvecklare är så fruktansvärt usla på att lägga in stöd för Explicit Multi-Gpu i spel.
Bättre låta Nvidia göra allt jobbet åt dom.

This. Hade man bara anammat DX12 och explicit multiadapter när det blev tillgängligt så hade drivrutinshacks som SLI och Crossfire varit överflödiga.

Visa signatur

CPU: AMD Ryzen 7 7800X3D CO + 2133 MHz FCLK GPU: Sapphire RX 7900 XT Pulse OC
RAM: Corsair 2x16GB 6000 MT/s CL30 (Hynix) BZ subtimings
MB: ASUS ROG Strix B650E-F Gaming WIFI SSD: Kingston KC3000 2TB PSU: Corsair RM850x

Permalänk
Medlem
Skrivet av Ratatosk:

Det som är gammalt och dött, skall man inte gräva upp, man skall låta det ligga begravet.
Det har jag sett på film.

Det gräver upp sig själv ibland, som Zombies

Min första tanke var att stödet för SLI och Crossfire har ju varit si så där i spel, men det kanske blir bättre nu?

Visa signatur

Ny dator: Acer Predator Orion 5000 (RTX 3080)
[ I7 3770K @ 4.6Ghz | Asus 980 Ti 6GB | 16GB | Asus P8Z77-V PRO | Samsung 830 128GB | Corsair H100 | Cooler Master HAF X | Corsair AX 850W | Samsung DVD±RW ] [ Sony AF9 65" | Sony WF-1000XM3 | HTC Vive | Huawei P40 Pro | PS4 Pro | PS3 Slim | PS2 chippad | PS Vita | DS Lite | SNES Mini ]

Permalänk

"Nygammal teknik" där den gamla delen funkade dåligt när den var ny

Permalänk
Medlem
Skrivet av Ratatosk:

Det som är gammalt och dött, skall man inte gräva upp, man skall låta det ligga begravet.
Det har jag sett på film.

Jag trodde att det reste sig igen hårdare och starkare?

Permalänk
Medlem

Förhoppningsvis mynnar det ut i något användbart, men min känsla är att det kan finns många funktioner i modern grafikmotorteknik som orsakar icke-triviala problem som behöver lösas.

Se bara på hur det hyfsat moderna Doom 2016 rendreras i bloggposten - Doom (2016) - Graphics Study. Högvis med olika buffrar för både nuvarande och tidigare bildrutor som måste fungera att använda uppdelade rutvis och utan att skapa artefakter när de används tillsammans.

Men, kör på bara. Problem är till för att lösas

Länkar:

Visa signatur

Workstation 5950X|7900XTX|O11 Dynamic Vardagsrum 3900X|6900XT|Torrent Nano
VR Reverb G2|PSVR2|Pico 4|Quest 3|Oculus Quest|Samsung Odyssey+

Permalänk
Medlem

Det vore ju bra om man kunde koppla ihop 2 helt olika grafikkort, eller helt sonika dra nytta av grafik inbyggt i processorn för skrivbords/bakgrunds -processer.
För att inte tala om att öronmärka det ena grafikkortet till att köras på en VM.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem
Skrivet av Ratatosk:

Det som är gammalt och dött, skall man inte gräva upp, man skall låta det ligga begravet.
Det har jag sett på film.

Ja elbilen peakade på 1910-talet för att 100 år senare vara högaktuell igen.
Uppenbarligen upprepar historien sig

Visa signatur

Desktop: Corsair Carbide 400C | 3770K@4.4GHz | RX 6700 XT | 32GB DDR3 | RM750X | P8Z77-V Deluxe | 860 EVO 1TB
HTPC/Server: FD Array R2 | Intel i5-650 | Zotac 1156 mini-ITX H55 | 8GB DDR3 | 5st WD RED 3TB RAID 5

Permalänk
Medlem

Jag hoppas sli/cf kommer tillbaka. Det var mycket bättre förr när speldatorn kunde ge ifrån sig 700-800W värme så att man snabbt fick det varmt och mysigt på rummet

Skickades från m.sweclockers.com

Visa signatur

Moberkort: Asus p8p67 Deluxe. CPU: i7 2600k, 4.5 Ghz. CPU-kylare: Noctua NH-D15. RAM: Corsair Vengenace DDR3 16 GB, 1600 Mhz. Systemdisk: Samsung Evo 850, 256 GB. Lagring: 15,2 TB på snurrdisk. GPU: 2x Saphire tri-x 290x. Ljudkort: Asus Xonar DGX. PSU: EVGA Supernova g2 1000W. Chassi: Cooler Master HAF-X. Hörlurar: Audio Technica ATH M50.

"Eftersom det aldrig är försent att bättra sig, väntar jag ett tag till." - okänd

Permalänk
Medlem
Skrivet av Triton242:

Jag tänker mycket riktigt på 2 GPUer på ett kort.
Fast jag namnger efter Nvidias 590 och 690 som båda är 2st gpuer per kort.

Skickades från m.sweclockers.com

Först måste vanliga icke super lanseras, sedan kan de släppa ett super

Ska de köra två tu 102 på samma PCB blir det ett riktigt långt kort. Men de kanske behöver göra en dubbelmacka som deras äldre dubbelkort 7950GX2 9800Gx2 och tidiga 295. Fast då ett kort som tar tre eller fyra platser för annars lär det inte bli särskilt tyst med luftkylning.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem
Skrivet av Cuna:

nvlink lever och skalar bättre än sli.
fattar inte vad alla bölar om att det är dött med 2 grafikkort

Därför att så som tekniken funkar idag så måste speltillverkarna lägga ner ganska så mycket energi och tid på att utveckla stöd för SLI, i många fall tillsammans med Nvidia, för att ta fram specifik profil till specifik titel. Många av dom stora utvecklarna lägger helt enkelt inte ner den mödan på sina spel. BF V saknar fortfarande officiellt SLI-stöd, Anthem (helt död titel?) m.fl.

Och det märks av, som flera andra vittnat om i tråden, att den andra kortet har 0% i aktivitet.

Jag själv har använt mig av SLI in i det sista, min första setup bestod av 2st 560 Ti och sist nu 2st 1080. Jag har valt att gå över till ett singel 2080 Ti. Jag hoppas innerligt att detta betyder att tekniken vaknar till liv igen!

Visa signatur

| bequiet! Dark Base 900 | Corsair HX1000i Platinum | MSI Z370-GAMING M5 | i7 8086k @ 5000mhz | Custom EK-loop (GPU & CPU) | Corsair Veng. 32GB @ 3200mhz | Samsung 960 EVO M.2 500GB | Zotac RTX 2080 Ti AMP! | Asus PG348Q @ 100hz |
http://www.sweclockers.com/forum/13-konsumentratt/562661-grat...

Permalänk
Medlem
Skrivet av flukke:

Ja elbilen peakade på 1910-talet för att 100 år senare vara högaktuell igen.
Uppenbarligen upprepar historien sig

Då är det dags för gengasdrift om 20 år, då?

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk

Jag önska fler spel hade support för sli
har 2 1070 enda spelet jag spelar just nu som supportar sli är rocket league... inte bfv inte control.

men tomb raider där snackar vi!

Permalänk
Medlem

Det här är ju enda sättet att nå de prestandakrav vi har i framtiden - multi-GPU - precis som det var för CPUs och multi-core.

Traditionell SLI/CF med flera fysiska kort lär vara stendött, dock, men chiplets/MCM är definitivt vägen att gå. Om de bara kan lösa mjukvarubiten här och förhoppningsvis presentera sig som en enad GPU till operativsystemet, då snackar vi..

Vem blir först med en "16-core" GPU chiplet design?
Jag har mina misstankar, och den dagen kan inte komma fort nog.. Jag vill verkligen gå över till 4K och även 8K inom rimlig tid, men det är inte särskilt praktiskt ännu.

Samtidigt kan man hoppas att 120Hz blir den nya standarden, och att 60Hz förpassas till 90-talet där det hör hemma..

Visa signatur

Fractal Define 7, Aorus X570 Xtreme, Ryzen 5950X, Fractal Celsius+ S36, 64GB TridentZ Neo CL14/3600 RAM, MSI RTX 3090 Suprim X, 5TB NVMe SSD + 12TB SATA SSD + 64TB Seagate IronWolf Pro HD, Fractal Ion+ 860W Platinum, LG 32GP850 + LG 42C2 OLED

Permalänk
Medlem
Skrivet av Lordsqueak:

edit: iofs... finns ju en annan möjlighet hur detta kan användas. Om man har flera GPU'er på samma kort. Frågan här är väl om nvidia har planer på att "limma ihop" flera gpuer i still med vad AMD planerar att göra. (nån gång i framtiden,,, kom igen,,, vilken dag som helst nu..)

Detta va faktiskt min första tanke, gpu-kretsarna blir större och större = svårare/dyrare att tillverka med högre risk att man får binnade exemplar. När det dessutom blir svårare att få till mindre tillverkningsprocesser så känns det naturligt att Nvidia tittar på möjligheten att tillverka billiga, enklare och mindre gpuer och "limma" ihop dem.

Permalänk
Medlem
Skrivet av flukke:

Ja elbilen peakade på 1910-talet för att 100 år senare vara högaktuell igen.
Uppenbarligen upprepar historien sig

Elbilen är bara aktuell i länder med straffskatter på ordinarie bränsle och subventioner på elbilar. Tittar Du t.ex. i Sydney så ser Du ingen Tesla såvida Du inte börjar leta i någon butik, medan man ser Tesla regelbundet ute på vägarna i Malmö och Lund.

Visa signatur

Grundregel för felsökning: Bryt och begränsa.

Permalänk

Låter överkomplicerat. Två chip på samma kort måste vara ett snabbare och svalare sätt att dela VRAM.

Visa signatur

[4790k@4.6]+[RTX 3070 OC]+[16GB]+[4x SSD]+[NZXT+700W Gold]+[Win7]+[2x Samsung SA27950D <3]+[Topre TKL]+[G403 Hero wired]+[HyperX Cloud Alpha S]+[KingKong 2 Pro]. ZBook 17 G5, Quadro P3200, Win11.