Compute Express Link kan bli grundbulten för parkoppling av Intel Xe-grafikkort

Permalänk
Melding Plague

Compute Express Link kan bli grundbulten för parkoppling av Intel Xe-grafikkort

Intels nyligen presenterade gränssnitt CXL kan lösa problemen med parkopplade grafikkort över PCI Express och kan komma att användas i grafikkortsfamiljen Xe.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Lite tragiskt att en "helt ny" aktör ska behöva ta sig in på gpu marknaden för att det för första gången på många år ska komma något intressant! Sist vad jag anser måste vart 4870x2 samt 295.

Skickades från m.sweclockers.com

Visa signatur

here we go!

Permalänk
Inaktiv

Detta va väldigt intressant

Permalänk
Medlem

Schysst fast prestandan beror fortfarande på stöd för funktionen och drivrutinerna.

Permalänk
Medlem

Okey, så detta gör det bättre, minskar microstutters osv om jag förstår det rätt?

Men är det någont mer detta gör? Det tar väl inte bort att spelmotorn behöver programeras för sli/CF eller multiGPU?

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Inaktiv

Detta är Intels "game changer" som i början avsevärt kan förändra maktbalansen på grafikkortsmarknaden. Senare kommer säkert både nvidia och amd använda CLX om den fungerar så bra som utannonserat och ger en så stor fördel som Intel beskriver.

CLX är vad SLI och CrossFire borde ha varit. Man kan säga att Intel har löst "the holy grail" för multi gpu lösningar.

En transparent multi gpu lösning som bara fungerar, speltillverkarna behöver inte ens göra något speciellt för att spel ska fungera med CLX.

Nu ska man väll ta allt med en gnutta salt innan Intel demostrerat hur bra CLX fungerar i verkligheten för vanliga konsumenter i t ex spel m.m.

Permalänk
Medlem
Skrivet av anon162230:

Detta är Intels "game changer" som i början avsevärt kan förändra maktbalansen på grafikkortsmarknaden. Senare kommer säkert både nvidia och amd använda CLX om den fungerar så bra som utannonserat och ger en så stor fördel som Intel beskriver.

CLX är vad SLI och CrossFire borde ha varit. Man kan säga att Intel har löst "the holy grail" för multi gpu lösningar.

En transparent multi gpu lösning som bara fungerar, speltillverkarna behöver inte ens göra något speciellt för att spel ska fungera med CLX.

Nu ska man väll ta allt med en gnutta salt innan Intel demostrerat hur bra CLX fungerar i verkligheten för vanliga konsumenter i t ex spel m.m.

Ja vi kan verkligen hoppas det blir så bra. Som du säger är detta vad det borde ha varit ifrån början (i en perfekt värld)
Detta är helt klart en revolution. Så bara hålla tummarna, för detta är ju en dröm!

Btw, sålde min speldator för ett tag sen och kör nu enbart lite Ps4 Pro. Men en gång pc alltid pc mer eller mindre du vet, så enkelt är det. Med andra ord kliar det rejält i fingrarna på att köpa ett nytt system. Men jag får hålla ut ett tag till. Så mycket spännande nytt på gång. Men det är förbannat svårt med 30 fps haha!

Permalänk
Medlem

Nu pratas det mycket om latenser i artikeln men jag ser fortfarande problem...
Latensen mellan gpu och minne kommer alltid vara lägre (speciellt när de sitter på samma flipchip), jämfört att gå via pcie bussen.
Så även om jag tror att det är en bra och välkommen teknik så tror jag inte att det är något totalt revolutionerande lösning.

Skickades från m.sweclockers.com

Permalänk
Medlem

Vore intresant om det löstes så att det gick att blanda gpuer nu när det ser ut att bli tre aktörer oavsett tillverkare och modell.

Var snack om att det skulle funka på något vis via dx12 men inte set ngn artikel som får det funka bra.

Permalänk
Lyxfällan 🎮

@SCORPIUS: Just nu vet vi egentligen ingenting om hur det här kommer användas för multi-GPU-lösningar i konsumentgrafikkort, eller om det kommer användas för multi-GPU för den delen, Intels presentation av CXL anger bara bruk som gränssnitt i datacentertillämpningar just nu. I beskrivningen av standarden kan man urskilja att den kan användas för att parkoppla grafikkort med synkroniserad minnespool och med avsevärt lägre latenser än traditionella multi-GPU-lösningar som går över PCI Express, men det är fortfarande oklart exakt hur dessa lösningar skulle se ut i praktiken.

Spontant borde spelutvecklare kunna utnyttja beräkningsresurserna och grafikminnet i parkopplade grafikkort betydligt bättre när minnesanvändningen kan synkroniseras utan behov av optimeringar mot SLI/Crossfire-profiler, och att spelmotorn kan jobba mot grafikkort parkopplade över CXL och DirectX 12. Som sagt, oklart just nu, men det har spännande potential för framtiden det här!

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Medlem

@loevet: Tackar för svar.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Skrivet av anon162230:

Detta är Intels "game changer" som i början avsevärt kan förändra maktbalansen på grafikkortsmarknaden. Senare kommer säkert både nvidia och amd använda CLX om den fungerar så bra som utannonserat och ger en så stor fördel som Intel beskriver.

CLX är vad SLI och CrossFire borde ha varit. Man kan säga att Intel har löst "the holy grail" för multi gpu lösningar.

En transparent multi gpu lösning som bara fungerar, speltillverkarna behöver inte ens göra något speciellt för att spel ska fungera med CLX.

Nu ska man väll ta allt med en gnutta salt innan Intel demostrerat hur bra CLX fungerar i verkligheten för vanliga konsumenter i t ex spel m.m.

Om det nu blir så bra som Intel säger, så får man nog också ta med i beräkningen att Intel vet hur man tar betalt tyvärr.

Skickades från m.sweclockers.com

Visa signatur

Legion 5 Pro" Ryzen 5800H / 32GB ram / 2TB+1TB nvme / RTX 3070 8GB 140w

Permalänk

Perfekt, behöver 100FPS i MSröj..

Intels GPU har knappt klarat av det ens, inga höga förväntningar alla fall

Skickades från m.sweclockers.com

Visa signatur

Kebabrulle

Desktop = AMD A10-6800K, 8GB, AMD R9 290 4GB

Permalänk
Medlem
Skrivet av SCORPIUS:

Okey, så detta gör det bättre, minskar microstutters osv om jag förstår det rätt?

Men är det någont mer detta gör? Det tar väl inte bort att spelmotorn behöver programeras för sli/CF eller multiGPU?

Spelmotorn måste inte programmerad för multigpu, det räcker med att drivrutinen delar upp jobbet mellan korten. Kört massa spel som inte haft stöd för SLI men där man ändå kan använda SLI.

Skickades från m.sweclockers.com

Permalänk
Medlem

Ska bli väldigt intressant vad detta kan göra med maskininlärning och om det kan kriga med Nvidias QUADRO lösningar som har 24GB minne. Om i framtiden kan trycka in 4 olika GPU som man dela på minne direkt istället för att bygga ett maxat + om de kan skala i realtid på ett vettigt sätt. Det kan också vara till stöd för Googles nya streamtjänst som gör att den automatiskt kan ge mer eller mindre minne till olika sessioner på platformen.
Lite rant men känns spontant som detta kan göra massor.

Visa signatur

// ZooiK

Permalänk
Medlem

Helt klar intressant, hoppas de slår Nvidia på fingrarna så de får jobba lite för pengarna. Skulle gynna alla om det blev ett GPU-krig igen.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av quattro-2.6:

Perfekt, behöver 100FPS i MSröj..

Intels GPU har knappt klarat av det ens, inga höga förväntningar alla fall

Skickades från m.sweclockers.com

Nu har du nog rört ihop saker?
Den integrerade är inte till för spel även om vissa spel går att köra.

Permalänk
Lyxfällan 🎮

@quattro-2.6: precis som @Dem8n skriver är Intels integrerade grafikkretsar något annat än vad potentialen i CXL skvallrar om. Intels iGPU integrerar en krets på processor-kislet som ska kunna ge systemet kapacitet att hantera alla tänkbara uppgifter, även multimedia och spel vilket den av naturliga skäl inte gör lika bra som ett dedikerat grafikkort.

Det CXL har potentialen att tillföra är lägre latens och synkroniserad minnesanvändning för parkopplade grafikkort, två aspekter som begränsar nyttan i parkopplade grafikkort med befintliga lösningar för Multi-GPU (SLI/Crossfire). Eftersom det är en öppen standard skulle konkurrenter som AMD och Nvidia också kunna välja att bygga lösningar för Multi-GPU runt CXL.

Visa signatur

"We're with the press, hired geeks!"
Raoul Duke, Fear n' Loathing in Las Vegas

Permalänk
Datavetare

Ska man destillera ner detta till dess mest viktiga poäng så ger tekniken GPU, FPGA, NPU, eller vad man nu stoppar in i sitt system, samma vy av CPU-RAM som CPUn själv.

Det betyder att program som körs på GPU, FPGA, NPU eller liknande blir på de flesta sätt rätt likställt med att köra ett program på mer än en CPU-kärna (från perspektivet för de som ska skriva programvaran, användarna lär bara märka bättre prestanda).

Idag är sådant inte möjligt med mindre än att man har en specialskriven drivare som hanterar just det fall man tänkt sig (Vega samt Pascal och senare har stöd för ungefär detta i OpenCL/CUDA).

Vägen via drivare betyder också att man i princip alltid måste involvera CPUn även om den egentligen inte har något med saken att göra, i många fall vill ju enheten bara läsa/skriva CPU RAM. Fungerar för begränsad användning, men i framtiden förväntas datorer blir allt mer heterogena (allt fler kretsar som är skräddarsydda för en specifik uppgift i stället för att köra det på en generell CPU).

I fallet GPU kan man då lite se det som att VRAM blir en stor cache, CPU-RAM är i grunden ändå där allt sparas vare sig det körs på CPU eller GPU.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
99:e percentilen
Skrivet av anon162230:

Detta är Intels "game changer" som i början avsevärt kan förändra maktbalansen på grafikkortsmarknaden. Senare kommer säkert både nvidia och amd använda CLX om den fungerar så bra som utannonserat och ger en så stor fördel som Intel beskriver.

CLX är vad SLI och CrossFire borde ha varit. Man kan säga att Intel har löst "the holy grail" för multi gpu lösningar.

En transparent multi gpu lösning som bara fungerar, speltillverkarna behöver inte ens göra något speciellt för att spel ska fungera med CLX.

Nu ska man väll ta allt med en gnutta salt innan Intel demostrerat hur bra CLX fungerar i verkligheten för vanliga konsumenter i t ex spel m.m.

CXL heter det, enligt artikeln. Ligger inte lika gott i mun, så du lär inte vara den siste som råkar kasta om bokstäverna.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem
Skrivet av Dem8n:

Spelmotorn måste inte programmerad för multigpu, det räcker med att drivrutinen delar upp jobbet mellan korten. Kört massa spel som inte haft stöd för SLI men där man ändå kan använda SLI.

Skickades från m.sweclockers.com

Nu blandade du samman MultiGpu med sli i en stor röra.
Ja det stämmer att det många gånger går att köra sli i spel utan att det stöds officiellt.

Så menar du sli eller menar du MultiGpu som är DX12 och nämn ett spel där drivrutinen delar upp jobbet mellen korten.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av SCORPIUS:

Nu blandade du samman MultiGpu med sli i en stor röra.
Ja det stämmer att det många gånger går att köra sli i spel utan att det stöds officiellt.

Så menar du sli eller menar du MultiGpu som är DX12 och nämn ett spel där drivrutinen delar upp jobbet mellen korten.

Ja förlåt SLI, det fungerar i alla spel, man skapar en egen profil i inställningarna för GPU bara.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Dem8n:

Ja förlåt SLI, det fungerar i alla spel, man skapar en egen profil i inställningarna för GPU bara.

Skickades från m.sweclockers.com

Nej, riktigt så enkelt är det inte. Vet inte hur många spel du provat att göra så här med.
Har du ens kollat hur korten skalar när du tvingar sli? I en del spel får du mindre fps och en hel del andra problem.

Här har du 1203 sidor att läsa om det.
https://forums.geforce.com/default/board/50/sli/

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av SCORPIUS:

Nej, riktigt så enkelt är det inte. Vet inte hur många spel du provat att göra så här med.
Har du ens kollat hur korten skalar när du tvingar sli? I en del spel får du mindre fps och en hel del andra problem.

Här har du 1203 sidor att läsa om det.
https://forums.geforce.com/default/board/50/sli/

De allra flesta spelen fungerar det utmärkt i, men det kan bli sämre skalning men då vinner man å andra sidan i temperatur.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Dem8n:

De allra flesta spelen fungerar det utmärkt i, men det kan bli sämre skalning men då vinner man å andra sidan i temperatur.

Skickades från m.sweclockers.com

Då säger vi så här. Vilka spel fungerar det utmärkt i, som inte har officiellt stöd för sli?
Vilka funkar det inte i? I ditt ursprungliga inlägg så funkade det i alla så...

Men.. om det inte skalar som det ska så lär du inte få mycket bättre prestanda än du får med 1 kort och du får alla nackdelarna med.
Som glitchar, microstutter, ryckig spelupplevelse.. så vinner i temperatur.. nja..

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem
Skrivet av SCORPIUS:

Då säger vi så här. Vilka spel fungerar det utmärkt i, som inte har officiellt stöd för sli?
Vilka funkar det inte i? I ditt ursprungliga inlägg så funkade det i alla så...

Men.. om det inte skalar som det ska så lär du inte få mycket bättre prestanda än du får med 1 kort och du får alla nackdelarna med.
Som glitchar, microstutter, ryckig spelupplevelse.. så vinner i temperatur.. nja..

Och där dog diskussionen.

Skickades från m.sweclockers.com