Intel föreslår "SLI" med integrerad grafik och grafikkort

Permalänk
Melding Plague

Intel föreslår "SLI" med integrerad grafik och grafikkort

I upptakten till Xe-lanseringen vill Intel dra nytta av sina integrerade grafikdelar, som i dagsläget inte kommer till användning.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Detta skulle ju vara spännande, särskilt med tanke på att många chip har en GPU del som i stort sett är oanvänd och värdelös 99.9% av tiden. Sålänge CPU inte drar mer W och blir mycket varmare tror jag det är en väldigt bra tanke att avlasta delar av grafiken.

Visa signatur

I7 12700K, Asus RTX 3080 TI, Alienware AW3423DW och annat smått o gott.

Permalänk
Musikälskare

Sjukt intressant! Detta kan bli riktigt stort tror jag

Visa signatur

❀ Monitor: ASUS Swift 27" @ 1440p/165Hz ❀ CPU: Ryzen 7700X ❀ Cooling: Corsair H170i ELITE 420mm ❀ GPU: MSI 3080 Ti SUPRIM X ❀ Memory: Corsair 32GB DDR5 Vengeance ❀ Motherboard: ASUS Crosshair X670E Hero ❀ M.2: Samsung 980 Pro ❀ PSU: Corsair HX1200 ❀ Chassi: Corsair 7000X ❀ Time Spy: 19 340

📷 Mina fotografier
🎧 Vad lyssnar du på just nu?

Permalänk
Medlem

Detta gjorde mig upphetsad som fan när det först presenterades för 100 år sen. Tyvärr har ingen nappat.

Tanken att slippa slänga sin gamla gpu när man köper ny är fin.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli

Permalänk
Medlem

Jag kanske tänker fel men är inte DirectX snarare ett högnivågränsnitt?
Det ligger ju i Windows och kan nyttjas mot flera olika grafikkortstillverkare och vitt skilda modeller.
Ett lågnivågränssnitt är så nära förknippat med hårdvaran att det inte borde gå att använda på det sättet som jag ser det?
Tycker även att det borde vara möjligt att hantera SLI i DirectX om kortet följer deras riktlinjer så att spelprogrammerarna ska slippa den delen.

Permalänk
Avstängd

AMD körde ju något liknande för väldigt länge sedan. Har för mig att jag fick det att funka med ett 3850 och något integrerat, kanske 3200?

Permalänk
Medlem
Skrivet av Sh4d0wfi3nd:

Detta skulle ju vara spännande, särskilt med tanke på att många chip har en GPU del som i stort sett är oanvänd och värdelös 99.9% av tiden. Sålänge CPU inte drar mer W och blir mycket varmare tror jag det är en väldigt bra tanke att avlasta delar av grafiken.

fast nu har många t.ex slutna vattenkylare på sina cpuer som bör kunna ta lite mer värme.
likaså har man en bra luftkylare utan att klocka så har man ju lite marginal, så det är ju egentligen ett mindre bekymmer

annars får man väl uppgradera sin kylare vilket i sin tur är enkelt åtgärdat om man är i behov av det.

Visa signatur

| Ryzen 2600 | * | 16 GB DDR4 | EVGA 1060 6GB SC | * |
| Steam - Toivo |

Permalänk
Medlem

Ja det är väl inget nytt, frågan är om spelutvecklare kommer nappa på det, gissar på att det krävs en hel del extra kod för detta.

Men får man den att avlasta diskret GPU och CPU genom att sköta specifika delar i spelet så vore det ju coolt.

Permalänk
Medlem

Helt klart intressant! Skulle även vara intressant om det gick uppdela, tex att använda den inbyggda grafiken som ett capture card

Permalänk

Detta har de väl pratats om jämnt, utan att det hänt så mycket. Hade förhoppningar att AMD skulle fixa något liknande med deras APU:er, men det tog sig aldrig riktigt. Är det för mycket runt om som måste fixas för att detta ska fungera?

Visa signatur

i5 8400 / Gigabyte B360N Wifi / GTX 1080 / CoolerMaster NR200P / EVGA SuperNova GM 650 / Corsair Vengance LPX 16 GB DDR4 @ 2666mhz / Sandisk A110 & OCZ Trion 150 / Noctua NH-L12S

Permalänk
Hedersmedlem
Skrivet av HeroiX:

Helt klart intressant! Skulle även vara intressant om det gick uppdela, tex att använda den inbyggda grafiken som ett capture card

Jag antar att du menar att använda CPU:n grafikdel för videokodning. Det går ju redan idag med rätt programvara.

Jag har hört att t.ex. Adobe Premiere kan QuickSync-encodern inbyggd i Intel-processorer för videokodning.

Skulle inte förvåna mig om man skulle kunna göra något liknande för streaming, t.ex. med OBS där man kan välja olika encoders.

Dock så ska just QuickSync inte vara så bra kvalitetsmässigt, vilket är varför det inte är mer populärt.

Mycket killgissningar i detta inlägg, men ja, rent teoretiskt och delvis praktiskt går det redan idag. Det är ju dock inte samma sak som att båda GPU:erna jobbar tillbaka för att rendera samma last.

Permalänk
Medlem
Skrivet av pv2b:

Jag antar att du menar att använda CPU:n grafikdel för videokodning. Det går ju redan idag med rätt programvara.

Jag har hört att t.ex. Adobe Premiere kan QuickSync-encodern inbyggd i Intel-processorer för videokodning.

Skulle inte förvåna mig om man skulle kunna göra något liknande för streaming, t.ex. med OBS där man kan välja olika encoders.

Dock så ska just QuickSync inte vara så bra kvalitetsmässigt, vilket är varför det inte är mer populärt.

Mycket killgissningar i detta inlägg, men ja, rent teoretiskt och delvis praktiskt går det redan idag. Det är ju dock inte samma sak som att båda GPU:erna jobbar tillbaka för att rendera samma last.

Jo precis, skrev lite snabbt. Jaså, det hade jag ingen aning om, intressant koncept! Nej det är ju sant, ska bli roligt att se hur detta utspelar sig

Permalänk
Snusfri

Mycket intressant detta och det är lite konstigt att det inte blivit större tidigare.
Dock riktigt bra att Intel pushar och tar fram kodbas för att förenkla detta.

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Quizmaster Malmö 22

Vill också minnas att jag läst om detta tidigare.

Riktigt bra med en stor aktör bakom!

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Datavetare
Skrivet av pv2b:

Jag antar att du menar att använda CPU:n grafikdel för videokodning. Det går ju redan idag med rätt programvara.

Jag har hört att t.ex. Adobe Premiere kan QuickSync-encodern inbyggd i Intel-processorer för videokodning.

Skulle inte förvåna mig om man skulle kunna göra något liknande för streaming, t.ex. med OBS där man kan välja olika encoders.

Dock så ska just QuickSync inte vara så bra kvalitetsmässigt, vilket är varför det inte är mer populärt.

Mycket killgissningar i detta inlägg, men ja, rent teoretiskt och delvis praktiskt går det redan idag. Det är ju dock inte samma sak som att båda GPU:erna jobbar tillbaka för att rendera samma last.

Just kvaliteten hos QuickSync verkar vara den punkt där det förkommer mest felaktig information. Det finns inte bara ett sätt att använda QS, sättet det används i Handbrake ger större filer jämfört med att köra på CPU. Dock har det skett en förbättring över varje generation, men finns få tester med något senare än Sandy Bridge (Skylake QS är rätt mycket bättre).

Sättet Handbrake använder QS verkar vara rätt utdaterat. Sättet Adobe Premier och även ffmpeg (i alla fall under Linux med ffmpeg byggt med stöd för Intel Media SDK) ger i praktiken identiskt resultat som att köra på CPU. Prestandaboosten är rätt enorm, min Surface Pro 4 (med Iris Graphics Plus) kan koda video ungefär lika snabbt som min 3900X!

Hardware Canucks har en video där man visa skillnaden (eller brist på skillnad) i kvalité med och utan QS i Adobe Premier.

För just denna artikel är titeln rejält missvisade. Vad Intel föreslår är inte SLI, man nämner den tekniken och pekar på att den har en rad problem i DX12/Vulkan.

Vad Intel föreslår här är precis det AMD pushade för med "async compute" (AC). Nackdelen med att köra AC på det "normal" grafikkortet är att det äter upp prestanda från grafikrenderingen. Att använda sin iGPU ger fördelarna med AC, men utan att offra prestanda hos den GPU som renderar grafik.

iGPU ska alltså göra ren "compute", t.ex. avancerad fysik eller partikeleffekter. Det medan dGPU hanterar grafiken.

För just "compute" finns fördelar med en iGPU: den delar minne med CPU så kommunikationskostnaden mellan dessa är extremt låg. Här finns en skillnad mellan Intels iGPU och AMDs APUer, i båda delar RAM med CPU men i Intels fall delar CPU och GPU också L3$ så där är det i praktiken noll kommunikationslatens (det gäller även för t.ex. Apples och de senaste Qualcomm systemkretsar).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

AMD har redan testat och det sög köttbullar, var fullständigt bortkastat och fyllde absolut ingen funktion på en desktop. Ska försöka leta upp testet.
Det enda scenariot det skulle fylla någon sorts funktion är möjligtvis i bärbara datorer där den diskreta GPUn också är skräp.

Permalänk
Medlem

Ogillar tanken att iGPUn ska få en viss specifik uppgift och inget annat, för då har vi tre olika saker vars prestanda ska balanseras utan flaskhalser (CPU, GPU och iGPU). Bättre vore om man dynamiskt kunde dela upp laster mellan de olika GPUerna, men vet inte om det är praktiskt med tanke på alla latenser.

Permalänk
Datavetare
Skrivet av ajp_anton:

Ogillar tanken att iGPUn ska få en viss specifik uppgift och inget annat, för då har vi tre olika saker vars prestanda ska balanseras utan flaskhalser (CPU, GPU och iGPU). Bättre vore om man dynamiskt kunde dela upp laster mellan de olika GPUerna, men vet inte om det är praktiskt med tanke på alla latenser.

Att få asymmetriska system att dynamisk samarbete är extremt komplicerat och har historisk nästan alltid fallerat på att kostnaden för balansering överstiger eventuellt vinst.

Men om man lägger specifika "compute"uppgifter på iGPU finns en väldigt enkelt lösning där det saknas iGPU: använd SIMD (SSE/AVX) då det finns på alla moderna CPUer och saker som är designat för att effektivt köras på en GPU kan i princip alltid också köras effektivt med SIMD. Poängen med att primärt använda iGPU är att trots dess relativt låga prestanda motsvarar den ändå en väldigt kompetent CPU sett till SIMD-kapacitet.

Ställer man en high-end GPU mot en high-end CPU är den förra minst en tiopotens snabbare sett till SIMD-kapacitet!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Speldatorer har GPU för att ni, Intel av någon anledning har valt att göra en GPU på processorn som sen inte används, jävla idioter.

Ska inte behöva betala flera tusen bara för att få en processor utan GPU.

Permalänk
Medlem

Detta var väl egentligen ingenting nytt. Stödet har funnit i DX12 ett tag nu.

Jag antar att intel vill belysa lite mer om fördelar och utmaningar med tekniken.

Man kan tänka sig att iGPU gör t.ex. Physx beräkningar och dylikt.

Visa signatur

Ryzen 9 5950X, 32GB 3600MHz CL16, SN850 500GB SN750 2TB, B550 ROG, 3090 24 GB
Har haft dessa GPUer: Tseng ET6000, Matrox M3D, 3DFX Voodoo 1-3, nVidia Riva 128, TNT, TNT2, Geforce 256 SDR+DDR, Geforce 2mx, 3, GT 8600m, GTX460 SLI, GTX580, GTX670 SLI, 1080 ti, 2080 ti, 3090 AMD Radeon 9200, 4850 CF, 6950@70, 6870 CF, 7850 CF, R9 390, R9 Nano, Vega 64, RX 6800 XT
Lista beg. priser GPUer ESD for dummies

Permalänk
Medlem

Löst relaterat, men det hade ju inte varit så dumt om alla Intels iGPUer fick jobba med Folding@Home...

Visa signatur

Nybörjare på Linux? Se hit! #15665841

Permalänk
Moderator
Festpilot 2020, Antiallo

Detta är ju knappast nytt.
Körde A10-7850 + AMD HD 7750...
Fungerade sämre än skit. Men det var Crossfire!

Visa signatur

 | PM:a Moderatorerna | Kontaktformuläret | Geeks Discord |
Testpilot, Skribent, Moderator & Geeks Gaming Huvudadmin

Permalänk
Medlem
Skrivet av snajk:

AMD körde ju något liknande för väldigt länge sedan. Har för mig att jag fick det att funka med ett 3850 och något integrerat, kanske 3200?

AMD hybrid graphics vill jag minnas att det kallades.

Permalänk
Medlem

https://m.sweclockers.com/forum/trad/1102963-lucid-virtu-mvp

Hade det på min ivy bridge, men det fungerade i princip aldrig...

Visa signatur
Permalänk
Medlem

Känns mer som Intel febrilt letar efter argument varför folk ska fortsätta köpa deras proppar och att samtidigt kunna belysa deras cpu med inbygd gpu fördelar. På så sätt fortsätta ta bra betalt och givetvis få prestanda fördelar där det kommer stödjas.

Slår det kan det vara så att AMD känner sig tvugna att haka på, då kommer vi alla få betala mer kostnaden vilket lag vi en väljer.....

Permalänk

Varför pratar alla jämt i dom här trådarna alltid som att... Allt ska brassas på maximalt och vi skiter i hur mycket ström allt drar och det är bara det som man max kan prestera som räknas. ?

Är den ingen som någonsin tänkt att ett användande skulle kunna vara att om man bara ser på film och surfar så skulle ju hela externa grafikkortet kunna stängas ner helt. Sen när man vill spela så slås det på. Man skulle spara massor med ström på det sättet.

Visa signatur

Kraschfield

Permalänk
Avstängd

AMD pushade för det här för ca 7 år sen. Vi får väl se om Intel lyckas tvinga fram det.

Visa signatur

New: Asus x370 prime pro, Ryzen 1700 (@3.925ghz) , Ripjaws V 16GB 3600 MHz (@3200mhz 14c). https://valid.x86.fr/curj7r
Radeon VII.

Permalänk
Medlem
Skrivet av Tangentbord:

https://m.sweclockers.com/forum/trad/1102963-lucid-virtu-mvp

Hade det på min ivy bridge, men det fungerade i princip aldrig...

Yepp, körde det jag med på min förra rig men det var inte direkt stabilt, i bästa fall kunde jag få ut 10% mer FPS men det var sällan, konceptet är dock briljant tycker jag. Men å andra sidan tror jag nog mer på AMDs väg att inte ha integrerad grafik, renodla CPU:n istället. Det är såklart en del i förklaringen till varför AMD kan ge så fruktansvärt mycket mer prestanda per krona än Intel, för Intel skickar med en iGPU som väldigt få använder som såklart inte kostar 0.

Permalänk
Medlem

Hoppas de får till det bättre än Virtu (från Lucidlogix) som skulle göra motsvarande med Z68.
Den lösningen fick jag aldrig att fungera...

Permalänk
Medlem
Skrivet av snajk:

AMD körde ju något liknande för väldigt länge sedan. Har för mig att jag fick det att funka med ett 3850 och något integrerat, kanske 3200?

Så var det på min urgamla Acer burk som hade ATI Radeon HD 3650 och integrerad 3200.

Visa signatur

MSI X99A GODLIKE GAMING | i7-6950X 4.3GHz | 64GB RAM 3200MHz | RTX 2080

Nintendo Switch | PlayStation 5 | Xbox Series X

Min FZ Profil