Intel föreslår "SLI" med integrerad grafik och grafikkort

Intel föreslår "SLI" med integrerad grafik och grafikkort

I upptakten till Xe-lanseringen vill Intel dra nytta av sina integrerade grafikdelar, som i dagsläget inte kommer till användning.

Läs hela artikeln här

Detta skulle ju vara spännande, särskilt med tanke på att många chip har en GPU del som i stort sett är oanvänd och värdelös 99.9% av tiden. Sålänge CPU inte drar mer W och blir mycket varmare tror jag det är en väldigt bra tanke att avlasta delar av grafiken.

Sjukt intressant! Detta kan bli riktigt stort tror jag

Detta gjorde mig upphetsad som fan när det först presenterades för 100 år sen. Tyvärr har ingen nappat.

Tanken att slippa slänga sin gamla gpu när man köper ny är fin.

Jag kanske tänker fel men är inte DirectX snarare ett högnivågränsnitt?
Det ligger ju i Windows och kan nyttjas mot flera olika grafikkortstillverkare och vitt skilda modeller.
Ett lågnivågränssnitt är så nära förknippat med hårdvaran att det inte borde gå att använda på det sättet som jag ser det?
Tycker även att det borde vara möjligt att hantera SLI i DirectX om kortet följer deras riktlinjer så att spelprogrammerarna ska slippa den delen.

AMD körde ju något liknande för väldigt länge sedan. Har för mig att jag fick det att funka med ett 3850 och något integrerat, kanske 3200?

Skrivet av Sh4d0wfi3nd:

Detta skulle ju vara spännande, särskilt med tanke på att många chip har en GPU del som i stort sett är oanvänd och värdelös 99.9% av tiden. Sålänge CPU inte drar mer W och blir mycket varmare tror jag det är en väldigt bra tanke att avlasta delar av grafiken.

fast nu har många t.ex slutna vattenkylare på sina cpuer som bör kunna ta lite mer värme.
likaså har man en bra luftkylare utan att klocka så har man ju lite marginal, så det är ju egentligen ett mindre bekymmer

annars får man väl uppgradera sin kylare vilket i sin tur är enkelt åtgärdat om man är i behov av det.

Ja det är väl inget nytt, frågan är om spelutvecklare kommer nappa på det, gissar på att det krävs en hel del extra kod för detta.

Men får man den att avlasta diskret GPU och CPU genom att sköta specifika delar i spelet så vore det ju coolt.

Helt klart intressant! Skulle även vara intressant om det gick uppdela, tex att använda den inbyggda grafiken som ett capture card

Detta har de väl pratats om jämnt, utan att det hänt så mycket. Hade förhoppningar att AMD skulle fixa något liknande med deras APU:er, men det tog sig aldrig riktigt. Är det för mycket runt om som måste fixas för att detta ska fungera?

Skrivet av HeroiX:

Helt klart intressant! Skulle även vara intressant om det gick uppdela, tex att använda den inbyggda grafiken som ett capture card

Jag antar att du menar att använda CPU:n grafikdel för videokodning. Det går ju redan idag med rätt programvara.

Jag har hört att t.ex. Adobe Premiere kan QuickSync-encodern inbyggd i Intel-processorer för videokodning.

Skulle inte förvåna mig om man skulle kunna göra något liknande för streaming, t.ex. med OBS där man kan välja olika encoders.

Dock så ska just QuickSync inte vara så bra kvalitetsmässigt, vilket är varför det inte är mer populärt.

Mycket killgissningar i detta inlägg, men ja, rent teoretiskt och delvis praktiskt går det redan idag. Det är ju dock inte samma sak som att båda GPU:erna jobbar tillbaka för att rendera samma last.

Skrivet av pv2b:

Jag antar att du menar att använda CPU:n grafikdel för videokodning. Det går ju redan idag med rätt programvara.

Jag har hört att t.ex. Adobe Premiere kan QuickSync-encodern inbyggd i Intel-processorer för videokodning.

Skulle inte förvåna mig om man skulle kunna göra något liknande för streaming, t.ex. med OBS där man kan välja olika encoders.

Dock så ska just QuickSync inte vara så bra kvalitetsmässigt, vilket är varför det inte är mer populärt.

Mycket killgissningar i detta inlägg, men ja, rent teoretiskt och delvis praktiskt går det redan idag. Det är ju dock inte samma sak som att båda GPU:erna jobbar tillbaka för att rendera samma last.

Jo precis, skrev lite snabbt. Jaså, det hade jag ingen aning om, intressant koncept! Nej det är ju sant, ska bli roligt att se hur detta utspelar sig

Mycket intressant detta och det är lite konstigt att det inte blivit större tidigare.
Dock riktigt bra att Intel pushar och tar fram kodbas för att förenkla detta.

Vill också minnas att jag läst om detta tidigare.

Riktigt bra med en stor aktör bakom!

Skrivet av pv2b:

Jag antar att du menar att använda CPU:n grafikdel för videokodning. Det går ju redan idag med rätt programvara.

Jag har hört att t.ex. Adobe Premiere kan QuickSync-encodern inbyggd i Intel-processorer för videokodning.

Skulle inte förvåna mig om man skulle kunna göra något liknande för streaming, t.ex. med OBS där man kan välja olika encoders.

Dock så ska just QuickSync inte vara så bra kvalitetsmässigt, vilket är varför det inte är mer populärt.

Mycket killgissningar i detta inlägg, men ja, rent teoretiskt och delvis praktiskt går det redan idag. Det är ju dock inte samma sak som att båda GPU:erna jobbar tillbaka för att rendera samma last.

Just kvaliteten hos QuickSync verkar vara den punkt där det förkommer mest felaktig information. Det finns inte bara ett sätt att använda QS, sättet det används i Handbrake ger större filer jämfört med att köra på CPU. Dock har det skett en förbättring över varje generation, men finns få tester med något senare än Sandy Bridge (Skylake QS är rätt mycket bättre).

Sättet Handbrake använder QS verkar vara rätt utdaterat. Sättet Adobe Premier och även ffmpeg (i alla fall under Linux med ffmpeg byggt med stöd för Intel Media SDK) ger i praktiken identiskt resultat som att köra på CPU. Prestandaboosten är rätt enorm, min Surface Pro 4 (med Iris Graphics Plus) kan koda video ungefär lika snabbt som min 3900X!

Hardware Canucks har en video där man visa skillnaden (eller brist på skillnad) i kvalité med och utan QS i Adobe Premier.

För just denna artikel är titeln rejält missvisade. Vad Intel föreslår är inte SLI, man nämner den tekniken och pekar på att den har en rad problem i DX12/Vulkan.

Vad Intel föreslår här är precis det AMD pushade för med "async compute" (AC). Nackdelen med att köra AC på det "normal" grafikkortet är att det äter upp prestanda från grafikrenderingen. Att använda sin iGPU ger fördelarna med AC, men utan att offra prestanda hos den GPU som renderar grafik.

iGPU ska alltså göra ren "compute", t.ex. avancerad fysik eller partikeleffekter. Det medan dGPU hanterar grafiken.

För just "compute" finns fördelar med en iGPU: den delar minne med CPU så kommunikationskostnaden mellan dessa är extremt låg. Här finns en skillnad mellan Intels iGPU och AMDs APUer, i båda delar RAM med CPU men i Intels fall delar CPU och GPU också L3$ så där är det i praktiken noll kommunikationslatens (det gäller även för t.ex. Apples och de senaste Qualcomm systemkretsar).

AMD har redan testat och det sög köttbullar, var fullständigt bortkastat och fyllde absolut ingen funktion på en desktop. Ska försöka leta upp testet.
Det enda scenariot det skulle fylla någon sorts funktion är möjligtvis i bärbara datorer där den diskreta GPUn också är skräp.

Ogillar tanken att iGPUn ska få en viss specifik uppgift och inget annat, för då har vi tre olika saker vars prestanda ska balanseras utan flaskhalser (CPU, GPU och iGPU). Bättre vore om man dynamiskt kunde dela upp laster mellan de olika GPUerna, men vet inte om det är praktiskt med tanke på alla latenser.

Skrivet av ajp_anton:

Ogillar tanken att iGPUn ska få en viss specifik uppgift och inget annat, för då har vi tre olika saker vars prestanda ska balanseras utan flaskhalser (CPU, GPU och iGPU). Bättre vore om man dynamiskt kunde dela upp laster mellan de olika GPUerna, men vet inte om det är praktiskt med tanke på alla latenser.

Att få asymmetriska system att dynamisk samarbete är extremt komplicerat och har historisk nästan alltid fallerat på att kostnaden för balansering överstiger eventuellt vinst.

Men om man lägger specifika "compute"uppgifter på iGPU finns en väldigt enkelt lösning där det saknas iGPU: använd SIMD (SSE/AVX) då det finns på alla moderna CPUer och saker som är designat för att effektivt köras på en GPU kan i princip alltid också köras effektivt med SIMD. Poängen med att primärt använda iGPU är att trots dess relativt låga prestanda motsvarar den ändå en väldigt kompetent CPU sett till SIMD-kapacitet.

Ställer man en high-end GPU mot en high-end CPU är den förra minst en tiopotens snabbare sett till SIMD-kapacitet!

Speldatorer har GPU för att ni, Intel av någon anledning har valt att göra en GPU på processorn som sen inte används, jävla idioter.

Ska inte behöva betala flera tusen bara för att få en processor utan GPU.

Detta var väl egentligen ingenting nytt. Stödet har funnit i DX12 ett tag nu.

Jag antar att intel vill belysa lite mer om fördelar och utmaningar med tekniken.

Man kan tänka sig att iGPU gör t.ex. Physx beräkningar och dylikt.

Löst relaterat, men det hade ju inte varit så dumt om alla Intels iGPUer fick jobba med Folding@Home...

Detta är ju knappast nytt.
Körde A10-7850 + AMD HD 7750...
Fungerade sämre än skit. Men det var Crossfire!

Skrivet av snajk:

AMD körde ju något liknande för väldigt länge sedan. Har för mig att jag fick det att funka med ett 3850 och något integrerat, kanske 3200?

AMD hybrid graphics vill jag minnas att det kallades.

https://m.sweclockers.com/forum/trad/1102963-lucid-virtu-mvp

Hade det på min ivy bridge, men det fungerade i princip aldrig...

Känns mer som Intel febrilt letar efter argument varför folk ska fortsätta köpa deras proppar och att samtidigt kunna belysa deras cpu med inbygd gpu fördelar. På så sätt fortsätta ta bra betalt och givetvis få prestanda fördelar där det kommer stödjas.

Slår det kan det vara så att AMD känner sig tvugna att haka på, då kommer vi alla få betala mer kostnaden vilket lag vi en väljer.....

Varför pratar alla jämt i dom här trådarna alltid som att... Allt ska brassas på maximalt och vi skiter i hur mycket ström allt drar och det är bara det som man max kan prestera som räknas. ?

Är den ingen som någonsin tänkt att ett användande skulle kunna vara att om man bara ser på film och surfar så skulle ju hela externa grafikkortet kunna stängas ner helt. Sen när man vill spela så slås det på. Man skulle spara massor med ström på det sättet.

AMD pushade för det här för ca 7 år sen. Vi får väl se om Intel lyckas tvinga fram det.

Skrivet av Tangentbord:

https://m.sweclockers.com/forum/trad/1102963-lucid-virtu-mvp

Hade det på min ivy bridge, men det fungerade i princip aldrig...

Yepp, körde det jag med på min förra rig men det var inte direkt stabilt, i bästa fall kunde jag få ut 10% mer FPS men det var sällan, konceptet är dock briljant tycker jag. Men å andra sidan tror jag nog mer på AMDs väg att inte ha integrerad grafik, renodla CPU:n istället. Det är såklart en del i förklaringen till varför AMD kan ge så fruktansvärt mycket mer prestanda per krona än Intel, för Intel skickar med en iGPU som väldigt få använder som såklart inte kostar 0.

Hoppas de får till det bättre än Virtu (från Lucidlogix) som skulle göra motsvarande med Z68.
Den lösningen fick jag aldrig att fungera...

Skrivet av snajk:

AMD körde ju något liknande för väldigt länge sedan. Har för mig att jag fick det att funka med ett 3850 och något integrerat, kanske 3200?

Så var det på min urgamla Acer burk som hade ATI Radeon HD 3650 och integrerad 3200.