AMD Fidelity FX Super Resolution till Radeon och Geforce den 22 juni

Permalänk
Konsolpleb 🕹
Skrivet av A11ium:

Det var ju lite deppigare. Känns som att de hade behövt en ”ultra mega quality”. För om ultra kan ta oss från 49 till 78 fps så låter det ju som om det fortfarande hade funnits en plats för något mellanting där.

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av Nimin:

Kul att det funkar till Pascal också. Det har ju NVIDIA struntat i.

Ja, jäkla Nvidia som inte uppfunnit tidsmaskinen så att de kan åka tillbaka och stoppa in RTX i GTX-korten.

Hur tänker du att DLSS som utgår från en specifik hårdvara ska backportas? Du kan ju kolla upp prestandan när man kör raytracing på ett 10-serien (jo, det går) för att få en uppfattning om hur DLSS skulle fungera.

Permalänk
Medlem
Skrivet av UndaC:

Det var ju lite deppigare. Känns som att de hade behövt en ”ultra mega quality”. För om ultra kan ta oss från 49 till 78 fps så låter det ju som om det fortfarande hade funnits en plats för något mellanting där.

Kanske lite tidigt att dra några som helst slutsatser. Om 3 veckor så kan tredje part sätta tänderna i det och gå igenom det ordentligt.

Permalänk
Konsolpleb 🕹
Skrivet av Novdid:

Kanske lite tidigt att dra några som helst slutsatser. Om 3 veckor så kan tredje part sätta tänderna i det och gå igenom det ordentligt.

Självklart ska vi göra det också, men det behöver/bör ju inte hindra oss från att diskutera det som AMD gick ut med idag?

Att det skulle vara otroligt mycket bättre än kurerat innehåll som AMD tagit fram för att promota funktionen har jag dock lite svårt att se.

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av UndaC:

Självklart ska vi göra det också, men det behöver ju inte hindra oss från att diskutera det som AMD gick ut med idag.

Att det skulle vara otroligt mycket bättre än kurerat innehåll som AMD tagit fram för att promota funktionen har jag dock lite svårt att se.

är det inte lite meningslös att jämför stillbilder. denna tekniken används ju på bilder i rörelse.

Visa signatur

GamingRig: Cooler Master NR200P/ASUS ROG STRIX B550-I GAMING/AMD Ryzen 5 5700G/Noctual NH-D12L/Corsair SF750 Platinum/Crucial Ballistix Elite 2x8GB 3600MHz/

Permalänk
Konsolpleb 🕹
Skrivet av Bernd_P1:

är det inte lite meningslös att jämför stillbilder. denna tekniken används ju på bilder i rörelse.

Men tanke på att tekniken till skillnad från TAA, DLSS, UE5 Superresolution osv. inte använder någon temporal aspekt och inga rörelsevektorer etc. så är det nog mer rimligt att titta på det här i stillbilder än andra tekniker.

Så jag skulle nog inte säga att det är menlöst, det verkar ju inte AMD heller tycka som skapat slider-jämförelser av stillbilder för att promota funktionen etc.

Men självklart är det in motion man vill se det i slutändan. Tappad upplösning blir ju mindre påtaglig när något är i rörelse. Och i fallet med TAA, DLSS etc så är det också i rörelse som artefakter riskerar att uppstå så där lär FSR ha ett potentiellt övertag.

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av Novdid:

Kanske lite tidigt att dra några som helst slutsatser. Om 3 veckor så kan tredje part sätta tänderna i det och gå igenom det ordentligt.

Ja, t.ex. Digital Foundry kommer analysera det i detalj och så långt det är möjligt jämföra med DLSS.

Permalänk
Medlem

@UndaC

Ja givetvis är det kul att spekulera, och det AMD visar kanske för tillfället är det bästa de kan visa upp.

Jag personligen tror inte det kommer kunna mäta sig med DLSS, inte nu i början i alla fall. Däremot är det ju fint att de som sitter med äldre hårdvara kanske kan blåsa lite liv i sina Pascal och gamla Polariskort i nyare spel. Blir spännande att se hur det kommer se ut, speciellt med tanke på att de inte använder temporal information. Kommer bete sig totalt annorlunda från DLSS.

Permalänk
Konsolpleb 🕹
Skrivet av Novdid:

@UndaC

Ja givetvis är det kul att spekulera, och det AMD visar kanske för tillfället är det bästa de kan visa upp.

Jag personligen tror inte det kommer kunna mäta sig med DLSS, inte nu i början i alla fall. Däremot är det ju fint att de som sitter med äldre hårdvara kanske kan blåsa lite liv i sina Pascal och gamla Polariskort i nyare spel. Blir spännande att se hur det kommer se ut, speciellt med tanke på att de inte använder temporal information. Kommer bete sig totalt annorlunda från DLSS.

Jag har väl lite samma inställning där. Även om det "bara" är lite bättre än "rå" uppskalning med bililjär filtrering så är det ju härligt att se. Framförallt för ägare av äldre kort eller konsolspelare. Och RX 6000 behöver ju bra uppskalning för att verkligen kunna ta sig an RT känns det som.

Visa signatur

240p är livet

Permalänk
Avstängd

Dlss går samma öde till mötes som gsync.

Permalänk
Medlem
Skrivet av Opartisk:

Dlss går samma öde till mötes som gsync.

Permalänk
Medlem

Det är tveksamt i det korta perspektivet. Men i detta långa brukar inte proprietära lösningar överleva särskilt länge om det finns en hyfsat jämförbar standard som är mer öppen. Alternativet kan vara att DLSS i framtiden blir öppnare eller att Nvidia kompletterar med en liknande grej som FSR och döper det till DLSS-Compatible eller något, det kommer inte vara lika bra men hyfsat nära. Och något är mer än inget.

G-Sync har länge varit bättre än DP-adaptive sync men nu är skillnaden så liten på bra skärmar att G-Sync är svårt att motivera. Asus har ju till och med variabel overdrive nu på vissa icke-G-Syncskärmar. USB är en annan branschstandard som mer eller mindre eliminerat alla andra proprietära lösningar. FSR eller något liknande kommer stödjas av konsolerna vilket bara det kommer vara en garant för att det kommer användas brett i branschen. Vi får se.

Permalänk
Medlem
Skrivet av Olle P:

Efter 2½ år är det en bråkdel av spelarna som har hårdvara med stöd för DLSS (version 1.0).
100% av spelarna (inklusive de med konsol) har hårdvara kompatibel med FSR (så fort uppdaterade drivrutiner släppts).

Jag misstänker att FSR ganska snabbt får ett betydligt större genomslag än DLSS.

Att det blir via drivrutin eller extern programvara. T.ex. tillägg i drivrutinen som kan prata med ett annat API. Lite som OpenAL var tänkt men tror aldrig det fungerade så. Har säkert fel.

Sen så antar jag att du vet att all nVidia hårdvara som stöder DLSS stöder senaste versionen inte bara 1.0 Beror snarare på spelets implementation. Så samma version med 2060 som med 3090.

Då AMD skriver att det stöds i "Wide API support for DirectX®12, Vulkan®, and DirectX®11!"
Så kan man ju indra om det behöver drv stöd.
"https://gpuopen.com/fsr-announce/"

Står iof att spelen behöver patchas.
"As we’ve just announced at Computex, the first patches for games with FSR enabled will be available on June 22nd 2021. If you’re also waiting for the source code, all we can tell you for now is that it will be here on GPUOpen soon"
Men skulle gärna se en drv inplementation liknande nvidias DSR men variabel kvalitet. Men nvidias är ju bara för att rendera åt andra hållet.
Tror ni förstår iden med att ha en generell inställning för vissa upplösningar. Som spelet inte förstår utan bara lyder.

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av tBiorrith:

Jepp, igen igen....
Var ju samma sak med G-sync. Sedan släppte AMD Freesync via software istället för med en egen svindyr chip. Som även nvidia använder nu.

Och när de lanserade Vulkan som sedan DX12 härmade.

Eller x32-64 en gång i tiden.

Istället för att låsa det till sig själva delar de med sig. Good guys AMD!

Så vit jag vet så var DX12 på väg lång innan Vulkan eller Metal var påtänkt. AMD Fressync var och är delvis en del av VESA standarden och det var bra av AMD att göra som de gjorde även om det tog år innan det fanns vettiga Fresync skärmar. De la inte ut något om det innan nVidia tryckte på..

x86-64 är inte fritt för Intel att använda. AMD och Intel byter licenser mellan varandra för olika funktioner. Så bara dela med sig har du dessvärre fel i.

https://www.kitguru.net/components/cpu/anton-shilov/amd-clari...
https://www.reddit.com/r/Amd/comments/7bv3r1/amdintel_cross_l...

Visa signatur

CPU: 5900x. Mem:64GB@3200 16-17-17-34-1T. (ImDIsk)
GPU: 1080 Ti@ca 6-7%OC. Sound: SB-Z -> toslink (DTS)-> old JVC. MB Realtek to Z-2300 for VOIP.

Permalänk
Medlem
Skrivet av Novdid:

Det är tveksamt i det korta perspektivet. Men i detta långa brukar inte proprietära lösningar överleva särskilt länge om det finns en hyfsat jämförbar standard som är mer öppen. Alternativet kan vara att DLSS i framtiden blir öppnare eller att Nvidia kompletterar med en liknande grej som FSR och döper det till DLSS-Compatible eller något, det kommer inte vara lika bra men hyfsat nära. Och något är mer än inget.

G-Sync har länge varit bättre än DP-adaptive sync men nu är skillnaden så liten på bra skärmar att G-Sync är svårt att motivera. Asus har ju till och med variabel overdrive nu på vissa icke-G-Syncskärmar. USB är en annan branschstandard som mer eller mindre eliminerat alla andra proprietära lösningar. FSR eller något liknande kommer stödjas av konsolerna vilket bara det kommer vara en garant för att det kommer användas brett i branschen. Vi får se.

Ny teknologi introduceras ofta i premiumsegmentet för att på sikt spilla över till de mer budgetinriktade segmenten. Det ligger inte för mig att vänta 5+ år på att det kanske kommer något "gratisalternativ" som är nästan lika bra, jag har alldeles för kort liv för det. Inget fel med att inte ha köpt G-Sync, det innebär bara att man inte var tillräckligt intresserad av vad tekniken kunnat erbjuda för att vilja lägga de pengarna.

Incitamenten för att utveckla tekniken från första början kommer ur att det går att få betalt för den. Den här återkommande idén om att AMD skulle släppa fria lösningar för att de är så snälla (du kan se flera exempel i den här tråden), snarare än för att de måste försöka hålla sitt ekosystem med funktionalitet på samma nivå som Nvidia, är befängd. Att någonting blir en branschstandard bygger också på att kunderna är villiga att investera i det. USB kostade och kostar också något, vilket stöds av alla kunder som fortsatt köpa USB-grejer.

Permalänk
Medlem
Skrivet av UndaC:

Men tanke på att tekniken till skillnad från TAA, DLSS, UE5 Superresolution osv. inte använder någon temporal aspekt och inga rörelsevektorer etc. så är det nog mer rimligt att titta på det här i stillbilder än andra tekniker.

Med tanke på att målet med FSR är att få upp bildfrekvensen från "för låg" till "acceptabel" med acceptabel bildkvalitet, alternativt förbättra bildkvaliteten med bibehållen (ganska låg) bildfrekvens, är det snarast jämförelser av subjektiv spelupplevelse med relativt klen hårdvara som är relevant vid värdering av FSR.

Skrivet av hACmAn:

Sen så antar jag att du vet att all nVidia hårdvara som stöder DLSS stöder senaste versionen inte bara 1.0 Beror snarare på spelets implementation. ...
Då AMD skriver att det stöds i "Wide API support for DirectX®12, Vulkan®, and DirectX®11!"
Så kan man ju indra om det behöver drv stöd.

Detta visste jag inte. Tack för info!

Påverkar ändå inte nämnvärt mina slutsatser:
* FSR är så gott som gratis att implementera (kräver väldigt liten arbetsinsats) och öppnar spelet för en stor massa av potentiella spelare med klenare grafikkretsar (ökar försäljningen). FSR innebär således en ekonomisk vinst för utvecklaren.
* DLSS är dyrt att implementera (mätt i extra tid för kodning) och skapar så gott som noll ökad försäljning. Om inte Nvidia betalar merkostnaden blir det en ekonomisk förlust för utvecklaren. Dessa kostnader måste då antingen belasta Nvidias ägare (i form av lägre vinst) och/eller kunderna (i form av högre hårdvarupriser).

* Givet att FSR är ungefär så bra som AMD hävdar finns det bara fördelar för spelutvecklarna att implementera det. Låter de bli så går de miste om intäkter. Räkna med ett snabbt breddinförande!
* Hur länge vill Nvidia betala för att DLSS ska implementeras i nya spel? Hittills har de betalat för ett femtiotal titlar, hur många fler blir det innan de kastar in handduken?

Permalänk
Konsolpleb 🕹
Skrivet av Olle P:

alternativt förbättra bildkvaliteten med bibehållen (ganska låg) bildfrekvens

Vad baserar du detta på? Det verkar ju inte stämma med hur tekniken fungerar eller vad AMD säger?

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av Olle P:

* Hur länge vill Nvidia betala för att DLSS ska implementeras i nya spel? Hittills har de betalat för ett femtiotal titlar, hur många fler blir det innan de kastar in handduken?

Sa du samma sak om DX12, som kom ut för nästan sex år sedan?

Permalänk
Medlem
Skrivet av UndaC:

Vad baserar du detta på? Det verkar ju inte stämma med hur tekniken fungerar eller vad AMD säger?

Vad som är "bättre bild" är ju subjektivt, men om man kan öka grundinställningen från "låg" till "hög" utan att tappa bildfrekvens men samtidigt råka ut för "FSR-artefakter" (vad nu detta kommer innebära) så får man nog ändå en över lag bättre upplevelse. (Ungefär som skillnaden mellan att ha DLSS och RT "på" eller "av".)

Skrivet av Sveklockarn:

Sa du samma sak om DX12, som kom ut för nästan sex år sedan?

Ungefär, och jag verkar ha fått rätt!
När DX12 introducerades var ett viktigt argument att utvecklarna kan skapa optimerad kod för varje specifik hårdvara för att på så sätt få ut maximal prestanda. Närmast en återgång till DOS-tiden då man vid start av ett spel fick tala om vilken typ av ljudkort man hade så att rätt drivrutiner i spelet skulle användas, även om det valet med DX12 sköts automatiskt.
Det var inte svårt att inse att kodarna inte ville ha det merarbetet...

I praktiken vill utvecklarna varken koda för en specifik hårdvara (undantaget konsoler) eller lägga tid på att skapa 30 olika optimerade rutiner för att täcka upp för de vanligast förekommande alternativen.
Viktigaste "förbättringen" från DX11 till DX12 undviker man alltså att använda!
Microsofts "toolkit" till DX12 är nu så pass moget att det även är enklare än de gamla för DX10/11 när man skapar generell kod, så därför har det nu blivit dominerande.

Permalänk
Medlem
Skrivet av Olle P:

Ungefär, och jag verkar ha fått rätt!

Hur då? Det finns knappast något som konkurrerar med DX12 längre.

Skrivet av Olle P:

När DX12 introducerades var ett viktigt argument att utvecklarna kan skapa optimerad kod för varje specifik hårdvara för att på så sätt få ut maximal prestanda. Närmast en återgång till DOS-tiden då man vid start av ett spel fick tala om vilken typ av ljudkort man hade så att rätt drivrutiner i spelet skulle användas, även om det valet med DX12 sköts automatiskt.
Det var inte svårt att inse att kodarna inte ville ha det merarbetet...

Det klart att många som kan ta en genväg genom att återvinna gammal kod kommer att göra det, framförallt när det funnits andra delar av systemen som begränsat vad som går att göra. Något självändamål i att använda DX12 finns givetvis inte om man inte drar nytta av de teknologiska framsteg som gjorts.

Skrivet av Olle P:

I praktiken vill utvecklarna varken koda för en specifik hårdvara (undantaget konsoler) eller lägga tid på att skapa 30 olika optimerade rutiner för att täcka upp för de vanligast förekommande alternativen.
Viktigaste "förbättringen" från DX11 till DX12 undviker man alltså att använda!
Microsofts "toolkit" till DX12 är nu så pass moget att det även är enklare än de gamla för DX10/11 när man skapar generell kod, så därför har det nu blivit dominerande.

Det tar alltid tid innan ny teknologi slår igenom, särskilt om gammal teknologi kan producera nästan samma resultat. Om vi pratar om DLSS så gör det vad all annan kantutjämning alltid saknat, förmågan att kantutjämna utan att bilden blurras, så det är nog liten risk att det försvinner i historiens glömska precis som att det är liten risk att AI-implementationer kommer vara en försvinnande Nvidia-finess.

Permalänk
Konsolpleb 🕹
Skrivet av Olle P:

Vad som är "bättre bild" är ju subjektivt, men om man kan öka grundinställningen från "låg" till "hög" utan att tappa bildfrekvens men samtidigt råka ut för "FSR-artefakter" (vad nu detta kommer innebära) så får man nog ändå en över lag bättre upplevelse. (Ungefär som skillnaden mellan att ha DLSS och RT "på" eller "av".)

Ah, jag trodde du syftade på att upplösningen skulle upplevas som förbättrad vilket var det jag reagerade på. Men då är jag med, och ja i min mening är det där exakt vad DLSS och FSR är bäst på:
Att i totaliteten ge en bild som är trevligare än native. Tex genom att offra lite krispighet mot att få mycket bättre ljussättning, skuggor och reflektioner via RT tex. är väl det tydligaste scenariot.

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av tBiorrith:

Och när de lanserade Vulkan som sedan DX12 härmade.

Skrivet av hACmAn:

Så vit jag vet så var DX12 på väg lång innan Vulkan eller Metal var påtänkt.

Tror att det syftas på Mantle, som AMD lanserade först i Battlefield 4 ihop med Dice hösten 2013, och som sen kom i ett antal spel framförallt från EA. Sen kan man ju iofs fråga sig om DX12 härmade Mantle, men i praktiken blev det så, det satte definitivt mer press på Microsoft att verkligen få ut DX12. Mantle var redan ute på banan och Microsoft hade knappt startat, de hade inte ens pratat om lågnivå-api:er innan Mantle kom ut.

Microsoft hävdade visserligen att de minsann också planerade något liknande api, men DX12 kom först ett och ett halvt år efter Mantle. Långt innan dess hade Mantle uppgått i utvecklingen av Vulkan som en av de större byggstenarna. AMD bidrog med alltså med en stor del av grunden till Vulkan, så på sätt och vis var Vulkan - i form av Mantle - före DX12.

Permalänk
Medlem
Skrivet av Sveklockarn:

Hur då? Det finns knappast något som konkurrerar med DX12 längre. ...

Jag påstod att optimering för varje specifik hårdvara, dvs det som var specifikt för DX12 och (enligt Microsoft) skulle ge stora prestandavinster, inte skulle slå igenom.
Så vitt jag vet är det ännu ingen sådan optimering som gjorts annat än för Xbox.

Permalänk
Konsolpleb 🕹
Skrivet av Olle P:

Jag påstod att optimering för varje specifik hårdvara, dvs det som var specifikt för DX12 och (enligt Microsoft) skulle ge stora prestandavinster, inte skulle slå igenom.
Så vitt jag vet är det ännu ingen sådan optimering som gjorts annat än för Xbox.

Det man talade om var ju att ha ett API som är close to metal, och det är ju DX12? Det är inte det du minns bara?

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av Sveklockarn:

Det tar alltid tid innan ny teknologi slår igenom, ... Om vi pratar om DLSS så gör det vad all annan kantutjämning alltid saknat, förmågan att kantutjämna utan att bilden blurras, så det är nog liten risk att det försvinner i historiens glömska precis som ...

... Hairworks! Gör vad ingen annan teknik gjort tidigare!

Permalänk
Medlem
Skrivet av Olle P:

... Hairworks! Gör vad ingen annan teknik gjort tidigare!

Ingen särskilt bra jämförelse när vi pratar om att den ena funktionen stödjer sig på maskininlärning va?

Permalänk
Medlem
Skrivet av UndaC:

Det man talade om var ju att ha ett API som är close to metal, och det är ju DX12? Det är inte det du minns bara?

... som kan nyttjas till optimeringar i mjukvaran på ett sätt som tidigare versioner av D3D inte klarat. (Hela finessen med att vara tight med hårdvaran!)
Möjligheten utnyttjas inte i praktiken. Det är fortfarande spelspecifika optimeringar i GPU-tillverkarens drivrutiner som har större inflytande.

Den andra aspekten av DX12 var att det var OS-begränsat till Windows 10. Detta var, tillsammans med "gratis" uppgraderingar från äldre Windows-versioner, en bidragande orsak till att Win10 slagit igenom så fort som det har. Utan DX12 tror jag att Win7 fortfarande i dag skulle ha en större marknadsandel.

Utvecklare väljer att använda smidigaste tillgängliga verktyg för utvecklingen av mjukvaran. Därefter portas den (om nödvändigt) till den/de API man vill använda.
DX12 har ett smidigt toolkit med fullt stöd från MS, alltså nyttjas det av utvecklarna.
DX12 som API kan nyttjas av en förkrossande majoritet av tilltänkta kunder, även om all hårdvara inte lämpar sig för alla funktioner som ryms inom "DX12". Alltså blir DX12 en API som används. För ytterligare utökad kompatibilitet med äldre OS och hårdvara portas det oftast även till DX10 eller DX11.

Permalänk
Konsolpleb 🕹
Skrivet av Olle P:

... som kan nyttjas till optimeringar i mjukvaran på ett sätt som tidigare versioner av D3D inte klarat. (Hela finessen med att vara tight med hårdvaran!)
Möjligheten utnyttjas inte i praktiken. Det är fortfarande spelspecifika optimeringar i GPU-tillverkarens drivrutiner som har större inflytande.

DX12 ger utvecklare ett tunnare lager av abstraktion, men det i sin tur behöver inte betyda att man pratar om helt hårdvaruspecifika implementationer. Att spelutvecklarna skulle sitta och skriva hyperoptimerad kod per SKU har aldrig varit på tapeten så om du tolkat in det har du nog tolkat in för mycket.

(Sen har förstås DX12 massor av andra fördelar gentemot dess äldre motsvarigheter, bland annat hur draw calls hanteras. Och givetvis har de byggt på med massor av ny funktionalitet sedan lanseringen.)

Visa signatur

240p är livet

Permalänk
Medlem
Skrivet av Olle P:

Utan DX12 tror jag att Win7 fortfarande i dag skulle ha en större marknadsandel.

Förklaringen är nog snarare detta:
https://en.wikipedia.org/wiki/Technology_adoption_life_cycle

Det var få spel som undantagslöst krävde DX12 när antalet Windows 10-användare passerade Windows 7 i december 2018, och vid den tidpunkten verkar det bara ha funnits enstaka spel som krävde det, typ Forza Horizon 3. De som håller på med Windows 7 fortfarande är längst till vänster i den kurvan, kategorin "laggards" eller som de skulle sagt här "dä gåår allri!".

Permalänk
Medlem
Skrivet av hACmAn:

Så vit jag vet så var DX12 på väg lång innan Vulkan eller Metal var påtänkt. AMD Fressync var och är delvis en del av VESA standarden och det var bra av AMD att göra som de gjorde även om det tog år innan det fanns vettiga Fresync skärmar. De la inte ut något om det innan nVidia tryckte på..

x86-64 är inte fritt för Intel att använda. AMD och Intel byter licenser mellan varandra för olika funktioner. Så bara dela med sig har du dessvärre fel i.

https://www.kitguru.net/components/cpu/anton-shilov/amd-clari...
https://www.reddit.com/r/Amd/comments/7bv3r1/amdintel_cross_l...

Skrivet av bopp:

Tror att det syftas på Mantle, som AMD lanserade först i Battlefield 4 ihop med Dice hösten 2013, och som sen kom i ett antal spel framförallt från EA. Sen kan man ju iofs fråga sig om DX12 härmade Mantle, men i praktiken blev det så, det satte definitivt mer press på Microsoft att verkligen få ut DX12. Mantle var redan ute på banan och Microsoft hade knappt startat, de hade inte ens pratat om lågnivå-api:er innan Mantle kom ut.

Microsoft hävdade visserligen att de minsann också planerade något liknande api, men DX12 kom först ett och ett halvt år efter Mantle. Långt innan dess hade Mantle uppgått i utvecklingen av Vulkan som en av de större byggstenarna. AMD bidrog med alltså med en stor del av grunden till Vulkan, så på sätt och vis var Vulkan - i form av Mantle - före DX12.

My bad, var såklart Mantle jag syftade på. Det har blivit för många termer genom åren....