Alienware: "Orealistiskt att Intel slår AMD och Nvidia på grafikkort"

Permalänk
Medlem
Skrivet av Xeonist:

Nej jag har kört AMD's ProRender bara. Som sagt, jag är gammal, så den där tiden när man testade allt nytt som kom är över för min del, och med 3D är det ju alltid en balans mellan kreativitet och teknik, och för mig har det förstnämnda fått ta över.

Ok. Förståeligt. Hur försäkrar man då sig att man aldrig hamnar i ett läge där ens information är föråldrad?

Skrivet av Xeonist:

Men som sagt, för att utnyttja grafikkorten till fullo måste man komma åt så mycket av prestandan som möjligt, och då är proprietär teknik det enda som gäller.

Men få är ju så benägna att hoppa på nya tekniker som människor som håller på med 3D, så om någon släpper en GPU renderare som funkar med både AMD och Nvidia så kommer dom hoppa dit. Var så säker.

Men det här är också en bransch/marknad där vinnaren tar allt.

Jag menar, man kan förkompilera saker genom t.ex shader intrinsics eller gameworks (för att nämna några vanliga exempel), men det är ungefär där det slutar. Det finns inget som säger att dessa saker inte skulle kunna göras utan cuda eller vad AMD nu använder (GCN ISA?) (finns exempel på shader intrinsics i DX11, DX12, Vulkan spel. Likaså vet jag att gameworks finns för DX11 såsom DX12 spel). Du återfinner NVIDIAs och AMDs "proprietära" lösningar även under DXR och DirectML, mer eller mindre utan noterbar prestandapåverkan.

Men hur blir det med programmeringsspråken själva? De måste alltid ha något slags prestandaövertag i proprietära språk, väl? Då får man undersöka rapporter lite som jämför dessa. Har inte lagt supermycket tid på det här, men undersökte de resultat som fanns högst upp om man sökte på t.ex google scholar. Sökorden var "cuda vulkan performance" och "HIP amd performance".

Artikel nr1:

Kör allt från 93% av prestandan till 105% på GTX 1080 med HIP, AMDs autoöversättare av cuda som kan köra på all hårdvara. Ironiskt nog så presterar den även bättre på NVIDIA hårdvara ibland.

Artikel2:

Vulkan vs CUDA när det kommer till bandbredd. Vulkan vinner 17 benchmarks, medan CUDA 7.

Så visst kan det vara så att det finns andra saker som fungerar bra på båda, och det finns ingenting som säger att proprietärt måste vara bättre. Jag kan nämna att intresset för Vulkan finns även hos forskarna. Talade med en HPC forskare på grafikkort på KTH för något år sedan, och han sa "Have you guys heard about Vulkan!?" och var jätteintresserad av det. Han var även en forskare som forskar med just Volta GPU:er och skriver det mesta idag i cuda, även i kurser som ges handlar enbart om cuda eller OGL.

Sedan så tycker jag det inte verkar som om de som släpper GPU renderare är de som är först ut eller villigast att släppa mjukvara som fungerar för båda. Varför? Om nu de har CUDA renderare så kan ~99,6% av koden omvandlas till HIP och så kan de även släppa en version som fungerar på AMDs eller NVIDIAs grafikkort. Men de är inte villiga att lägga in 0,04% av arbetet på att få det att fungera. Faktum är att jag skulle tro att AMD skulle göra denna 0,04% av arbetet helt gratis, då de räknar med att det är mjukvaran som säljer hårdvaran. ~0 investering av företagen alltså. Alternativt så skulle de kunna byta till Vulkan , men det är ett 1000 gånger större projekt.

Vilket leder tillbaka till lite det som tråden handlar om. NVIDIA har varit framgångsrika och byggt upp ett hyfsat enkelt och välspridd språk, i synnerhet om du ser på akademiska rapporter. Dessa har även avtal med universiteten och den akademiska världen. Intel har lika stor spridning de också, fast på CPU fronten. Pröva sök efter "ray tracing" och kolla från ~2007 och framåt. Är det en CPU så är det Intel, är det en GPU så är det skrivet i CUDA. Att hitta något från AMD är som att hitta en nål i en höstack (hur mycket minne har en sån stack?). Man kan till och med hitta en hel del saker om Larrabee där, oftare än vad jag hittar hårdvara från AMD.

Du har dock rätt i en sak, det är vinnaren som tar allt. Och jag skulle säga att NVIDIA och Intel är de stora vinnarna med de redan etablerade plattformarna. AMD behöver göra en stor comeback för att de ska ha en chans. När jag ser vad de kommit fram till på hårdvarusidan, så kan de ha en öppning relativt snart. Lyckas de och Intel, så kan det bli så att det är NVIDIA som blir de stora förlorarna.

Skrivet av Xeonist:

Jag måste bara fråga, alla ni som förordar öppna standarder, har ni kört AMD eller Intel som processor dom senaste 10 åren? Innan Ryzen.

Ni vill ju ha det snabbaste, idag är Nvidia snabbast, inom 3D (och då menar jag skapandet av 3D, inklusive alla spel ni spelar) är Nvidia Intel, och AMD är..ja, AMD (Athlon).

Jag förordar öppna standarder , iallafall om man menar kod som kan köra på allt. Det är nödvändigtvis inte så att samma kod körs på allting, men att alla ska få tillgång till att kunna accelerera det på det sätt som passar hårdvaran bäst. Detta är exempelvis vad som sker i DirectML eller DXR. Jag hade en i5 750 sedan 2009 och bytte till en 1700x 2017. Dessförinnan tror jag att jag körde en athlon? Kommer inte riktigt ihåg, det var inget jag noterade på den tiden.

Jag vill inte heller ha de snabbaste, jag vill ha det snabbaste för ett viss kostnad till en viss arbetsbörda. Om det är NVIDIA, AMD eller Intel som erbjuder detta spelar egentligen inte så stor roll.

Permalänk
Medlem
Skrivet av Radolov:

Ok. Förståeligt. Hur försäkrar man då sig att man aldrig hamnar i ett läge där ens information är föråldrad?

Man kan ju fortfarande hänga med någorlunda även om man inte installerar och testar varje ny programvara som släpps.

Det är ju också så att om jag kan göra vad jag vill/behöver göra i programvara X, så spelar det ingen roll om det släppts 10 nya versioner av den programvaran och att min version därför är "föråldrad".

Skrivet av Radolov:

Jag menar, man kan förkompilera saker genom t.ex shader intrinsics eller gameworks (för att nämna några vanliga exempel), men det är ungefär där det slutar. Det finns inget som säger att dessa saker inte skulle kunna göras utan cuda eller vad AMD nu använder (GCN ISA?) (finns exempel på shader intrinsics i DX11, DX12, Vulkan spel. Likaså vet jag att gameworks finns för DX11 såsom DX12 spel). Du återfinner NVIDIAs och AMDs "proprietära" lösningar även under DXR och DirectML, mer eller mindre utan noterbar prestandapåverkan.

Jag tror vi pratar om olika saker (och det här gäller för resten av ditt inlägg).

3D utveckling för spel och 3D i film, effekter, arch viz, ja all annan 3D är 2 helt olika saker.

3D i spel är en dumbed down version, och skillnaden är gigantisk. Så när man pratar om att man får ut 93-105% av prestandan, så får man ut 93-105% av prestandan av kanske 5% av prestandan (vilket blir väldigt tydligt nu när man introducerar raytracing i spel)

Skrivet av Radolov:

Sedan så tycker jag det inte verkar som om de som släpper GPU renderare är de som är först ut eller villigast att släppa mjukvara som fungerar för båda. Varför? Om nu de har CUDA renderare så kan ~99,6% av koden omvandlas till HIP och så kan de även släppa en version som fungerar på AMDs eller NVIDIAs grafikkort. Men de är inte villiga att lägga in 0,04% av arbetet på att få det att fungera. Faktum är att jag skulle tro att AMD skulle göra denna 0,04% av arbetet helt gratis, då de räknar med att det är mjukvaran som säljer hårdvaran.

Som sagt, vi pratar om 2 olika saker. Jag ställer mig högst tveksam till det du säger. Om utvecklarna av Redshift eller Octane skulle kunna porta sin renderare med så liten arbetsinsats, och fördubbla sin marknad, så skulle dom såklart göra det.

Det är ju anledningen till att GPU-renderare har fått sånt genomslag idag, det finns en sweet spot, eller en tröskel, där dom under den är helt oanvändbara, och över den är dom användbara, och den tröskeln är nådd tack vare kort med 8Gb, och möjligheten att använda flera kort och använda det kombinerade minnet.

Men spelrenderare (spelmotorer) är något helt annat, eller ja, det är såklart samma sak, men om man ska försöka göra någon slags 2D analogi av det, så är en spelmotor 8bitars256x256 sprite-texturer, och en productionrenderer som Arnold, Redshift eller Mantra är 32bitars 4k. Och det finns 2 enkla orsaker till det, varav den ena är just öppna standarder och att spelen måste fungera på en stor bredd av "plattformar" för att vara kommersiellt gångbart.

Skrivet av Radolov:

Du har dock rätt i en sak, det är vinnaren som tar allt. Och jag skulle säga att NVIDIA och Intel är de stora vinnarna med de redan etablerade plattformarna. AMD behöver göra en stor comeback för att de ska ha en chans. När jag ser vad de kommit fram till på hårdvarusidan, så kan de ha en öppning relativt snart. Lyckas de och Intel, så kan det bli så att det är NVIDIA som blir de stora förlorarna.

Jag är tveksam. Eller jag menar, anledningen till att vi har (har haft) allt snabbare hårdvara till allt billigare priser, är ju att någon hela tiden har köpt den nya hårdvaran till dom där hutlösa priserna. Det är det som driver utvecklingen, och prisnedgången.

Men när det inte ger något för spelarna (jag menar, 160fps eller 175fps gör varken till eller ifrån) , så måste något annat driva utvecklingen.

Som det verkar så köper filmindustrin Nvidias nya satsningar, men vad händer när vi har nått peak-data och peak-förminskning, när dom inte längre behöver kunna skicka mer data till GPUn, och det inte går att göra ekonomiska vinster eftersom ökad prestanda bara går att få genom större kretsar, inte genom att gå från 10nm till 7nm?

Skrivet av Radolov:

Jag förordar öppna standarder , iallafall om man menar kod som kan köra på allt.

Gör du verkligen det? Jag trodde spelare ville ha mer prestanda.

Det jag säger är att du kommer nog bli bönhörd, du kommer få dina öppna standarder, men jag menar också att dom kommer när utvecklingen avstannat, ungefär som med WiFi eller Bluetooth. Visst, det kommer nya standarder, men prestandautvecklingen är marginell.

Skrivet av Radolov:

Jag vill inte heller ha de snabbaste, jag vill ha det snabbaste för ett viss kostnad till en viss arbetsbörda. Om det är NVIDIA, AMD eller Intel som erbjuder detta spelar egentligen inte så stor roll.

Men du säger "jag vill inte ha det snabbaste" i ett perspektiv av att vi dom senaste 15åren har sett en otrolig prestandaökning. Och jag menar att det är en anomali. Så frågan är snarare om du är okej med att utvecklingen avstannar?

Prestandasteget som hårdvaran skulle behöva ta för att spelupplevelsen ska öka är så stort att det inte kommer kunna tas på samma sätt som utvecklingen har skett hittills (där ju utvecklingen också har hjälpts av att vanliga användare också har behövt ha snabbare datorer, vilket dom inte behöver ta längre) det är det vi ser med Nvidias RTX, och vilka som bli vinnare och förlorare på en sådan marknad, ja..jag vet inte ens om det finns några.

Jag menar ju att det är lite ödets ironi att AMD har kommit ikapp Intel på processorer när dom flesta inte behöver ha snabbare processorer, och jag tror att så fort nyhetens behag försvinner med Ryzen, så kommer det bli "a race to the bottom"..

Permalänk
Medlem
Skrivet av Xeonist:

Man kan ju fortfarande hänga med någorlunda även om man inte installerar och testar varje ny programvara som släpps.

Det är ju också så att om jag kan göra vad jag vill/behöver göra i programvara X, så spelar det ingen roll om det släppts 10 nya versioner av den programvaran och att min version därför är "föråldrad".

Jag menade mest om du hade prövat en mjukvara för ~2år sedan och sedan sagt "Nä, den här var dålig" och aldrig sett på den igen. Men 2 år senare kanske den har den en prestandaökning , men att man lever kvar i tankarna om att det fortfarande är dåligt.

Hur kan du inte ha uppdaterat din programvara?!!???? Du förlorar ju minst 5% av prestandan som var essentiell .
Skämt åsido, saken är att det handlar ju förstås också om användbarhet. Användbarheten baseras till 90% på ett gränssnitt, 10% på hur algoritmen som utförs exekveras på hårdvaran (t.ex att dra upp 100% av alla resurser när man renderar och kan inte redigera något under tiden som den långa renderingen körs är inte användbart alls.)

Skrivet av Xeonist:

Jag tror vi pratar om olika saker (och det här gäller för resten av ditt inlägg).

3D utveckling för spel och 3D i film, effekter, arch viz, ja all annan 3D är 2 helt olika saker.

3D i spel är en dumbed down version, och skillnaden är gigantisk. Så när man pratar om att man får ut 93-105% av prestandan, så får man ut 93-105% av prestandan av kanske 5% av prestandan (vilket blir väldigt tydligt nu när man introducerar raytracing i spel)

Skrivet av Xeonist:

Utvecklarna har valt att utveckla för Nvidia/Cuda och varför dom har gjort det valet låter jag vara osagt, men det verkar extremt konstigt att dom skulle säga nej till tusentals (tiotusentals) kunder om AMD/OpenCL gav dom samma möjligheter.

Jag tror helt enkelt inte att det är en slump att marknadens 2 hetaste/bästa renderare är exklusiva för Nvidia/Cuda, eller att flera av dom CPU baserade renderare som finns har Nvidia/Cuda-baserad brusreducering.

Då missförstod jag det som du sa helt enkelt att det finns någonting i Cuda som ger det högre prestanda än alla andra öppna språk. Då presenterade jag forskning som visade att direktöversätta eller översätta till ett annat språk inte gjorde någon direkt skillnad (och i vissa fall blev bättre) jämfört med Cuda. Det jag försökte förklara var att sådan prestanda inte behöver vara exklusiv till en proprietär teknik, då de kunde ha lyckats lika bra eller till och med bättre i t.ex Vulkan.

Jag förstår inte din poäng om att det är 93-105% av prestandan av 5% av prestandan. Ena siffran är evidensbaserad medan den andra är subjektiv. Vad är 5% av prestandan? Menar du att 5% av arbetsbördan är inte ray tracing?
Det enda ray tracing pushen från NVIDIA visar är att det spelar ingen roll om det är Optix, Vulkan eller DX12, de skulle kunna göra exakt samma sak i alla dessa, trots att Optix är skriven i Cuda. Den största skillnaden är att de kan stänga in kunder med Cuda, eller snarare handlar det inte om att stänga in kunder utan om att stänga ute motståndare.

Skrivet av Xeonist:

Som sagt, vi pratar om 2 olika saker. Jag ställer mig högst tveksam till det du säger. Om utvecklarna av Redshift eller Octane skulle kunna porta sin renderare med så liten arbetsinsats, och fördubbla sin marknad, så skulle dom såklart göra det.

Det är ju anledningen till att GPU-renderare har fått sånt genomslag idag, det finns en sweet spot, eller en tröskel, där dom under den är helt oanvändbara, och över den är dom användbara, och den tröskeln är nådd tack vare kort med 8Gb, och möjligheten att använda flera kort och använda det kombinerade minnet.

Men spelrenderare (spelmotorer) är något helt annat, eller ja, det är såklart samma sak, men om man ska försöka göra någon slags 2D analogi av det, så är en spelmotor 8bitars256x256 sprite-texturer, och en productionrenderer som Arnold, Redshift eller Mantra är 32bitars 4k. Och det finns 2 enkla orsaker till det, varav den ena är just öppna standarder och att spelen måste fungera på en stor bredd av "plattformar" för att vara kommersiellt gångbart.

För det första så handlar det inte om att fördubbla sin marknad, då man redan konstaterat att NVIDIA äger majoriteten (och långt mer) av GPU rendering. Vi talar alltså om en situation där de ska stödja en liten del av marknaden i utbyte mot deras tid OCH förmodligen till förlusten av deras avtal med NVIDIA. Denna förlust anser de i dagens marknad vara långt större än vinsten av att stödja båda. Det räcker med att se vad GeForce Partner Program gav för förmåner som gjorde att de var villiga att ta bort AMDs hårdvara från deras märken.

Att använda minne i en sådan konfiguration är mig veterligen ingenting unikt som enbart kan göras i cuda. Så förstår inte poängen där. Och analogin fattar jag mig inte på heller. Spel behöver stödja så stor del av marknaden som möjligt, och förlorar säkert något avtal med Microsoft också om de helt plötsligt bestämmer sig för att använda Vulkan istället för DirectX. Saker såsom "släpps 5 dagar innan på Xbox" är en del av dessa avtal. Den finns dock andra, icke relaterade saker som är på väg som gör att DX12 blir mer attraktivt.

Hade NVIDIA haft lika stor proprietär plattform i spel (utan någon annan väletablerad plattform som funka för båda) och andelen AMD användare varit lika stor som för ray tracing, ja då kanske vi skulle sett att de inte skulle stödja AMD heller. Nu har ju förstås AMD försäkrat sig med Microsoft om att detta aldrig kommer att ske. Hur stor andel av spelen släpps med stöd för Linux? Det är en annan synvinkel på att vinnaren tar allt. Det är Microsoft som styr spelmarknaden, medan NVIDIA och Intel styr renderarna. AMDs styrka ligger i att de är bästisar med Microsoft och Sony.

Skrivet av Xeonist:

Jag är tveksam. Eller jag menar, anledningen till att vi har (har haft) allt snabbare hårdvara till allt billigare priser, är ju att någon hela tiden har köpt den nya hårdvaran till dom där hutlösa priserna. Det är det som driver utvecklingen, och prisnedgången.

Men när det inte ger något för spelarna (jag menar, 160fps eller 175fps gör varken till eller ifrån) , så måste något annat driva utvecklingen.

Som det verkar så köper filmindustrin Nvidias nya satsningar, men vad händer när vi har nått peak-data och peak-förminskning, när dom inte längre behöver kunna skicka mer data till GPUn, och det inte går att göra ekonomiska vinster eftersom ökad prestanda bara går att få genom större kretsar, inte genom att gå från 10nm till 7nm?

Anledningen till att vi har snabbare hårdvara till allt billigare priser är att de tjänar pengar, ja. Men man behöver inte ta hutlösa priser för hårdvaran. Antingen "Sälj många för låg vinst" eller "sälj få för hög vinst", men oftast båda beroende på vem man vänder sig till. Pro användare är villiga att betala mer än konsumenter.

Du menar höjden av visuell noggrannhet är nådd att man inte kan skilja på t.ex x antal trianglar från 10x? Ja, då satsar man på:
Lägre effekt, mindre yta, högre prestanda, snabbare överföring, billigare produktion.
Om du undrar hur de visualiserar sig att sista bossen ser ut i dagsläget så har vi något i stil med denna.

Skrivet av Xeonist:

Gör du verkligen det? Jag trodde spelare ville ha mer prestanda.

Det jag säger är att du kommer nog bli bönhörd, du kommer få dina öppna standarder, men jag menar också att dom kommer när utvecklingen avstannat, ungefär som med WiFi eller Bluetooth. Visst, det kommer nya standarder, men prestandautvecklingen är marginell.

Oja, och det finns ingenting som står i konflikt med mer prestanda och öppna standarder i den definition som jag gav.
Faktum är att då tiden är begränsad för en spelutvecklare så är sannolikheten att de implementerar en optimering som gynnar hela deras kundbas med öppna standarder ofantligt mycket större. Om du inte tror mig, räkna spelen med 2x FP16 för Vega och shader intrinsics för AMD. Jag kan göra det med mina fingrar och behöver inte ens använda tårna.

Skrivet av Xeonist:

Men du säger "jag vill inte ha det snabbaste" i ett perspektiv av att vi dom senaste 15åren har sett en otrolig prestandaökning. Och jag menar att det är en anomali. Så frågan är snarare om du är okej med att utvecklingen avstannar?

Prestandasteget som hårdvaran skulle behöva ta för att spelupplevelsen ska öka är så stort att det inte kommer kunna tas på samma sätt som utvecklingen har skett hittills (där ju utvecklingen också har hjälpts av att vanliga användare också har behövt ha snabbare datorer, vilket dom inte behöver ta längre) det är det vi ser med Nvidias RTX, och vilka som bli vinnare och förlorare på en sådan marknad, ja..jag vet inte ens om det finns några.

Jag menar ju att det är lite ödets ironi att AMD har kommit ikapp Intel på processorer när dom flesta inte behöver ha snabbare processorer, och jag tror att så fort nyhetens behag försvinner med Ryzen, så kommer det bli "a race to the bottom"..

Vet inte hur du kommer fram till att utvecklingen avstannar om man inte köper det absolut snabbaste som finns på marknaden?

Utvecklingen går framåt oavsett om alla skulle köpa GTX1060 eller RTX2080ti. Om utvecklingen skulle stanna för NVIDIA skulle du snart se att AMD kommer med något bättre , varpå NVIDIA kommer med något ännu bättre. Det ger utveckling. För att citera David Wang:
“I remember the ATI / Nvidia days, this every year,” says David Wang, senior VP of engineering, alternating one hand ahead of the other. “I think that’s how you make this business so excitement, so interesting. That’s how you make gamers so excited about new hardware every year.”

Permalänk
Medlem
Skrivet av Radolov:

Då missförstod jag det som du sa helt enkelt att det finns någonting i Cuda som ger det högre prestanda än alla andra öppna språk.

Det sa jag, med en disclaimer.

Jag kan inte tolka det faktum att alla GPU-renderare som finns har valt att vara exklusiva för CUDA på något annat sätt än att CUDA är överlägsen (min disclaimer var att jag är öppen för konspirationen att Nvidia har mutat alla utvecklare, och att AMD's moral stoppar dom från att göra samma sak)

Skrivet av Radolov:

Då presenterade jag forskning som visade att direktöversätta eller översätta till ett annat språk inte gjorde någon direkt skillnad (och i vissa fall blev bättre) jämfört med Cuda. Det jag försökte förklara var att sådan prestanda inte behöver vara exklusiv till en proprietär teknik, då de kunde ha lyckats lika bra eller till och med bättre i t.ex Vulkan.

Och då förklarade jag bristerna i det resonemanget. Som är flera. Det ligger i saken natur att du bara kan översätta det som går att översätta. den dagen någon visar att du kan få alla FUNKTIONER som Octane/Redshift erbjuder, med AMD, då ska jag ge dig rätt, men tills dess tycker jag ockhams rakkniv ger mig rätt.

Skrivet av Radolov:

Jag förstår inte din poäng om att det är 93-105% av prestandan av 5% av prestandan. Ena siffran är evidensbaserad medan den andra är subjektiv. Vad är 5% av prestandan? Menar du att 5% av arbetsbördan är inte ray tracing?

Jag menar att det finns inte ens någon renderare från AMD (inte ens deras egen ProRender, och definitivt inte spelrenderare/spelmotorer) som erbjuder dom funktioner som "branschen" tar för givet idag, för att ens komma att betraktas som ett alternativ.

Så, för att göra en gammal hederlig biljämförelse. När du jämför dom översättningar som har gjorts, så jämför du en 4 cylindrig motor med en V12a som använder 4 cylindrar.

Skrivet av Radolov:

För det första så handlar det inte om att fördubbla sin marknad, då man redan konstaterat att NVIDIA äger majoriteten (och långt mer) av GPU rendering. Vi talar alltså om en situation där de ska stödja en liten del av marknaden i utbyte mot deras tid OCH förmodligen till förlusten av deras avtal med NVIDIA. Denna förlust anser de i dagens marknad vara långt större än vinsten av att stödja båda.

Men du säger ju att arbetsinsatsen för att porta över en renderare till AMD (eller ja, att göra den plattformsoberoende) är minimal.
För Octane och Redshift skulle det innebära att dom inte bara också skulle få tillgång till kunder som har AMD-kort (som skulle innebära en ökning med 50%) men det skulle rimligtvis också innebära att alla med Intel-grafik skulle kunna köra deras renderare, det skulle ju innebära en möjlig ökning av deras installationsbas med 400%

Varför skulle dom vara rädda att ta det steget menar du?

Skrivet av Radolov:

Att använda minne i en sådan konfiguration är mig veterligen ingenting unikt som enbart kan göras i cuda. Så förstår inte poängen där.

Där har du fel. Eller det har iaf. bara gjorts i CUDA.

Skrivet av Radolov:

Och analogin fattar jag mig inte på heller. Spel behöver stödja så stor del av marknaden som möjligt.

Jag förstår att spel behöver stödja en så stor del av marknaden som möjligt. Det är ju därför utvecklingen hålls tillbaka.

Om du inte förstår analogin så förklarar det kanske varför vi pratar förbi varandra. Jag vet inte hur många gånger jag har sagt att spelmotorer och "production renderers" är 2 helt olika saker. Men för att spel ska kunna bli bättre, och med bättre menar jag snyggare, eftersom dom redan är så snabba som behövs, så behöver man ta steget och införa det som "production renderers" har.

Skrivet av Radolov:

Anledningen till att vi har snabbare hårdvara till allt billigare priser är att de tjänar pengar, ja. Men man behöver inte ta hutlösa priser för hårdvaran. Antingen "Sälj många för låg vinst" eller "sälj få för hög vinst", men oftast båda beroende på vem man vänder sig till. Pro användare är villiga att betala mer än konsumenter.

Man måste ju kunna räkna hem utvecklingskostnaden på något sätt, när dom små inkrementella prestandaökningarna inte längre är relevanta för användarna (som sagt, 175fps eller 160fps är spelar liksom ingen roll) så måste man introducera något nytt.

I det här fallet är det RTX (eller en ny funktion om man så vill) men eftersom det är 3D vi pratar om så kommer varje ny funktion man introducerar innebära en tillbakagång i prestanda om man räknar prestanda i fps.
Spelmotorer har i 15 år kommit förbi detta genom att "fuska", nu går inte det längre.

Om marknaden ratar RTX och RayTracing så kommer utvecklingen avstanna. Spel blir inte bättre än vad dom är idag oavsett hur mycket shaders du introducerar, eller oavsett hur mycket du AA du har.

Inom production renderers där man inte har något behov av real-time rendering så har den här utvecklingen tagit 15 år, och man har åkt snålskjuts på att utvecklingen av spel har hjälpt till med att ge snabbare grafikkort till överkomliga priser.

Nu ska alltså spelindustrin göra samma prestandahopp från ena generationen kort till den andra, utan draghjälp. Det kommer inte hända.

Skrivet av Radolov:

Du menar höjden av visuell noggrannhet är nådd att man inte kan skilja på t.ex x antal trianglar från 10x? Ja, då satsar man på:
Lägre effekt, mindre yta, högre prestanda, snabbare överföring, billigare produktion.

Jag pratade om 2 olika saker.

Vad händer när hårdvaruindustrin inte längre kan erbjuda högre prestanda genom att krympa tekniken?
T.ex. gå från 14nm till 10nm, eller från 10nm till 7nm. En sådan gräns finns ju.
Då kommer filmindustrin precis lika gärna utöka sin prestanda genom att bara köpa ytterligare en "hårdvaruenhet", behovet av att uppgradera befintlig hårdvara försvinner.

Filmindustrin har ju inget egentligt behov av vare sig real-time rendering, eller för den delen GPU rendering.

Skrivet av Radolov:

Oja, och det finns ingenting som står i konflikt med mer prestanda och öppna standarder i den definition som jag gav.
Faktum är att då tiden är begränsad för en spelutvecklare så är sannolikheten att de implementerar en optimering som gynnar hela deras kundbas med öppna standarder ofantligt mycket större.

Men som sagt, "hela deras kundbas" är vad som håller dom tillbaka.

Skrivet av Radolov:

Vet inte hur du kommer fram till att utvecklingen avstannar om man inte köper det absolut snabbaste som finns på marknaden?

Så vadå, du tror att Nvidia kommer utveckla ett 3080 om ingen köper deras 2080? Hur har dom råd med det menar du? Deras nya 3080-kort ska ju då inte bara räkna hem kostnaderna för utvecklingen av den arkitekturen, utan kostnaden för 2080-arkitekturen, så hur menar du att 3080 kortet ska bli billigare?

Skrivet av Radolov:

Utvecklingen går framåt oavsett om alla skulle köpa GTX1060 eller RTX2080ti.

Att tro att utvecklingen fortsätter även om ingen efterfrågar produkterna är ju att ifrågasätta hela det kapitalistiska systemet.

Skrivet av Radolov:

Om utvecklingen skulle stanna för NVIDIA skulle du snart se att AMD kommer med något bättre , varpå NVIDIA kommer med något ännu bättre. Det ger utveckling.

Och du tror att det där kommer fortsätta för evigt? Det finns inga fysiska begränsningar?