Inlägg

Inlägg som CamelCase har skrivit i forumet
Av CamelCase
Skrivet av Oaktree:

"finns en väldigt stor risk för att vissa spel börjar fungera riktigt illa om man har "fel" GPU"

Du får det att låta som "Shader Intrinsic Functions" skulle vara någon slags blockering.

Nvida kommer ju kunna använda sig av dom funktioner som finns i DX12 / Vulkan i vilket fall. Så varför skulle det fungera dåligt om man har annat märke av GPU?

Är ju inte så att AMD "Shader Intrinsic Functions", kommer köras på Nvidia hårdvara, då just dessa funktioner endast fungerar på GCN arkitekturen.
Nvidia har sina egna "Shader Intrinsic Functions" för sina arkitekturer.

Så ser inte att detta skulle paja något för Nvidia, dom använder sig av de funktioner som finns i DX12/Vulkan, det är ju inte så att AMD försöker stoppa Nvidia från att lägga till sina egna "Shader Intrinsic Functions".

Även Nvidia ser prestanda boost i DOOM Vulkan:
https://www.youtube.com/watch?v=ZCHmV3c7H1Q

OT: Intressant och bra djupdykning i ämnet.

För att göra en liknelse så vill jag återvända till det glada(??) 90-talet o fejden MMX vs 3DNow (hette det så??). Det är precis den sorens problem som verkar exponeras.

Av CamelCase
Skrivet av Azodan:

Värt att nämna är att Samsung visar en 2.5" ssd med 32TB på samma mässa med 64 lagers v-nand, det tycker iaf jag är mer imponerande.

Skickades från m.sweclockers.com

Själv fasdtnade jag för deras 1 TB variant i BGA-format.

Av CamelCase
Skrivet av AMD-FX:

Ok, Nvidias eget då. Undrar varför Vulkan har version 1.0.17 på AMD och 1.0.8 på Nvidia?

Det har INGEN praktisk betydelse, eftersom 1:an o 0:an är desamma så är det samma standard. 8 o 17 är bara versionsnummer på själva standardiseringstexten. Bara att läsa förändringsloggen.

Av CamelCase
Skrivet av _Merc_:

Grejen är den att det har varit relativt dyrt med SSD jämfört med Mekanisk fram tills nu när tekniken är mogen för att börja ta över.
WD som har haft ett monopol på Mekaniska diskar har mjölkat och byggt upp ett kapital till den punkt där de nu köper upp företag som är väl etablerade på den nya marknaden och med kapaciteten att börja bygga upp den produktion och utveckling som krävs.
det är nu som pengarna inom SSD marknaden kommer växa som mest och WD kommer in just i tid för att göra vinsten med minimal insats och risk.

Låt oss slå fast en sak på en gång. WDC har inte en chans att utmana samsung. De har större vinst än WDC har omsättning. Samsung är dessutom ett produktions och utvecklingsmässigt powerhouse förutom att man har löjligt enorma finansiella tillgångar.

Av CamelCase
Skrivet av superegg:

Tänkte mer på opengl och andra som är open vilken som är bäst.

Allt beror på hur man definierar "bäst"!
Maximal prestanda eller ledtid för utvecklarna är två möjliga alternativ.

Av CamelCase
Skrivet av superegg:

Det kan blir mycket bra när fler spel börja stöda det.

Finns det några tester mellan vulkan och andra som man kan se någon skillnad i mellan?

Angående spel så är det nog en fråga om höna och ägg.
Vilka andra avser du?

Av CamelCase
Skrivet av superegg:

Kommer Vulkan få stöd för Windows 7 eller blir man tvinga att gå över till Windows 10?

Kolla hos khronos Kan bli den del bläddrande då vulkan fungerar på mer än grafikkort för pc.

Av CamelCase
Skrivet av ClintBeastwood:

Jag verkar ha missuppfattat allting... ska inte Vulkan/DX12 göra så drivrutiner inte ska göra någon större skillnad? Varför behöver man uppdatera drivrutiner i så fall? Jag är förvirrad.

Ur prestandahänseende lär det inte bli några skillnader. Men ur bughänseende så kommer uppdateringar behövas, särskilt då tekniken är ung och drivrutinutvecklarna jobbar mot ett, iaf delvis, rörligt mål

Av CamelCase
Skrivet av Yoshman:

Tack för länken, när man läser detta undrar man vad poängen med detta är:

"In terms of hardware, the Fiji based card is outfit with a PCIe bridge chip – the same PEX8747 bridge chip used on the Radeon Pro Duo, I’m told – with the bridge connecting the two PCIe x4 M.2 slots to the GPU, and allowing both cards to share the PCIe system connection. Architecturally the prototype card is essentially a PCIe SSD adapter and a video card on a single board, with no special connectivity in use beyond what the PCIe bridge chip provides."

Var ju inte som jag spekulerade om att man placerat flash-minnet på någon specialbuss (som t.ex. att direkt lägga den på RAM-bussen, något som har gjorts på andra plattformar). Här finns ju ingen fördel mot att använda vilken NVMe PCIe x4 disk som helst förutsatt att man sätter den på en PCIe-slot som inte går via chipset. Givet marknaden för detta lär det handla om serverplattformar och där finns idag 40 PCIe-linor direkt kopplade till varandra och direkt till CPUerna.

Så frågan är då: vad är poängen med att ha PCIe x4 NVMe M.2 slot på grafikkortet?

Min första tanke blir blir buffring av videodata. Men transcoding av 8K video måste väl ändå vara en liiiite väl smal nisch?

Av CamelCase
Skrivet av Yoshman:

GP100 är på flera sätt annorlunda jämfört med övriga Pascal. T.ex. har GP100 64 (mot 128) CUDA-kärnor per SM, 1:2 (mot 1:32) DP:SP, dubbelt så mycket L1-cache som övriga Pascal.

Frågan är om GP100 ens har ROPs eller om det till 100 % är ett beräkningskort

Vet du hur de ligger till med halv precision? Det verkar vara inne för att köra maskininlärning.

Av CamelCase
Skrivet av _Merc_:

När WD kommer till SSD marknaden för konsumenter så kommer de ta över även där.

Personligen skulle jag sätta mina pengar på samsung som dominant inom SSD.

Av CamelCase
Skrivet av Paddanx:

Samsung sålde faktiskt hela HDD divisionen till Seagate, troligen pga de insåg att det var en döende teknik

Finns faktiskt Toshiba och HGST också, så helt öde är inte HDD marknaden. Problemet är att den är extremt stilla i utveckling. Du har samma 4TB HDD idag som du haft i många år, och med större och större 3D NAND chip till SSD så är det helt klart att SSDer snart kommer kunna göras till väldigt stora diskar.

Det HDD har fördel är långtidslagring och mycket kapacitet till budget pris, där du offrar pålitlighet (pga rörliga delar) och prestanda. Men om du får en 3TB SSD som kanske kostar 3x priset av en HDD, men håller 3x så länge som en HDD och har 3x bättre sekventiell prestanda och enormt högre IOPS... då kanske det är dags att tänka på att pensionera HDDn.

Toshiba är fristående som HDtillverkare. Men HGST är juh uppköpta av WD sen länge.

Av CamelCase
Skrivet av Glaring_Mistake:

@CamelCase:

Om jag kommer ihåg rätt har WD köpt upp en tillverkare av SSDer tidigare så det kan man nog säga att de gjorde redan innan deras uppköp av SanDisk.
Men de inriktade sig mer på företag än konsumenter då medan när de nu köpt SanDisk är de inne på båda marknaderna.

Du tänker inte på sandisks uppköp av fusion-io?

Av CamelCase
Skrivet av serverfel:

Visste inte att WD gjorde ssd diskar... Där ser man...

Blev väl så efter köpet av sandisk, då följde väl även produktions- o utvecklingsalians med toshiba med i affären.

Av CamelCase
Skrivet av RekiN:

Äntligen! Nu borde alla spelutvecklare följa efter så vi får native 4K texturer i spel och det blir värt att investera i en 4K-skärm!

Varför begränsa till en fix storlek? Beräknade texturer borde vara det naturliga valet i en asynkron era.

Av CamelCase
Skrivet av Yoshman:

Finns en skillnad från de flesta "builtins" i GCC. Om jag använder t.ex. __builtin_ffs på en CPU som saknar en specifik assemblerinstruktion för att hitta första biten som är satt så lägger kompilatorn ut motsvarande instruktioner. D.v.s. det kommer alltid att fungera men är mindre effektivt på CPUer som inte direkt stödjer funktionen. Detta är mer likt vad Gameworks gör, allt kommer fungera men vissa operationer är dyrare på GPUer som saknar vissa funktioner och där man (DX infrastrukturen) får ta en lite längre väg.

"shader intrinsics" är helt analogt med GCC Compiler Intrinsics för t.ex. SSE/AVX. Det ger mig som C/C++ programmerare något som passar väl ihop med språket C/C++ (d.v.s. man använder SSE/AVX funktioner som helt vanliga C anrop), men även fast ARM stödjer motsvarande funktioner via NEON så kommer något där man använder SSE/AVX intrinsics överhuvudtaget inte gå att kompilera för ARM, kompilerar inte heller för en x86 CPU som saknar någon av de instruktioner man använt.

När jag kollar på "shader intrinsics" så tycker jag att allt ser ut att ligga på samma abstraktionsnivå som ffs. Dvs arkitekturer som inte har opcodes som matchar kan matas med en instruktionssekvens.

Att kunna köra max(a, max(b, c)) som en instruktion är rättså cute!
Om det implementeras med cmove så är det awsome!

Av CamelCase
Skrivet av Yoshman:

Så vitt jag vet kan man i var enda titel som använder sig av Gamework slå av/på varje enskild finess som implementeras m.h.a. Gameworks. Du som användare är alltså helt i kontroll över att göra valet om du anser att kostnaden för att slå på en viss finess uppvägs av förbättringen i upplevelse. Då Gameworks är implementerat uteslutande ovanpå standardfunktioner i DX11/12 så fungerar också alla finesser på alla kort som korrekt implementerar dessa APIer.

Med AMDs "shader intrinsics" går man utför vad som är möjligt med HLSL och SPIR-V (standarderna för att beskriva shaders i DX resp. Vulkan) och får något som är bundet till GPUer som implementerar det man valt att använda. Specifikt i Doom (som är första titel att använda detta) avgörs valet huruvida jag kan använda funktionen som implementeras med tekniken helt av om min GPU stödjer "rätt sker" eller ej. Om den inte gör det kan man överhuvudtaget inte använda finessen om det inte finns en "fallback path", vilket för Doom saknas för tillfället (men gissar att det är vad man jobbar på för Pascal då det enligt rykten ska komma "async shaders" under Vulkan även där).

Personligen har jag full förståelse för varför AMD pushar "shader intrinsics", men svårt att få ihop logiken i ditt påstående.

Hitman använder inte "shader intrinsics" (det finns för tillfället inte för DX12). AMDs kort presterar bättre än motsvarande Nvidia både i DX11 och DX12, så denna titel använder rent generellt saker som passar bättre för GCN. Witcher 3 använder ju Gameworks och presterar "trots" det ändå riktigt bra på kort från båda lägren.

"shader intrinsics" verkar juh mest vara behändiga builtins. Flera av dem verkar dessutom vara halvvägs i standardiseringsarbetet av suffixen att döma. Så jag ser ingen gamechanger här.

Av CamelCase
Skrivet av Oaktree:

Är det detta du menar så verkar det som 3Dmark Time Spy endast stödjer pre-emption alltså att arbeten prioriteras och växlar mellan olika job alltså inte riktig multi-thread, detta stödjs på både amd och nvidia. Men amd stödjer Asynchronous Shaders vilket betyder att flera arbeten kan köras samtidig t.ex. compute och shaders "asynchronous" vilket är som multi-threaded på CPUs.
Länk: http://www.overclock-and-game.com/news/pc-gaming/50-analyzing...

Om Dx11 är 50% snabbare än vulkan i Talos Pricipel så är det nog en dålig implementerin av Vulkan, då DX11s Multi-threded är liknande DX12 och vulkans "pre-emption" att olika jobb prioriteras och växlar mellan olika jobb, medan Asynchronous Shaders kan jämföras med riktig multi-threded, alltså köra flera arbeten samtidigt.
Läs mer här: http://wccftech.com/async-shaders-give-amd-big-advantage-dx12...

Detta stämmer till viss del Amd hade sämmre implentation av OpenGL drivers men det är inte endast detta som gör att amd ligger såpass mycket före i Vulkan då Nvidia korten saknar "Asynchronous Shaders" läs ovan svar för mer info.

Amd:s kort har stöd för "Asynchronous Shaders" vilket nvidia korten saknar, detta ger Amd:s kort kompabilitetan att köra flera jobb samtidigt "Multi-threded", läs ovan svar för mer info.

Min hypotes är att nvidia inte "offrar" ngn kiselyta på en scheduler. AMD har Asynchronous Compute Engine och ARM verkar ha Inter Core Task Manager. De verkar dessutom ha scheduling på instruktionsbuntsnivå (Terminologin är visst clause). ImgTec verkar ha Course Grain Scheduler i sina diagram.

Men som sagt, det är enbart en hypotes.

Av CamelCase
Skrivet av Orisons:

@FBGKimpan: Kan dom inte bara köra Open gl då? Är nvidia sämre på Open gl än AMD?

Klart det går om man gillar retroAPI:er. Och Nej, nvidia är i mitt tycke klart bättre på OGL.

Men nu försöker vi vara framåtblickande.

Av CamelCase
Skrivet av Yoshman:

Nackdelen med "low-level" APIer är att mycket av detaljerna som tidigare endast berörde de som skrev drivare nu hamnar i knät hos spelutvecklarna.

Bara initialt, lär bli så att bara spelmotortillverkare grottar på lågnivå.

Skrivet av Yoshman:

AMD har en riktigt bra presentation kring vilka problem utvecklar stött på så här långt när de jobbar med Vulkan. Det problem du ser är ett fall av detta

Detta är inte specifikt till Vulkan, nästan allt som står i den presentationen gäller även för DX12.

Medhåll, riktigt bra presentation.