Xbox Series X och Geforce RTX 2080 Ti jämförs av utvecklare

Permalänk
Melding Plague

Xbox Series X och Geforce RTX 2080 Ti jämförs av utvecklare

Utvecklare hos Microsoft demonstrerar hur Xbox Series X står sig mot Geforce RTX 2080 Ti med grafiktekniken Primitive Shaders.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Oj vi använder en teknik på x boxen & visar att det fungerar bättre än på ett nvidia kort som inte i nuläget har tekniken, men får den om en liten stund mao så säger denna artikel ingenting

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Ase:

Oj vi använder en teknik på x boxen & visar att det fungerar bättre än på ett nvidia kort som inte i nuläget har tekniken, men får den om en liten stund mao så säger denna artikel ingenting

Du får nog läsa igen.

"I dagsläget stöder Xbox Series X betydligt större grupper av geometriska beräkningar. Microsofts spelkonsol kan hantera grupper bestående av 256 så kallade SIMD-vågor, ställt mot 32 hos Geforce RTX 2080 Ti. "

Turing har som sagt stöd för mesh shaders https://devblogs.nvidia.com/introduction-turing-mesh-shaders/ Dock som nämns i artikeln inte lika kraftfullt stöd.

Permalänk
Medlem

Så RDNA 2 är ganska fett, helt enkelt.

Visa signatur

Hur många datorer är för många?

Permalänk
Inaktiv

Men, Sweclockers PC master race experter har ju sagt att nästa gen konsoler omöjligt kan vara bättre än en låg-mellanklass PC? Vad ska jag nu tro.... :(.

Permalänk
Medlem

2080 ti kostar typ 12.000.. Just saying, min gissning på 8 - 10k för konsolerna är fortfarande aktuell.

Visa signatur

CPU: 5600x
GPU: 3080
RAM: 32GB

Sluta gömma din identitet, skaffa en till istället

Permalänk
Medlem
Skrivet av kelthar:

Så RDNA 2 är ganska fett, helt enkelt.

RDNA 2 i kommande Xbox och PS5 är fett*

Vad det blir med RDNA 2 för PC-marknaden vet vi inte, men vi kan säkert vänta oss stabila drivrutiner, god effektivitet och låg värmeutveckling i sann AMD-anda

Permalänk
Medlem
Skrivet av Boredbynoobs:

RDNA 2 i kommande Xbox och PS5 är fett*

Vad det blir med RDNA 2 för PC-markanden vet vi inte, men vi kan säkert vänta oss stabila drivrutiner, god effektivitet och låg värmeutveckling i sann AMD-anda

De kan komma ikapp Nvidia (på riktigt den här gången) vilket jag tycker är mest relevant.

Permalänk
Inaktiv

Hade varit nice om man kan spela fps-spel (eller till och med vanliga PC-spel) med tangentbord och mus på xbox series x alltså! 😃

Permalänk
Medlem
Skrivet av scara:

De kan komma ikapp Nvidia (på riktigt den här gången) vilket jag tycker är mest relevant.

Tror inte det tyvärr då det kommer konkurrera med Ampere.

Men det vore roligt om dem verkligen kom ikapp i samtliga prestandasegment!

Permalänk

@anon228747: Skulle säga att detta är den första intressanta konsollen (prestandamässigt) sedan PS2.

Visa signatur
Permalänk
Medlem

Ska bli intressant vad priset landar på tycker jag. Vad gissar vi på?

Visa signatur

Lea här ^-^/
25, gym, kläder, bilar. Liite elektronik 👀

Permalänk
Medlem
Skrivet av Boredbynoobs:

RDNA 2 i kommande Xbox och PS5 är fett*

Vad det blir med RDNA 2 för PC-markanden vet vi inte, men vi kan säkert vänta oss stabila drivrutiner, god effektivitet och låg värmeutveckling i sann AMD-anda

Nej det vet vi förstås inte. Men det kan bli rätt så bra ändå. Redan t.ex. RX5700 ligger ganska bra i Performance/Watt. Amd talar ju om 50% upplyft just på den fronen, även om vi inte vet hur det översätts i rå prestanda så kan man ju i alla fall räkna med att den inte blir sämre? Andra rykten talar om 80CU i den fulla kretsen dvs drygt "40%" mer prestanda då än Xboxen, lägg sen till antagligen biffigare strömförsörjning och kylning från 3:e part. Betvivlar icke att Ampere blir en ruskig sak det med, frågan för mig personligen mer om Performance/Dollar. Skall bli intressant att se hur det utvecklar sig.

Visa signatur

🖥️:Phanteks Evolv X | Ryzen 7 5800X3D | Noctua nh-d15 chromax.black | 8x Noctua NF-P14s Redux 1500 | Gigabyte x470 Aorus Gaming 7 Wifi | Kingston Renegade 32Gb 3600Mhz | Samsung 990 Pro | ASUS TUF 3080 12Gb | Cougar CM 700W | Acer XB27HU | Mionix Naos QG | CM Storm QuickFire TK MX Blue |

"Bättre bli motbevisad - än förklarad skyldig"

Permalänk
Moderator
Testpilot
Skrivet av hakd:

2080 ti kostar typ 12.000.. Just saying, min gissning på 8 - 10k för konsolerna är fortfarande aktuell.

Kanske för flaggskeppen aka Pro-modell men inte för Svenssonmodellen. Kommer inte sälja tillräckligt bra, tror jag.

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem

Extremt hypad över AMD's nya arkitektur och kan inte vara mer glad att de Äntligen verkar kunna ge nVidia en match.
Använt nVidia länge och hyllar all fantastisk teknik de plockar fram titt som tätt. Fast tyvärr kostar det ju skjortan. Om nu verkligen AMD kommer tillbaka står jag gärna först på rad att byta ut mitt 2060S, mot ett kommande RDNA 2 GPU.

AMD gjorde ju en sjukt bra comeback på CPU marknaden och blåste Intel av stolen, iaf med tanke på hur illa ställt det varit under många år. Nu får vi verkligen hoppas de kan göra samma sak på GPU sidan så nVidia får lite konkurens.

Sen skulle det vara damn nice med ett AMD kort igen. Var många år sedan sist, så kom igen AMD, prestera och jag hoppar gärna till det röda laget igen

Permalänk
Medlem

mikrosekunder?
Skrivfel eller vansinnigt snabbt?
Rendering brukar väl anges i ms, inte µs(1/1000ms)?

Visa signatur

i7 2600k | P8P67Deluxe | Noctua NH-D14 | KFA2 GTX1080 EXOC | Corsair 750W | Corsair Obsidian 800D | Dell U2412M
America's Army: Proving Grounds

Permalänk
Medlem
Skrivet av hakd:

2080 ti kostar typ 12.000.. Just saying, min gissning på 8 - 10k för konsolerna är fortfarande aktuell.

Låter inte orimligt. Är ju vad en telefon kostar.

Permalänk
Medlem
Skrivet av raynak:

Låter inte orimligt. Är ju vad en telefon kostar.

Jag förstår inte varför alla jämför med just vad en telefon kostar, på vilket sätt är det relevant?
Personligen ser jag absolut ingen korrelation mellan vad en telefon kontra en spelkonsol kostar. Bara för att jag kanske är beredd att lägga 10K på en mobiltelefon, som jag använder flera timmar varje dag, så betyder det inte att jag är beredd att lägga lika mycket på en spelkonsol (eller tvärtom för den delen).

Permalänk
Avstängd

Längtar tills släpp.

Permalänk
Medlem
Skrivet av frankof:

mikrosekunder?
Skrivfel eller vansinnigt snabbt?
Rendering brukar väl anges i ms, inte µs(1/1000ms)?

Det kan nog stämma med mikrosekunder, det är ju en väldigt enkel scen och all data verkar helt statisk (d.v.s. hela scenen ligger i grafikkortets minne).

Att dra några slutsatser för hur grafikkortet i Xbox Series X kommer prestera jämfört med 2080 Ti går förstås inte att göra baserat på detta, då det endast testar en enda väldigt specifik funktion under väldigt förenklade omständigheter. Inte för att det kommer stoppa vissa från att dra slutsatser ändå

Permalänk
Skrivet av perost:

Det kan nog stämma med mikrosekunder, det är ju en väldigt enkel scen och all data verkar helt statisk (d.v.s. hela scenen ligger i grafikkortets minne).

Att dra några slutsatser för hur grafikkortet i Xbox Series X kommer prestera jämfört med 2080 Ti går förstås inte att göra baserat på detta, då det endast testar en enda väldigt specifik funktion under väldigt förenklade omständigheter. Inte för att det kommer stoppa vissa från att dra slutsatser ändå

Finns ju även test i Gears 5 där det jämförs hos Df, men hur pass beroende/oberoende Df är i sitt ställningstagande vågar jag inte säga.
https://www.gamereactor.se/nyheter/841393/Xbox+Series+X+prest...

Visa signatur

Legion 5 Pro" Ryzen 5800H / 32GB ram / 2TB+1TB nvme / RTX 3070 8GB 140w

Permalänk
Medlem
Skrivet av Blomman90:

Jag förstår inte varför alla jämför med just vad en telefon kostar, på vilket sätt är det relevant?
Personligen ser jag absolut ingen korrelation mellan vad en telefon kontra en spelkonsol kostar. Bara för att jag kanske är beredd att lägga 10K på en mobiltelefon, som jag använder flera timmar varje dag, så betyder det inte att jag är beredd att lägga lika mycket på en spelkonsol (eller tvärtom för den delen).

Nej, jag förstår det verkligen inte heller. Jag lägger mycket hellre +6000kr på en konsoll som jag har mycket mer nöje med, och förmodligen kommer använda minst ett par timmer/dag, istället för att köpa en riktigt dyr mobiltelfon som är relativt ömtålig och onödigt stor, när man istället kan lägga bara ett par tusenlappar och få en telefon som har det mesta, men some kanske inte är en "top of the line" modell.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem
Skrivet av Playboy_1338:

Finns ju även test i Gears 5 där det jämförs hos Df, men hur pass beroende/oberoende Df är i sitt ställningstagande vågar jag inte säga.
https://www.gamereactor.se/nyheter/841393/Xbox+Series+X+prest...

Fast nu fattar jag inte, kollar man på klippet så säger ju DF att det är jämförbart med ett RTX2080 och inte ett 2080Ti, https://youtu.be/oNZibJazWTo?t=728 Han som skrev den där artikeln måste vart full.

Permalänk
Medlem
Skrivet av sKRUVARN:

Han som skrev den där artikeln måste vart full.

Haha, japp.
Lite roligt att alla i kommentarerna köper det med hull och hår.

Permalänk
Medlem
Skrivet av hakd:

2080 ti kostar typ 12.000.. Just saying, min gissning på 8 - 10k för konsolerna är fortfarande aktuell.

XSX stödjer 8 ggr fler SIMD vågor så den borde kosta 8 ggr mer än 2080 ti. Just saying.

Permalänk
Medlem

Wow, jag fattade ingenting =D

Visa signatur

Ryzen 5 5600, Geforce 1080

Permalänk
Datavetare

Rent generellt måste jag säga att Martin Fuller var rätt värdelös på att förklara mesh-shader på något vettigt sätt. Denna video

ger en långt bättre förklaring och tror att herr Fullers usla förklaringen kan ha gjort så att artikelförfattaren dragit lite udda slutsatser (jag fattade ingenting efter att bara sett videon i artikeln).

"I dagsläget stöder Xbox Series X betydligt större grupper av geometriska beräkningar. "

Det är väl ändå inte vad som sägs i videon? Att använda 32 CUDA-kärnor är optimalt för de fall man testade i videon, men man stödjer upp till 128 trådar per "meshlet". Det här har en direkt parallell i CUDA (APIet), d.v.s. att dela in saker i trådar och block. Ett CUDA-block verkar väldigt snarlikt en "grupp" i DX12 mesh-shaders. Maximala antalet CUDA-kärnor per block dikterats inte av HW, utan det är primärt en funktion av hur stort "working set". Ju komplexare data, ju hårdare tryck på registerutrymme och cache, ju färre trådar vill man ha per block för maximal effektivitet.

Nuvarande version av CUDA (APIet) tillåter 1024 CUDA-kärnor per block (upp från tidigare 512), så rätt mycket mer än de 128 man tillåter i DX12 mesh-shader. Men är nog rimligt med en väsentligt lägre gräns i DX12, en typisk meshlet kommer nog vara mer komplex än de riktigt enkla CUDA-kernels där 1024 trådar per block är vettigt.

Notera att detta inte på något sätt påverkar hur komplex geometri man kan använda. Varje mesh bryts ned i en eller flera "meshlets", det enda som diskuteras här

är hur många trådar man ska stoppa in per "meshlet". Endera har man många "meshlets" med få trianglar, det gäller om det är optimalt att ha relativt liten gruppstorlek, eller så har man få "meshlets" med många trianglar i varje.

Det kritiska är att man kan bara dela data mellan trådar i samma "meshlet", det kan därför diktera hur man vill dela upp sin geometri.

Nvidia är också noga att påpeka att deras GPUer inte använder sig av SIMD (vilket AMD och Intel gör), utan SIMT. Dessa två är väldigt snarlika, men SIMT hanterar fall när trådar inom samma "warp" (inom samma DX12 mesh-grupp) divergerar mer effektivt än SIMD. Nackdelen med SIMT är att det kräver fler register, vilket mycket väl kan leda till att optimala storlek på Nvidia är fler "meshlets" med färre trådar i varje!

"För PC:n tar samma scen 72 mikrosekunder att rendera vid 1440p, vilket sjunker till som minst 32 mikrosekunder med den mest avancerade formen av culling-tekniken."

Vet inte om jag missförstod vad som faktiskt testade, men stämmer verkligen det markerade? Kikar man på videon verkar ju tiderna för 2080Ti komma från drakmodellen medan tiderna för Xbox robotmodellen. En rätt viktig detalj där, förutom skillnad i upplösning, är att draken består av ~200k trianglar medan roboten består av ~60k trianglar... Det nämns ju att en av optimeringarna man testar är bara vettig om man har väldigt många pixels per triangel i genomsnitt, 2080Ti kortet har ju både lägre upplösning och väsentligt fler trianglar -> väldigt få pixels per triangel.

Det i motsats till Xbox fallet med hög upplösning och färre trianglar, väsentligt fler pixels per triangel att rendera.

Tekniken verkar helcool, en uppenbar risk är dock att det optimala för en GPU-familj kan mycket väl skilja sig väsentligt från det optimala för en annan GPU-familj. Det kan leda till att vi får ännu mer spretande i relativt resultat mellan GPUer i speltester framöver. För mig som primärt jobbade med 3D i de tidigare åren, började innan GPUer kom in i bilden, så är mesh-shaders välkommet. Nu förstår jag vad som händer i detalj igen

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av sKRUVARN:

Fast nu fattar jag inte, kollar man på klippet så säger ju DF att det är jämförbart med ett RTX2080 och inte ett 2080Ti, https://youtu.be/oNZibJazWTo?t=728 Han som skrev den där artikeln måste vart full.

Gears 5 porten som de tittar på använder inte mesh shaders eller varible rate shading.

Visa signatur

Hur många datorer är för många?

Permalänk
Medlem
Skrivet av Yoshman:

Tekniken verkar helcool, en uppenbar risk är dock att det optimala för en GPU-familj kan mycket väl skilja sig väsentligt från det optimala för en annan GPU-familj.

Ja, AMD har ju legat efter i vissa benchmarks just på grund av att de satsade hårt på SIMD, men har kommit närmare Nvidia och klarat mer 'verkliga' scenarion efter att ha halverat sin wavefront:
"The RDNA architecture implemented in Navi uses wave32, a narrower wavefront with 32 work-items. It is much simpler and efficient than the older wave64 design."
https://www.hardwaretimes.com/amd-navi-deep-dive-rdna-vs-gcnw...

Min tolkning är att next-gen och RDNA2 ger spel mer optimerade för sådana här scenarion och med lib som DirectX 12 som kommit ikapp med mjukvaran så kan AMD's arkitektur betala sig.

Att lägga meshlets i hierarkiska volymer och göra culling där istället för i hårdvara på triangelnivå låter för mig väldigt likt algoritmen för raytracing - jag är väldigt spänd på om nvidia kan utnyttja sina RT-cores för detta parallellt i ett scenario som inte handlar om raytracing eller om det visar sig att AMD, som verkar raytracing i vanliga CU cores, vinner där också...

Det är förstås ett område där det återstår att se om mjukvaran kommit ikapp eller om vi får vänta till ett par år efter next-gen släppts, till en början verkar ju brute-force räcka långt...

Permalänk
Medlem

En säljare säger att hans vara är bättre än andras. Jo tjena, men tror jag väntar på oberoende tester.

Visa signatur

Processor: Motorola 68000 | Klockfrekvens: 7,09 Mhz (PAL) | Minne: 256 kB ROM / 512 kB RAM | Bussbredd: 24 bit | Joystick: Tac2 | Operativsystem: Amiga OS 1.3