Nvidia uppges omdefiniera antalet CUDA-kärnor i Geforce RTX 3000

Permalänk
Melding Plague

Nvidia uppges omdefiniera antalet CUDA-kärnor i Geforce RTX 3000

Det obscena antalet CUDA-kärnor i Geforce RTX 3000-serien kan förklaras av att Nvidia till synes ändrar hur antalet kärnor räknas.

Läs hela artikeln här

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Medlem

Tack för detta klargörande!

Visa signatur

Ryzen 7800X3D - ASUS STRIX B650E-F Gaming - EKWB full custom loop - ASUS STRIX RTX 3090 - Kingston CL36 32GB 6000 MHz DDR5 - Corsair RM850X - Alienware AW3418DW - Lian Li V3000+

Permalänk
Medlem
Permalänk
Avstängd

I slutändan är det ändå den faktiska prestandan som räknas. Ska bli intressant att se kommande tester.

Permalänk
Medlem

Jag tolkar det lite som SMT fast för en GPU. Förr kördes en istruktion i taget, men sen insåg man att många delar då stod tomma hela tiden. Det förbättrades genom att kunna tillåta operationer av olika typer samtidigt. En micro op med int beräkning kan köras samtidigt som en micro op med flyttal på samma beräkningsenhet.

Många FP64 enheter kan med lite ändring köra 2xFP32, men det är nog inte bara det som hänt här.

Jag tror snarare varje beräkningsrnhet nu har en integer kärna och en FP64 kärna men att de kan köras parallellt som 2x32 istället.

Det betyder alltså att Nvidia räknar kärnor som FP32-enheter. Detta är ganska likt vad AMD gjorde med modulerna i Bulldozer känns det som.

I realiteten är det alltså inte en dubblering, utan oftast kan man inte utnyttja all den kraften, men de gånger när FP prestanda behövs finns det mer att ta av än tidigare.

Permalänk
Medlem
Skrivet av jawik:

I slutändan är det ändå den faktiska prestandan som räknas. Ska bli intressant att se kommande tester.

Det är givet att det är det som kommer vara det avgörande rollen hur detta kortet kommer tas emot.

Dock så blir jag lite "trött" på att företag helt sonika börjar räkna på ett annat sätt, och det troligen för att det förbättrar reklamen för deras försäljning.

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Skrivet av medbor:

Jag tolkar det lite som SMT fast för en GPU. Förr kördes en istruktion i taget, men sen insåg man att många delar då stod tomma hela tiden. Det förbättrades genom att kunna tillåta operationer av olika typer samtidigt. En micro op med int beräkning kan köras samtidigt som en micro op med flyttal på samma beräkningsenhet.

Många FP64 enheter kan med lite ändring köra 2xFP32, men det är nog inte bara det som hänt här.

Jag tror snarare varje beräkningsrnhet nu har en integer kärna och en FP64 kärna men att de kan köras parallellt som 2x32 istället.

Det betyder alltså att Nvidia räknar kärnor som FP32-enheter. Detta är ganska likt vad AMD gjorde med modulerna i Bulldozer känns det som.

I realiteten är det alltså inte en dubblering, utan oftast kan man inte utnyttja all den kraften, men de gånger när FP prestanda behövs finns det mer att ta av än tidigare.

Så vi räknar alltså med 50-60% bättre prestanda i vanlig rendering? RTX 3080 och RTX 3080 Ti drar också mer än 100W TDP än föregående generation och säkert hälften av den ökade prestandan kommer därifrån.

Permalänk
Medlem
Skrivet av Dinkefing:

Så vi räknar alltså med 50-60% bättre prestanda i vanlig rendering? RTX 3080 och RTX 3080 Ti drar också mer än 100W TDP än föregående generation och säkert hälften av den ökade prestandan kommer därifrån.

Enligt Digital Foundrys snabba test låg 3080 60-80% över 2080 i vanlig rasterisering.

Permalänk
Medlem
Skrivet av wargreymon:

Enligt Digital Foundrys snabba test låg 3080 60-80% över 2080 i vanlig rasterisering.

Ja och det är troligen strax mindre hopp mellan 2080TI och 3090, runt 40-60% gissar jag på.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Datavetare

Spontant tänkte jag: detta känns helt orimligt
"helt enkelt ersatt FP64-enheterna med dessa"

detta då CUDA (språket/ramverket) kräver ju FP64 stöd. Fast tänker man lite till är det faktiskt inte så att man måste ha HW-stöd för FP64 bara för att kunna använda program som jobbar med FP64. Nvidias konsumentkort har sedan länge haft rejält nedskalad FP64 kapacitet jämfört med kretsarna tänkt för arbetsstationer och datacenter, i något läge blir det helt enkelt snabbare att hantera FP64 i programvara än att lägga till, säg en FP64, per SM bara för att ha stödet.

Är fullt möjligt att köra både FP128 och FP1024 på våra PC-datorer, det trots att de saknar HW-stöd för detta. Så inte alls omöjligt att Nvidia kör något liknande på sina konsument GPUer för FP64!

Detta tror jag har en väldigt enkel förklaring
"Flera partnertillverkare anger antalet CUDA-kärnor i Geforce RTX 3090 till 5 248, alltså hälften av vad Nvidia anger. "

Nvidia hade inte lämnat ut exakta specifikationerna för korten, men eventuellt kände partnertillverkare till antalet SM, antal TMUs eller liknande och räknat baklänges till hur många CUDA-kärnor det borde ge vid samma fördelning som Turing.

Förutsatt att Ampere verkligen har så många FMA ALUs för FP32 som specifikationen säger har de egentligen exakt samma definition av CUDA-kärna som man alltid haft, d.v.s. "Tiotusen CUDA-cores" i 3090 är tekniskt korrekt. Har man inte skalat upp övriga saker som cache, storlek på registerbank etc kommer varje enskild CUDA-kärna i praktiken utföra mindre än på Turing.

Det enda som spelar roll är egentligen: givet en viss transistorbudget, hur ska dessa fördelas över ALU, cache, fix-function etc för att ge maximal faktiskt prestanda. Tror Ampere är bättre balanserad för spel än Turing, men vi lär få se.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Rekordmedlem

Bulldozerkärnor ?

Visa signatur

R5 5600G, Asus ROG STRIX X470-F Gaming, WD SN850X 2TB, Seasonic Focus+ Gold 650W, Aerocool Graphite v3, Tittar på en Acer ET430Kbmiippx 43" 4K. Lyssnar på Behringer DCX2496, Truth B3031A, Truth B2092A. Har också oscilloskop, mätmikrofon och colorimeter.

Permalänk
Medlem

Nu är ju denna nyhet inte speciellt förvånande. Steget 2080 Ti till 3090 verkar innebära prestandaförbättringar på 60-80 procent. Detta samtidig som antalet cuda-kärnor ökar med 140 procent, minnesbandbredden ökar, ny och förhoppningsvis effektivare arkitektur etc. Det var direkt uppenbart att någonting hade förändrats i hur antalet kärnor beräknas eller att hur kärnorna byggdes upp hade kraftigt förändrats. Jämför detta med AMD:s utbud där vi heller inte direkt kan jämföra specifikation mot specifikation på samma sätt som vi kan göra inom samma arkitektur och generation.

Permalänk
Medlem
Skrivet av Yoshman:

Spontant tänkte jag: detta känns helt orimligt
"helt enkelt ersatt FP64-enheterna med dessa"

detta då CUDA (språket/ramverket) kräver ju FP64 stöd. Fast tänker man lite till är det faktiskt inte så att man måste ha HW-stöd för FP64 bara för att kunna använda program som jobbar med FP64. Nvidias konsumentkort har sedan länge haft rejält nedskalad FP64 kapacitet jämfört med kretsarna tänkt för arbetsstationer och datacenter, i något läge blir det helt enkelt snabbare att hantera FP64 i programvara än att lägga till, säg en FP64, per SM bara för att ha stödet.

Är fullt möjligt att köra både FP128 och FP1024 på våra PC-datorer, det trots att de saknar HW-stöd för detta. Så inte alls omöjligt att Nvidia kör något liknande på sina konsument GPUer för FP64!

Detta tror jag har en väldigt enkel förklaring
"Flera partnertillverkare anger antalet CUDA-kärnor i Geforce RTX 3090 till 5 248, alltså hälften av vad Nvidia anger. "

Nvidia hade inte lämnat ut exakta specifikationerna för korten, men eventuellt kände partnertillverkare till antalet SM, antal TMUs eller liknande och räknat baklänges till hur många CUDA-kärnor det borde ge vid samma fördelning som Turing.

Förutsatt att Ampere verkligen har så många FMA ALUs för FP32 som specifikationen säger har de egentligen exakt samma definition av CUDA-kärna som man alltid haft, d.v.s. "Tiotusen CUDA-cores" i 3090 är tekniskt korrekt. Har man inte skalat upp övriga saker som cache, storlek på registerbank etc kommer varje enskild CUDA-kärna i praktiken utföra mindre än på Turing.

Det enda som spelar roll är egentligen: givet en viss transistorbudget, hur ska dessa fördelas över ALU, cache, fix-function etc för att ge maximal faktiskt prestanda. Tror Ampere är bättre balanserad för spel än Turing, men vi lär få se.

Men det känns ju som att denna ’fördubblade’ FP32 kapacitet endast kan utnyttjas i vissa fall. Annars känns det mer rimligt att räkna detta som en extra FP32 enhet per ’kärna’ eller helt enkelt att det gick att använda befintliga kärnor lite tightare per cykel genom en annan pipeline? Annars hade väl allting relaterat till enheterna behövt dubbleras? Detta känns precis som micro-ops i en CPU för mig med massa olika exekveringsportar. Nu har de 2xFP32 och 1xINT och en prefetcher som kan köra 2 micro ops per cykel

Permalänk
Medlem
Skrivet av hakro807:

Nu är ju denna nyhet inte speciellt förvånande. Steget 2080 Ti till 3090 verkar innebära prestandaförbättringar på 60-80 procent. Detta samtidig som antalet cuda-kärnor ökar med 140 procent, minnesbandbredden ökar, ny och förhoppningsvis effektivare arkitektur etc. Det var direkt uppenbart att någonting hade förändrats i hur antalet kärnor beräknas eller att hur kärnorna byggdes upp hade kraftigt förändrats. Jämför detta med AMD:s utbud där vi heller inte direkt kan jämföra specifikation mot specifikation på samma sätt som vi kan göra inom samma arkitektur och generation.

Känns som att dubbleringen inte översätts till ökad prestanda i alla fall, utan 70% fler kärnor blir ca 70% mer prestanda. I vissa lägen är det såklart bättre eller sämre, men i snitt verkar inte denna ’dubblering’ vara mer än marknadsföring (remember AMD moduler)

Permalänk
Datavetare
Skrivet av medbor:

Men det känns ju som att denna ’fördubblade’ FP32 kapacitet endast kan utnyttjas i vissa fall. Annars känns det mer rimligt att räkna detta som en extra FP32 enhet per ’kärna’ eller helt enkelt att det gick att använda befintliga kärnor lite tightare per cykel genom en annan pipeline? Annars hade väl allting relaterat till enheterna behövt dubbleras? Detta känns precis som micro-ops i en CPU för mig med massa olika exekveringsportar. Nu har de 2xFP32 och 1xINT och en prefetcher som kan köra 2 micro ops per cykel

Det är rimligt då definitionen av en CUDA-kärna alltid varit antal FP32 kapabla FMA ALUs. Annars kan man börja diskutera antalet CUDA-kärnor och stream-kärnor hos i princip alla tidigare kort då inget kunde köra FP32+INT samtidigt, d.v.s. kapaciteten för FP32 minskade i de fall man hanterade heltal.

Turing är speciell i att heltal är "gratis" så länge som fördelning av heltal är lika med eller mindre än FP32. Tror slutsatsen är: man behöver ytterst sällan mycket heltalskapacitet i en GPU, heltal hanteras oftast bättre i en CPU.

Så innan Turing kunde man köra en µop per cykel, d.v.s. man låg på 486 nivå för att försöka dra en parallell till CPU. Turing tog steget till Pentium eran, d.v.s. superskalär design där mer än en µops per cykel kan köras. Dock rätt hårt begränsad då det bara fungerade just i kombinationen 1 FP32 + 1 INT. Ampere utökade detta till 2 FP32 + 0 INT eller 1 FP32 + 1 INT.

I CPU-termer skulle det inte ha ändrat antalet kärnor, det skulle ha ökat IPC med konstant antal kärnor.
Fast CUDA-kärnor (och än mer AMDs "stream-kärnor", AMD kör verkligen SIMD medan Nvidia kör SIMT) är rent tekniskt långt mer jämställda med hur många FMAs en CPU kan utföra per cykel där man kan se en SM som en SIMD-enhet med brutal bredd.

Hade Nvidia kört SIMD på HW-nivå hade diskussionen varit 100 % klar: Ampere har verkligen så många CUDA-kärnor man säger då det är en beskrivning av antalet FP32 kapabla FMA ALUs.

Nu kör Nvidia SIMT, d.v.s. varje CUDA-kärna har sin egen uppsättning skalära register (både AMD och Intel har i stället SIMD med vektorregister där skalära saker hanteras separat och då på samma sätt för alla trådar en "wave"). Innan Turing var det inte strikt SIMT då det bara fanns en programräknare för en hel "warp" (32 trådar), men sedan Turing har varje tråd även en egen programräknare (vinsten med detta är primär att man hanterar fall där trådarna tar olika kodväg bättre än SIMD, Intel "löser" problemet genom att ha variabel bredd på sin SIMD, allt från SIMD-1 till SIMD-16).

Antalet programräknare per SM lär med största sannolikhet inte vara fördubblad mot Turing, skillnaden här är att en enskild tråd nu kan köra två FP32 per cykel alt. en FP32 + en INT. Vill man absolut hävda att Nvidia slirar på sanningen kan man då ta till det slagträt, men tekniskt sett har Nvidia rätt då antal CUDA-kärnor refererar till antalet FP32 kapabla FMA ALUs, vilket har fördubblats per SM i Ampere.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Snart kommer de omdefinera dubbelt så snabb, det är bara dubbel fps med rtx på i 8k, I vanlig prestanda är det bara 5 %

Permalänk
Medlem
Skrivet av Yoshman:

Det är rimligt då definitionen av en CUDA-kärna alltid varit antal FP32 kapabla FMA ALUs. Annars kan man börja diskutera antalet CUDA-kärnor och stream-kärnor hos i princip alla tidigare kort då inget kunde köra FP32+INT samtidigt, d.v.s. kapaciteten för FP32 minskade i de fall man hanterade heltal.

Turing är speciell i att heltal är "gratis" så länge som fördelning av heltal är lika med eller mindre än FP32. Tror slutsatsen är: man behöver ytterst sällan mycket heltalskapacitet i en GPU, heltal hanteras oftast bättre i en CPU.

Så innan Turing kunde kan köra en µop per cykel, d.v.s. man låg på 486 nivå för att försöka dra en parallell till CPU. Turing tog steget till Pentium eran, d.v.s. superskalär design där mer än en µops per cykel kan köras. Dock rätt hårt begränsad då det bara fungerade just i kombinationen 1 FP32 + 1 INT. Ampere utökade detta till 2 FP32 + 0 INT eller 1 FP32 + 1 INT.

I CPU-termer skulle det inte ha ändrat antalet kärnor, det skulle ha ökat IPC med konstant antal kärnor.
Fast CUDA-kärnor (och än mer AMDs "steam-kärnor", AMD kör verkligen SIMD medan Nvidia kör SIMT) är rent tekniskt långt mer jämställda med hur många FMAs en CPU kan utföra per cykel där man kan se en SM som en SIMD-enhet med brutal bredd.

Hade Nvidia kört SIMD på HW-nivå hade diskussionen varit 100 % klar: Ampere har verkligen så många CUDA-kärnor man säger då det är en beskrivning av antalet FP32 kapabla FMA ALUs.

Nu kör Nvidia SIMT, d.v.s. varje CUDA-kärna har sin egen uppsättning skalära register (både AMD och Intel har i stället SIMD med vektorregister där skalära saker hanteras separat och då på samma sätt för alla trådar en "wave"). Innan Turing var det inte strikt SIMT då det bara fanns en programräknare för en hel "warp" (32 trådar), men sedan Turing har varje tråd även en egen programräknare (vinsten med detta är primär att man hanterar fall där trådarna tar olika kodväg bättre än SIMD, Intel "löser" problemet genom att ha variabel bredd på sin SIMD, allt från SIMD-1 till SIMD-16).

Antalet programräknare per SM lär med största sannolikhet inte vara fördubblad mot Turing, skillnaden här är att en enskild tråd nu kan köra två FP32 per cykel alt. en FP32 + en INT. Vill man absolut hävda att Nvidia slirar på sanningen kan man då ta till det slagträt, men tekniskt sett har Nvidia rätt då antal CUDA-kärnor sm sagt räknat antalet FP32 kapabla FMA ALUs, som har fördubblats per SM.

Tack för utlägget!

Då känns det väl som att det borde ge mer prestanda än vad som verkar visas i de raster-tester som läckt ut hittills?

Permalänk
Datavetare
Skrivet av medbor:

Tack för utlägget!

Då känns det väl som att det borde ge mer prestanda än vad som verkar visas i de raster-tester som läckt ut hittills?

Nej.

Bandbredd mot VRAM har "bara" ökat med 50 % (3090 vs 2080Ti) till 70 % (3080 vs 2080), antal TMU har rimligtvis bara ökat med antalet SM (så hälften av antal CUDA-kärnor), ROPs har eventuellt inte ökat alls då det är bundet till bredden på bussen mot VRAM (det lär i alla fall inte ökat lika mycket som CUDA-kärnor).

Olika fall har olika flaskhalsar, få spel lär vara enbart begränsade av FP32 kapacitet! Blir däremot riktigt spännande att se vissa GPGPU-fall, de kan få direkt brutal prestanda med Ampere då det finns fall som nästa till 100 % är FP32 begränsade!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Nej.

Bandbredd mot VRAM har "bara" ökat med 50 % (3090 vs 2080Ti) till 70 % (3080 vs 2080), antal TMU har rimligtvis bara ökat med antalet SM (så hälften av antal CUDA-kärnor), ROPs har eventuellt inte ökat alls då det är bundet till bredden på bussen mot VRAM (det lär i alla fall inte ökat lika mycket som CUDA-kärnor).

Olika fall har olika flaskhalsar, få spel lär vara enbart begränsade av FP32 kapacitet! Blir däremot riktigt spännande att se vissa GPGPU-fall, de kan få direkt brutal prestanda med Ampere då det finns fall som nästa till 100 % är FP32 begränsade!

Jo men nu verkar det ju snarare som att spel inte alls utnyttjar den dubblerade kapaciteten eftersom de skalar synligen linjärt mot ’hälften’ av kärnorna på ampere

Permalänk
Medlem
Visa signatur

Modermodem: Asus ROG Strix X470-F
Grafikkort: XFX Speedster MERC 319 AMD Radeon™ RX 6800 BLACK
Processor: AMD 2600X
Minne: 48 GB

Permalänk
Medlem

3090 hit och 3080 dit. Ge oss en ny Tegra som switchen kan uppgraderas med x)

Permalänk
Medlem

Det här låter ju som en trolig förklaring.

Hade för mig att jag sett precis den här grejen förut i en GPU. Fick fundera en stund, men till slut kom det:

https://www.anandtech.com/show/4830/intels-ivy-bridge-archite...

(fast det var transcendentala operationer där och inte heltal, men samma princip).

Visa signatur

5900X | 6700XT

Permalänk

låter sweet. men ska man uppgradera från ett 2080 till ett 3080? vad kan man tänkas få för begagnat 2080 (ej ti, ej super)

Permalänk
Medlem

Jag använder bara mitt 2080ti för rendering, så cuda kärnor är viktigt, men försköningen av 3000 serien gör mig lite suspekt hur mycket extra prestanda jag faktiskt får... väntar på reviews innan jag köper ett 3090

Permalänk
Medlem

3070 > 2080 Ti

Folk kan hävda vad de än vill men Nvidia går ut OFFICIELLT och markerar i en slide inför miljonpublik att 3070 är bättre än 2080 Ti.

Det är inget man gör om man inte är säker på sin sak.
Nvidia hade inte ens behövt poängtera det men det valde att göra detta då de har kunskapen om sina produkter - både vid släpp och vid framtida driveruppdateringar.

Se bifogad slide.

Om man inte vill tro sina ögon så finns det inget jag kan hjälpa till med, tyvärr. Var glada att utvecklingen går framåt och att Nvidia är tillbaka till rimliga prisnivåer.

https://linkpicture.com/q/3070betterthan2080ti.png

Visa signatur

/ Nero

Permalänk

Undrar om man ska tolka den (för Nvidia) betydligt rimligare pris/prestanda på generationen som att de har förhandsinfo om att RDNA2 är någorlunda konkurrenskraftig, iaf i mellansegmentet?

Visa signatur

/Hej hopp!

Permalänk
Medlem
Skrivet av DeNero:

Folk kan hävda vad de än vill men Nvidia går ut OFFICIELLT och markerar i en slide inför miljonpublik att 3070 är bättre än 2080 Ti.

Det är inget man gör om man inte är säker på sin sak.
Nvidia hade inte ens behövt poängtera det men det valde att göra detta då de har kunskapen om sina produkter - både vid släpp och vid framtida driveruppdateringar.

Se bifogad slide.

Om man inte vill tro sina ögon så finns det inget jag kan hjälpa till med, tyvärr.
Var glad att utvecklingen går framåt och att Nvidia är tillbaka till rimliga prisnivåer.

https://linkpicture.com/q/3070betterthan2080ti.png

Det finns säker fall då det stämmer men det betyder inte nödvändigtvis att det är allmängiltigt. Det innebär inte att de ljuger som en häst travar, bara att de påstått något men "glömt" att precisera kontexten. Inga problem att "glömma" sådana detaljer inför miljonpublik...tvärtom så är det vardagsmat.

Kommer inte ihåg exakt vad som sas men sa de inte även att 3080 är dubbelt så snabb som 2080?

Det vore dock sjukt imponerande om >2080TI är mer eller mindre allmängiltigt, för skillnaden i minnesbandbredd är rätt stor (vilket annars kan vara en flaskhals)

Permalänk
Medlem
Skrivet av DeNero:

Folk kan hävda vad de än vill men Nvidia går ut OFFICIELLT och markerar i en slide inför miljonpublik att 3070 är bättre än 2080 Ti.

Det är inget man gör om man inte är säker på sin sak.
Nvidia hade inte ens behövt poängtera det men det valde att göra detta då de har kunskapen om sina produkter - både vid släpp och vid framtida driveruppdateringar.

Se bifogad slide.

Om man inte vill tro sina ögon så finns det inget jag kan hjälpa till med, tyvärr. Var glada att utvecklingen går framåt och att Nvidia är tillbaka till rimliga prisnivåer.

https://linkpicture.com/q/3070betterthan2080ti.png

Nvidia har inte sagt något om hur det testats.
Är 3070 snabbare än 2080ti med maxad RT i ett visst spel har de inte ljugit, men det hjälper ju måttligt om 2080ti fortfarande är snabbare i andra spel.

Visa signatur

"When I get sad, I stop being sad and be awsome instead, true story."

Permalänk
Medlem

"Är det för bra för att vara sant..."

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem

Så detta kan vara lite mer som antal threads på HT/SMT cpuer?
Hmmm, CUDA-Threads?