Nvidia "Ampere" och Geforce RTX 3000-serien släpps första hälften av 2020

Permalänk
Medlem

Alltid kul med nya arkitekturer, blir det ok pris/prestanda denna gång kanske mitt GTX1080 får maka på sig.

Skickades från m.sweclockers.com

Visa signatur

Intel i7-4790K | Palit GeForce GTX 1080 Super Jetstream | Noctua NH-D15 | Corsair Vengeance Low Profile 32GB DDR3 PC3-12800 | Samsung SSD 840 EVO 250 GB | Asus Z97-A

Permalänk
Medlem

perfekt till Cyberpunk blir helt ny burk tills dess.

Visa signatur

13900KS | 32GB 6400 DDR5 | 4090 FE | Samsung G8 Oled
ASUS ROG Strix Z790-F Gaming | Fractal Torrent White | Corsair HX1200

Permalänk
Medlem

Spännande! Undrar om 2020 på allvar blir stora 4K kriget på gpu fronten? Mest 4K för pengarna vinner!

Permalänk
Medlem
Skrivet av anon52343:

Utmärkt. Då får vi se en vettigt prissatt uppföljare till 2080 Ti HT 2020 på grund av konkurrens från Intel.

Tror du att Intel kommer ha någon chans emot varken Nvidia eller AMD i de högre klasserna de första åren? Jag är ytterst tveksam!

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem

3080 = 2080Ti-ish prestanda och 20 GB minne för $799. Kom ihåg var du läste det först.

Permalänk
Avstängd
Skrivet av Triton242:

Runt 25% borde prestandavinsten bli från TI till TI kort eller liknande.
Det har varit lite minimum Nvidia har gjort de senaste åren, undantaget 9-10 serien där hoppet var ännu större vilket vi konsumenter sedan dess satt som branchpraxis och därför blev missnöjda när 10-20 serien blev en "flopp" sätt till prestanda.
RTX delen kommer säkert öka ännu mer.

Sedan sänkte Apple priset på sina Iphone 11 mot tidigare modeller så ditt resonemang är baserat på gammal data.

Priset har jag ingen aning om.
Dollarkurser, storlek på kisel, monopol, avsaknad av konkurans och tillverkningstekniska krypmningsfördelar vilket verkar generera högre kostnader mot tidigare krympningar gör att jag inte ens vågar gissa på priset.
Så länge Nvidia inte har någon konkurrens och AMD gladerligen tjänar pengar i mellansegmentet som blivit svindyrt på senare år är nog TI pengarna idag något vi får fortsätta anmana skulle jag tro.

Ja, mellan 80 Ti till 80 Ti brukar de vara som du säger. Den här diskussionen har varit uppe förut. Nu la jag ribban högt förvisso. De jag tänker på är hur prestandahoppet bli mellan 60, 70 och vanliga 80 korten blir. Hos dessa kort så eskalerade priserna medans prestandaökningen minskade markant jämfört med tidigare generationsskiften.
De finns en hel del teorier för varför de är såhär. De är dock inget jag tänker solka ner denna nyhetstråd med. De finns gott om trådar och filmer från "experterna" som tar upp detta.
Min jämförelse med Apple grundade sig i att dom fram tills i år höjde priset rätt mycke med varje ny mobil. NVIDIA har troligtvis inte slått i de taket ännu vilket får mig att tro att man kommer höja priserna för nästa generation också. Även om AMD skulle få ut ett kort som kan tackla ett RTX 2080 Super och ev sniffa bakom ett RTX 2080 Ti så tror jag inte NVIDIA kommer stanna kvar på nuvarande pris. Jag tror på en höjning igen, men kanske inte så mycke!

Visa signatur

🖥Phanteks Enthoo Evolv iTX . Phanteks AMP 650W. AMD R5 3600X. msi B450I GAMING PLUS AC. 32gB HyperX Fury RGB 3200MHz. msi RX 5700 XT GAMING. 1TB Kingston A2000.
AOC G2460FQ. Logitech G903. Logitech G840 XL. Logitech G513. Logitech PRO Gaming Headset. Luxorparts Headphone Stand. LG BP50NB40.

Permalänk
Medlem

Ganska skoj med alla "förutsägelser" om ohemula prislappar, men hur tänkte ni egentligen?

Börja med att fundera över: Vill folk ha mer eller samma prestanda på nya produkter när ett antal år förflutit?

Om vi kan vara överens om att de allra flesta vill ha mer prestanda (uttryckt som fler FPS i ett givet scenarion) och ser att det bara finns en som kan erbjuda högre prestanda relativt sett mot nuvarande generation, vad händer då?

Kommer folk antingen att sänka sina krav, eller öppna sina plånböcker?

En annan sak som alltid tappas bort är detta med rekommenderat pris kontra vad saker kostar i Sverige. Prishöjningen till kund svarar i huvudsak distributörerna för när de dessutom ligger 30-50% över rekommenderat pris, vilket beror på att folk som är intresserade av att uppgradera i tillräckligt hög grad är benägna att öppna plånboken för de alternativ som finns.

Alla skrattar åt Bill Gates "640 Kb"-citat, men ingen skrattar åt sina egna "dagens mellanklasskort borde räcka för alla"...

Permalänk
Snusfri
Skrivet av perost:

RT-kärnorna i RTX-korten är redan helt specialiserade på ray tracing, och är separata från tensor-kärnorna som också finns i RTX-korten. RT-kärnorna används för ray tracing, tensor-kärnorna för maskininlärning (t.ex. DLSS).

NVIDIA har för övrigt inte talat om hur mycket kretsyta RT-kärnorna tar upp, men de bästa gissningar verkar vara runt 10%. Det skulle vara intressant att se vad man kan göra för roligt om NVIDIA skulle släppa ett kort med i stort sett bara RT-kärnor, nuvarande kort kan ju köra Quake 2 med enbart ray tracing. Säkert många som sysslar med 3D rendering som skulle vara intresserade av ett sånt kort också nu när t.ex. Blender fått stöd för RTX. Men jag gissar på att NVIDIA är tveksamma till att göra så specialiserade kort.

För mig som renderar med Iray så snabbar Tensor cores upp mina renderingar väldigt mycket, i snitt minst en halvering av tiden, framför allt när det är 2160p eller högre upplösning.

Skickades från m.sweclockers.com

Visa signatur

WS: i9 13900K - 128GB RAM - 6.5TB SSD - RTX 3090 24GB - LG C2 42" - W11 Pro
LAPTOP 1: Lenovo Gaming 3 - 8GB RAM - 512GB SSD - GTX 1650
LAPTOP 2: Acer Swift 3 - 8GB RAM - 512GB SSD
SERVER: i5 10400F - 64GB RAM - 44TB HDD
NALLE: Pixel 7 Pro

Permalänk
Medlem
Skrivet av THB:

För mig som renderar med Iray så snabbar Tensor cores upp mina renderingar väldigt mycket, i snitt minst en halvering av tiden, framför allt när det är 2160p eller högre upplösning.

Som sagt, det är inte tensor-kärnorna som används för ray tracing utan RT-kärnorna. Tensor-kärnorna är specialiserade på matrisberäkningar, inte strålberäkningar.

En halvering av renderingstiden är för övrigt ungefär vad man verkar få med Blender också. Tänk då vilken prestanda man skulle kunna få om NVIDIA gjorde ett kort där hela kretsytan används för RT-kärnor istället för endast ~10% som idag.

Permalänk
Avstängd
Skrivet av Sveklockarn:

Ganska skoj med alla "förutsägelser" om ohemula prislappar, men hur tänkte ni egentligen?

Börja med att fundera över: Vill folk ha mer eller samma prestanda på nya produkter när ett antal år förflutit?

Om vi kan vara överens om att de allra flesta vill ha mer prestanda (uttryckt som fler FPS i ett givet scenarion) och ser att det bara finns en som kan erbjuda högre prestanda relativt sett mot nuvarande generation, vad händer då?

Kommer folk antingen att sänka sina krav, eller öppna sina plånböcker?

En annan sak som alltid tappas bort är detta med rekommenderat pris kontra vad saker kostar i Sverige. Prishöjningen till kund svarar i huvudsak distributörerna för när de dessutom ligger 30-50% över rekommenderat pris, vilket beror på att folk som är intresserade av att uppgradera i tillräckligt hög grad är benägna att öppna plånboken för de alternativ som finns.

Alla skrattar åt Bill Gates "640 Kb"-citat, men ingen skrattar åt sina egna "dagens mellanklasskort borde räcka för alla"...

Ja, hur tänker vi egentligen va...
Är man realistisk här så kan man ju se att folk öppnar sina plånböcker till slut. Även jag gjorde, men jag fick gå ner en klass på kort eftersom jag inte hade råd med bättre helt enkelt. Vad jag vill ha och vad jag har råd med är på riktigt två olika saker för min del sen RTX 20 serien kom till världen.
Åter till ämnet. Oavsett vilket land vi pratar om så blev RTX 20 serien en dyr historia för alla kunder. Och ser man till hur NVIDIAs affärer ser ut så säljer dom kort och folk betalar. Alla tecken finns där som visar att NVIDIA skulle kunna höja priserna lite till i och med RTX 30 serien lansering nästa år. De är vi kunder i de stora hela som helt enkelt accepterar dessa priser.
Men den som lever får ju se vad som händer och sker. Jag gissar vilt baserad på hur de ser ut idag. Och jag gissar på att de ser mörkt ut för den som inte har en djup plånbok.

Visa signatur

🖥Phanteks Enthoo Evolv iTX . Phanteks AMP 650W. AMD R5 3600X. msi B450I GAMING PLUS AC. 32gB HyperX Fury RGB 3200MHz. msi RX 5700 XT GAMING. 1TB Kingston A2000.
AOC G2460FQ. Logitech G903. Logitech G840 XL. Logitech G513. Logitech PRO Gaming Headset. Luxorparts Headphone Stand. LG BP50NB40.

Permalänk
Medlem
Skrivet av Feist:

För mig så är alltid strömsnålhet, svalhet och ljudnivå *minst* lika viktiga som pris/prestanda, så jag är riktigt glad att de börjar med just mellansegmentet där man förhoppningsvis finner den bästa balansen mellan alla dessa faktorer.

Efter att ha haft vega 64 I över ett år är jag också sugen på ett mer strömsnålt kort...

Skickades från m.sweclockers.com

Permalänk
Medlem

Jag har planerat att köpa en 4K-skärm med 120+ Hz nästa år, och då behöver man ju också ett kort som pallar just 4K, mitt 1080 gör det inte riktigt. Så detta är helt klart intressant, men jag kommer noga väga behovet när Google Stadia lanserats nu i november, och se hur behovet egentligen ser ut. Jag är öppen för alla alternativ.

Visa signatur

Rigg: Intel Core i7-8700K @ 3,7 GHz, 32GB RAM (3200 MHz), ASUS TUF RTX 3080, Corsair TX850M
Tillbehör: Iiyama ProLite X4372UHSU (43", 4K), Razer Naga Hex MOBA, Func KB-460 (Cherry MX Red)
NAS: Synology Diskstation 413j + 4 * 3TB WD RED

Permalänk
Skrivet av Nikodemous:

Nja, jag tror på bättre pris per prestanda från nvidia när jag väl ser det.

Skickades från m.sweclockers.com

Skrivet av Mocka:

Slipper vi grafikkort för 14k denna gången tro? Tyckte det räckte när Ti korten kostade 8000-9000kr som förr i tiden.

Kommer knappast hjälpa med den Svenska kronan som är rekordsvag mot dollarn. Nvidia ökade precis priset för sina referenskort så det ser inte ljust ut.

3080 Ti kommer kosta 20k minst.

Permalänk
Medlem

heh, vad kan man få för en njure?

Är väldigt försiktigt positivt inställd. Jag tänker och hoppas att barnsjukdomar ifrån 20xx serien har slätats till och att utvecklarna har börjat integrera Ray Tracing i fler av sina spel så det blir mer prisvärt än när 20xx släpptes.

Visa signatur

Endeavour OS(arch) - Cassini Nova

Permalänk
Medlem
Skrivet av Sveklockarn:

Ganska skoj med alla "förutsägelser" om ohemula prislappar, men hur tänkte ni egentligen?

Börja med att fundera över: Vill folk ha mer eller samma prestanda på nya produkter när ett antal år förflutit?

Om vi kan vara överens om att de allra flesta vill ha mer prestanda (uttryckt som fler FPS i ett givet scenarion) och ser att det bara finns en som kan erbjuda högre prestanda relativt sett mot nuvarande generation, vad händer då?

Kommer folk antingen att sänka sina krav, eller öppna sina plånböcker?

En annan sak som alltid tappas bort är detta med rekommenderat pris kontra vad saker kostar i Sverige. Prishöjningen till kund svarar i huvudsak distributörerna för när de dessutom ligger 30-50% över rekommenderat pris, vilket beror på att folk som är intresserade av att uppgradera i tillräckligt hög grad är benägna att öppna plånboken för de alternativ som finns.

Alla skrattar åt Bill Gates "640 Kb"-citat, men ingen skrattar åt sina egna "dagens mellanklasskort borde räcka för alla"...

Jag vill ha högre prestanda till samma prislapp eller samma prestanda till lägre prislapp
Det som Nvidia har sportat med på senare tid dvs högre prestanda till högre prislapp är helt ointressant för mig.

Permalänk
Medlem
Skrivet av Dinkefing:

Kommer knappast hjälpa med den Svenska kronan som är rekordsvag mot dollarn. Nvidia ökade precis priset för sina referenskort så det ser inte ljust ut.

3080 Ti kommer kosta 20k minst.

Jag fattar att dollarn är ett problem men den var väl inget lika stort problem när 2080Ti lanserades? Jag tror inte nVidia kommer att göra en Apple med tanke på hur dåligt den sålt. Lär ha vart färre som köpt ett 2080Ti än 1080Ti och om 2080Ti kostar över 20k lär det inte bli fler köpare.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem

:S kanske är dax att byta upp sig från sitt Titan x (2016), inte funits något sug, då kortet presterar utmärkt i 1440p, i dagen spel.

Visa signatur

Cpu : Amd 5950x, Moderkort: X570, Socket-AM4, Grafikkort: Asus Geforce RTX 3080 TUF Gaming OC, Minne: Beast DDR4 3600MHz 32GB, Skärm: LG ultragear 38gn950, ASUS ROG Swift PG279Q 27 3 Tb Nvme M2 disk 7GB /write & read.

Permalänk
Medlem

Nvidia kan säkert ha bättre pris per prestanda till nästa generation men det betyder ju inte per automatik billigare kort. Troligen så ökar deras prestanda med säg 30% men dom höjer kanske "bara" priset med 25% vilket då skulle betyda "bättre pris per prestanda" vilket skulle betyda ett 3080ti skulle kosta 25% mer idag än vad ett 2080ti kort gör. Tro inte att 3080ti skulle vara billigare än ett 2080ti för då skulle ju nvidia konkurrera ut sina egna kort vilket e bad buissnes ☺️

Skickades från m.sweclockers.com

Visa signatur

Star citizen - swedish umbrella. En svensk union för er spelare och organisationer som tycker om demokratiska val.
https://robertsspaceindustries.com/orgs/SWEUMB
Discord:
https://discord.com/invite/j5AkGERJz3

Permalänk
Medlem

3080TI RTX Super Duper Lazer Jet Turbo GT för 20 lakan. Klockrent köp.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Medlem

Hoppas AMD och intel släpper nytt runt sommaren som intel redan gått ut med, blir väll inte prestanda monster från intel men det är en början.
Om inte annat sjunker nog 2xxx kortens pris ned till mer behagliga nivåer innan dom försvinner från hyllan.
grafikkorts sidans topp prestanda segment har varit rätt dött ganska länge nu där nvidia legat i toppen med god marginal och precis intel(innan ryzen) behöver dom inte göra så mycket för att hänga kvar där.

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av Defender:

3080TI RTX Super Duper Lazer Jet Turbo GT för 20 lakan. Klockrent köp.

Kan det vara om prestandan är rätt. tänk 9999 fps i 8k i alla moderna spel motorer, alla grafiska inställda på ultra/max och AA på 128x givetvis

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Datavetare
Skrivet av heatm:

Innan vi vet hur nästa generations konsoler löser ray tracing, och hur AMDs satsning därmed ser ut, känns det ytterst tveksamt att köpa ett grafikkort med extra silikonyta dedikerat till en raytracing-lösning som kanske är död om 1 år.

Bra att nVidia tog det första steget... även om dom hade kunnat göra det på ett annat sätt.

En fråga: Var det nVidia som fick nys om att de nya konsolerna skulle ha raytracing för säg 2 år sedan och skyndade ut en egen lösning. Eller var det AMD, MS och Sony som såg RTX och tänkte "Fan, det där måste vi kunna konkurrera mot!!"?

Med väldigt nära 100 % säkerhet kan vi nog säga att nästa Xbox lär använd DXR för ray tracing, vilket betyder att den sett från spelprogrammerarnas synvinkel använder exakt samma modell som används till Turing.

Nvidia pratar väldigt mycket om RTX då det är deras namn på sin kombination av drivrutiner och HW-implementation. RTX är självklart helt proprietärt likt hur AMD och Intels GPU drivare och kiselimplementation också är specifika till dem. Det är i sig rätt irrelevant för slutanvändaren och hyfsat irrelevant även för de som skriver program. För dem räknas bara hur tekniken möjliggörs i program, och här används alltså en gemensam specifikation definierad av Microsofts DirectX API.

En gissning på din sista fråga om vem som först började snegla på ray tracing i HW. Nvidia har valt ett liten annorlunda design sedan Tesla (lanserades slutet av 2006) jämfört med i princip alla andra GPU-tillverkare.

Alla andra kör någon form av SIMD (Single Instruction Multiple Data) design i botten, d.v.s man har "vektorregister" som håller data för flera "trådar" (en GPU-tråd är därför inte riktigt samma sak som en tråd på en CPU, Skylake/Zen2 skulle med detta sätt att se det ha 16 GPU-trådar per fysisk kärna).

Nvidia valde i stället en modell som kallas SIMT (Single Instruction Multiple Thread). Detta är fortfarande inte exakt samma sak som en CPU-tråd, men det är betydligt mycket närmare. Här finns inga "vektorregister", utan varje tråd har verkligen en egen uppsättning vanliga register (s.k. skalära register).

Fördelen med SIMD är att det kostar typiskt mindre transistorer per GFLOP. Fördelen med SIMT är att det mer effektivt kan hantera fall där olika GPU-trådar tar olika vägar genom koden (alla GPU-trådar kör samma program, det är "S" i Single i båda teknikerna), något som gör Nvidias design fundamentalt bättre lämpad för just ray tracing. I alla fall givet de algoritmer och kunskaper vi idag har för ray tracing.

Fram till Turing har Nvidia egentlige utnyttjat SIMT relativt lite, men man satte tidigt en instruktionuppsättning som helt bygger på SIMT. Fördelen nu är att man behöver ta ett mindre steg när man väl börjar utnyttja SIMT långt mer i HW, bl.a. så fortsätter ju alla CUDA-program att fungera både bakåt och framåt.

Skrivet av perost:

Som sagt, det är inte tensor-kärnorna som används för ray tracing utan RT-kärnorna. Tensor-kärnorna är specialiserade på matrisberäkningar, inte strålberäkningar.

En halvering av renderingstiden är för övrigt ungefär vad man verkar få med Blender också. Tänk då vilken prestanda man skulle kunna få om NVIDIA gjorde ett kort där hela kretsytan används för RT-kärnor istället för endast ~10% som idag.

RT-kärnorna gör ju bara en väldigt specifik del av ray tracing algoritmen, den del som historiskt passar GPU-HW rejält illa då algoritmen är rekursiv och även närliggande strålar tenderar rätt snabbt divergera och därmed ta olika väger i villkor ("if-satser").

Turing har flera optimeringar även på CUDA-nivå för långt mer effektiv ray tracing, detta ser man ju i Blender 2.80 som ännu inte använder RT-kärnor. Turing-korteten är långt mer effektiva jämfört med tidigare sett till teoretisk FLOPS.

T.ex. GTX1080 och RTX2070 har ungefär samma teoretisk GFLOPS kapacitet, men Turing är långt snabbare även utan RT-kärnor i Blender

Ser ut som 2.81 får stöd för RT-kärnorna, det verkar ge ~2x till i prestanda för Turing i första läget. Borde göra så att även RTX2060 drar jämt med de absolut snabbaste dual-socket x86 CPUerna i just detta, hur coolt är inte det!

Test av kommande blender med Nvidia OptiX stöd, d.v.s stöd för RT-kärnor i CUDA-program
Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Sååå RTX 3060, presterar som ett RTX 2070 super och kostar 6000kr ? xD

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av Yoshman:

Med väldigt nära 100 % säkerhet kan vi nog säga att nästa Xbox lär använd DXR för ray tracing, vilket betyder att den sett från spelprogrammerarnas synvinkel använder exakt samma modell som används till Turing.

Nvidia pratar väldigt mycket om RTX då det är deras namn på sin kombination av drivrutiner och HW-implementation. RTX är självklart helt proprietärt likt hur AMD och Intels GPU drivare och kiselimplementation också är specifika till dem. Det är i sig rätt irrelevant för slutanvändaren och hyfsat irrelevant även för de som skriver program. För dem räknas bara hur tekniken möjliggörs i program, och här används alltså en gemensam specifikation definierad av Microsofts DirectX API.

En gissning på din sista fråga om vem som först började snegla på ray tracing i HW. Nvidia har valt ett liten annorlunda design sedan Tesla (lanserades slutet av 2006) jämfört med i princip alla andra GPU-tillverkare.

Alla andra kör någon form av SIMD (Single Instruction Multiple Data) design i botten, d.v.s man har "vektorregister" som håller data för flera "trådar" (en GPU-tråd är därför inte riktigt samma sak som en tråd på en CPU, Skylake/Zen2 skulle med detta sätt att se det ha 16 GPU-trådar per fysisk kärna).

Nvidia valde i stället en modell som kallas SIMT (Single Instruction Multiple Thread). Detta är fortfarande inte exakt samma sak som en CPU-tråd, men det är betydligt mycket närmare. Här finns inga "vektorregister", utan varje tråd har verkligen en egen uppsättning vanliga register (s.k. skalära register).

Fördelen med SIMD är att det kostar typiskt mindre transistorer per GFLOP. Fördelen med SIMT är att det mer effektivt kan hantera fall där olika GPU-trådar tar olika vägar genom koden (alla GPU-trådar kör samma program, det är "S" i Single i båda teknikerna), något som gör Nvidias design fundamentalt bättre lämpad för just ray tracing. I alla fall givet de algoritmer och kunskaper vi idag har för ray tracing.

Fram till Turing har Nvidia egentlige utnyttjat SIMT relativt lite, men man satte tidigt en instruktionuppsättning som helt bygger på SIMT. Fördelen nu är att man behöver ta ett mindre steg när man väl börjar utnyttja SIMT långt mer i HW, bl.a. så fortsätter ju alla CUDA-program att fungera både bakåt och framåt.

RT-kärnorna gör ju bara en väldigt specifik del av ray tracing algoritmen, den del som historiskt passar GPU-HW rejält illa då algoritmen är rekursiv och även närliggande strålar tenderar rätt snabbt divergera och därmed ta olika väger i villkor ("if-satser").

Turing har flera optimeringar även på CUDA-nivå för långt mer effektiv ray tracing, detta ser man ju i Blender 2.80 som ännu inte använder RT-kärnor. Turing-korteten är långt mer effektiva jämfört med tidigare sett till teoretisk FLOPS.

T.ex. GTX1080 och RTX2070 har ungefär samma teoretisk GFLOPS kapacitet, men Turing är långt snabbare även utan RT-kärnor i Blender

Ser ut som 2.81 får stöd för RT-kärnorna, det verkar ge ~2x till i prestanda för Turing i första läget. Borde göra så att även RTX2060 drar jämt med de absolut snabbaste dual-socket x86 CPUerna i just detta, hur coolt är inte det!

Test av kommande blender med Nvidia OptiX stöd, d.v.s stöd för RT-kärnor i CUDA-program

Massor med goa svar! Du är en sann hjälte "Yoshi"!

Visa signatur

DATOR i bruk: ASUS ROG STRIX B550-F Gaming, Ryzen 7 5900X. 4x16 GB Ballistix MAX RGB @ 3800 MT/s 16-17-18-34-51 (1T)/~58 ns. MSI RTX 4090 Ventus x3. Samsung 980 Pro 1 TB. EK AIO Elite 360.
DATOR 2011 års modell: Underbara Sandy Bridge, i7 2600K@4,7 GHz på ett P67 Sabertooth-bräde. Radeon HD 7770

Permalänk
Medlem
Skrivet av HoboCop:

heh, vad kan man få för en njure?

Jag bjuder 500, inga frågor om vems det är!

On-topic: skulle vara kul om man kunde välja ett full-prestanda kort utan RT delen, till ett lägre pris.

Skickades från m.sweclockers.com

Visa signatur

Main: 5800X3D | Arctic Freezer III 360 | ROG STRIX B550-I | 32 GB DDR4@3600 MHz | Asus RTX 4080 Super TUF | Corsair RM850e | Fractal Design Define S

Permalänk
Medlem
Skrivet av Mocka:

Jag fattar att dollarn är ett problem men den var väl inget lika stort problem när 2080Ti lanserades? Jag tror inte nVidia kommer att göra en Apple med tanke på hur dåligt den sålt. Lär ha vart färre som köpt ett 2080Ti än 1080Ti och om 2080Ti kostar över 20k lär det inte bli fler köpare.

Får väl helt enkelt vänta och se hur dom kommer resonera. Dom har ju experimenterat med dessa "premium" kort sen första Titan lanserades för 999 2013. Tydigen har väl marknaden markerat att de är villiga att betala stora summor för att få i princip kompromisslösa kort med mycket prestanda. Nu har ju Titan gått åt prosumer-hållet medan Ti-korten tagit över den rollen. Om de fortsätter göra enorma kretsar för konsumentkort så kommer vi fortsätta se dessa priser för topkorten. Liksom 680 såldes som världens snabbaste grafikkort, sett till relativa komponenter räcker det ju inte långt idag (300mm2 på under 200w tdp), ser inte hur vi skulle kunna komma tillbaka till den marknaden. Tror helt enkelt man får nöja sig med att vi har en annan marknad idag, där det snabbaste kommer vara dyrt, men också faktiskt något man inte behöver ha.

Permalänk
Hedersmedlem
Skrivet av Sveklockarn:

Alla skrattar åt Bill Gates "640 Kb"-citat, men ingen skrattar åt sina egna "dagens mellanklasskort borde räcka för alla"...

Men det är väl ingen som sagt något av de två ;).

Visa signatur

🎮 → Node 304 • Ryzen 5 2600 + Nh-D14 • Gainward RTX 2070 • 32GB DDR4 • MSI B450I Gaming Plus AC
🖥️ → Acer Nitro XV273K Pbmiipphzx • 🥽 → VR: Samsung HMD Odyssey+
🎧 → Steelseries arctic 7 2019
🖱️ → Logitech g603 | ⌨️ → Logitech MX Keys
💻 → Lenovo Yoga slim 7 pro 14" Oled

Permalänk
Inaktiv

Hoppas att 3080 Ti blir en värdig kandidat som uppgradering från 1080 Ti. Hade gärna sett ett släpp nu i höst men kan vänta lite till, men när Cyberpunk släpps kan det nog kännas mer brottom med eventuellt nytt kort.

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av sKRUVARN:

Får väl helt enkelt vänta och se hur dom kommer resonera. Dom har ju experimenterat med dessa "premium" kort sen första Titan lanserades för 999 2013. Tydigen har väl marknaden markerat att de är villiga att betala stora summor för att få i princip kompromisslösa kort med mycket prestanda. Nu har ju Titan gått åt prosumer-hållet medan Ti-korten tagit över den rollen. Om de fortsätter göra enorma kretsar för konsumentkort så kommer vi fortsätta se dessa priser för topkorten. Liksom 680 såldes som världens snabbaste grafikkort, sett till relativa komponenter räcker det ju inte långt idag (300mm2 på under 200w tdp), ser inte hur vi skulle kunna komma tillbaka till den marknaden. Tror helt enkelt man får nöja sig med att vi har en annan marknad idag, där det snabbaste kommer vara dyrt, men också faktiskt något man inte behöver ha.

Felet ligger hos de allt mer högupplösta skärmarna Hade vi stannat vid 1920x1080 hade behovet inte varit lika stort

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9

Permalänk
Medlem

Då gissar jag på slutet maj/juni för lansering med kort tillgängliga under sommaren och där redaktionen får testexemplar i början av juli och lagom till semestern.

Traditionellt sett är detta en lågoddsare

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC