Nvidias Jensen Huang dissar AMD Radeon VII

Permalänk
Medlem
Skrivet av Ragnarok:

AMD´s grafikkort brukar "floppa" men på "pappret" ska de vara hur snabba och bra som helst.
Vi får väl se hur illa det är den här gången.

Även om de hållt sig långt ifrån toppen när det gäller prestanda så har de varit väldigt prisvärda alternativ. Och där finns ju den stora marknaden.

Entusiasterna som köper det absolut bästa är ju i förhållandet nästan försumbara sett till helheten.

Skickades från m.sweclockers.com

Permalänk
Avstängd

haha vilken dåre.
Nvidia känner sig nog hotade annars hade man inte gjort såhär.

Permalänk
Medlem

Och jag kör hellre Native 4K utan nån AA, oavsett vad den AA heter.
1440p uppskalat till 4k. Nä tack.

Visa signatur

Corsair Obsidian 1000D* Corsair AX1600i* Asus Z790 Prime-A* Intel 13900K* 32GB G-Skill DDR5 7600Mhz/36* Asus RTX 4090* Corsair MP600 1TB* Samsung 980 Pro 1TB

Permalänk
Medlem

Generellt så tycker jag att det är helt ok om prestandan är nästan lika bra som ett 2080 vilket borde innebära att det är i klass med ett 1080Ti i varje fall.
Tyvärr tycker jag AMD har gjort några missar.
1. Varför fortsätta köra med dyra HBM2 minnen jämfört med billigare GDDR6 som bevisligen räcker till för Nvidias toppkort.
2. Varför köra på hela 16Gb. Bandbredden och minnesmängden är dubbelt mot 2080 vilket får en att undra om det ens har någon märkbar skillnad i prestanda på dagens spel.
3. Priset ligger för högt, samma som 2080 och även om det presterar nästan i samma klass så har nvidia fler nya features som gör 2080 mer intressant.

AMD kan ju inte tävla om prestandatronen så de borde sikta på bästa pris/prestanda.
Eftersom de tvunget ska ha HBM2 så kan de väl åtminstone släppa en version med halverat minne och bandbredd så kan de ta ner priset säkert minst en tusenlapp. Då är det mer intressant.

Nu gissar jag ju att 8-16gb bara gör några enstaka procent i skillnad i dagens spel och upplösningar. Skulle vara intressant om någon gör ett test med Radeon VII och lyckas avaktivera halva minnet för att se vad skillnaden är.

Permalänk
Medlem

Ju mer skit de (Nvidia) sprider ju bättre växer det (AMD)

Visa signatur

JJ2 Multiplayer
JJ2 ZStats

[1] Ryzen 5800X | 5500XT | Kingston A2000 | Lenovo G24-10 144Hz [2] Ryzen 5700G | RX 560 | WD Blue SN550 [3] Ryzen 5600G | Kingston A2000 [4] Ryzen 3600 | GT 740 | 850 EVO [5] Ryzen 3600 | Geforce 405 | 850 EVO (alla är i bruk)

Permalänk
Inaktiv

Visst har han rätt i att FreeSync fungerar ganska uselt på många skärmar, men jag har haft problem även med G-sync så Nvidia är definitivt inte felfria där.
Att Radeon VII inte kommer kunna matcha 2080 är jag nog också med på och jag är ganska förvånad över att AMD tar ut ett så fruktansvärt högt pris för ett kort som verkar sämre.

Men framför allt så är jag väldigt förvånad över Jensens uttalanden. Man behöver normalt inte prata skit om konkurrentens produkter såvida man inte är orolig på riktigt. Att AMD är först ut på 7nm måste svida för Nvidia.

Permalänk
Medlem
Skrivet av Ortovox:

Generellt så tycker jag att det är helt ok om prestandan är nästan lika bra som ett 2080 vilket borde innebära att det är i klass med ett 1080Ti i varje fall.
Tyvärr tycker jag AMD har gjort några missar.
1. Varför fortsätta köra med dyra HBM2 minnen jämfört med billigare GDDR6 som bevisligen räcker till för Nvidias toppkort.
2. Varför köra på hela 16Gb. Bandbredden och minnesmängden är dubbelt mot 2080 vilket får en att undra om det ens har någon märkbar skillnad i prestanda på dagens spel.
3. Priset ligger för högt, samma som 2080 och även om det presterar nästan i samma klass så har nvidia fler nya features som gör 2080 mer intressant.

AMD kan ju inte tävla om prestandatronen så de borde sikta på bästa pris/prestanda.
Eftersom de tvunget ska ha HBM2 så kan de väl åtminstone släppa en version med halverat minne och bandbredd så kan de ta ner priset säkert minst en tusenlapp. Då är det mer intressant.

Nu gissar jag ju att 8-16gb bara gör några enstaka procent i skillnad i dagens spel och upplösningar. Skulle vara intressant om någon gör ett test med Radeon VII och lyckas avaktivera halva minnet för att se vad skillnaden är.

Jag tror AMD siktar på att försöka konkurrera med Navi. Det är de signaler man fått hela tiden och Navi sägs komma senare i år. Men för att ha "något" på marknaden så länge så är detta en "snabbt lösning". Detta är ett beräkningskort som man gjort om till ett gaming kort. 16GB HBM2 skvallrar rätt mycket om det. Håller man på med sådant och spelar spel så är nog detta kort grymt. Annars är det nog lite svårt att motivera priset som dessa 16GB HBM2 drar med sig. Även om det är rätt lågt kontra vad denna typ av beräkningskort med denna typ av minne kostat historiskt.

Att AMD kan göra detta prestandahopp på en krympt Vega arkitektur är det intressanta jag tar med mig ifrån detta.
Att matcha 1080ti är ju inte dåligt med tanke på vart AMD varit, men jag hade väntat på Navi och sett vad den arkitekturen har att erbjuda.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem
Skrivet av Ortovox:

Generellt så tycker jag att det är helt ok om prestandan är nästan lika bra som ett 2080 vilket borde innebära att det är i klass med ett 1080Ti i varje fall.
Tyvärr tycker jag AMD har gjort några missar.
1. Varför fortsätta köra med dyra HBM2 minnen jämfört med billigare GDDR6 som bevisligen räcker till för Nvidias toppkort.
2. Varför köra på hela 16Gb. Bandbredden och minnesmängden är dubbelt mot 2080 vilket får en att undra om det ens har någon märkbar skillnad i prestanda på dagens spel.
3. Priset ligger för högt, samma som 2080 och även om det presterar nästan i samma klass så har nvidia fler nya features som gör 2080 mer intressant.

AMD kan ju inte tävla om prestandatronen så de borde sikta på bästa pris/prestanda.
Eftersom de tvunget ska ha HBM2 så kan de väl åtminstone släppa en version med halverat minne och bandbredd så kan de ta ner priset säkert minst en tusenlapp. Då är det mer intressant.

Nu gissar jag ju att 8-16gb bara gör några enstaka procent i skillnad i dagens spel och upplösningar. Skulle vara intressant om någon gör ett test med Radeon VII och lyckas avaktivera halva minnet för att se vad skillnaden är.

1 Orsaken som jag hört är bandbredden och att energiförbrukningen , de har helt enkelt inget val.
2 Kommer säkert ett "vega56" med 8gb, men det är inte vad marknaden kräver från AMD, då de redan har Vega 64 som fyller hålet.

Frågan hur R9 presterar, är den mer intressanta frågan?

Permalänk
Medlem
Skrivet av zather:

Låter lite mer som att du tänker att bara för att det fungerar för dig så fungerar allt. Det är inte så svårt att gå in på en recension här på Sweclockers för att se det Nvidia sagt faktiskt stämmer på vissa skärmar även på AMD kort. Sen att deras certifiering kanske är lite för hård på vissa saker är en annan sak men freesync på skärmar just nu är inte felfritt.

Jensen säger bokstavligen "Never" och senast jag slog upp ordet så betydde "Never" aldrig. Alltså skulle det inte fungera för någon om man ska tro herr Nvidia. Så hur är personen kommentar irrelevant eftersom det bokstavligen bevisar att Jensen har fel? För om det aldrig fungerade så skulle det inte heller fungera för någon eller hur? Med samma argument så kan påstå att G-sync aldrig fungerar eftersom forumen här och på andra sidor är fylld med folk som har problem med just G-sync eller att RTX 2000-serien visat sig vara ganska problematisk med just G-sync.

Skrivet av wargreymon:

Förutom att han sa "lousy" så är ju det sant i det han säger. Han är ju tvungen att säga något. Vad tycker du han skulle sagt? "We are glad that AMD is finally catching up to our last generations flagship thanks to 7nm and HBM2"?

Hur man än vrider och vänder det har de tekniskt övertag och är precis ifatt 1080Ti/2080.

Förutom det faktum att Nvidia inte uppfann adaptive synkronisering och att Free-sync aldrig fungerar menar du? Faktum är att i mer än 50% av sina påståenden så har han fel. Att han dessutom dissar (indirekt) sitt egna kort utan att veta om det är ju smått ironiskt tycker du inte?

Detta låter som när Jensen förra året gick upp på scen och påstod att Nvidia uppfunnit GPUn.. trots att företaget grundades 30 år EFTER att den första speciellt anpassade kretsen för rendering av spelrelaterad grafik (alltså en GPU) först lanserats.

Skrivet av Teddis:

Det de visade upp var att de kunde återanpassa en strömsparfunktion som fanns som VESA standard så den mer eller mindre motsvarade G-sync. Det var mig veterligen ingenting som aktivt användes och det tog ett tag sedan den uppvisningen tills första freesync-skärmen kom till marknad.

Standarden fanns dock fortfarande där vilket gör att Nvidia inte uppfann den adaptiva synkroniseringen utan valde bara att applicera den på ett annat sätt och gjorde den mer populär. Precis som Teslan inte är den första elbilen även om det är just Teslan som gjorde den populär (isch).

Skrivet av yestomtom:

Han är inte ensam om att dissa AMD Radeon VII. Inte på det sättet dock, vi var många som hoppades på AMD skulle utmana Nvidia prismässigt och erbjuda ett kort till "rimligt" pris med lite vassare prestanda än VEGA 56 / 64. Nu vet vi bättre, detta var det sista som förväntades av AMD.

Men det lät fint när Lisa på scen sa att de bryr sig om gamers och den breda massan.

Det handlar om konstruktiv och balanserad kritik. Jensen går ut och skämmer ut sig själv genom att sprida lögner och bitter kritik mot en direkt konkurrent. Det är liksom inte samma sak.

Ja. AMDs kort är för dyra och Ja.. de saknar vissa funktioner som Nvidias motsvarighet har men kom igen nu? Jensen beter sig som en femåring. Spelar ingen roll om han har semi-rätt i två saker (Även om han indirekt kallar sina egna kort för värdelösa) om han har fel i fyra andra påståenden.

Skrivet av MarkSix:

Bra att han ger fåntrattarna en knäpp på näsan

Genom att visa att han är en större fåntratt och mytoman?

Skrivet av Anders9110:

MSRP för RTX 2080 ligger på 699 dollar för icke fabriks överklockad modeller och 799 dollar för fabriks överklockad modeller.

Man kan ju argumentera att AMD gör exakt samma sak. Att de lanserar detta kort som "FE" till ett högre pris eventuellt. Finns ingen information som motsäger sig detta heller.

Skrivet av Anders9110:

AMD har inte kört samma FE skit som Nvidia deras MSRP brukar vara samma som sina boardpartners.

Edit Tror inte AMD säljer egna kort utan deras referensmodell brukar sälja av boardpartners.

Men samtidigt har man haft historia av att sänka priset på sina kort ganska snabbt efter lansering.

Skrivet av Lorault:

Nvidia ligger alltid steg före för nya tekniker vilket jag ser som plus. Visar upp spel och liknande som stödjer det.

Det enda AMD gör är visa upp kort som säger "prestanda som RTX-2080".

Förutom de gånger AMD varit före med t.ex. GDDR3, GDDR5, 7nm etc?

Skrivet av lindahlj:

AMD:s status efter Jensens uttalande:

Rostad

Du menar att Jensen rostar sig sina egna kort likaså? Att kalla ett kort som presterar ungefär likvärdigt till ungefärligt samma pris som ens egna kort för "dålig prestanda" och "högt pris" är ju årets självmål eftersom det innebär att han kallar sina egna kort för dåliga.

Skrivet av anon298854:

Japp, kommer ihåg alla trådar när ryzen skulle lanseras att den skulle smiska i7 7700k i spel mm.

Och sen alla bittra kommentarer när det inte vart så.

Du menar som Intel fanboys går igång så fort Zen 2 nämns?

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem

Läder-Jensen snackar skit om alla andra – som vanligt.

Permalänk
Medlem

Tråkigt att han uttalar sig på det sättet, jag tycker om när folk i allmänhet behåller lite värdighet när de uttalar sig om både egna produkter och sina konkurrenters.

"We är exited to see our main competitor launching a new graphic card! I feel confident in our products performence, especially with our new Ray tracing and dlss technics that är unmatched on the market today, and are looking forward to see how amd will try to match our new high performance rtx lineup. Nvidia has the best performing graphic cards that money can buy. We are ready to, and looking forward to, defend our position as the number one choice for gamers worldwide!" (Ursäkta min halvkassa engelska)

Nått i stil med detta hade jag gärna sett att han sagt och fått behålla sin heder, det kommer komma tillfällen efter oberoende recensionerna är ute då han kan uttala sig mer om sina korts eventuella överlägsenhet.

Edit: Måste såklart också lägga in brasklapp för att inte fanboy-klassas, kör nvidia-kort själv och har inte upplevt nått strul med det och är nöjd med prestandan.

Permalänk
Medlem
Skrivet av Xinpei:

Jensen säger bokstavligen "Never" och senast jag slog upp ordet så betydde "Never" aldrig. Alltså skulle det inte fungera för någon om man ska tro herr Nvidia. Så hur är personen kommentar irrelevant eftersom det bokstavligen bevisar att Jensen har fel? För om det aldrig fungerade så skulle det inte heller fungera för någon eller hur?

Inte för att försvara Jensen här, då hans kommenterar känns rätt onödiga och osköna. Men han förtydligar ju det i samma stycke med "The truth is most of the FreeSync monitors do not work", alltså han syftar väl på att FreeSync varumärket/konceptet inte fungerar eftersom man inte får konsekventa resultat.

Permalänk
Medlem
Skrivet av Xinpei:

Jensen säger bokstavligen "Never" och senast jag slog upp ordet så betydde "Never" aldrig. Alltså skulle det inte fungera för någon om man ska tro herr Nvidia. Så hur är personen kommentar irrelevant eftersom det bokstavligen bevisar att Jensen har fel? För om det aldrig fungerade så skulle det inte heller fungera för någon eller hur? Med samma argument så kan påstå att G-sync aldrig fungerar eftersom forumen här och på andra sidor är fylld med folk som har problem med just G-sync eller att RTX 2000-serien visat sig vara ganska problematisk med just G-sync.

Skrivet av sKRUVARN:

Inte för att försvara Jensen här, då hans kommenterar känns rätt onödiga och osköna. Men han förtydligar ju det i samma stycke med "The truth is most of the FreeSync monitors do not work", alltså han syftar väl på att FreeSync varumärket/konceptet inte fungerar eftersom man inte får konsekventa resultat.

Tänkte mer åt sKRUVARNs håll när jag skrev min kommentar.

Men sen får du nog läsa om det du pratar om för "FreeSync was never proven to work." betyder ju inte heller att freesync inte fungerar. Det betyder ju bara att de inte är testat och därför får du konsumenten som köper prylen testa själv och hoppas på det bästa. Vilket vi har sett inte fungerar i alla tillfällen.

Visa signatur

FD Torrent | 7800X3D | 32GB RAM | Nvidia 3080 FE | Corsair SF750 | Fostex TH-X00 + Sennheiser HD 650

Permalänk
Hjälpsam
Skrivet av maweric:

Ju mer skit de (Nvidia) sprider ju bättre växer det (AMD)

AMD är som Champinjoner.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av sKRUVARN:

Inte för att försvara Jensen här, då hans kommenterar känns rätt onödiga och osköna. Men han förtydligar ju det i samma stycke med "The truth is most of the FreeSync monitors do not work", alltså han syftar väl på att FreeSync varumärket/konceptet inte fungerar eftersom man inte får konsekventa resultat.

Oberoende så är det fortfarande ett ytterst klumpigt uttalande och framförallt.. onödigt. Istället för att försöka framhäva sitt företags egna produkter genom smutskastning så borde man låta siffrorna tala för sig själva. Att han hoppar på AMD är ju bara ett tecken på att han känner sig hotad och det i sin tur gör ju att man blir intresserad mer över vad AMD har att komma med. Lite som en typ av Streisands effekt.

Skrivet av zather:

Tänkte mer åt sKRUVARNs håll när jag skrev min kommentar.

Men sen får du nog läsa om det du pratar om för "FreeSync was never proven to work." betyder ju inte heller att freesync inte fungerar. Det betyder ju bara att de inte är testat och därför får du konsumenten som köper prylen testa själv och hoppas på det bästa. Vilket vi har sett inte fungerar i alla tillfällen.

Om så vore fallet. Varför ger då Nvidia sin stämpel på minst 14 skärmar som de påstår sig bokstavligen ha testat och kommit överens om att de håller nog hög standard för certifiering? Jensen säger en sak men hans företag ett annat. Man kommer inte runt det faktum att Jensen för någon anledning är bitter. Dessa uttalanden bara skriker bitterhet och eventuellt oro.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Xinpei:

Oberoende så är det fortfarande ett ytterst klumpigt uttalande och framförallt.. onödigt. Istället för att försöka framhäva sitt företags egna produkter genom smutskastning så borde man låta siffrorna tala för sig själva. Att han hoppar på AMD är ju bara ett tecken på att han känner sig hotad och det i sin tur gör ju att man blir intresserad mer över vad AMD har att komma med. Lite som en typ av Streisands effekt.

Om så vore fallet. Varför ger då Nvidia sin stämpel på minst 14 skärmar som de påstår sig bokstavligen ha testat och kommit överens om att de håller nog hög standard för certifiering? Jensen säger en sak men hans företag ett annat.

Jag tror du missuppfattar vad han säger. Was never proven to work betyder inte att det inte fungerar. Det han menar är att freesync är inte testat av AMD men Nvidias gsync certifiering betyder att dom själva har testat det och kommit fram till att den möter deras krav.

Visa signatur

FD Torrent | 7800X3D | 32GB RAM | Nvidia 3080 FE | Corsair SF750 | Fostex TH-X00 + Sennheiser HD 650

Permalänk
Medlem
Skrivet av zather:

Jag tror du missuppfattar vad han säger. Was never proven to work betyder inte att det inte fungerar. Det han menar är att freesync är inte testat av AMD men Nvidias gsync certifiering betyder att dom själva har testat det och kommit fram till att den möter deras krav.

Nu sitter du bara och tolkar saker i ett försök att hitta något positivt ur det. Nej det är inte vad han säger. Han kanske menar det men det är inte vad han säger.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Xinpei:

Nu sitter du bara och tolkar saker i ett försök att hitta något positivt ur det. Nej det är inte vad han säger. Han kanske menar det men det är inte vad han säger.

Aja då kommer vi inte överens.

Håller med allt om att snubben själv inte borde säga sånt här och har ett svagt minne att det inte är första gången heller.

Visa signatur

FD Torrent | 7800X3D | 32GB RAM | Nvidia 3080 FE | Corsair SF750 | Fostex TH-X00 + Sennheiser HD 650

Permalänk
Datavetare

Håller med Lisa Su här: "Huang inte sett Radeon VII, och därmed inte har underlag nog att faktiskt kommentera prestanda eller annat.".

Däremot förstår jag inte det eviga gnället på DLSS och raytracing i form av "DLSS ger artefakter och raytracing är för dyrt denna generation".

Massor med bergsäkra uttalande i denna tråd baserat på en provuppsättning av en titel per teknik för något som funnits på marknaden i rätt exakt tre månader nu.

Vad brukar hända när man extrapolerar från en enda punkt? Och vad hände med det extrema tålamod så många uppvisat kring DX12 och Vulkan (man blev i princip idiotförklarad här på forumen för att välja Maxwell över GCN då DX12 skulle ändra alla förutsättningar inom kort...).

Ja, DLSS som det är implementerat i FFXV har problem med extremt irriterande flimmer när smala objekt renderas. Finns absolut inget i den underliggande tekniken som säger att det alltid måste vara så.

Ja, prestandaförlusten med raytracing är väldigt hög i aktuell version av BFV.

Prestandavinsten i första BFV patchen borde få de flesta att inse hur i baby-stadiet programvaran är för detta.

Verkar som många missade vad som visades upp under Nvidias CES pressevent. Videon nedan visar BFV med raytracing på "low" körandes i ~60 FPS i 2560x1440 på ett RTX 2060, möjligt då man i denna dev-preview även aktiverat DLSS.

I videon finns t.ex. elledningar och liknande typ av geometri som flimrar i FFXV. Så vitt jag kan se finns inte motsvarande artefakter här.

Har ett RTX kort samt BFV. Kan inte påstå att jag är jätteimponerad av effekten att slå på raytracing i denna titel, så förstår absolut den aspekten av kritiken (mot denna specifika titel). Men kan tillräckligt mycket om matematiken och tekniken bakom att köra raytracing i realtid för att ändå vara imponerad av vad man åstadkommit. (Är nog i.o.f.s. mer positivt inställd än de som "bara" vill ha kortet för spel, min primära orsak till att skaffa ett RTX kort är att jag delvis jobbar med machine-learning och vill därför ha tillgång tensor-cores och CUDA).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Stromming90:

Fel. Jag tänker precis på kortet, inte på mig själv.

Pris:
2080 FE = 799 USD MSRP
Radeon VII FE = 699 USD MSRP

Cool teknologi
2080 = RTX (1 spel har DLSS, 1 spel har ray tracing) - Användbart för gamers som vill spela med coolare effekter
VII = 7nm - Inte så användbart, men cool teknologi som förmodligen kan hjälpa AMD göra stora framsteg. Dessutom är detta ett nedskalat Vega kort, och inte Navi som "ska" vara det som får AMD tillbaka på spelplanen

2080 = 8GB RAM - Räcker för gamers, men lite lackluster för vissa content creators
VII = 16GB RAM - Vid prispunkten, svinbra för creators som behöver mer än 8GB men inte vill betala absurda priser för 11GB från Nvidia. Här håller jag med dem flesta, dem borde gjorrt 2 versioner, 1 version med 8GB och sänkt priset lite.

Prestandan "ska" vara samma, men det för vi reda på när riktiga reviewers får sina kort, man ska ta allt med en nypa salt.
Sen så "kan" situationen i Sverige se annorlunda ut, och boardpartner situationen kan ändra på allting också, men det vet vi inte, så vi får sluta spekulera och dra slutsater.

Här har du två listor som du verkar ha missat.
https://www.kitguru.net/components/graphic-cards/matthew-wils...

Men du menar specifikt idag förstår jag. Eftersom VII inte finns i handeln idag så får vi åtminstone vänta tills det har släppts innan vi ser vilka spel som stödjer DLSS och RT, just då. Dock är ju alla spel på listan relevanta eftersom det kommer att komma. Och då är det potentiellt och antagligen, högre upplösning, högre FPS och/eller coolare effekter. Om du ska göra en jämförelse borde du vara lite mer rättvis ändå.

Du upprepar ganska mycket vad jag säger så jag håller med dig i mycket av det du säger.

Men det du säger är alltså att 2080 är för gamers med fokus på grafik och VII är för gamers med fokus på content creating. Ja okej, fair enough.

Är du inte exalterad för DLSS. Om du kan få nästan 4k upplösning för prestandan av1440p är väl det otroligt?

Och slutligen, ja man får hoppas att AMD släpper både CPU och GPU som slår konkurrenterna på fingrarna i antingen pris eller prestanda eftersom de kommer ca 3 kvartal efter både Intel och Nvidias senaste lineup. Om vi snackar Navi och Matisse.

Visa signatur

Råd tas på eget ansvar.

Permalänk
Medlem
Skrivet av Yoshman:

Håller med Lisa Su här: "Huang inte sett Radeon VII, och därmed inte har underlag nog att faktiskt kommentera prestanda eller annat.".

Däremot förstår jag inte det eviga gnället på DLSS och raytracing i form av "DLSS ger artefakter och raytracing är för dyrt denna generation".

Massor med bergsäkra uttalande i denna tråd baserat på en provuppsättning av en titel per teknik för något som funnits på marknaden i rätt exakt tre månader nu.

Vad brukar hända när man extrapolerar från en enda punkt? Och vad hände med det extrema tålamod så många uppvisat kring DX12 och Vulkan (man blev i princip idiotförklarad här på forumen för att välja Maxwell över GCN då DX12 skulle ändra alla förutsättningar inom kort...).

Ja, DLSS som det är implementerat i FFXV har problem med extremt irriterande flimmer när smala objekt renderas. Finns absolut inget i den underliggande tekniken som säger att det alltid måste vara så.

Ja, prestandaförlusten med raytracing är väldigt hög i aktuell version av BFV.

Prestandavinsten i första BFV patchen borde få de flesta att inse hur i baby-stadiet programvaran är för detta.

Verkar som många missade vad som visades upp under Nvidias CES pressevent. Videon nedan visar BFV med raytracing på "low" körandes i ~60 FPS i 2560x1440 på ett RTX 2060, möjligt då man i denna dev-preview även aktiverat DLSS.

I videon finns t.ex. elledningar och liknande typ av geometri som flimrar i FFXV. Så vitt jag kan se finns inte motsvarande artefakter här.
https://youtu.be/-1fdpybF-8Y

Har ett RTX kort samt BFV. Kan inte påstå att jag är jätteimponerad av effekten att slå på raytracing i denna titel, så förstår absolut den aspekten av kritiken (mot denna specifika titel). Men kan tillräckligt mycket om matematiken och tekniken bakom att köra raytracing i realtid för att ändå vara imponerad av vad man åstadkommit. (Är nog i.o.f.s. mer positivt inställd än de som "bara" vill ha kortet för spel, min primära orsak till att skaffa ett RTX kort är att jag delvis jobbar med machine-learning och vill därför ha tillgång tensor-cores och CUDA).

Jag har inget "emot" DLSS. Vad jag är kritisk till är hur det marknadsförs. Som "AI som ger mer prestanda" typ. Nej, det är supersampling. Det är att rendera bilden i LÄGRE upplösning och låta något skala upp bilden. Detta är något jag gärna hade sett som option i spel osv. Hardware Unboxed tror jag det var som visade att vanlig supersampling ger ungefär samma prestandavinst och lika bra bild. Så detta hade jag gärna haft som val i driver eller i spel där man jagar fps. Jag kör 1440p, men att rendera tex PUBG i lägre upplösning och skala upp för att få bättre prestanda hade jag inte haft något emot. Men jag hade ju också inte jämfört det med vad andra har för prestanda native och sagt att mitt är bättre.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P

Permalänk
Medlem
Skrivet av Yoshman:

Håller med Lisa Su här: "Huang inte sett Radeon VII, och därmed inte har underlag nog att faktiskt kommentera prestanda eller annat.".

Däremot förstår jag inte det eviga gnället på DLSS och raytracing i form av "DLSS ger artefakter och raytracing är för dyrt denna generation".

Massor med bergsäkra uttalande i denna tråd baserat på en provuppsättning av en titel per teknik för något som funnits på marknaden i rätt exakt tre månader nu.

Vad brukar hända när man extrapolerar från en enda punkt? Och vad hände med det extrema tålamod så många uppvisat kring DX12 och Vulkan (man blev i princip idiotförklarad här på forumen för att välja Maxwell över GCN då DX12 skulle ändra alla förutsättningar inom kort...).

Ja, DLSS som det är implementerat i FFXV har problem med extremt irriterande flimmer när smala objekt renderas. Finns absolut inget i den underliggande tekniken som säger att det alltid måste vara så.

Ja, prestandaförlusten med raytracing är väldigt hög i aktuell version av BFV.

Prestandavinsten i första BFV patchen borde få de flesta att inse hur i baby-stadiet programvaran är för detta.

Verkar som många missade vad som visades upp under Nvidias CES pressevent. Videon nedan visar BFV med raytracing på "low" körandes i ~60 FPS i 2560x1440 på ett RTX 2060, möjligt då man i denna dev-preview även aktiverat DLSS.

I videon finns t.ex. elledningar och liknande typ av geometri som flimrar i FFXV. Så vitt jag kan se finns inte motsvarande artefakter här.
https://youtu.be/-1fdpybF-8Y

Har ett RTX kort samt BFV. Kan inte påstå att jag är jätteimponerad av effekten att slå på raytracing i denna titel, så förstår absolut den aspekten av kritiken (mot denna specifika titel). Men kan tillräckligt mycket om matematiken och tekniken bakom att köra raytracing i realtid för att ändå vara imponerad av vad man åstadkommit. (Är nog i.o.f.s. mer positivt inställd än de som "bara" vill ha kortet för spel, min primära orsak till att skaffa ett RTX kort är att jag delvis jobbar med machine-learning och vill därför ha tillgång tensor-cores och CUDA).

Finns det bara en "benchmark" så är det väl ganska självklart att den är norm tills nästa kommer? Det är väl inte så konstigt eller hur? Eller ska man kanske spekulera i absurdum? Det handlar inte så mycket om bristande tålamod som en ganska tafatt lansering av Nvidia. Istället för att hostat ut kortet utan något direkt mjukvarustöd för de tekniker de trummat på om så har de förlitat sig helt på att företag faktiskt ska sluta med vad de håller på med och fokusera på att implementera dessa nya teknologier i sin produkt. Det är en aning naivt kan man tycka.

Och angående flimmer så kan man fortfarande inte basera sitt argument på vad som eventuellt kan finnas runt hörnet utan man måste utgå vad som sker IDAG eftersom produkten har lanserats. Visst den kommer nog bli bättre eller rättare sagt.. den kommer med största sannolikhet bli bättre MEN mer nyanserad argumentation kan man ju tycka vore på sin plats.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem
Skrivet av Banco:

Är du inte exalterad för DLSS. Om du kan få nästan 4k upplösning för prestandan av1440p är väl det otroligt?

Nej det är jag inte. 1440p uppskalat till 4k (vilket är precis det DLSS gör) är skitfult i vissa områden i Final Fantasy där vi kan observera effekten.
Allt flickering och usch nej tack.

Nu kanske är jag är lite väl kräsen, men jag har vill ha hög refreshrate, så minst 100 fps, och sen kan vi börja prata höja upplösning, men jag vill fortfarande gärna kunna lira på max grafikinställning. Och jag vill fortfarande ha pengar kvar i plånboken =D

Visa signatur

Dator
CPU: Ryzen 5 5600 | GPU: ASUS RX 6700 XT | RAM: 32GB 2133MHz DDR4 | Mobo: ASUS B550-Plus | Lagring: 2x1TB SSD + 5 TB HDD | Chassi: Fractal Meshify 2 | PSU: EVGA Supernova G6 1000W |

TrueNAS SCALE
CPU: Ryzen 5 5600 | RAM: 64GB 3200MHz DDR4 | Mobo: ASRock B550M Steel Legend | Lagring: 35 TB HDD | GPU: GTX 960 4GB | Chassi: Fractal Node 804 | PSU: Corsair RM850x 850W v3 |

Permalänk
Hjälpsam
Skrivet av Yoshman:

---text--
Vad brukar hända när man extrapolerar från en enda punkt? Och vad hände med det extrema tålamod så många uppvisat kring DX12 och Vulkan (man blev i princip idiotförklarad här på forumen för att välja Maxwell över GCN då DX12 skulle ändra alla förutsättningar inom kort...).
--- text----

"There are two kinds of people.
1. Those who can extrapolate conclusions from incomplete data."

Vi får se, det blir kanske bra när det är färdigt, men hittills tycker jag att RTS varit en riktigt kass lansering.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Datavetare
Skrivet av Xinpei:

Finns det bara en "benchmark" så är det väl ganska självklart att den är norm tills nästa kommer? Det är väl inte så konstigt eller hur? Eller ska man kanske spekulera i absurdum? Det handlar inte så mycket om bristande tålamod som en ganska tafatt lansering av Nvidia. Istället för att hostat ut kortet utan något direkt mjukvarustöd för de tekniker de trummat på om så har de förlitat sig helt på att företag faktiskt ska sluta med vad de håller på med och fokusera på att implementera dessa nya teknologier i sin produkt. Det är en aning naivt kan man tycka.

Och angående flimmer så kan man fortfarande inte basera sitt argument på vad som eventuellt kan finnas runt hörnet utan man måste utgå vad som sker IDAG eftersom produkten har lanserats. Visst den kommer nog bli bättre eller rättare sagt.. den kommer med största sannolikhet bli bättre MEN mer nyanserad argumentation kan man ju tycka vore på sin plats.

Du menar som spekulationerna kring Zen2 prestanda med absolut NOLL hård data att basera det hela på?

Inget fel att spekulera, är ju trots allt ett diskussionsforum för datorintresserade. Min invändning mot hur RTX-serien diskuterats här är att många framför rejäla sågningar som tvärsäkra absoluta sanningen, det när man egentligen inte har något mer än en teknik-preview per huvudteknik att basera det hela på.

Lite mer ödmjukhet inför att det är helt ny teknik som behöver tid att mogna i stället för sågningar kanske? Att DX11 i de flesta fall fortfarande ger en bättre upplevelse jämfört med DX12, trots att den senare har potential att ge en bättre upplevelse borde kunna ge en vink om vilken tidsaspekt man borde vänta sig. Jämfört med utrullandet av DX12 har DXR gått i raketfart så här långt!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk

Åh fy vilken pepp jag känner inför nästa generations grafikkort. Det kommer bli ett jäkla prestandahopp, och det inom en ganska så snar framtid. Klart Jensen är orolig av den anledningen att AMD snart kommer att börja sälja en variant med mindre minne, som fortfarande presterar lika bra i runda slängar. Då lär vi få se ett efterlängtat priskrig i toppsegmentet för första gången på mycket länge
(Såvida inte raytracing har exploderat och DLSS utvecklats till en must have-feature, vilket vi sannolikt inte får se denna generation)

Permalänk
Medlem
Skrivet av Yoshman:

Du menar som spekulationerna kring Zen2 prestanda med absolut NOLL hård data att basera det hela på?

Inget fel att spekulera, är ju trots allt ett diskussionsforum för datorintresserade. Min invändning mot hur RTX-serien diskuterats här är att många framför rejäla sågningar som tvärsäkra absoluta sanningen, det när man egentligen inte har något mer än en teknik-preview per huvudteknik att basera det hela på.

Lite mer ödmjukhet inför att det är helt ny teknik som behöver tid att mogna i stället för sågningar kanske? Att DX11 i de flesta fall fortfarande ger en bättre upplevelse jämfört med DX12, trots att den senare har potential att ge en bättre upplevelse borde kunna ge en vink om vilken tidsaspekt man borde vänta sig. Jämfört med utrullandet av DX12 har DXR gått i raketfart så här långt!

Självfallet är det inget fel att spekulera DÄREMOT är det faktiskt inte direkt nyanserat att kritisera de som faktiskt utgår från den enda benchmarken ifråga och faktiskt menar att den för tillfället står som norm. De som köpt kortet t.ex. gör det för att utnyttja teknik som följer med den från dag ett.. inte vad som eventuellt finns över horisonten.

Du tar även upp en bra poäng med DX12 men verkar missa lite det dubbeleggade svärdet som kommer med just det nämnandet. DX12 har funnits på marknaden ett bra tag nu (relativt iallafall) och än har tillverkare inte riktigt lyckats få ut i närheten av fulla potentialen av inställningen. Om man inte lyckats med detta.. hur länge kommer det då ta för Nvidia att göra DXR och DLSS ordentligt? 1 år? 2 år? 5? Till skillnad mot dessa så vet man när ungefär när Zen 2 kommer att lanseras och därför finns det ändå en punkt när allt blir klart. Man kan ju inte säga samma sak om RT och DLSS. Som jag ser det idag så har Nvidia (eller en kombination av Nvidia och Tredjepart) inte på något sätt gett ett existensberättigande för den höga prislappen i och med dessa två teknologier.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem

29% över VEGA 64

källa overclock3d.net

Visa signatur

ASUS ROG Crosshair X670E Gene| AMD Ryzen 9 7800X3D Delidded | Custom EK Watercooling| WD Black SN850X 1TB + WD Black SN850X 2TB| Corsair Vengeance, DDR5-6600 64GB (2 x 32GB) @6400MHz CL 30-38-38-76| AMD Radeon RX 7900 XTX| LG UltraGear 45GR95QE OLED| MSI MPG A1000G PCIE5 1000W| Lian Li O-11 EVO|

Permalänk
Avstängd
Skrivet av Ryssfemma:

När ska folk förstå att AMD är lika ”anti consumer” som nvidia? Speciellt många som hoppat på AMD tåget.
Vi konsumenter gynnas inte på nåt sätt av fanboyskaran som höjer upp både AMD och Nvidia till skyarna.
Det här är andra gången AMD hoppar på inflationståget, första gången vid mining boomen och nu när nvidia trissat upp sina priser. Lika självklart som Samsung och övriga telefontillverkare höjer sina priser i samma takt som Apple.

Skickades från m.sweclockers.com

Pfffft, Inflation my ass. Kretsarna har ju blivit dyrare att tillverka och reasearcha fram!!!

Har du inte hört att mores law är död?

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem
Skrivet av Esseboy:

Pfffft, Inflation my ass. Kretsarna har ju blivit dyrare att tillverka och reasearcha fram!!!

Har du inte hört att mores law är död?

Just detta korts pris kommer nog mest ifrån att det är ett beräkningskort med galna 16GB HBM2 som släpps som ett spelkort också.

Vi konsumenter vill självklart ha så mycket som möjligt för så lite pengar som möjligt. Att det blivit dyrare hör man ofta, men då Nvidia gör rekordvinster så verkar det inte vara så att de hade behövt öka priserna osm de gjort. Men de behöver något att säga.

Det är som spelutvecklare som klagar om hur dyrt det är att göra spel som förklaring till lootboxes, season passes, deluxe editions osv sammtidigt som chefer för bonusar på hundratals miljoner.

Nej, vi konsumenter behöver inte lägga så mycket energi på att förklara... det gör de så bra själva.

Visa signatur

Huvudriggen är en Gigabyte Aorus Xtreme | 128gb DDR5 6000 | Ryzen 7950X | 3080Ti
Utöver det är det för många datorer, boxar och servar för att lista :P