AMD Radeon VII – först ut på 7 nanometer

Permalänk
Avstängd

Alltså sa Jonas 109!!! grader vid 100% belastning?
Tänk att spela med det mitt i sommaren,När man har jättevarmt inne.

Visa signatur

Chassi.Corsair Obsidian 750 D.Moderkort Asus Maximus XI Hero Processor Intel I7 8700K Med kylare Fractal design Celsius S36.Grafikkort MSI Gaming X trio 2080.SSD.1 Samsung 850 Pro 256 GB.SSD.2 Samsung 840 Evo 500 GB till spel.Nätagg Evga 850 G2.Minne 16 gb corsair vengeance 3200 mhtz.Skärm. Asus PG278QR.
2×596 gb.Mekaniska hårddiskar.

Permalänk
Medlem

Skulle vara intressant att höra direkt ifrån AMD vad dom tycker och anser om kritiken kring deras ljudliga kylningslösningar. Problemet har pågått såpass länge och det känns inte som det är en jättedyrt eller jättesvårt problem att åtgärda.

Visa signatur

Intel Pentium 2 MMX 233 @263 MHz, 192 mb, Nvidia TNT 16mb, 40gb hdd

Permalänk
Medlem

@Ragnarok: Lönt att stirra sig blind på 10 fps, som om du kommer se någon skillnad.

Permalänk
Medlem
Skrivet av Mange43:

Alltså sa Jonas 109!!! grader vid 100% belastning?
Tänk att spela med det mitt i sommaren,När man har jättevarmt inne.

Tänk på att det är högsta uppmätta punkten på grafikkortet alltså behöver det inte vara själva kärnan. Det är bara ett fåtal AMD grafikkort som det går att mäta det som jag förstått det.

Visa signatur

Intel Pentium 2 MMX 233 @263 MHz, 192 mb, Nvidia TNT 16mb, 40gb hdd

Permalänk
Hjälpsam
Skrivet av pecesithon:

När började man spela med DX12? Förstår inte hur redaktionen kan få dessa siffror då det alltid varit totalt skit för mig.

Hoppas innerligt att det kommer tredjeparts-kylare till korten. Jag har en gång haft ett 7970 med referenskylaren och jag kan än idag höra kortet väsnas. Slutna hörlurar är ett MÅSTE om man ska spela - och ja - grafikkorten ligger på 99-100% load när man krämar upp inställningarna om det inte är optimerat som skit så det låter som ett jumbojet hela tiden.

I vissa fall går det bättre att spela i DX12.
https://www.sweclockers.com/test/27014-amd-radeon-vii-forst-u...

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av Mange43:

Alltså sa Jonas 109!!! grader vid 100% belastning?
Tänk att spela med det mitt i sommaren,När man har jättevarmt inne.

Nytt sätt att mäta, 77 grader enligt det vanliga sättet.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Hjälpsam
Skrivet av elajt_1:

1) Högt pris, det går att få tag i rätt billiga 1080ti om inte nya begagnade.

2) Sämre prestanda än RTX2080 generellt, i det recensioner jag sett.

3) Ingen Ray tracing så samma pris men saknar helt en funktion du får "gratis" med precis nämnda kort.

4) Högre ljudnivå.

5) Högre strömförbrukning.

Varför i hela friden skulle någon välja detta istället för Nvidias motsvarighet?? Jag kan nog bara komma på 2 skäl. Att man på något sätt ogillar Nvidia alternativt att man bara vill ha något annat. Båda argumenten är oresonliga för dom flesta.

Är väl inte konstigt att ett nytt kort, kostar mer än ett begagnat?
Går att få tag på ett begagnat GTX1080Ti till ett mycket lägre pris än RTX2080 också.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Mange43:

Alltså sa Jonas 109!!! grader vid 100% belastning?
Tänk att spela med det mitt i sommaren,När man har jättevarmt inne.

Det som refereras till en temp på 109 är deras TJ temp vilket i GPU-Z var GPU hotspot på Vega 56/64.
Den mäter den absolut varmaste punkten på gpu, den andra lägre tempen mäts vid sidorna utav gpu.

Permalänk
Skrivet av Mange43:

Alltså sa Jonas 109!!! grader vid 100% belastning?
Tänk att spela med det mitt i sommaren,När man har jättevarmt inne.

Du vet om att du har ~2500 °C i en glödlampa? Det blir inte speciellt varmt i rummet pga det.

Permalänk
Medlem

Väldigt blandade resultat, och åsikterna likaså. Kortet är uppenbart framstressat och ofärdigt.
Jag tycker ändå R VII ser ut att ha potential, framför allt i högre upplösningar. Ser fram emot nya drivisar som förhoppningsvis kan åtgärda vissa av problemen.
AIB kort känns också som ett krav för att kortet verkligen ska kunna visa vad det kan. Oavsett vad AMD sagt så tror jag trots det att tredjepartskort är att vänta (OM det visar sig sälja väl)

Visa signatur

Meshify C // Asus X470-f // Ryzen 5 5600X // Noctua NH-U12S // 16GB G.Skill FlareX 3200mhz CL14 // Sapphire Pulse RX 7700XT // Skärm: AOC Q24G2A/BK

Permalänk
Medlem

Utöver test av premier och sånt, skulle ni även kunna testa streaming också där gpu:n används för det?

Permalänk
Medlem
Skrivet av FattarNiInte:

Du vet om att du har ~2500 °C i en glödlampa? Det blir inte speciellt varmt i rummet pga det.

Prova stoppa in en 500Watts lampa så ska du se att blir varmt i rummet.

Skickades från m.sweclockers.com

Permalänk
Hjälpsam
Skrivet av Mange43:

Inget kort som lockar mig.
Fult är det också.
Ser ut som 1 hemmabygge ju,

Och jag tycker att det är riktigt snyggt.
Aja trist om alla hade samma smak.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Skrivet av Dem8n:

Prova stoppa in en 500Watts lampa så ska du se att blir varmt i rummet.

Skickades från m.sweclockers.com

Du hinner inte reagera innan sockeln antagligen exploderat.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Hjälpsam

Dumt av AMD att låta användaren få ta del av "Junction Temperature".
Att förklara detta så att de flesta förstår, är uppenbarligen ett stort pedagogiskt problem,

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Permalänk
Medlem
Skrivet av nicoX:

@Ragnarok: Lönt att stirra sig blind på 10 fps, som om du kommer se någon skillnad.

Vissa spenderar 3000kr extra(gentemot vanliga 2000kr minnen) för snabba minnen som kan i bästa fall ge dessa 10fps..
För vissa är 10fps extra över motståndaren otroligt viktigt.

Det som jag tycker är lite roligt är att de vanliga AMD-fanboisen här på swec som tyckte att RTX serien säg spec 2080kortet inte var en värdig produkt prestanda och prismässigt då det rent av la sig där två år gamla 1080ti låg.
Nu när AMD släpper sitt R7 som befinner sig i samma sits så är det ett helt ok kort.

Okey? what? förutom att det har 16GB minnes buffert så var erbjuder R7 över säg 1080ti och spec rtx2080 som har funktioner som R7 saknar helt.

Antar att svaret är simpelt, det är inte ett Nvidia kort....

aja... fortfarande sugen på hur lång r7 kan pushas när drivrutinerna verkligen funkar, förutom Der8auer så var det en till youtuber som fick upp sitt kort över 1900mhz fast då utan exotisk kylning. Blir intressant, kommer vi kunna se pascal/turin frekvenser på ett AMD kort då de är tillbaka hos TSMC. I hope.....

https://youtu.be/fBX0k7YDQvQ?t=189

Visa signatur

12700k@/7200c34@7800/msi z790 itx

Permalänk
Medlem
Skrivet av Ratatosk:

Häng inte upp dig på TJ det är bara ett en förfinad mätmetod, även andra kort kommer antagligen upp i samma temperatur, men vi får inte ta del av den.
Så jämför temp mot temp, via vanliga sensorn.
Undrar lite om Vegas hotspot är en enklare varient av TJ.

Som jag har förstått det så är principen samma mellan hotspot och thermal junction fast thermal junction har betydligt fler mätpunkter. Enligt AMD är thermal junction okej upp till 110C. Normalt mäter en GPU någon sorts medelvärde medan hos Radeon VII får du ett lägsta och högsta värde. Throttling baseras på högsta värdet.

Skickades från m.sweclockers.com

Permalänk
Medlem

Tittade på DerBauers överklockningsvideo, syftet med att använda torris (fryst koldioxid) är för att simulera en "powerful water cooling" som han nämnde.
Han kom upp till 2100MHz på GPU:n med auto overclock, vi får kanske se en stark 3 slots eller en vattenkyld komma upp till ca: 2000MHz

Tyvärr verkar wattman vara buggat för överklockning idag.

Utöver denna DerBauer video så är Buildzoids från Gamers Nexus video intressant. Den går över kretskortets design och referenskortet verkar ha många trevliga komponenter för att kunna överklockas samt hur effektiv HBM designen är för dess VRM layout.

Det jag tar från dessa två videos: Det verkar som att OM 3:e part får möjlighet att designa egna kort, kanske t.o.m. egna PCB layout-designs, så kan en bra stark 3 slots-kylare eller vattenkyld variant bli intressant. Även en löst 3:e part kylare skulle fungera på referenskortet.

Permalänk
Medlem

Techpowerup har en bra förklaring på Junction Temperature / Hotspot
https://www.techpowerup.com/reviews/AMD/Radeon_VII/33.html
”When GPU-Z first exposed the "Hotspot" thermal sensor on Radeon Vega cards, AMD requested removal, and we compromised on a "off-by-default" setting. That's why I was surprised to see that very same sensor introduced in Wattman, labeled "Junction Temperature".

In their reviewers guide, AMD sheds some additional light on this new sensor. They have placed 64 thermal sensors in strategic locations all over the GPU die, which is twice the number of sensors found on first-generation Vega. The highest reading of all these sensors is called "Junction Temperature" and reported in Wattman. Radeon VII uses Junction Temperature for thermal throttling and fan control.

Just like on Vega, the reported temperature values are quite high, which might scare some less experienced users. Once Junction Temperature reaches 115°C, the card will start throttling a little bit to keep the temperature below 115°C. At stock, with our card, this doesn't happen during gaming—we saw up to 110°C Junction Temperature.

Overall, exposing this sensor in Wattman is a good choice because, just like on Vega, it provides a means for enthusiasts to detect if their cooler mounting is uneven or some other mounting issue exists.”

Permalänk
Medlem

Bra video ni gjorde.
1 grad ifrån throttel lät ju som väl lite marginal. Lite damm med tiden kanske fyller ut den lilla marginalen. Förhoppningsvis kan de finjustera lite med drivrutiner.
Inget kort för ett itx-chassi med andra ord, men det antar jag att 2080/2080ti inte heller lämpar sig för? (Tänker luftkylt då)

Skickades från m.sweclockers.com

Permalänk
Medlem

Hur kan man tycka att detta är någonting mer än en super-flopp??
1080ti prestanda, 2 år senare, för samma peng... 'skratt-gråtande-smiley'

Visa signatur

11600KF, RTX3090 Gamerock, 16gb 3600mhz , LG CX 48"

Permalänk
Skrivet av elajt_1:

1) Högt pris, det går att få tag i rätt billiga 1080ti om inte nya begagnade.

2) Sämre prestanda än RTX2080 generellt, i det recensioner jag sett.

3) Ingen Ray tracing så samma pris men saknar helt en funktion du får "gratis" med precis nämnda kort.

4) Högre ljudnivå.

5) Högre strömförbrukning.

Varför i hela friden skulle någon välja detta istället för Nvidias motsvarighet?? Jag kan nog bara komma på 2 skäl. Att man på något sätt ogillar Nvidia alternativt att man bara vill ha något annat. Båda argumenten är oresonliga för dom flesta.

16 GB ?

Permalänk
Medlem
Skrivet av Wh|p:

Hur kan man tycka att detta är någonting mer än en super-flopp??
1080ti prestanda, 2 år senare, för samma peng... 'skratt-gråtande-smiley'

"It might not be ideal in all situations, but AMD’s Radeon VII is a very well-rounded graphics card. It delivers great performance in gaming, potentially excellent performance in math-heavy workloads, and shines with strong OpenCL performance in applications like Blender and LuxMark. With 16GB of memory on tap, the card’s $699 price tag seems more than fair.

For those looking for a pure gaming card, the RTX 2080 may be the better choice. You’ll lose 8GB off of the memory by going with RTX 2080, but you’d gain things like Microsoft DXR and NVIDIA DLSS support, as well as smaller features like the screenshot tool Ansel. If you believe 8GB will not be enough for your gaming workloads over the next few years, then the allure of VII will only grow stronger.

As always, it pays to know what you’re looking for in your graphics card. If luck is on your side, the VII will complement your workloads just fine. The results scattered throughout this article can help you decide which way you should be swaying."

https://techgage.com/article/amd-radeon-vii-workstation-perfo...

Knappast en superflopp. De som köper detta kort lär knappast ha spel som första prioritet.

Permalänk
Medlem
Skrivet av Wh|p:

Hur kan man tycka att detta är någonting mer än en super-flopp??
1080ti prestanda, 2 år senare, för samma peng... 'skratt-gråtande-smiley'

Man kan även se det så här. AMD har gjort ett lika stort hopp mellan toppkortet från förra generationen (Vega 64) i ren prestanda som Nvidia har gjort mellan sina två tidigare toppkort (1080TI vs 2080TI).

Detta genom att enbart krympa en redan existerande arkitektur medan Nvidia gjort om hela sin arkitektur och ändå fått ur exakt samma prestandahopp. Visst VII slår inte 2080Ti men vem hade egentligen förväntat sig det?

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Skrivet av Dunder:

Skulle aldrig få för mig att köpa ett så högljutt kort... Helt oväsentligt hur många bildrutor det kan trycka ut om det låter som en lövblås.

Så om kortet skulle klara 800 FPS i 4K oavsett spel och kvalitet så skulle du avstå detta kortet? Vilket skitsnack

Permalänk
Medlem
Skrivet av Wh|p:

Hur kan man tycka att detta är någonting mer än en super-flopp??
1080ti prestanda, 2 år senare, för samma peng... 'skratt-gråtande-smiley'

De konkurerar med 2080 vilket också passar in på "1080ti prestanda, 2 år senare, för samma peng"

Skickades från m.sweclockers.com

Permalänk
Medlem
Skrivet av Mange43:

Alltså sa Jonas 109!!! grader vid 100% belastning?
Tänk att spela med det mitt i sommaren,När man har jättevarmt inne.

Titta på kortets strömkonsumtion istället för temperaturen så lär du förstå att det blir ungefär lika varmt där du är med ett 2080ti. Det blir en mer koncentrerad värmeutveckling hos en Vega20 GPU mot en TU102 då den förstnämnda har en betydligt högre transistortäthet, men den totala effekten i form av värme blir i jämna slängar den samma.

Skrivet av Dem8n:

Prova stoppa in en 500Watts lampa så ska du se att blir varmt i rummet.

Beror på rummets storlek. 500W oavsett om det är en lampa eller grafikkort spelar ingen roll. Hans poäng var klockren för att få folk att någon gång förstå skillnaden mellan temperatur och värmeeffekt.

Visa signatur

[ AMD 7800X3D // EK-Block @ custom loop, 2x420mm ][ MSI B650 Tomahawk ][ 32GB G.Skill Z5 Neo @ DDR6000 CL28 1T ][ AMD 7900XTX @ custom loop ][ Corsair 750D // Corsair RM1000X ][ 2TB Samsung 990PRO M.2 SSD ][ Win10 PRO x64 ][ LG 34GN850 ]

Permalänk
Keeper of Traditions
Skrivet av JonkenPonken:

Så om kortet skulle klara 800 FPS i 4K oavsett spel och kvalitet så skulle du avstå detta kortet? Vilket skitsnack

Nej, för då hade det inte låtit så mycket, i och med att man kunnat klocka ned det ordentligt. Vad ska du med 800 FPS till?

Visa signatur

|| Intel 8700K || Asus RTX 4070 TI Super TUF || Samsung 750 EVO 500GB & Kingston A2000 1TB & Samsung 960 EVO 250GB || Corsair RM 850x || Antec P183 || Asus G-Sync RoG Swift PG279Q || Dell XPS 15 || Thinkpad X220

The Force is like Duct Tape, it has a light side, a dark side, and holds the universe together.

Permalänk
Medlem
Skrivet av Enigma:

Titta på kortets strömkonsumtion istället för temperaturen så lär du förstå att det blir ungefär lika varmt där du är med ett 2080ti. Det blir en mer koncentrerad värmeutveckling hos en Vega20 GPU mot en TU102 då den förstnämnda har en betydligt högre transistortäthet, men den totala effekten i form av värme blir i jämna slängar den samma.

Beror på rummets storlek. 500W oavsett om det är en lampa eller grafikkort spelar ingen roll. Hans poäng var klockren för att få folk att någon gång förstå skillnaden mellan temperatur och värmeeffekt.

Storleken på rummet spelar ingen roll, det betor på ventilationen och isoleringsvärdet.
500W kan få ett dåligt ventilerat rum med högt isoleringsvärde i väggar, tak och golv att blir ruskigt varmt oavsett hur stort det är, ge det bara tid.

Grafikkortet är som värmefläktar, eller kupéfläktar, de blåser ut varmluften så den snabbare sprids i rummet. Jag hade en dator med 4 grafikkort och allting vattenkylt med externa radiatorer, det blev ruskigt varmt i rummet kan jag säga, men då snackar vi mer än det dubbla i watt med alla komponenter inräknade.
Det är ju inte enbart grafikkortet som avger värme heller, allting i datorn avger värme, CPU, bussar, nätaggregat, diskar, skärm osv.

Skickades från m.sweclockers.com