Nvidia: "Vår AV1-kodare bättre än AMD och Intel"

Permalänk
Medlem
Skrivet av Dizzö:

Lita aldrig på Nvidia.

Eller Intel, eller AMD... Eller egentligen någon större tillverkare.

Visa signatur

The cookie goes *crumble*.

Permalänk
Medlem
Skrivet av TexMurphy:

Absolut. Bra poäng som kanske inte kom fram i mitt inlägg.Men jag antar att mjukvara som t.ex, Adobe Premiere också betalar royalties?).

När det kommer till mjukvara så är jag faktiskt lite osäker hur det fungerar, det finns ju t ex en hevc-decoder i libavcodec som typ alla gratis mediaspelare använder, och det är vad jag vet både gratis och lagligt, annars så finns möjligheten att bara skicka det vidare till hw-decodern, dvs, applicationen har ingen decoder, och det är t ex så Chrome gjorde nu när dom (äntligen) la till stöd för hevc.

Citat:

Som konsument bryr man sig kanske inte om vilken codec som används. Men om Amazon Prime, Disney plus, Netflix etc betalar royalties så drabbar det dig om konsument i slutändan ändå. Google/Youtube, Netflix, Amazon, etc betalar säkert en hel del i royalties så för deras del finns säkert mycket pengar att spara. Huruvida det kommer till konsumentens gagn i slutändan är kanske diskuterbart.

Nej dom betalar inte ett öre i royalties för streama i hevc (eller ja köper dom t ex hårdvaru-encoders så gör dom ju det indirekt), där av mitt inlägg. Det fanns en otroligt märklig royalties model för detta i början, men det togs bort för många år sedan.

Permalänk
Medlem
Skrivet av Trihxeem:

Så de har enligt egen utsago en konkurrensfördel för en otroligt liten del av alla konsumenter som faktiskt strömmar (eller kodar om) video?
Grattis, I guess?

Kvalitetsförbättringen gäller ju såklart också inspelandet av video för hemmabruk, ex. replays genom Outplayed, vilket är väldigt populärt.

Visa signatur

R5 5600X | RTX 3060 Ti | 3DMark
O2 + ODAC | DT 1990 Pro | ModMic Wireless
XB273U GX | S2417DG | 55CX
G Pro X Superlight | VA88M MX Red Silent | pfSense + Mullvad VPN | Mobiler

Permalänk
Medlem
Skrivet av Casper:

Kvalitetsförbättringen gäller ju såklart också inspelandet av video för hemmabruk, ex. replays genom Outplayed, vilket är väldigt populärt.

Kvalitet vid hög kompression ja, undrar hur mycket det faktiskt finns att vinna i de högre bitrates som man generellt kör vid ren inspelning. Inte undersökt så vet ej, vet bara att de ser generellt ut att vara ruskigt nära original när jag spelar in - sen om man lägger upp det på youtube är det ju en hel konst och ritual för att behålla den kvaliteten. Det är ju ingen competition just nu för absolut bäst kvalitet - för det får du inte från gpu (men vore givetvis intressant om det blev en grej) Nvidia har haft ledningen specifikt på komprimerad streaming.

Om man råkar sitta på ruskigt lite diskspace och spela in... Så kan man ju köpa lite mer diskspace bara liksom.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem

Bara det faktum att nvidia här jämför ett 4080 med ett 7900 xt som är betyderligt billigare och sen ett a770 som kostar vadå en tredjedel av ett 4080 säger allt...

Visa signatur

here we go!

Permalänk
Medlem
Skrivet av norrby89:

Bara det faktum att nvidia här jämför ett 4080 med ett 7900 xt som är betyderligt billigare och sen ett a770 som kostar vadå en tredjedel av ett 4080 säger allt...

Skulle kvaliten på videon varit bättre med ett 7900XTX? Och A770 är väl det snabbaste och dyraste som Intel erbjuder?

Visa signatur

The cookie goes *crumble*.

Permalänk
Medlem
Skrivet av marcusOCZ:

Att se på videon kräver decoder. Det har i stort sett alla processorer och/eller gpu'er idag.
Däremot är det bara Nvidia 4000, AMD 7000 och Intel Arc som har hårdvaruencoder för AV1.

Skrivet av Allexz:

Ajdå, ditt inlägg ser smärtsamt ut... Men det handlar om encoding, inte decoding

Jag tolkar det som att Apples M1 och M2 även saknar decode stöd för AV1.
Har jag fel?

Bl.a. såg jag någon reddit post
New Apple M2 doesn't support AV1 decode.

Är den informationen felaktig/har ändrats ?

Permalänk
Medlem
Skrivet av GuessWho:

Jag tolkar det som att Apples M1 och M2 även saknar decode stöd för AV1.
Har jag fel?

Bl.a. såg jag någon reddit post
New Apple M2 doesn't support AV1 decode.

Är den informationen felaktig/har ändrats ?

Det är jag som skall äta en hund, för du har helt rätt. Är faktist rätt så förvånad att de "glömde" det.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Medlem
Skrivet av marcusOCZ:

Det är jag som skall äta en hund, för du har helt rätt. Är faktist rätt så förvånad att de "glömde" det.

Du behöver inte äta något du inte tycker om.

Men tycker det är dåligt av Apple att inte ha AV1 stöd (åtminstone decode) för framförallt M2.
Känns som de chippet är tillräckligt nytt att de borde ha stöd för moderna video standarder (inklusive AV1).

Går kanske att lösa genom någon extern docka med grafikkort i.
Eller så kan man köpa en PC för halva priset av en Mac och få stödet på köpet.

Jag kan förstå att exempelvis Raspberry Pi inte har stödet.
Dels så lanserades senaste generationen Raspberry Pi, Pi 4 år 2019, så den är inte direkt ny.
Sen med krav/mål på att hålla ner storlek/strömförbrukning och kostnad på så låga nivåer.

Apples M1/M2 må vara förhållandevis strömsnåla. Men inte jämfört med enkortsdatorer.
Känns som de är fortfarande för strömhungriga för att kunna använda de som skäl/ursäkt.
Om Apples datorer kostade en tiondel av vad de gör så kanske kostnadsskäl hade varit en rimlig ursäkt.
Men att ta premium pris utan att erbjuda vad som inom 1-2 år är att räkna som basfunktion för en ny dator känns väl inte helt klockrent.

Men de får väl marknadsföra det liknande vissa biltillverkare tar extra betalt för att få bilen utan bilstereo/musik/infotainment och utan aircondition och dylikt.
Att man får betala mer för att få mindre.

Permalänk
Sötast
Skrivet av GuessWho:

Du behöver inte äta något du inte tycker om.

Men tycker det är dåligt av Apple att inte ha AV1 stöd (åtminstone decode) för framförallt M2.
Känns som de chippet är tillräckligt nytt att de borde ha stöd för moderna video standarder (inklusive AV1).

Går kanske att lösa genom någon extern docka med grafikkort i.
Eller så kan man köpa en PC för halva priset av en Mac och få stödet på köpet.

Jag kan förstå att exempelvis Raspberry Pi inte har stödet.
Dels så lanserades senaste generationen Raspberry Pi, Pi 4 år 2019, så den är inte direkt ny.
Sen med krav/mål på att hålla ner storlek/strömförbrukning och kostnad på så låga nivåer.

Apples M1/M2 må vara förhållandevis strömsnåla. Men inte jämfört med enkortsdatorer.
Känns som de är fortfarande för strömhungriga för att kunna använda de som skäl/ursäkt.
Om Apples datorer kostade en tiondel av vad de gör så kanske kostnadsskäl hade varit en rimlig ursäkt.
Men att ta premium pris utan att erbjuda vad som inom 1-2 år är att räkna som basfunktion för en ny dator känns väl inte helt klockrent.

Men de får väl marknadsföra det liknande vissa biltillverkare tar extra betalt för att få bilen utan bilstereo/musik/infotainment och utan aircondition och dylikt.
Att man får betala mer för att få mindre.

Then again....

25% av 1 cpu kärna för 1080P AV1 mjukvarudecoding, i firefox av alla webbläsare xD
Jag tror helt enkelt att alla överlever.

Vad är det..... 3Watt usage kanske?
ett 3070 drar 40watt idle.

Eller så har jag uppåt väggarna fel, jag kan i princip inget om videodecoding.

Om du har nån länk till 4k+ av1 videos så länka så kan jag se om det funkar eller ej.
Om det inte skulle funka så håller jag med om att det varit ett konstigt beslut.

Edit:

M1 Pro, verkar kunna kräma på 8K ordentligt bra utan HW-decoder. 2½ cores pinnade vid 8k.
Men ja, byter man till VP09 så går cpu förbrukningen ner med mer än hälften utan tvekan.

Edit igen:

Inte helt säker på siffrorna här....

Men 10 kärnor av en Ryzen 5600X + ett RTX3070 +(Pci-passthrough VM) drar c:a 30% på gpun (lyckades screenshotta precis på en dipp) och 60%? av cpun... kanske för att det är en VM och nån bugg uppstår, vad vet jag.

Ska jag vara helt ärlig så vet jag inte ens vad jag är ute efter här xD
Men nu har jag iaf lagt en halvtimme av kvällen på screenshots i guess xD

Permalänk
Skrivet av GuessWho:

Du behöver inte äta något du inte tycker om.

Men tycker det är dåligt av Apple att inte ha AV1 stöd (åtminstone decode) för framförallt M2.
Känns som de chippet är tillräckligt nytt att de borde ha stöd för moderna video standarder (inklusive AV1).

Går kanske att lösa genom någon extern docka med grafikkort i.
Eller så kan man köpa en PC för halva priset av en Mac och få stödet på köpet.

Jag kan förstå att exempelvis Raspberry Pi inte har stödet.
Dels så lanserades senaste generationen Raspberry Pi, Pi 4 år 2019, så den är inte direkt ny.
Sen med krav/mål på att hålla ner storlek/strömförbrukning och kostnad på så låga nivåer.

Apples M1/M2 må vara förhållandevis strömsnåla. Men inte jämfört med enkortsdatorer.
Känns som de är fortfarande för strömhungriga för att kunna använda de som skäl/ursäkt.
Om Apples datorer kostade en tiondel av vad de gör så kanske kostnadsskäl hade varit en rimlig ursäkt.
Men att ta premium pris utan att erbjuda vad som inom 1-2 år är att räkna som basfunktion för en ny dator känns väl inte helt klockrent.

Men de får väl marknadsföra det liknande vissa biltillverkare tar extra betalt för att få bilen utan bilstereo/musik/infotainment och utan aircondition och dylikt.
Att man får betala mer för att få mindre.

Gissar på att de kommer envisas med att låsa kunderna till H264/H265 i evighet på samma sätt som de har envisas med AAC
Tror inte på att deras produkter ej klarar av stödet.
Här handlar det nog mest om att de helt enkelt inte vill.

Permalänk
Medlem
Skrivet av Ryzer:

Förövrigt motsatte jag mig att ''streaming är en otroligt liten del av marknaden''

Fast det är nog en otroligt liten del av marknaden. Twitch är väl största siten för streaming. Jämför den datan med hur det ser ut för några populära spel.

Fortnite har runt 250 miljoner användare per månad. Vilket är närmare 10 miljoner användare per dag. Så Twitch är ca 1% av ett av de populära spelen...

Visa signatur

"Trying is the first step to failure." - Homer Simpson

Permalänk
Medlem

Youtubern EposVox brukar göra helt ok tester av kvalitén från olika HW-encoders vid typiska streamingbitrates.
Här är den senaste där han ställer AMDs, Nvidias och Intels AV1-encoders mot varandra i typiska gamerscenarion:
https://www.youtube.com/watch?v=TYOkJFOL5jY

Spoiler: Han håller inte med Nvidia om deras påstående.

Visa signatur

Citera -> större chans till svar.

Permalänk
Medlem
Skrivet av reflux:

Youtubern EposVox brukar göra helt ok tester av kvalitén från olika HW-encoders vid typiska streamingbitrates.
Här är den senaste där han ställer AMDs, Nvidias och Intels AV1-encoders mot varandra i typiska gamerscenarion:
https://www.youtube.com/watch?v=TYOkJFOL5jY

Spoiler: Han håller inte med Nvidia om deras påstående.

Du noterade kanske dock att den encodern från AMD han jömför med inte sitter på en GPU, och han säger specifikt att den inte är representativ för 7000-seriens AV1-encoder?

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P

Permalänk
Medlem
Skrivet av mkk:

Känns mer sannolikt att 1 av 10 streamare har bildkvalitet i åtanke och den största begränsningen är väl oftast själva tjänsten och inte inspelningen?

Som streamare kan jag bekräfta att detta inte stämmer. Tjänsten man använder sätter begränsingar på vilken bitrate man kan använda. Vilken encoder man använder påverkar hur bra kvalitet man får ut av den bitraten.

AMDs encoder är fruktansvärt värdelös, ska man köra GPU encoding så när det nvidia som gäller, så har det varit i åratal. Encoding är inte så tungt att man måste ha ett häftigt grafik kort för att driva det, (brukar ligga runt nån % GPU för mig, som visserligen har ett häftigt grafikkort). Att encoda via cpu går också bra men det tar ju en del kraft fån cpun. mycket mer så en det tar från GPU.

Visa signatur

i9 12900k, RTX3080, 3600MHz CL15 DDR4 , custom loop

Permalänk
Medlem
Skrivet av sweisdapro:

Du noterade kanske dock att den encodern från AMD han jömför med inte sitter på en GPU, och han säger specifikt att den inte är representativ för 7000-seriens AV1-encoder?

Liiite orättvist att dra in dedikerad pro-grade hårdvara i diskussionen kanske

Skrivet av Nefrums:

Som streamare kan jag bekräfta att detta inte stämmer. Tjänsten man använder sätter begränsingar på vilken bitrate man kan använda. Vilken encoder man använder påverkar hur bra kvalitet man får ut av den bitraten.

AMDs encoder är fruktansvärt värdelös, ska man köra GPU encoding så när det nvidia som gäller, så har det varit i åratal. Encoding är inte så tungt att man måste ha ett häftigt grafik kort för att driva det, (brukar ligga runt nån % GPU för mig, som visserligen har ett häftigt grafikkort). Att encoda via cpu går också bra men det tar ju en del kraft fån cpun. mycket mer så en det tar från GPU.

Verkar råda stor förvirring om streaming vs recording och vad som spelar roll för vad. I slutänden behöver man veta hur man prioriterar inspelnings-kvalitet, vs streamkvalitet vs features och välja därefter. Jag anser föredrar AMD's interace och driver/mjukvara enormt, jag har aldrig streamat men det är tydligt att Nvidia generellt ligger före i kvalitet för streaming-bitrates (före AMD iallafall) och för absolut kvalitet (för recording) känns de båda rätt likvärda i mina ögon, men skulle jag snarare kolla på cpu-encoding och/eller en separat maskin med capture card än att köra på spelburken om jag ville maximera det.

Saknas en hel del nyans i diskussionerna oftast med mycket "x är bättre y är sämre" utan att specifiera use-case.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av sweisdapro:

Du noterade kanske dock att den encodern från AMD han jömför med inte sitter på en GPU, och han säger specifikt att den inte är representativ för 7000-seriens AV1-encoder?

Trodde han hade med den "vanliga" AMD AV1-encodern där också som jämförelse? Men som sagt, det finns fler jämförande tester i samma kanal om man vill djupdyka i ämnet, vilket väl var det som efterfrågades i tråden.

Visa signatur

Citera -> större chans till svar.

Permalänk
Medlem
Skrivet av reflux:

Trodde han hade med den "vanliga" AMD AV1-encodern där också som jämförelse? Men som sagt, det finns fler jämförande tester i samma kanal om man vill djupdyka i ämnet, vilket väl var det som efterfrågades i tråden.

Jodå, den var med, men presterade inget vidare i hans tester, men han trodde det berodde på en bugg trodde han (men han hade inte lyckats lösa den)
Absolut, man kan djupdyka i alla ämnen, tänkte mest på att du skrev att han inte höll med nvidias uttalande i ditt inlägg, vilket inte riktigt är sant då deras test är mellan grafikkort som jag förstår det

Visa signatur

CPU: R7 5800X3D | GPU: XFX 6900XT Merc 319 | MB: Gigabyte X570 PRO-I| RAM: 2x16 Corsair LPX@3600MHz CL18|Cooling: Scythe Ninja 5 (Noctua A12x25)|PSU: Corsair SF750|SSD: Samsung 970 EVO Plus 1TB + Corsair MP510 4TB + Samsung 850 EVO 2TB + Samsung 850 PRO 2TB|CASE:NR200P