Blender 3.6 lägger till hårdvaruaccelererad ray tracing för AMD och Intel

Permalänk
Skrivmaskin

Blender 3.6 lägger till hårdvaruaccelererad ray tracing för AMD och Intel

I min utbildning har vi då och då använt open-source-projektet Blender för att modellera och framförallt rendera modeller på snyggt vis. Med RTX 2060 Super och RTX 3080 i mina datorer har jag kunnat dra nytta av att renderingsmotorn Cycles har stöd för de RT-kärnor som grafikkorten har inbyggt, något som är väldigt tacksamt för att korta ned renderingstiderna.

När version 3.6 av programmet sjösattes under förra veckan tillkommer också stöd för motsvarande hårdvaruaccelerering som finns i AMD:s och Intels grafikkort, som enligt Blenders egna siffror ger bra utväxling. För detta används AMD:s öppna HIP RT, med en uppenbar begränsning att stödet bara gäller på Windows. Hur som helst är det ett kul steg i rätt riktning, som gör att även AMD- och Intel-hårdvara kan nyttjas på ett bättre sätt för den som renderar.

Ray tracing-stöd bara ett axplock
Som med varje ny version av Blender är nyheterna många och förbättringarna likaså. Nod-funktioner för simulering och vässade funktioner för animation är andra detaljer som jag är nyfiken att titta närmare på, även om jag inte djupdykt i dem tidigare.

Har du testat nya Blender 3.6?

Permalänk
Hedersmedlem

Bra förstås, men diagrammet imponerar kanske inte så stort?

Permalänk
Medlem

Kul!

Själv satt jag en gång i tiden och körde raytracing på en Mac med 100Mhz CPU och 12MB RAM. Hårdvaruaccelererat pff... Dagens ungdom vet inte hur bra de har det.

Permalänk
Medlem

Ja en gnutta bit på vägen, men det var ju ingen vidare större skillnad alls, Nvidia är alltså fortfarande enda vettiga valet om man skaffar grafikkort för att rendera i Blender.
Desto större nyhet är ju Simulation Nodes som öppnar för så galet mycket mer möjligheter att göra kula saker!

För övrigt så känns rubriken på framsidan lite missvisande då rendering med RT-kärnor funnits i Blender i många år redan.

Permalänk
Medlem
Skrivet av Wittwang:

I min utbildning har vi då och då använt open-source-projektet Blender för att modellera och framförallt rendera modeller på snyggt vis. Med RTX 2060 Super och RTX 3080 i mina datorer har jag kunnat dra nytta av att renderingsmotorn Cycles har stöd för de RT-kärnor som grafikkorten har inbyggt, något som är väldigt tacksamt för att korta ned renderingstiderna.

När version 3.6 av programmet sjösattes under förra veckan tillkommer också stöd för motsvarande hårdvaruaccelerering som finns i AMD:s och Intels grafikkort, som enligt Blenders egna siffror ger bra utväxling. För detta används AMD:s öppna HIP RT, med en uppenbar begränsning att stödet bara gäller på Windows. Hur som helst är det ett kul steg i rätt riktning, som gör att även AMD- och Intel-hårdvara kan nyttjas på ett bättre sätt för den som renderar.

https://wiki.blender.org/w/images/3/36/Cycles_3.6_Intel_A770.png

Ray tracing-stöd bara ett axplock
Som med varje ny version av Blender är nyheterna många och förbättringarna likaså. Nod-funktioner för simulering och vässade funktioner för animation är andra detaljer som jag är nyfiken att titta närmare på, även om jag inte djupdykt i dem tidigare.

https://youtu.be/0-LiGWgKRgk

Har du testat nya Blender 3.6?

Kan någon översätta vad detta innebär i lekmanstermer, hur bra är AMD & intel mot Nvidia?
Jag har inte använt blender och kommer nog aldrig göra.

Visa signatur

*5600|B350M-A|32GB|A750|GX750W|Core V21|280AIO|1TB+2TB.

AMD Ryzen 5(Zen3) @4891|Asus Prime|Corsair 2x16 RGB PRO 3200C16 @3800C18|Intel Arc LE @2740MHz|Seasonic Focus| Thermaltake mATX kub|Arctic freezer II| NVMe SSD PCIE 3.0x2 Kingston A1000 1500/1000 + 2,5" HDD Toshiba 1TB & Samsung 1TB i RAID 0.

Permalänk
Medlem
Skrivet av Gurrrra:

Ja en gnutta bit på vägen, men det var ju ingen vidare större skillnad alls, Nvidia är alltså fortfarande enda vettiga valet om man skaffar grafikkort för att rendera i Blender.
Desto större nyhet är ju Simulation Nodes som öppnar för så galet mycket mer möjligheter att göra kula saker!

För övrigt så känns rubriken på framsidan lite missvisande då rendering med RT-kärnor funnits i Blender i många år redan.

Det är ju ändå en betydande förbättring. Kollar man första stapeln ser det ut att vara 0.045s skillnad per sample. Säg att du vill använda 500 samples per bildruta, så blir det en förbättring på 22,5 sekunder. Det blir stor skillnad om man tänkt rendera en animation.

---

På frågan om jag testat nya Blender så... det kan hända att jag spenderat lite tid med det.

Permalänk
Medlem
Skrivet av Fenrisulvfan:

Kan någon översätta vad detta innebär i lekmanstermer, hur bra är AMD & intel mot Nvidia?
Jag har inte använt blender och kommer nog aldrig göra.

AMD och Intel är långt efter Nvidia.

Permalänk
Medlem
Skrivet av DasIch:

Det är ju ändå en betydande förbättring. Kollar man första stapeln ser det ut att vara 0.045s skillnad per sample. Säg att du vill använda 500 samples per bildruta, så blir det en förbättring på 22,5 sekunder. Det blir stor skillnad om man tänkt rendera en animation.

---

På frågan om jag testat nya Blender så... det kan hända att jag spenderat lite tid med det.
<Uppladdad bildlänk>

Hur mycket snabbare det är i absoluta sekunder är ju rätt ointressant när man inte beräknar med hur lång tid det tog innan, så kollar man på första stapeln så är så klart förbättingen där, men ganska liten oavsett. Jag tog mig dock en närmare titt på dom andra staplarna o det verkar ju som att pabellon är uppåt 30% snabbare vilket inte alls är illa pinkat!
Oavsett så är det ett steg i rätt riktning såklart, men eftersom man inte heller kan använda optix som denoiser i viewporten så springer Nvidia fortfarande i cirklar runt AMD.

O för att svara på frågan så testade jag Blender 3.6 redan i vintras, nu sitter jag däremot o leker med 4.0 alpha istället, kul kul

Permalänk
Datavetare

Intel har gjort en video kring vad man kan förvänta sig för nyheter med deras GPUer i Blender 3.6.

För att få en känsla för var Nvidia ligger i förhållande till AMD/Intel kan man kika på nedan som är från Blender 3.4 (senaste större testet jag hittar)

Klicka för mer information
Visa mer

Intel ser dessa relativa förbättringar i Blender 3.6

Klicka för mer information
Visa mer

Om detta stämmer skulle då A750 hamna på Secret Deer ~74s (4070Ti prestanda), White Lands ~89s (3070Ti) och Scanlands ~103s (3080Ti).

Nu presterar Alchemist faktiskt rätt bra i Blender redan innan, bättre relativt Nvidia och framförallt AMD än vad vi sett i spel. Men detta är ändå bara halva sanningen för resultaten ovan är med CUDA och Nvidias motsvarighet till det AMD/Intel nu implementerat i Blender 3.6 heter OptiX.

OptiX är dels betydligt stabilare jämfört med HIP RT/Embree RT, men det ger också generellt sett en större boost över CUDA än vad AMD/Intel får med HIP RT/Embree RT (ovanpå det fungerar HIP RT inte i Linux, generellt sett presterar Blender något bättre i Linux i de fall man kan köra där).

Enda grafer jag hittar för HIP RT är dessa är den nedan, ser ut att vara liknande prestandavinst som för Embree RT på Intel

Klicka för mer information
Visa mer

Detta är Blender 3.4 med OptiX, samma scener som ovan

Klicka för mer information
Visa mer

I Secret Deer är till och med 3050 snabbare, i White Lands når A750 nästan 3060Ti nivå medan man inte riktigt når 3060 nivå. Inte katastrofalt, men inget tvivel om att Nvidia är den bäst presterande (och de är definitivt mest stabila i nuläget).

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Overwatch kommer se så fotorealistiskt ut nu 😉

Permalänk
Datavetare

Hmm, uppenbarligen har Apple gjort något som påverkar GPGPU rätt mycket mellan M1 och M2.

Har en M1Pro (16 GPU-kärnor) MBP och en M2Pro MacMini (också 16 GPU-kärnor). Testade Blender 3.6 med Metal GPGPU render på båda med scenen Secret Deer

M1Pro: 224s (i nivå med RX6500XT)
M2Pro: 144s (i nivå med RTX3050/CUDA)

Grafikmässigt har jag för mig Apple sagt att det är typ ~30 % skillnad mellan motsvarande M2 och M1 modell i GPU-prestanda, här är det ju 55 % fördel för M2Pro.

Den "coola" delen är att M1Pro drar 9,5 W vid ren GPGPU-rendering (Metal stödjer även GPGPU+CPU som är lite snabbare). M2Pro ökar detta till 14 W (så något bättre perf/W hos M2Pro)

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

Gick over till Nvidia till slut pga Blender och dess optix. Men ser fram emot att kunna ga tillbaka till AMD en vacker dag.

Visa signatur

AMD x399M | TR 1950x | 64GB 3200Mhz | 2 x Zotac 3090

Permalänk
Medlem
Skrivet av Frux:

Kul!

Själv satt jag en gång i tiden och körde raytracing på en Mac med 100Mhz CPU och 12MB RAM. Hårdvaruaccelererat pff... Dagens ungdom vet inte hur bra de har det.

Pffft. Körde 3Dstudio i Dos på 4MB ram. Du vet inte hur bra du hade det.😉

Permalänk
Medlem
Skrivet av Gurrrra:

Hur mycket snabbare det är i absoluta sekunder är ju rätt ointressant när man inte beräknar med hur lång tid det tog innan, så kollar man på första stapeln så är så klart förbättingen där, men ganska liten oavsett. Jag tog mig dock en närmare titt på dom andra staplarna o det verkar ju som att pabellon är uppåt 30% snabbare vilket inte alls är illa pinkat!
Oavsett så är det ett steg i rätt riktning såklart, men eftersom man inte heller kan använda optix som denoiser i viewporten så springer Nvidia fortfarande i cirklar runt AMD.

O för att svara på frågan så testade jag Blender 3.6 redan i vintras, nu sitter jag däremot o leker med 4.0 alpha istället, kul kul

Det är ju bara en annan enhet de mäter resultaten i. Rätt bra mått i det här fallet. Vill du få ut totala tiden kan du kolla på testscenerna.
Barbershop är exempelvis satt till 800 samples. Så, utan HW RT blir det 2.25(samples/sec)x800 = 30 minuter. Med HW RT är det istället 1,8x800 = 24 minuter.

Ja, Nvidia är helt i en klass för sig här. Som jämförelse vad OptiX gör så: Jag testade Barbershop-scenen. Default-inställningar med 800 samples gav 1 minut 6 sekunder. Denoise på och noise threshold satt till 0.1, vilket gav visuelt samma resultat, och det tog 13 sekunder istället. Alltså, en förbättring på 80%.

Tänker man rendera i Cycles eller någon annan renderare som har liknande stöd för RTX, så är Nvidia totalt överlägsna.

Permalänk
Medlem
Skrivet av Frux:

Kul!

Själv satt jag en gång i tiden och körde raytracing på en Mac med 100Mhz CPU och 12MB RAM. Hårdvaruaccelererat pff... Dagens ungdom vet inte hur bra de har det.

100Mhz. Det är ju rena lyxen. Mins själv hur jag körde raytracing på min Amiga med 14Mhz och senare på Amiga 3000 med 25Mhz. Minst sagt tålamodsprövande.

Permalänk
Medlem
Skrivet av CrazyDriver:

100Mhz. Det är ju rena lyxen. Mins själv hur jag körde raytracing på min Amiga med 14Mhz och senare på Amiga 3000 med 25Mhz. Minst sagt tålamodsprövande.

Hehe kommer ihåg min kompis som ritade en ljusstake med ett brinnande ljus i. Tog 4 timmar att rendera upp på en Amiga

Permalänk
Medlem
Skrivet av CrazyDriver:

100Mhz. Det är ju rena lyxen. Mins själv hur jag körde raytracing på min Amiga med 14Mhz och senare på Amiga 3000 med 25Mhz. Minst sagt tålamodsprövande.

Nice, gjorde exakt samma bana själv faktiskt! Satt med Real3d mest, vilket program körde du? Imagine3d var väl det populäraste?

För övrigt var överklockningen back then.. spännande! Minns en överklockning på A3000 där man helt sonika mekaniskt fick klippa pinnen som matade chipet med klocksignalen, och löda dit en sladd från en annan klocksignal på moderkortet. Annars i det enkla fallet fick man köpa en ny frekvensgenerator och byta på moderkortet, då den (ibland?) inte var ytmonterad. Överklockade CPU, FPU, och HD kontrollern om jag minns rätt. Fun times!

Permalänk
Inaktiv

Har använt blender nästan dagligen i 11 års tid och tycker det är rätt svårt att hänga med nya features. Sen 2.8 har det gått sjukt snabbt. Sen förefaller det ju oftast naturligt att testa features efter behov.

Kan tänka mig att det är svårt som nybörjare när informationen uppdateras hela tiden, en 2 år gammal tutorial på youtube kan ha ändrats & så fastnar man nånstans & vet inte vad som är fel. Det är såklart kul att blender tar marknadsandelar & har gått från ett sjukt nördigt program till mainstream, men ja, ibland känns det som att jaga ett höghastighetståg

Permalänk
Medlem
Skrivet av anon344829:

Har använt blender nästan dagligen i 11 års tid och tycker det är rätt svårt att hänga med nya features. Sen 2.8 har det gått sjukt snabbt. Sen förefaller det ju oftast naturligt att testa features efter behov.

Kan tänka mig att det är svårt som nybörjare när informationen uppdateras hela tiden, en 2 år gammal tutorial på youtube kan ha ändrats & så fastnar man nånstans & vet inte vad som är fel. Det är såklart kul att blender tar marknadsandelar & har gått från ett sjukt nördigt program till mainstream, men ja, ibland känns det som att jaga ett höghastighetståg

Det är ju nånting med open source som gör att vissa saker måste krånglas till. Blender går exempelvis tungt på kortkommandon för allting. Det är jättebra när man väl lärt sig dem. Nu vore det dock inte open source om inte kortkommandona ändrades runt lite titt som tätt. Så följer du någon guide som säger att trycka ctrl+alt+shift+backspace för att utföra en derp, men det blir något helt annat. Du googlar snabbt på det; första sökträffen är officiella dokumentationen. Den säger också åt dig att trycka ctrl+alt+shift+backspace. Går väl att göra manuellt, tänker du, men går inte att hitta derp i menyerna. Googla lite mer...Tillslut så, dokumentatioen du hittade som första sökträff var för Blender 2.78.

När man väl lärt sig är det ingen större sak, även om det är ren ondska att ändra runt på vissa saker, men hyfsat frustrerande när man är helt ny på det.

Permalänk
Medlem
Skrivet av Mikael07:

Nice, gjorde exakt samma bana själv faktiskt! Satt med Real3d mest, vilket program körde du? Imagine3d var väl det populäraste?

För övrigt var överklockningen back then.. spännande! Minns en överklockning på A3000 där man helt sonika mekaniskt fick klippa pinnen som matade chipet med klocksignalen, och löda dit en sladd från en annan klocksignal på moderkortet. Annars i det enkla fallet fick man köpa en ny frekvensgenerator och byta på moderkortet, då den (ibland?) inte var ytmonterad. Överklockade CPU, FPU, och HD kontrollern om jag minns rätt. Fun times!

Insåg just att det inte alls var 14MHz. Amiga 500 körde med 7 MHz. Använde flera olika program för 3D, bland annat Cinema 4D. Kommer ihåg att vissa bilder kunde ta flera dagar att räkna ut om man inte hade oturen att programmet kraschade halvvägs eller fick slut på minne.

Numera står min Amiga 3000 och samlar damm tills jag får tummen loss att laga moderkortet efter att batteriet frätt sönder ledningsbanorna.

Permalänk
Medlem
Skrivet av Masen666:

Pffft. Körde 3Dstudio i Dos på 4MB ram. Du vet inte hur bra du hade det.😉

Ja, köra 3D Studio på en 486:a gav ingen mersmak direkt. 😅

Det var väl inte direkt som att man fick någon hjälp av mjukvaran att få saker och ting rätt heller, utan det var mycket trial and error som ledde till att man fick rendera samma sak flera gånger innan man upptäckt visuella problem. Insåg väldigt snabbt hur många renderingar det skulle blivit för någon slags grundläggande animering av objekten och insåg att det inte låg inom någon nära framtid, så tappade intresset för 3D Studio där och då. Ibland är jag nästan förundrad över hur man lyckades bibehålla intresset för datorer överhuvudtaget med tanke på vilken kvalificerad smörja till hårdvara man var hänvisad till att använda.

Hade kvar ett par av bilderna fortfarande.