Inlägg

Inlägg som Jenus har skrivit i forumet
Av Jenus
Skrivet av Chris_Kadaver:

Lite roligt att uppgradera från i7 2600K till i7 12600K. Att ha klarat sig tio processorgenerationer är inte illa pinkat för den snåle entusiasten.

Haha du är inte ensam. Om det blir 12600K eller en högre modell är ännu oklart. Men det är lite vemodigt att skiljas efter så många år.

Av Jenus
Skrivet av Nautilus011:

Tror och hoppas det kan bli en trevlig prestandabump att gå från en i7 6700 k -> i9 12900k, 32Gb DDR5, 2x 1Tb NVME.

Förra bytet va från i7 2600k -> i7 6700 k

Så vad tror du om mitt planerade byte i7 2600K -> i9 12900K
Kommer jag märka nån skillnad? 😄

Av Jenus
Skrivet av Mordekai:

Man behöver inte cinebench för att se film... Att rendera på CPU är en utdöende företeelse, att än värre göra det på en desktop får väl ses som extremt ovanligt och sällsynt, om scenerna blir som du skriver flera är hundra GB stora som måste hållas i minnet finns det ju ändå inga desktop-CPUs som klarar det.

Börjar tro att du trollar om du blandar ihop att se film med att rendera film.

Kan hända att rendera på CPU är utdöende, men just nu är det det bästa vi har och inte förrän det är helt borta kan vi ens börja prata om att Cinebench är överflödigt.
Bara för att du kommer hit och dömmer ut ett test som du personligen inte har någon nytta av betyder inte det att det är oviktigt för alla andra. Jag har inte dömt ut något test som jag kanske tycker är oviktigt utan har förståelse för att allas krav och intressen är olika, något du helt verkar sakna.

Av Jenus
Skrivet av Mordekai:

Som sagt extremt niche och motiverar inte cinebench.

Haha! Så du tycker att film/tv är en extrem niche. Vilket benchmark ska vi gå på då om inte Cinebench finns?

Av Jenus
Skrivet av Mordekai:

Och det kan inte köras på GPU? Trist, får hoppas på att er mjukvara kan uppgraderas till att använda GPU för det. Extremt niche dock, speciellt när GPUer fått stöd för RayTracing.

https://discourse.mcneel.com/t/speed-comparison-cpu-vs-cuda-v...

Inte i dagsläget nej... En annan person har redan frågat tidigare i denna tråd och du kan se mitt svar här: #19194383

Av Jenus
Skrivet av Mordekai:

Då kanske du borde ha en egen renderingsfarm eller använda en molntjänst istället för att ockupera en desktop-dator med arbetsuppgifter den formligen suger på.

Vi har en farm med 15000 kärnor lokalt + molnet med ~inf kärnor. De tar såklart hand om majoriteten av renderingen men när man sitter och ljussätter så gör man det lokalt på sin dator. Och då vill man ju att det ska gå så fort som möjligt, eller hur?

Av Jenus
Skrivet av Sh4d0wfi3nd:

Inte spelat battlefield sedan 4an. Men väldigt välgjord film och vilken grafik (om det nu är med spelmotorn dvs).

Ingenting i kortfilmen är gjord i spelmotorn.

Av Jenus
Skrivet av StarChild42:

Samsungs staplar/siffror ser ju onekligen bättre ut när man använder tio-potenser som skala!
https://i.imgur.com/PKoprjO.jpg

LOL! Ljus precis som ljud uppfattas ju inte linjärt så varför ska man ha en linjär skala. Samsungs skala är korrekt.

Av Jenus
Skrivet av CubaCola:

Fast jag förstår så mycket att man inte kan visa en HDR-screenshot sådär

Men ok, jag köper det.

Haha sant

Av Jenus
Skrivet av CubaCola:

Förstår inte hur ljusstyrka kan vara ett försäljningsargument. Det första jag gör med en monitor eller TV är att dra ner minst halva ljusstyrkan. Min Asus monitor som jag använder nu har Brightness (Typ.) : 350 cd/㎡, och den kör jag på 4% brightness.
80% som var standard var som att titta in i helljuset på en bil i jämförelse.

(men annars ser tvn fin ut)

Det är för att du inte förstår vad HDR är. På en HDR-skärm så ska en normal bild bara gå till ca 120 cm/m2... Resten används till HDR-datat, dvs. starka ljuskällor. Det är faktiskt svårt att förstå skillnaden när alla tillverkare bara visar skitbilder som exempel. Här är ett lite tydligare exempel (HDR till vänster, SDR till höger): https://hometheaterhifi.com/wp-content/uploads/2017/02/high-d...
Sedan är det många tillverkare som håller på med massa fejk-marknadsföring också. Enligt Dolby Vision så är minimum 1000 nits. Så detta skulle vara den första som verkligen lever upp till standarden. Ingen LG OLED kan komma upp i 1000 nits så de är inte riktig HDR enligt mig.

Av Jenus
Skrivet av sKRUVARN:

Jag förstår, och ja det ligger i linje med min uppfattning också, att just i high-end segmentet så är CPU-rendering fortfarande aktuellt, så är det där du opererar så hänger jag med.

Edit.
Angående avx512 har du sett några siffror på prestandaökningen i renderman? Enda avx512 lasten jag testat har varit för x265 och iaf på Cascade lake så tappade jag prestanda pga frekvenstappet. Och ska man gå till en ny plattform så är frågan om inte Epyc Milan slår Ice Lake-SP ändå.

I videon jag postade förut så visar dom 1.5x-2x speed-up i Renderman XPU: https://youtu.be/-WqrP50nvN4?t=2674
Videon är ju ett år gammal och nu när det är släppt på riktigt så hoppas jag att dom optimerat ytterliggare.
Weta använder också AVX-512 i deras in-house renderare Manuka.
Arnold tror jag inte har några specifika optimeringar med AVX 😢

Av Jenus
Skrivet av sKRUVARN:

Får man fråga varför du inte använder någon GPU-renderade? Alla 3d-grafiker jag känner och arbetaplatser jag vart på har gått över till t ex Octane, redshift, V-Ray eller Arnold. När vi började byta för bra många år sedan så sprang liksom konsumentkort cirklar runt våra dual xeon system som fortfarande med dagens mått hade bra många trådar.

Visst det finns fortfarande anledningar att köra på CPU, speciellt om man redan har flöden där man kan utnyttja stora datacenterkluster och där man behöver väldigt mycket RAM för sina scener. Men att branschen som helhet skulle vara kvar på CPU-rendering delar jag inte. Speciellt inte på platser där man renderar lokalt.

En väldigt bra fråga! GPU-rendering funkar utmärkt till många saker så länge scenen rymms i minnet på GPU. Majoriteten av småföretagare som syslar med arc-viz, reklamfilm, och andra små scener går alltså helt ok på GPU.

Men när man ska rendera scener på blockbuster-nivå så räcker helt enkelt inte GPU-minnet till. Vi pratar om scendata på flera terabyte ibland. Bara skeppet Razor Crest i Mandalorian är över 600 GB data. Lägg sedan till resten av scenen på det. Eller en vattensimulering på någon terabyte.
Vi kör just nu Arnold på alla dessa scener. Men inte Arnold GPU. Visst hoppas vi någon gång i framtiden att GPU:er ska kunna hantera all denna data lika bra som CPU, men vi är inte riktigt där ännu. Och inte förrän vi kan göra samma saker på GPU som vi kan på CPU så finns det ingen anledning att börja prata om att det är onödiga features.
Renderman 24, och med det Renderman XPU släpptes bara för någon månad sedan med AVX-512 support och hybrid CPU/GPU rendering som kör vissa funktioner på GPU. Det är alltså det bästa och snabbaste vi har i dagsläget för att rendera dessa tunga scener. Arnolds GPU saknar fortfarande många features + att hela scenen måste rymmas i minnet = not gonna work for us.
Så ja, branschen som jag är i, dvs. high-end VFX, är i helhet kvar på CPU och kommer nog vara det några år till. Men vi följer såklart utvecklingen väldigt noga.

Av Jenus
Skrivet av Mordekai:

SNÄLLA....
Cinebench säger inte ett skit om hur bra processorn är, alla pinsamma teknikredaktioner som fortsätter använde detta benchmark driver i värsta fall fram processorer optimerade för det. Det finns redan grafikprocessorer. Låt CPUn arbeta med sådant den är lämpad för.

Det säger massor om hur bra processorn är. Jag jobbar med rendering på CPU dagligen. Det är så all animation och VFX i filmer och TV görs idag. Självklart ska CPU:n vara bra på fler saker än Cinebench men att upphöra med det testet är bland det dummaste jag hört.

En annan lika dum sak från t.ex Linux-grundaren är att han önskar att AVX-512 skulle försvinna för att det är en gimmick som bara existerar för att göra bra benchmarks. https://www.sweclockers.com/nyhet/29982-linus-torvalds-jag-ho...
Men när dessa "benchmarks" (renderare / raytracing) är ens liv, då spelar Cinebench-tester och AVX en väldigt stor roll.
https://www.youtube.com/watch?v=-WqrP50nvN4

Av Jenus
Skrivet av superegg:

ah, fick för mig att den skulle vara större, men smart ändå.

Hur blir det om man skulle ha massa diskar?

På just det kortet har varje kabel 4 SATA-kontakter. Det finns två uttag så det kortet har stöd för 8 diskar. Det kommer nog vara olika på olika kort.

Av Jenus
Skrivet av superegg:

Har du någon bild på hur en sån moderkort ser ut?

Har själv serverdator så vet hur det funkar med en backplane, men har aldrig sätt på ett moderkort.

Här en bild på Asrocks ATX12VO-kort med en sata-kabel ansluten.

https://hackaday.com/wp-content/uploads/2021/05/SATA-voeding-bij...

Av Jenus
Skrivet av pv2b:

Absolut. På typ en USB-C-port. Resten av USB-A portarna tar sannolikt bara 5V från PSU:n rakt av.

Alla USB har strömhantering. Gammal hederlig USB-A har till exempel gräns på 500mA. Jag har varit med om flera gånger på jobbet att datorerna inte vill starta med detta felmeddelande i BIOS: "USB Device Over Current Status Detected !!" och USB-porten är strömlös. Det finns alltså alltid övervakning och styrning så direkt från nätagget går det inte så kostnaden för chippet finns redan där. Bara att byta det mot ett med omvandling också.

Skrivet av pv2b:

Vad är anledningen till att effektiviteten inte skulle kunna vara precis lika bra i en fristående PSU? Vad är det, med att omvandlarna sitter på själva moderkortet, som gör det mer effektivt?

För att omvandlaren kan vara direkt matchad propertioneligt mot vad moderkortet behöver. Effektivitetskurvan är alltså optimerad för just ditt moderkort. Effektiviteten på ett nätagg är ju vid en specifik belastning. Här skulle man kunna pricka den belastningen mer precist och inte ens behöver bry sig om belastningar utanför den.

Skrivet av pv2b:

Många entusiaster köper ofta moderkort oftare än en PSU förresten, då man får betala fler gånger för samma komponenter vilket drar upp totalkostanden över tid.

Sannolikt är då också PSU:n överdimensionerad för att klara framtida behov och därför inte har optimal effektivitet. Och vad gör du med ditt gamla fungerade moderkort? Slänger du det eller? Sannolikt inte, utan du säljer det och får då igen lite av kostnaden.

Skrivet av pv2b:

Felsökning minskar också drastiskt om man integrerar ihop hela datorn i en enda enhet som inte går att ta isär. Går datorn sönder är det bara att slänga och köpa en ny. Enkelt!

Samma argument kan ju användas för att argumentera för att man löder fast allt på moderkortet. CPU, RAM, lagring, etc. Mindre att felsöka liksom. Är det CPU eller RAM som är problemet? Hey, spelar ingen roll, du måste byta hela moderkortet ändå. Jag tycker inte det är en förbättring.

Ett sätt är att använda många små DC-DC konvertrar. Varje USB-port/grupp har en egen, varje PCI-port har en egen, etc.. Om då inte PCI/USB-porten används så är omvandlaren avstängd = ~100% effektivitet. Bränner du en PCI-port så går bara den sönder medans de andra fungerar. Många små omvandlare är också billigare än färre stora som sitter i nätagg.
Jag tycker inte heller om fastlödda komponenter men jag tar hellre en trasig USB-port än ett trasig nätagg.

Skrivet av pv2b:

Varför ens ha ett nätagg alls då? In med 100-240VAC direkt in i moderkortet bara! Möjligen någon första transformator för att stega ner spänningen lite först, så man kör kanske 24 VAC fulel in i moderkortet, som man sedan rensar upp på själva moderkortet.

Haha kom igen

Av Jenus

Är det bara jag som endast ser födelar med detta??

1. Många av er nämner USB som en sak som använder 5v. Faktum är att dagens USB-C ofta har Quick Charge och/eller PD (Power Delivery) som kan skicka ut alla möjliga spänningar och strömstyrkor. Så omvandling för detta sker redan på moderkortet.
2. Laptops har ju alltid haft denna omvandling på moderkortet så erfarenheten finns redan bland moderkortstillverkare. Samma komponenter på laptops och stationärt = lite billigare.
3. Effektiviteten blir avsevärt högre. Speciellt om moderkortstillvärkare använder speciella chips för all omvandling så som Raspberry Pi gör. Väldigt trevlig läsning som rekommenderas till alla i denna tråden: https://www.raspberrypi.org/blog/pi-power-supply-chip/
4. Hur vet ni att det inte redan sker mycket omvandling på moderkortet redan? Det kan mycket väl finnas många moderkort på marknaden som redan skiter i 5v och 3.3v from PSUn och gör sin egen omvandling redan. Speciellt alla saker som kräver ren spänning...
5. Ett moderkort idag har säkert en massa filter för att göra "skitig" ström från ett kasst nätagg användbart till känsliga komponenter. Om moderkortet sköter omvandlingen så kan de välja omvandlare som precis följer de krav de har när det kommer till brus, mm. och komponenter till passiva filter som renar ett smutsigt nätagg behövs inte längre, vilket sänker kostnad och komplexitet.
6. Felsökning blir mycket enklare. Ett smutsigt nätagg kan ställa till med mycket diffusa problem som blåskärmar mm. Detta skulle minska drastiskt.
7. Nätagg borde bli mycket billigare. Moderkort blir troligtvis lite dyrare men tillsammans så borde det bli billigare i slutändan. Detta för att ett nätagg måste ha väldigt "ren" ström över en väldigt brett användningsområde för att passa alla moderkort. Men vet man exakt vilket moderkort det bara måste fungera till skulle ett nätagg vara mycket billigare. Detta är vad som skulle ske om omvandlingen sker på moderkortet.

Det här vara bara några av de saker jag kom på direkt men det finns massa mer om man vill gräva djupare.

Av Jenus
Skrivet av wilsontaylor:

Nu är jag knappast jätteinsatt i varken produktion eller utveckling av grafikkort - men med tanke på komponentbristen som spås fortsätta i x år framöver, är det inte klokare att investera i utveckling av kort, snarare än att fortsätta lansera nya kort med minimalt förbättrad prestanda, som ÄNDÅ inte kommer vara tillgängliga för konsumenter i större skala?

Skrivet av Barilla08:

Håller med, detta gör mig mest förbannad...

Det handlar ju troligtvis om att få högre yield på GPU:erna. Alltså att GPU:er som inte duger till ett 3090 för att någon kärna är trasig kan istället säljas som ett 3080 Ti, osv. Det leder alltså till en högre nyttjandegrad sett till TFlops av de GPU:er som tillverkas. Ser inte så många nackdelar med det, snarare tvärtom.

Av Jenus

Vilken rolig tävling och vad sjukt många och bra bidrag! Hade önskat att jag hade haft mer tid men jag hann få ut en idé i alla fall.
De ser lite mörka ut mot Sweclockers ljusa sida så de måste verkligen ses i fullskärm för att kunna bedömas.

Med PCB-traces i guld så får man lite Iron Man-känsla över det hela

https://i.imgur.com/i1GT4RA.jpg

och så en clean utan Inet-texten

https://i.imgur.com/SCJdcSs.jpg

Av Jenus
Skrivet av Viktorph:

Är det Hashrate-limiterade kort? Isåfall tänker jag inte vara med! *trotsig 33-åring*

Nä det borde det ju inte vara då de korten måste vara märka LHR (Lite Hash Rate) i produktnamnet numer.