Färdigbyggd photoshopdator Max 10000

Permalänk
Medlem
Skrivet av bran:

Saknar helt kontext? Det är vad som sker med GPUn vid export av foton.

Det beror ju på vad för något som görs, filter etc. Det framgår heller inte vad detta skulle göra på en iGPU eller en CPU. Dvs ingen kontext.

Permalänk
Medlem
Skrivet av Mordekai:

Det beror ju på vad för något som görs, filter etc. Det framgår heller inte vad detta skulle göra på en iGPU eller en CPU. Dvs ingen kontext.

Och resten av min post lämnade du okommenterad? "OK". Vore kanske mer klädsamt att erkänna att ditt utspel om VRAMs insignifikans samt att Intels iGPU är lika bra som dedikerade GFX inte stämmer.

FYI här test från i våras med nya AI-denoisern, svarar rätt bra på din fråga:

Citat:

Another significant factor in the denoise speed is the amount of memory that the card has. There's a reason why Adobe recommend at least 8GB of GPU memory. A couple of examples:

Citat:

My system has an Intel i7-12700K CPU with 32GB of DDR5 RAM. It has integrated GPU (UHD Graphics 770). It's plenty fast enough for LrC including masking. However, with AI Denoise, the integrated GPU struggles at 4 min 30 sec on a 20MP file.
Like most of us, I would suggest, I'm making more and more use of Denoise. So, I bit the bullet and installed a MSI GeForce RTX 4060 Ventus 8GB. After some issues with having two GPUs, which was fixed in BIOS, it now does Denoise on a 20MP file in just 18sec. That's 15x faster. Very happy!

Citat:

Puget Systems still recommend the RTX 3060 Ti 8GB on their website, but as far as I can see, they haven't re-run any of their GPU tests since Adobe dramatically increased the use of the GPU in masking and in particular Denoise AI. I agree with Gnits, that for now, the RTX 4070 12 GB (non Ti) appears to be the sweet-spot for Lightroom/PS, providing some extra power and VRAM compared to the 3060 Ti to future-proof a little longer.

https://www.lightroomqueen.com/community/threads/my-recent-gp...

Visa signatur

5900X | CH8 | 64GB/3600MHz | RTX4080 | SN850 | H2O 2*360 Rad | LG CX48 | Ananda Nano, D30Pro & rHead

Permalänk
Medlem
Skrivet av bran:

Och resten av min post lämnade du okommenterad? "OK". Vore kanske mer klädsamt att erkänna att ditt utspel om VRAMs insignifikans samt att Intels iGPU är lika bra som dedikerade GFX inte stämmer.

FYI här test från i våras med nya AI-denoisern, svarar rätt bra på din fråga:
https://www.lightroomqueen.com/community/attachments/gpu-jpg.20988/

https://www.lightroomqueen.com/community/threads/my-recent-gp...

Lightroom och en enda specifik funktion, det är dubbelt irrelevant för vad TS frågat efter. Sedan en massa forumposter från folk som arbetar med foton i Lightroom. Vet du ens att TS tänker bearbeta foton? Använda AI-denoiser?

Självklart finns det filter/funktioner som tjänar mycket på en kraftfull GPU, igen det är inte relevant för en dator på 15000:- Det finns en GPU i den om än liten och klen. Någon av tabellerna du visade hade processorer som var 10 år gamla och du klagar på att Puget Systems har omodern testsvit? Enskilda personers tester i ett forum kan inte jämföras med en benchmark utförd av proffs, den mest erkända systembyggaren för datorer för professionell grafik/layout/design. Det finns en mängd parametrar vi inte känner till som påverkar resultaten i forumposterna.

Efter en modern CPU med snabbt minne och lagring är det dags att uppgradera GPU från iGPU, absolut spelar det roll men innan dess så måste du skära ner på något som minskar totalprestanda så att du får en negativ effekt.

Permalänk
Medlem
Skrivet av Mordekai:

Vet du ens att TS tänker bearbeta foton? Använda AI-denoiser?

Nej, och det vet inte du heller.

Det gör på intet sätt ditt påstående om att en dedikerad GPU inte spelar någon roll och att VRAM inte används för 2D och video korrekt. Det är helt enkelt inkorrekt. Och det är vad jag vänder mig mot - du går ut och påstår nåt som helt enkelt inte stämmer vilket kan få folk som läser tråden att tro det är sant. Vad TS ska göra är vad gäller det påståendet irrelevant.

Citat:

Självklart finns det filter/funktioner som tjänar mycket på en kraftfull GPU, igen det är inte relevant för en dator på 15000:-

Jaha så det spelar alltså roll nu helt plötsligt? Och vet DU om TS kan ha eller inte ha nytta av dessa?

Citat:

Efter en modern CPU med snabbt minne och lagring är det dags att uppgradera GPU från iGPU, absolut spelar det roll men innan dess så måste du skära ner på något som minskar totalprestanda så att du får en negativ effekt.

Haha okej, då verkar det kanske trots allt som att du jag och Puget är enade om att GPU visst kan spela stor roll.

Visa signatur

5900X | CH8 | 64GB/3600MHz | RTX4080 | SN850 | H2O 2*360 Rad | LG CX48 | Ananda Nano, D30Pro & rHead

Permalänk
Skrivet av Mordekai:

Tyvärr har ju flera erbjudanden försvunnit. Denna har moderkortet som längsta leveranstid, 12 dagar, det är ett oerhört prisvärt moderkort som får plats i mindre chassin som det jag föreslagit men framförallt har moderkortet två Displayport. Kanske kommer erbjudanden tillbaka på Black Friday eller ikväll på Inets stream 19:00. Du skulle jag växla upp CPUn till 14700K om det går. Bytte till marknadens bästa vattenkylare som finns i lager.

https://www.inet.se/datorbygge/b1447876/nille-12-dagarshttps://cdn.inet.se/img/tiny/forum-divider.pnghttps://www.inet.se/datorbygge/bild/b1447876/nille-12-dagars

Slutade med att jag beställde detta paket. Alla delar är bokade, men det är 18 dagars leverans på moderkortet. Finns det något likvärdigt som de har hemma som jag kan ta istället?

Permalänk
Medlem

Valfri av dessa borde vara likvärdiga

Denna kanske? https://www.inet.se/produkt/1903991/asrock-b760m-pro-rs-d4-wi...

Länk till Asrock b760m
Permalänk
Medlem
Skrivet av nille12345:

Slutade med att jag beställde detta paket. Alla delar är bokade, men det är 18 dagars leverans på moderkortet. Finns det något likvärdigt som de har hemma som jag kan ta istället?

Poängen är att det moderkortet har två Display-kort vilket är mycket ovanligt. Det är dessutom ett mycket bra pris. Jag hade väntat. Dessutom var minnet valt efter moderkortet för att kunna uppgradera minnet genom att köpa ett identiskt kit till. Det är inte ovanligt att det annars leder till att man måste dra ner hastigheten på minnet för att få det att fungera.

Permalänk
Medlem
Skrivet av rodang:

Säkert ett bra moderkort men det jag hade valt har två Displayport-utgångar vilket är en fördel om man har två skärmar. Dessutom bör man byta minne då minnet inte finns på QVL för ASRock-kortet, vilket är extra viktigt om man vill kunna uppgradera genom att köpa ett identiskt kit till.

Permalänk
Medlem
Skrivet av Mordekai:

Säkert ett bra moderkort men det jag hade valt har två Displayport-utgångar vilket är en fördel om man har två skärmar. Dessutom bör man byta minne då minnet inte finns på QVL för ASRock-kortet, vilket är extra viktigt om man vill kunna uppgradera genom att köpa ett identiskt kit till.

Smart med QVL listan, kikade inte på det!
Det finns dock 1x HDMI, 1x Displayport och 1x USB-C vilket borde tillåta 3 skärmar?

Permalänk

Tack för svar. Jag gör som ni föreslår, dvs väntar.

Permalänk
Medlem
Skrivet av rodang:

Smart med QVL listan, kikade inte på det!
Det finns dock 1x HDMI, 1x Displayport och 1x USB-C vilket borde tillåta 3 skärmar?

Jag föredrar att använda samma i multimonitor-setups. Hade verkligen USB-C kontakten DP-signal?