Skrivet av Pepsifree:
@Sokiee: Denna maskin kommer vara 99% fokuserad på GPU baserad rendering i Redshift (samt lite Vray)
Har du redan köpt dina fyra GTX1080Ti?
Doh, stod ju i sista inlägget. Då blev nedan genast mindre relevant.
Annars, givet att du tänker köra GPU-rendering med Redshift, varför i hela friden köpa Pascal-kort nu när Redshift 2.6 (ute nu) redan använder Tensor-cores om det finns (kom på Volta och kommer finnas även på konsument Turing).
Vet inte exakt hur mycket boost just det ger, men version 3.0 är på väg ut och där är en av huvudnyheterna stöd för RT-cores
"Redshift 3.0: Leading biased GPU renderer is announcing that Redshift 3.0 will use OptiX to access RTX ray-tracing acceleration. Redshift 2.6 shipping with OptiX denoising, accelerating interactivity."
Om inte allt Nvidia sa på Siggraph 2018 var total bull* så kommer ett RTX2080Ti kommer vara snabbare än dina fyra GTX1080Ti på rendering.
Som jag förstod det kan inte heller två Pascal-kort som är ihopkopplade via NVlink använda varandras VRAM (däremot är jag 100 % säker på att Pascal kan mappa in CPU-ram och addera till VRAM, dock med begränsningen som PCIe sätter på bandbredd). Två turing-kort ihopkopplade med NVLink får även dubbla mängden VRAM att jobba med!
Kan se poängen med HEDT-plattform om du ska köra fyra kort. Men om man i stället kör två RTX2080Ti kort kan du egentligen spara ett gäng tusenlappar på att hoppa HEDT. Då du tänker köra GPU-rendering finns egentligen ingen poäng med många CPU-kärnor, i det läget vill man i stället maximera enkeltrådprestanda då det som kommer köra på CPU är de saker som skalar illa på GPUer.
Det är också precis vad Puget Systemes säger i deras FAQ kring arbetsstation för Redshift
"Q: Will a more powerful CPU help at all?
A: A faster CPU will allow you to extract mesh data, load textures, and prepare scene data more quickly, but it will make no impact on how long it takes each individual render to complete. We recommend going for a high clock speed CPU without worrying about core count - and without spending too much money there, instead focusing your budget on more powerful GPUs (and/or more of them)."
Om du ändå går för fyra st GPUer, värt att nämna att du just bytt från ett moderkort (WS X299 SAGE) som stödjer x16/x16/x16/x16 (i.o.f.s. via PLX) till ett som stödjer 16x/16x/8x/8x
"It's standard to see four toughened x16 PCIe slots on X399 boards. It's worth knowing that the primary slot and one above the Turbo M.2 cooler run at a full x16, the other two at x8."
Tvivlar på att det är ett problem i praktiken, men är knappast någon expert på GPU-rendering...
Oavsett går det att spara en del, vare sig du väljer Intel eller AMD HEDT, på att välja en CPU med lite färre kärnor. Svårt att se hur du ska ha någon nytta av de om du tänker köra Redshift GPU-rendering. I Intel-fallet lär i9-7900X i praktiken bli toppvalet då den klockar 4,5 GHz ur lådan (4,0 GHz på alla kärnor).
Ett eller två RTX2080Ti kort och i7-8700K alt. R7-2700X (eller möjligen i9-9900K, är en chansning då tillgången är ett frågetecken, första oktober verkar konsensus på gissningar kring lansering) lär ju vara en baggis att kyla jämfört med vad du initialt siktade på att bygga. Från och med Redshift 3.0 kommer det bygget presterar bättre än vad du nu har i varukorgen och kosta några tiotusingar mindre. Men är dina slantar