Intel "Comet Lake" med 10 kärnor bekräftas – baseras på arkitekturen Skylake

Permalänk
Master of Overkill
Skrivet av Oskar80:

är inte i9900k rena skräpet om man ska köra den under 100watt? typ samma prestanda som ryzen 2700x?

Vet faktiskt inte va 9900k går i för klock om den ska hålla sig under 90W.

Vågar inte svara på de!

Men kör man den i 90W tdp max då är den definitivt inte värt pengarna.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Inaktiv
Skrivet av tvelander:

Sluta skylla på Intel när det ingen som följer deras rek.

"We can blame motherboard makers for not following spec, but if none of them follow spec, the problem is deeper."

Från GamerNexus

Om alla moderkortstillverkare inte vågar köra på så låg spänning som Intel säger att deras processor ska gå att köra vid en viss klockfrekvens, så säger det lite om stabilitets tilliten till processorn. Att endast höja spänningen lite kan vara ett enkelt sätt att minska antalet reklamerade moderkort.
Att sedan Intel tillåter processorer i retur som har haft högre spänning än rek är konstigt.

Nå jag tror att AMD processorer 12 core och uppåt kommer bli riktigt varma de med och man får skaffa en extrem kylning. Jag minns som igår när en enda 60mm fläkt på cpun var extremt.
Så vad som är extrem kylning lär bara ökas..

Permalänk
Master of Overkill
Skrivet av anon159643:

Om alla moderkortstillverkare inte vågar köra på så låg spänning som Intel säger att deras processor ska gå att köra vid en viss klockfrekvens, så säger det lite om stabilitets tilliten till processorn. Att endast höja spänningen lite kan vara ett enkelt sätt att minska antalet reklamerade moderkort.
Att sedan Intel tillåter processorer i retur som har haft högre spänning än rek är konstigt.

Nå jag tror att AMD processorer 12 core och uppåt kommer bli riktigt varma de med och man får skaffa en extrem kylning. Jag minns som igår när en enda 60mm fläkt på cpun var extremt.
Så vad som är extrem kylning lär bara ökas..

Konstigt att det finns lösningar för det, man sätter stock VID sen kör man off-set som man gjort på alla HEDT plattformar nej nee då ska man maxa prestanda MSI är text värst.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

Ja, kylningskraven har ökat, minns när jag hade min "andra dator"("första datorn" var en P2-300) som var en Pentium 166MMX överklockad med jumpers till 233MHz. Den var passivt kyld.

Sen har det blivit större och större kylare, har tre desktops igång nu och de kör DRP4, NH-D14 och TRUE. Fungerar superbra och är generellt tystare och mer driftsäkert än AIO. Kör dock AIO för grafiken där jag tycker det gör större nytta, ger gpun massor av headroom att boosta.

Räknar med att Ryzen 3000 också kommer att fungera bra med Dark Rock Pro 4, den fungerar ju tom med Threadrippers med TDP på 250W. Men visst, rejäl kylning kommer att behövas för höga frekvenser precis som Intel. Skillnaden mot Ryzen 2000 är att vi kanske kommer att se dessa höga frekvenser. Ryzen 2000 slår ju i en hård vägg vid 4.2-4.3GHz.

Skickades från m.sweclockers.com

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem
Skrivet av anon298854:

@Xinpei
Jag har aldrig varit med om en så sval CPU, det är nog för den är lödd.

Min Socket 7 Pentium (1) var sval och den hade inte ens heatspreader!

Hade först en tunn kylare med 40mm eller 50mm fläkt. Tunn fläkt 10mm eller 15mm tjock.
När fläkten började missljuda bytte jag till en kylare som egentligen var avsedd för Socket A Athlon, men som även passade på Socket 7.
Den hade 60x60x25mm fläkt istället och betydligt tjockare kylfläns.

Provade att ta bort fläkten.
Vid normal last kunde de ta över 2 timmar innan den hängde sig. Helt utan CPU fläkt och en kylfläns som var kanske 60x60x50 eller något sånt. MYCKET mindre än dagens monster kylare.

Slutade med en 60<>80mm adapter och en 80mm fläkt som jag modifierade till att köra på 5V.
Då blev den så tyst att med chassi sidan av så måste du ha örat kanske 30cm från fläkten för att överhuvudtaget höra den.

Då var det ingen heatspreader alls och jag körde inte ens kylpasta. Bara kylflänsen monterad direkt mot processorn.

Tystaste datorn jag har haft bortsett från helt passiva datorer, typ Raspberry Pi.

Permalänk
Datavetare
Skrivet av Oskar80:

de var inget hittade prestanda siffror
https://www.youtube.com/watch?v=kmAWqyHdebI

Och vad är slutsatsen i det du länkar? Jo, detta (Steve skriver också för TechSpot, detta är textversionen av videon du länkar)

"Gamers don't need to worry about the 95-watt TDP spec, it doesn't make much difference either way and running overclocked out of the box on Z390 motherboards won’t lead to insane thermals and power consumption for gaming."

Och kommentaren kring att i9-9900K @ 95W presterar som en 2700X är specifikt för rendering. Zen är extremt stark på detta då rendering, till skillnad från spel, programutveckling, bildbehandling, videoeditering, eller vad man nu må göra, är extremt beroende på en relativt specifik form av flyttalsberäkningar.

"if the 9900K was forced to run with Intel’s TDP spec and abide by the power limits, it would be a mighty efficient 8-core processor. You’d get 2700X-like performance, while saving a little over 10% on power."

Frågan man kan ställa sig 2019 är: varför skulle man rendera på en CPU? Redan ett GTX1660 kommer prestera bättre i t.ex. Blender jämfört med i9-9900K, även om man släpper på 95 W spärren. Tog väldigt lång tid för GPGPU att slå igenom, men nu ser man allt mer hur flyttalsintensiva applikationer allt mer flyttals till GPU. Man kan få ett 2-3 heltalsfaktorer bättre prestanda i många fall genom att SIMD optimera programmet, men om man ändå ska ta en sådan omdesign och har något som fungerar på GPU är det lika bra att hoppa dit direkt då det typiskt ger en tiopotens högre prestanda.

i9-9900K och dess 95 W kan ses som om att modellen finns i två skepnader

  • i 95 W läget är det en av de mest energieffektiva CPUer som existerar, man förlorar dock 0-15 % prestanda

  • i vad som mer verkar vara ett 140-160 W läge blir det den för närvarande snabbaste konsument CPU som går att köpa. Skillnaden mot överklockning är här att Intel garanterar att CPUn fungerar korrekt i detta läge då man validerat den för detta

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av tvelander:

Sluta skylla på Intel när det ingen som följer deras rek.

Kanske dags för multipel spärrar igen? Uppenbart att moderkorts tillverkare kommer trimma så mkt det går för att sälja mer.

Ta kontroll över sin produkt på kisel nivå. Tar barnen kakor ur kakburken trots "rekomendationer" får man låsa in den istället.
Regler istället för "rekomendationer" brukar fungera bättre, släng på ett straff vite så är problemet borta.

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem

En anledning att rendera (om vi snackar 3D-rendering) på CPU är väl möjligen i de fallen man har riktigt komplicerade scener, som kräver mer minne än vad grafikkortet har. Om vi kollar på konsumentkorten i toppen så är det 11, 16 eller 24 GB. Medan det är lätt och rätt billigt, i sammanhanget, att köra på 32 eller 64 GB för CPU:n.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Datavetare

Comet Lake verkar av allt att döma vara baserad på mikroarkitekturen Skylake.

Om ryktena kring organisation av ring-bussen stämmer är det dock en lite större omdesign från tidigare jämfört med
i7-7700K -> i7-8700K -> i9-9900K

I sekvensen ovan har man egentligen bara lagt till två kärnor per steg och ökat storleken på ring-bussen. Fördelen med en ring-buss är att det egentligen inte finns någon enklare design för att koppla ihop flera kärnor, detta gör det möjligt att klocka en ring-buss väldigt högt vilket leder till låg latens mellan CPU-kärnor och mot RAM.

Låg latens är typiskt viktigare för det man kör på skrivbordet jämfört med hög bandbredd. Medan det omvända är vanligare på servers.

Problemet med en ring-buss är att latensen ökar ju fler stopp det finns (ökar linjärt med antalet kärnor, den mesh-design man använder för Skylake-X/SP ökar med roten ur med antalet kärnor). D.v.s. primära fördelen med en ring-buss minskar ju fler kärnor man stoppar in.

Vidare ökar inte alls bandbredd med fler kärnor för en ring-buss, detta har tidigare (Broadwell E/Xeon) visat sig börja bli ett problem vid 8-10 kärnor.

Ett plåster på bandbreddsproblemet är att börja använda flera ringar, vilket man gjorde på Broadwell Xeon med 12 eller fler kärnor och som ryktena nu hävdar blir fallet för Comet Lake. Ett "plåster" då det ändå inte alls ger samma skalbarhet som mesh-designen, men fördelen här är att ring-bussen är bättre för typiska skrivbordsprogram tack vare sin lägre latens.

Kan man gissa på något likt detta?

+---B===B---+ | | | | C C C C | | | | G C C S | | | | C C C C | | | | +---B===B---+ C: core / L3$-slice (2 MB) G: iGPU S: system bridge med PCIe, minneskontroller, etc B: ring bridge (är så här Broadwell Xeon kopplade ihop ringar, med två bryggor på lämpligt avstånd från varandra)

Fördelen med två ringar är att det i praktiken ungefär dubblar i kretsen. Idag ser det ut så här (i9-9900K)

C---G---C | | C C | | C C | | C---S---C

Förhoppningsvis fortsätter Intel med den split man har nu: ring-buss för konsumentprodukter, det lär sätta en praktisk gräns på maximalt antal kärnor en bit över 10 st (mer än nog för majoriteten av marknaden under överskådlig tid). Finns ju alternativ för de som har andra krav.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av Yoshman:

Frågan man kan ställa sig 2019 är: varför skulle man rendera på en CPU?

För att det är väldigt svårt att använda GPU, nvidia gör inte saken bättre genom att motverka PCI passthrough på Geforcekorten.. Jag vill väldigt gärna att grafikkort ska bli enklare att använda, men man har stup och ständigt folk som ger upp sina projekt. Detta med ett grafikkort per VM ofta används som är heller inte hållbart. Jag kan tänka mig 2 högst 3st 2080TI som kanske 30 VM ska dela på med liknade PCI passthrough och det blir komplicerat.

Så min åsikt är att grafikkort används framförallt av enklare system som vanliga hemanvändare har eller de riktigt massiva, vi hemanvändare med lite större system får problem.

*edit*
Detta med att det är så omständligt att använda grafikkort måste de göra något åt, de flesta som använder grafikkort använder det lokalt på värddatorn. Men vem jobbar så idag 2019? Visst hemanvändare som leker med sina mjukvaror för hemanvändare.

Permalänk
Moderator
Testpilot

Borde bli rätt tight under IHS:en utan nodkrymp.

Känns som att det rent fysiskt kommer bli svårt att skala förbi 10 kärnor för Intel på 14 nm.

Skickades från m.sweclockers.com

Visa signatur

ASrock x470 Taichi Ultimate - AMD Ryzen R9 3900x - G.Skill Ripjaws@3.6GHz 16GB RAM - RTX 3080 Ti - Super Flower Leadex Gold 1000W - Phanteks Enthoo Pro - AOC AG35UCG 34" 3440x1440p@100Hz - kalaset vattenkylt

Permalänk
Medlem
Skrivet av Jonas79:

Lär bli 25 % högre strömbrukning med tanke på 2 kärnor till.

190 watt * 1,25 = 248 watt lär bli kul att kyla.

Intel borde skriva.
Brandsläckare ingår

Permalänk
Datavetare
Skrivet av anon159643:

För att det är väldigt svårt att använda GPU, nvidia gör inte saken bättre genom att motverka PCI passthrough på Geforcekorten.. Jag vill väldigt gärna att grafikkort ska bli enklare att använda, men man har stup och ständigt folk som ger upp sina projekt. Detta med ett grafikkort per VM ofta används som är heller inte hållbart. Jag kan tänka mig 2 högst 3st 2080TI som kanske 30 VM ska dela på med liknade PCI passthrough och det blir komplicerat.

Så min åsikt är att grafikkort används framförallt av enklare system som vanliga hemanvändare har eller de riktigt massiva, vi hemanvändare med lite större system får problem.

*edit*
Detta med att det är så omständligt att använda grafikkort måste de göra något åt, de flesta som använder grafikkort använder det lokalt på värddatorn. Men vem jobbar så idag 2019? Visst hemanvändare som leker med sina mjukvaror för hemanvändare.

Är det svårare att skriva kod som körs på GPU?
Absolut, det är rätt ordentligt mycket svårare. Det är en av flera huvudanledningar varför det gått så sakta att få saker att köra på GPU**.

En annan orsak är att innan Volta så fanns ingen GPU som fullt ut kunde implementera standardversionen av ISO C eller ISO C++. Så man skrev sina CUDA-program i något som var väldigt likt C, men som inte riktigt alltid fungerade som man trodde. Nu har man dels fått allt bättre stöd för C++, dels finns nu GPUer som kan hantera ISO versionen av språken.

Orsaken att hantera t.ex. rendering via GPGPU är ju ändå prestanda (och energieffektivitet), vinsten är helt enkelt för stor för att ignoreras.

Och hur svårt är det för dig som användare? Välj rätt program, sedan är det typiskt ett klick i någon meny. Är exakt så svårt att köra på GPU i Blender, krävs dock att man kör v2.8 om man sitter på Volta/Turing, kör Windows och inte har Nvidias CUDA-SDK installerad (har man SDKn eller sitter på Linux fungerar även 2.7, men 2.8 presterar bättre och där slipper man ens skruva på saker som "tile-size" för att nå optimal prestanda på GPU).

**
Har får man ha i bakhuvudet att huvudanledningen AMD angav för deras kör av ATi, det redan 2006, var just att man utgick från att de arbetslaster som passar att köra på en GPU kommer köras där i allt större utsträckning då prestanda hamnar på en helt annan nivå. Men som med de flesta riktigt bra idéer: det tar långt längre tid för något att slå igenom, men ofta så blir effekten när det väl händer större än man kunde tänka sig. Att Intel ser sig tvungna att börja med dGPUer tyder nog på att de tror på en sådan utveckling här!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Inaktiv
Skrivet av Yoshman:

Är det svårare att skriva kod som körs på GPU?
Absolut, det är rätt ordentligt mycket svårare. Det är en av flera huvudanledningar varför det gått så sakta att få saker att köra på GPU**.

En annan orsak är att innan Volta så fanns ingen GPU som fullt ut kunde implementera standardversionen av ISO C eller ISO C++. Så man skrev sina CUDA-program i något som var väldigt likt C, men som inte riktigt alltid fungerade som man trodde. Nu har man dels fått allt bättre stöd för C++, dels finns nu GPUer som kan hantera ISO versionen av språken.

Orsaken att hantera t.ex. rendering via GPGPU är ju ändå prestanda (och energieffektivitet), vinsten är helt enkelt för stor för att ignoreras.

Och hur svårt är det för dig som användare? Välj rätt program, sedan är det typiskt ett klick i någon meny. Är exakt så svårt att köra på GPU i Blender, krävs dock att man kör v2.8 om man sitter på Volta/Turing, kör Windows och inte har Nvidias CUDA-SDK installerad (har man SDKn eller sitter på Linux fungerar även 2.7, men 2.8 presterar bättre och där slipper man ens skruva på saker som "tile-size" för att nå optimal prestanda på GPU).

**
Har får man ha i bakhuvudet att huvudanledningen AMD angav för deras kör av ATi, det redan 2006, var just att man utgick från att de arbetslaster som passar att köra på en GPU kommer köras där i allt större utsträckning då prestanda hamnar på en helt annan nivå. Men som med de flesta riktigt bra idéer: det tar långt längre tid för något att slå igenom, men ofta så blir effekten när det väl händer större än man kunde tänka sig. Att Intel ser sig tvungna att börja med dGPUer tyder nog på att de tror på en sådan utveckling här!

Det är två saker. Dels är kodningen till gpu svårare, men ofta är det en server som som ska driva X-antal instanser. Man har där problem med Applikationer som fungerar hur bra som helst lokalt inte ens får tillgång till grafikkoret i ett VM.
Exempel: Om man har ett grafikkort i datorn och sedan ska någon köra blender. Och en helt annan person från ett helt annat VM ska dra igång Battlefield 5 på samma grafikkort, så förstår jag inte hur problemet ska lösas utan en väldigt massa overhead.
Nu kan detta extrema exempel för att belysa problemet, men i vanliga fall för mindre saker så undviker man GPU för det är lika med problem om man ej kör allt lokalt på värddatorn.

Det skull vara intressant att veta hur Sony har löst problemet på Playstation Now: https://www.sweclockers.com/nyhet/27187-sony-lanserar-spelstr...
Är det ett grafikkort per användare? Kör de en drös användare per VM som i sin tur har ett grafikkort? I vilket fall är det ett svindyrt projekt vars lösningen är inget som de flesta kan göra till deras system.

Permalänk
Datavetare
Skrivet av Dinoman:

Borde bli rätt tight under IHS:en utan nodkrymp.

Känns som att det rent fysiskt kommer bli svårt att skala förbi 10 kärnor för Intel på 14 nm.

Skickades från m.sweclockers.com

Varför skulle det blir det?
i9-9900: ~178 mm²

Kollar man trenden från 2C -> 4C -> 6C -> 8C för Skylake baserade kretsar ser man att addering av två kärnor ökar kretsytan med ungefär 26 mm². Så Comet Lake lär hamna på ~204 mm², fullt hanterbart (som exempel: i7-2600K 216 mm², AMD Zen/Zen+ 213 mm²).

Dessa 204 mm² inkluderar ju också en iGPU. Svårt att se hur 204 mm² kan vara ett problem på vad som i detta läge lär vara världen i mest inkörda 14 nm process, men om det är ett problem skulle man ju alltid kunna skapa en version som fysisk saknar iGPU. Den är strax under 50 mm².

Teoretisk kretsstorlek, utan iGPU inom parentes (dragit bort 45 mm², borde vara minst så mycket)

  • 8C 178 mm² (133 mm²)

  • 10C 204 mm² (159 mm²)

  • 12C 230 mm² (185 mm²)

  • 14C 256 mm² (211 mm²)

  • 16C 282 mm² (237 mm²)

Så en 14C modell utan iGPU skulle bli ungefär lika stor som Zen/Zen+ eller gamla i7-2600K.

Hur mycket elektroner per tidsenheten en sådan krets skulle sluka om man vill behålla prestanda per tråd på dagens nivå är en annan fråga

Är ju just att man helt släppt begränsningarna på effekt som gjort att dagens "kärnornas krig" inte resulterade i lika meningslösa produkter som Intels HEDT-serie för den stora massan. Ökar man antalet kärnor på bekostnad av prestanda per kärna får man tyvärr något som för de flesta resulterar lägre prestanda i genomsnitt... Någonstans lär man dra en gräns för hur mycket konsumentprodukter kan få dra, eller?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av pskjonte:

Precis när man byggt ihop en i9a kommer dessa nyheter!

Gah!

Lite så tänkte jag också när jag hoppade från 2600k till 7700k och 8700k kom inte långt efter :')

Visa signatur

E8600 > 2500k > 7700k > 12700k
2xHD4850>960ti>1070>1080ti>4070 Super

Permalänk
Inaktiv
Skrivet av pskjonte:

Precis när man byggt ihop en i9a kommer dessa nyheter!

Gah!

Jag kan köpa din för 3000 sen 😉😊

Permalänk
Datavetare
Skrivet av anon159643:

Det är två saker. Dels är kodningen till gpu svårare, men ofta är det en server som som ska driva X-antal instanser. Man har där problem med Applikationer som fungerar hur bra som helst lokalt inte ens får tillgång till grafikkoret i ett VM.
Exempel: Om man har ett grafikkort i datorn och sedan ska någon köra blender. Och en helt annan person från ett helt annat VM ska dra igång Battlefield 5 på samma grafikkort, så förstår jag inte hur problemet ska lösas utan en väldigt massa overhead.
Nu kan detta extrema exempel för att belysa problemet, men i vanliga fall för mindre saker så undviker man GPU för det är lika med problem om man ej kör allt lokalt på värddatorn.

Det skull vara intressant att veta hur Sony har löst problemet på Playstation Now: https://www.sweclockers.com/nyhet/27187-sony-lanserar-spelstr...
Är det ett grafikkort per användare? Kör de en drös användare per VM som i sin tur har ett grafikkort? I vilket fall är det ett svindyrt projekt vars lösningen är inget som de flesta kan göra till deras system.

Och varför i hela friden skulle man virtualisera en maskin som används för rendering?

Största drivkraften bakom virtualiseringstrenden är att de flesta servers stor tidigare och fes runt på låga tiotals procent CPU-last. Otroligt dåligt utnyttjande av investering och man vill heller inte ha en CPU på 10-30 % CPU last ur energieffektivitetsskäl.

Virtualisering är poänglöst om man redan kan utnyttja CPU-kraften till 100 %, vilket är fallet för rendering. Batch-jobb kan köras på renderingsfarmar, om detta jobb går på CPU eller GPU är helt irrelevant för huruvida många kan dela på kraften.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Yoshman:

Och hur svårt är det för dig som användare? Välj rätt program, sedan är det typiskt ett klick i någon meny. Är exakt så svårt att köra på GPU i Blender, krävs dock att man kör v2.8 om man sitter på Volta/Turing, kör Windows och inte har Nvidias CUDA-SDK installerad (har man SDKn eller sitter på Linux fungerar även 2.7, men 2.8 presterar bättre och där slipper man ens skruva på saker som "tile-size" för att nå optimal prestanda på GPU).

Jag kör en 2.79 beta som funkar med Turing.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Inaktiv
Skrivet av Yoshman:

Och varför i hela friden skulle man virtualisera en maskin som används för rendering?

Största drivkraften bakom virtualiseringstrenden är att de flesta servers stor tidigare och fes runt på låga tiotals procent CPU-last. Otroligt dåligt utnyttjande av investering och man vill heller inte ha en CPU på 10-30 % CPU last ur energieffektivitetsskäl.

Virtualisering är poänglöst om man redan kan utnyttja CPU-kraften till 100 %, vilket är fallet för rendering. Batch-jobb kan köras på renderingsfarmar, om detta jobb går på CPU eller GPU är helt irrelevant för huruvida många kan dela på kraften.

För att man idag inte vill köra något alls lokalt av hur många orsaker som helst, det är kostsamt att byta hårdvara, expandera, dyrt att underhålla och svårt att administrera. Att en maskin utnyttjar cpu till 100% är egentligen irrelevant, mer än att man såklart ej får ut exakt lika mycket längre.
Jag vet inte senast jag hörde någon prata om fysiska maskiner för något större system, troligen var det för 10år sedan. Sedan finns det såklart inom vissa områden. Jag tror dock inte Sony Now kör lokalt för deras tjänst.

Det enda problemet är som sagt om man vill använda GPU, därför undviker man använda GPU i sina lösningar. Och alla lösningar som renderar något är inte av typen Hollywood Avatar 2. Utan det mesta är smålösningar.

Permalänk
Datavetare
Skrivet av cyklonen:

Jag kör en 2.79 beta som funkar med Turing.

OK, inte alls förvånande att man fixat till detta även för 2.7x serien!

När jag skaffade mitt Turing-kort fungerande inte 2.7x (vad nu x var vid den tidpunkten), förklaringen var att de CUDA-binärer som skeppades med Blender inte hade stöd för Turing. Enda som krävdes var en omkompilering, men det kräver i sin tur att man har CUDA-SDK installerad.

Att 2.8beta fungerande berodde på att den kom med förkompilerade binärer för Turing. Uppenbarligen har de fixat det även för 2.79. Har stannat på 2.8 då den fungerar lysande för mig, kan inte längre gå tillbaka till gamla UI, 2.8 är i min mening ett rejält lyft på den punkten. Och är inte precis någon storanvändare av Blender, var mest när jag höll på med ray tracing artikeln jag satte mig in i grunderna.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem

@anon298854: Perfekt

Visa signatur

| i9 10900K AllCore @5GHz | Gigabyte 3080 Vision OC @1845MHz (0.9v) | HyperX 32GB DDR4 @3600 MHz | LG 32'' @165Hz G-Sync | Samsung 970 Evo Plus M2 1TB | Asus ROG Strix Z490-F | Corsair RM750x | Noctua NH-D15 Cromax | FrDesign R7 | Soundblaster AE-5 | LG CX 65" | Nintendo Switch | PS5 Disc Ed. | RetroPie | One+ CE | Amiga 500 |

Permalänk
Master of Overkill
Skrivet av Aka_The_Barf:

Kanske dags för multipel spärrar igen? Uppenbart att moderkorts tillverkare kommer trimma så mkt det går för att sälja mer.

Ta kontroll över sin produkt på kisel nivå. Tar barnen kakor ur kakburken trots "rekomendationer" får man låsa in den istället.
Regler istället för "rekomendationer" brukar fungera bättre, släng på ett straff vite så är problemet borta.

Skickades från m.sweclockers.com

Det största problemet verkar ju som att Intel inte bryr sig på konsument nivå.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

Vem köper Intels kraftfullaste konsumentprocessor för att den ska vara sval och strömsnål? El är väldigt billigt, så 50-100 W mer vid höga belastningar är en mycket liten del av totalkostnaden för systemet, även över flera års användning. Det handlar om kanske 1-2 kr mer per dag om datorn används på så hög belastning åtta timmar per dygn.

Kylningen klaras enkelt av med en stor tornkylare eller en medelstor vattenkylare.

Jag förstår inte riktigt problemet!

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av tvelander:

Det största problemet verkar ju som att Intel inte bryr sig på konsument nivå.

Så enkelt kan det faktiskt vara.

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av cyklonen:

Kylningen klaras enkelt av med en stor tornkylare eller en medelstor vattenkylare.

DÄR har du problemet. Dom är inte gratis.

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Master of Overkill
Skrivet av Aka_The_Barf:

DÄR har du problemet. Dom är inte gratis.

Skickades från m.sweclockers.com

Du menar 9900k och z390 mobo och ddr4 och nätagg och ssd/hdd, chassi , GPUs etc etc är gratis
Varför får inte kylare kosta men allt annat får kosta?

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem
Skrivet av Aka_The_Barf:

DÄR har du problemet. Dom är inte gratis.

Skickades från m.sweclockers.com

Köper man en cpu för~6000kr är det förmodligen ingen som planerar att använda en kylare för 150kr direkt.

Visa signatur

sweclockers prestandaindex

Efter 10 kommer 11.
Efter 99 kommer 100.

Permalänk
Medlem
Skrivet av cyklonen:

Vem köper Intels kraftfullaste konsumentprocessor för att den ska vara sval och strömsnål? El är väldigt billigt, så 50-100 W mer vid höga belastningar är en mycket liten del av totalkostnaden för systemet, även över flera års användning. Det handlar om kanske 1-2 kr mer per dag om datorn används på så hög belastning åtta timmar per dygn.

Kylningen klaras enkelt av med en stor tornkylare eller en medelstor vattenkylare.

Jag förstår inte riktigt problemet!

tror det är värmeutvecklingen som är problemet.
iallafall det jag ogillar med min dator iallafall de blir extremt varmt
man får ha fönster öppna mitt i vintern och på sommaren kommer det aldrig gå utan
ett AC aggregat.

Visa signatur

||ASUS Z390-Formula||9900K@5.0Ghz||360(60MM)+280+120mm EKWB Custom loop (9Fans)||32GB corsair dominator 3000mhz cl15||X2 RTX 2080TI EKWB||asus hyper m.2 x16||X2 970 EVO 1TB||960 EVO 500GB||Corsair ax1600i||Corsair 500D RGB||
Monitor: ACER X27 4K 144HZ

Permalänk
Medlem
Skrivet av Aka_The_Barf:

DÄR har du problemet. Dom är inte gratis.

Skickades från m.sweclockers.com

Dark Rock Pro 4 för under tusenlappen. För att kyla en processor som kostar 6000 kr. Låter då fullt rimligt för min del.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S