Intel Core i9-10900K "Comet Lake" – upp till 30 procent snabbare än Core i9-9900K

Permalänk
Medlem

Ska bli intressant när väl faktiska tester kommer, innan dess är det rent teoretiska spekulationer även om en hög sannolikhets faktor infinner sig i vissa!

Så jag tror jag väntar på recensioner från diverse hårdvarusajter!

Visa signatur

XFX Radeon RX 7700 XT Speedster QICK 319 Black Edition | AMD Ryzen R7 5700X | Noctua NH-D15 | Asus TUF Gaming B550-Plus | Kingston Fury Beast DDR4 3600MHz 4x8GB | Samsung 990 Pro 1TB | Corsair HX1000i | Fractal Design Define S | LG 27GL83A | Corsair K95 Platinum | Corsair Sabre RGB PRO Wireless | Corsair Void Elite Wireless

Permalänk
Skrivet av Yoshman:

slutanvändare krävs absolut ingenting mer än att ha "rätt" GPU samt tillgång till programmet kompilerat för GPU. Idag finns ett GPGPU-stöd i t.ex. Adobes Photoshop, After Effects, Premiere Pro, i matematikprogram/språk som Matlab, R och Octave och i praktiken alla 3D-renderingsprogram.

Ja GPGPU har funnits jättelänge och det blir bättre och enklare. De program du nämnde har alla gemensamma nämnaren mycket parallellt exekverbara flyttalsberäkningar, där en generell lösning går att göra som otroligt många kan använda.
Men GPGPU blir bättre så att det blir enklare för en själv att använda det i ens script som man använder för det ena och andra.

Utvecklingen av GPU lösningar stagneras dock att utvecklingen går emot cloudlösningar, där det idag är kostsamt och krångligt att blanda in grafikkort. De flesta när de väljer plattform väljer antal kärnor, mängd ram, lagring etc, som i länken: https://www.atea.se/datacenter/molnserver/

Grafikkort, ja då kommer man in idag på exklusiva lösningar. Observera att jag vet att man kan hyra Nvidia RTX server och annat, men det är inget en vanlig utvecklare gör: https://www.nvidia.com/en-us/design-visualization/quadro-serv...

Så de maskiner som kör många utvecklares kod idag, ja man ser dem som maskiner utan grafikkort. Även om man skulle utveckla något för att främst använda det lokalt på sin egen dator, så vill man säkerligen använda det på en server någon gång. Och då ska lösningen fungera direkt på den server som troligen ligger på en hypervisor utan en dedikerad grafikkort till ens vm.

Det folk som hänger med i utvecklingen till stor del gör eller börjar med är att utveckla saker för containers. Så att lösningen ska vara enkel att flytta mellan olika maskiner och operativsystem. Låsa in sig till ett visst hårdvarulösning, ja det är något man arbetar bort ifrån.
Även om nu cloudtjänster som Azure mer än någonsin låser in aktörer i deras lösningar så de i princip aldrig någonsin ekonomisk kan byta plattform.

Permalänk
Medlem

@wessmen: Njae, jag visste att någon skulle skriva det svaret :). Men det är AMD Jaguar som i grundutormning är en slö laptop CPU på 1.6 ghz som vad jag vet inte har något att göra med Bulldozer. Det är inte samma arkitektur som fanns på desktop-sidan utan en strömsnål och energieffektiv variant. Det som är intressant med PS5/Xbox SX är att det är en APU med just Zen2 (troligen 3,2 ghz, 8c 16t) som processor och att det är just Zen 2 som sitter i t.ex. min burk.

Om jag inte har fel så är det första gångnen som en konsol kommer att bli så lik en desktop. Förra generationen hade x86, men CPU:n var klen. Just det är intressant, att vi får något som liknar en desktop CPU i konsolerna. Frågan är om det kommer ge Zen 2 prestandafördelar jämfört med säg 9900k eller 109900k eller vad den kallas

Visa signatur

Playstation 4 + Nintendo Switch
R7 5800x3d - MSI B450 - RTX 3080 TUF - EVGA 650w G3 - ASUS PG279Q

Permalänk
Medlem
Skrivet av Yoshman:

Stödet för CUDA, speciellt Turing-korten, trimmades en hel del i Blender 2.80. I just lanserade 2.81 lade man även in stöd för att använda RT-kärnorna, som exempel renderas den BMW-scen som SweClockers använder i sina CPU-tester på strax under 40 s på ett RTX 2060.

Som jämförelse tar den scenen 249 s på en i9-9900K, det är ju totalt meningslöst att rendera på en CPU numera! 40 s är snabbare än ThreadRipper 3970X, där avklaras scenen på 68 s. det långsammaste RTX kortet är 70 % snabbare än snabbare HEDT CPUn...

Att använda GPGPU är idag trivialt, i många program behöver man inte göra något alls (verkar gälla de flesta videoredigeringsprogram). I Blender behöver man bara aktivera GPU-rendering, sedan optimeringarna i 2.80 krävs inget fipplande med att ändra "tile-size" för att få till effektiv GPU-rendering utan man kör med samma som för CPU.

Man ska inte helt räkna ut CPU som beräkningsmotor i blender (gäller förmodligen även andra 3D-program av liknande typ), eftersom t ex ett RTX 2060 bara har 6 GB VRAM, och det är primärt det som används för att "sätta upp" modellen som räknas på. När det minnet tar slut kan blender visserligen använda systemminnet för texturer, men inte för modeller och det går tydligen oerhört långsamt när VRAM-taket överskrids.

Det kraftfullaste konsumentkortet i dag är 2080 Ti med 11 GB VRAM. Nästa nivå är RTX Titan, som har marginellt högre beräkningskraft, men ökar VRAM-budgeten till 24 GB, men då kostar det nästan tre gånger så mycket som ett 2080 Ti.

För ungefär samma pengar som ett komplett system med en medelmåttig CPU och ett RTX Titan (ca 45 000 kr), kan man få ihop ett Threadripper 3970X-system med 128 GB RAM.

Jag körde nyss ett test i blender 2.81 (dock inte med Optix-beräkningen) med scenen "Classroom". En rendering med enbart GPU (2080 Ti) och en med enbart CPU (3900X).
GPU: 2.27.92
CPU: 5.48.74

Om vi räknar om detta till systemen jag nämner ovan då. RTX Titan är ca fem procent snabbare, max, än ett 2080 Ti. Så där blir beräkningstiden ca 2.20. Threadripper-systemet då. Ja, 3970X verkar rendera på ca 40 procent av tiden jämfört med 3900X, så där skulle beräkningstiden bli ca 2.20 blankt.

I mitt exempel skulle alltså Threadripper-systemet ha motsvarande beräkningsprestanda, men utan ett RAM-tak på 24 GB. Dessutom är det CPU som jobbar i fysiksimuleringarna och en del andra delar, där GPU-tunga systemet i mitt exempel skulle hamna långt på efterkälken.

Jag vet inte hur stor begränsning minnet är i praktiken, eftersom jag är i lekstadiet i blender och bara lär mig genom att testa olika saker, för mitt eget nöjes skull. Tror inte jag varit över 2 GB i nåt sammanhang.

Visa signatur

Moderkort: Gigabyte X570 Aorus Master | CPU: AMD Ryzen R9 5900X | CPU-kylare: Noctua NH-D15 chromax.black | RAM: Corsair Vengeance LPX 64 GB (4x16) DDR4-3600 CL18 | GPU: Gigabyte RTX 4080 Eagle OC | SSD: 2 x Samsung 970 EVO Plus 1 TB NVMe + Kingston A400 480 GB + Samsung QVO860 1 TB | PSU: EVGA SuperNOVA G2 1000 W Gold | Chassi: Lian Li O11 Dynamic XL | Skärm: BenQ PD3200U @ 3840x2160 + ASUS ROG Strix XG32VQ @ 2560x1440 | Tangentbord: Corsair K68 RGB Cherry MX Red | Mus: Logitech MX Master 2S

Permalänk
Medlem
Skrivet av NaaR:

@wessmen: Njae, jag visste att någon skulle skriva det svaret :). Men det är AMD Jaguar som i grundutormning är en slö laptop CPU på 1.6 ghz som vad jag vet inte har något att göra med Bulldozer. Det är inte samma arkitektur som fanns på desktop-sidan utan en strömsnål och energieffektiv variant. Det som är intressant med PS5/Xbox SX är att det är en APU med just Zen2 (troligen 3,2 ghz, 8c 16t) som processor och att det är just Zen 2 som sitter i t.ex. min burk.

Om jag inte har fel så är det första gångnen som en konsol kommer att bli så lik en desktop. Förra generationen hade x86, men CPU:n var klen. Just det är intressant, att vi får något som liknar en desktop CPU i konsolerna. Frågan är om det kommer ge Zen 2 prestandafördelar jämfört med säg 9900k eller 109900k eller vad den kallas

Har svårt att tänka mig att det skulle ge några fördelar för den ena eller den andra, förhoppningsvis gör det att spel blir bättre när de portas till PC.

Det jag tycker ska bli intressant är hur pass stort kliv konsolerna tar i inköpspris. En gamingdator har ökat i kostnad de senaste åren och den trenden lär säkert infalla på konsol-sidan också när man börjar trycka in mer avancerade grejer. Frågan är väl om konsolspelare generellt är beredda att slänga, rent hypotetiskt, dubbelt så mycket på sin maskin i inköp.

Skulle det slå igenom så tror jag att spel kommer ta ett rejält kliv framåt, men det är väl en önskedröm när allting ska kunna köras på gamla generationer.

Permalänk

125w för 4,3 ghz på 6 kärnor , det är ju lite kasst för en 14nm ++++++++ teknik ))

Permalänk
Medlem

30% ökning av prestandan samt 25% extra kärnor och 100-200 MHz ökning av frekvens ger väll runt 0 procent ipc ökning på den här itterationen.

Skickades från m.sweclockers.com

Permalänk

@HenrikM: nja snarare döpt om och lagt till HP på dem.

Permalänk
Avstängd

Kärnornas krig... Jaja, hoppas man kan sitta på 6 kärnor 12 trådar ett tag i alla fall.

Visa signatur

8700K/1080Ti/XG32VQR

Permalänk
Medlem
Skrivet av Fluf:

Den stora frågan är hur bra den presterar i verkliga situationer såsom surfa och mail?

Lätt trådens bästa inlägg

Själv minns jag när man kämpade för att komma upp/med i 4GHz+ Klubben nivå.
Det är "bara" typ 5 år sen, och älskade nr: 3 i reglerna " 3999.99MHz är INTE 4000.00MHz och kommer inte godkännas"

Visa signatur

Pc 1--> [AsRock DualSata2][AMD4600+X2][7800GT] [Intel SSD X-25 80GB G2][1TB F3][750GB IDE][4GB XMSCorsiar]Pc 2--> [Asus Crosshair] [AMD 4800+X2] [2st 8800GT i SLI] [RAID 0 2x250GB] [6GB XMSCorsair] [Corsair HX750]Pc 3-->[HP Microserver 12TB]Pc 4--> AsRock P67 Extreme 4,i7 2600K @ 4.0 GHz,830 256GB,16GB 1600MHz, R9 290X Foto [Nikon D7000][70-300/35 1,8/18-55 [Skärmar=24",24",24" Eyefinity]

Permalänk
Medlem
Skrivet av the squonk:

250W är ju enligt Intel själva, vid boost, var du då får 170W ifrån är obegripligt. Särskilt som Intel troligen är konservativa med sin angivelse.

Min 3900X maxar vid 140W i Cinebench, så inga 170W där. Gamla 2700X kan däremot dra 170W utan vidare på bara 8 kärnor, men så är det 12nm.

Så enligt det jag skrev ovan så kommer Intel att dra ca 110W mer under boost scenario trots två kärnor färre, inte försumbart, kommer ju att kräva en del kylning helt klart. Och det är också anledningen att man byter socket, den nuvarande socketen klarar inte strömförbrukningen vilket LGA1200 skall göra. Det spekuleras om att man kommer att släppa strömlåsta CPU till den gamla socketen, vi får se.

170w i cinebench är nog inte helt omöjligt.
Min 9900kf som är undervoltad men klockad stock drar 130w i r15 och 140w i r20.
140x1,25=175. Den nya kanske är marginellt effektivare men boostar också lite högre.
Men säg 180-190 i r20 och 170w i r15 då?
Sen lär man behöva sätta en power limit om man vill köra prime95 avx med small ftp på normal kylning för där lär den springa iväg till 250w utan problem.

Ångrar lite att jag köpte min 9900kf på black friday istället för att vänta på 10700k. Ska bli spännande att se vad priset hamnar på.

Visa signatur

Ghost S1 || Asrock Phantom Gaming Z390 || 9900KF || Corsair 32GB@3400MHz CL16/1.45volt || Intel 660p 1gb || Corsair sf600 || RTX 4070 Inno3d 2x|| Asus PG279QM

Macbook pro 14 M1

Permalänk
Medlem
Skrivet av NaaR:

Intressanta tider framöver med tanke på att PS5 och XboX SX kommer att använda Zen 2. Nästa generations spel kanske optimeras i högre utsträckning efter AMD:s hårdvara? Eller så förblir det som du säger :).

Det spekulerades likadant inför släppen av Xbox One och PS4, men man såg inte speciellt mycket av det under denna generation iaf.

Visa signatur

7800X3D | RTX 4080 Super | 32GB DDR5 | LG 48 C1 OLED

Permalänk
Datavetare
Skrivet av Implor:

Bryr mig 0 om blender men det är programmet alla och dess katt benchmarkar med. Så säger man att det är 30% prestanda ökning i vissa applikationer så är chansen stor det är blender eller liknande applikationer de syftar på.

Är ju rätt specifikt vad 30 % refererar till: SPECInt_rate. Så det refererar till heltalsprestanda, något som Blender är mer likt SPECfp_rate, där går prestanda upp 25 % enligt Intels siffror.

Det positiva här är att SPECint/SPECfp är inte ett enda test, utan det är ett genomsnitt över en rad olika användarfall. SPEC har mer server/HCP-fokus än desktop-fokus.

"_rate" siffrorna är inte representativa för något man kommer ser i multitrådade program som t.ex. spel. Detta då "_rate" betyder att man i praktiken kör en separat uppsättning av de enkeltrådade SPECint/SPECfp testerna på varje CPU-tråd

Extremt få "vanliga" program skalar ens till 8C, sedan finns ju många där flaskhalsen inte är CPU-kraft. Men av de där CPU-kraft faktiskt är flaskhals lär nog den prestandavinst man ser bli ~5-6 %, d.v.s. så mycket högre maximal boost på en kärna är över i9-9900K. Är just av denna anledning Rocket Lake och Zen3 känns betydligt mer spännande, där bör vi se ett lite större lyft i prestanda per kärna som är långt viktigare än att slänga på fler kärnor nu när de mer budgetorienterade modellerna har 6C.

Skrivet av cyklonen:

Man ska inte helt räkna ut CPU som beräkningsmotor i blender (gäller förmodligen även andra 3D-program av liknande typ), eftersom t ex ett RTX 2060 bara har 6 GB VRAM, och det är primärt det som används för att "sätta upp" modellen som räknas på. När det minnet tar slut kan blender visserligen använda systemminnet för texturer, men inte för modeller och det går tydligen oerhört långsamt när VRAM-taket överskrids.

Det kraftfullaste konsumentkortet i dag är 2080 Ti med 11 GB VRAM. Nästa nivå är RTX Titan, som har marginellt högre beräkningskraft, men ökar VRAM-budgeten till 24 GB, men då kostar det nästan tre gånger så mycket som ett 2080 Ti.

För ungefär samma pengar som ett komplett system med en medelmåttig CPU och ett RTX Titan (ca 45 000 kr), kan man få ihop ett Threadripper 3970X-system med 128 GB RAM.

Jag körde nyss ett test i blender 2.81 (dock inte med Optix-beräkningen) med scenen "Classroom". En rendering med enbart GPU (2080 Ti) och en med enbart CPU (3900X).
GPU: 2.27.92
CPU: 5.48.74

Om vi räknar om detta till systemen jag nämner ovan då. RTX Titan är ca fem procent snabbare, max, än ett 2080 Ti. Så där blir beräkningstiden ca 2.20. Threadripper-systemet då. Ja, 3970X verkar rendera på ca 40 procent av tiden jämfört med 3900X, så där skulle beräkningstiden bli ca 2.20 blankt.

I mitt exempel skulle alltså Threadripper-systemet ha motsvarande beräkningsprestanda, men utan ett RAM-tak på 24 GB. Dessutom är det CPU som jobbar i fysiksimuleringarna och en del andra delar, där GPU-tunga systemet i mitt exempel skulle hamna långt på efterkälken.

Jag vet inte hur stor begränsning minnet är i praktiken, eftersom jag är i lekstadiet i blender och bara lär mig genom att testa olika saker, för mitt eget nöjes skull. Tror inte jag varit över 2 GB i nåt sammanhang.

Inte ens Jensen hävdar längre att GPGPU kommer göra CPU irrelevant, allt där man behöver låg latens eller hög prestanda per CPU-kärna fungerar uselt på GPUer. Även väldigt parallella problem där parallellismen finns i form av uppgiftsparallellism, inte data-parallellism, (t.ex. kompilering och många server-relaterade laster) fungerar riktigt uselt på GPU.

Är dataparallella problem samt problem där RAM-bandbredd är en primär flaskhals där GPGPU skiner. 3D rendering är ett exempel på ett sådant problem. Du räknar upp massor med potentiella problem, är det problem i praktiken givet att GPGPU-rendering verkar duga för allt fler professionella områden (t.ex. Hollywood rullar)?

Nog för att just Blender inte stödjer NVLink (än), men två 2070S ihopkopplade med NVLink ger dig effektivt 16 GB VRAM (att använda NVLink på detta sätt är relativt nytt, har för mig att det kom med Volta). Men även om man tar ditt 2060S exempel, man måste inte ha texturer för hela scenen i VRAM utan 6 GB måste bara täcka den "tile" (typiskt 32x32 pixels) man just nu jobbar med.

Sedan Pascal (och Vega för AMD) kan GPUerna mappa in systemminne på ett sätt som är transparent för den som skriver GPGPU-koden. VRAM blir en form av cache, prestanda blir då bra så länge som "working-set" håller sig inom VRAM (vilket för rendering i praktiken betyder att en "tile" måste få plats i VRAM).

Om VRAM blir ett problem kanske man inte kör dessa program för husbruk... Kikar man på de professionella programmen finns ju varianter med OptiX, NVLink samt stöd för att transparent använda system RAM (de flesta verkar ändå ha som krav att geometri ligger helt i VRAM).

Låt oss titta på just Classroom-scenen, det är en scen som verkar fungera rätt dålig på GPGPU. Är i princip samma prestanda på 2070S som på 2080Ti, men med OptiX aktiverat kommer man ändå ned till 70-75 s, vilket är snabbare än vad Phornix uppmätte för 3970X (112 s) i samma scen. 2060S klarar av scenen på ~145s (sen är skiljer det igen bara några få sekunder mellan 2060S och 2070 av någon anledning).

Fysik är ett superbra exempel på att CPU-delen inte blir irrelevant, framförallt då fysikmotorn i just Blender är (tyvärr likt rätt många fysikmotorer) enkeltrådad. Så enda som spelar roll är enkeltrådprestanda. Kort och gott, om det är maximal Blender-prestanda man är ute efter är det nog inte de dyraste HEDT-modellerna man ska slå till på då överklockad i3/Ryzen 3 + RTX2080Ti lär ge rejält mycket umph/kr för just det fallet.

Det skrivet: vill påpeka att även om jag hackat GPGPU-kod jobbar jag inte med just rendering och är inte heller speciellt road av att leka med program som Blender. Följer i princip bara med nyheter där för att lära mer om just GPGPU-nyheter.

Tror inte heller Comet Lake kommer bli #1 valet för speciellt många "arbetsstation-uppgifter". Det är något Intel rätt mycket släpper för de inte har något annat just nu på desktop och de vet att just PC-gamers är en av de köpvilligaste grupperna för en i annars krympande marknad för stationära PC. Så enda frågan som nog de flesta ställer sig är: hur presterar dessa i spel?

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Datavetare
Skrivet av NaaR:

Intressanta tider framöver med tanke på att PS5 och XboX SX kommer att använda Zen 2. Nästa generations spel kanske optimeras i högre utsträckning efter AMD:s hårdvara? Eller så förblir det som du säger :).

Vi såg liknade diskussion efter ursprungliga Ryzen-lanseringen.

Råder inga tvivel om att vissa typer av arbetslaster kan passa en CPU-design mer eller mindre bra, d.v.s. typ av problem dikterar hur väl en viss CPU-design hanterar det hela. Detta är otroligt tydligt när man ställer Skylake SP (den som sitter i Xeon och HEDT) mot "konsument-Skylake". Det är exakt samma beräkningsenheter med identisk IPC för allt som är enkeltrådat och körs ur L1$.

Ändå är det klart sämre spelprestanda per MHz hos Skylake SP jämfört med Skylake. Det som skiljer här är cache-design, Skylake SP är optimerad för server-laster där normalfallet är att man kör flera oberoende problem. Spel är ett exempel på en relativt typiskt krävande desktop-last: man löser ett "problem" genom att köra det över flera CPU-trådar. Just på den här punkten råkar Zen vara mer lik Skylake SP.

Men det här är ett teknikforum, vi vet bättre än dönickarna som ägnar hela sin karriär till programutveckling! Kan någon ens komma på något som i teorin gör att spel helt plötsligt skulle övergå från problemtypen "släng flera trådar på att lösa ett specifikt problem, d.v.s. räkna ut tillståndet på spelvärden för nästa scen" till "kör helt oberoende beräkningar på alla CPU-kärnor utan någon som helst relevant synkronisering mellan CPU-kärnor". Det är i princip vad som krävs för att "optimera spel för Ryzen"...

Jag gissar att vi nog får nöja oss med hur det sett ut fram till nu ett tag till: det är bättre att välja HW som passar problemet än att försöka omdefiniera vad som ska lösas för att passa HW. Dock ska det sägas: det finns absolut fall där man lyckats se på problem ur en helt annan vinkel och därmed lyckas med det senare. Så som vanligt ska man aldrig säga aldrig!!!

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Musikälskare

Köpte precis en i9-9900KS, känns sådär men orkar inte bygga om allt

Det kommer alltid nytt...

Visa signatur

❀ Monitor: ASUS Swift 27" @ 1440p/165Hz ❀ CPU: Ryzen 7700X ❀ Cooling: Corsair H170i ELITE 420mm ❀ GPU: MSI 3080 Ti SUPRIM X ❀ Memory: Corsair 32GB DDR5 Vengeance ❀ Motherboard: ASUS Crosshair X670E Hero ❀ M.2: Samsung 980 Pro ❀ PSU: Corsair HX1200 ❀ Chassi: Corsair 7000X ❀ Time Spy: 19 340

📷 Mina fotografier
🎧 Vad lyssnar du på just nu?

Permalänk
Medlem
Skrivet av flashen:

Köpte precis en i9-9900KS, känns sådär men orkar inte bygga om allt

Det kommer alltid nytt...

Självklart blir delarna gamla precis när man köpt något för då visas de upp nya grejer

Permalänk
Medlem

Det är en utmaning att fullt ut använda allt man köper, istället för att bara köpa

Visa signatur

|| R9 7950X MSI PRO X670-P WIFI 32GB-DDR5-6400c32 MSI RTX4080 Ventus 3X OC || CORE i9 12900KF MSI Z690 Tomahawk WIFI DDR4 32GB-3600c16 Gear1 TUF RTX3080 OC V2 || R7 5800X3D X570S CH8 Extreme 32GB-3800c18 Gigabyte RTX3080 GAMING OC || R9 5900X(B2) B550-F 32GB-3800c18 EVGA RTX3070 FTW Ultra || R9 3900X X470-Prime Pro 32GB-3200c16 MSI RTX2070 Super ||

Permalänk
Medlem

Om en 10980x 18/36 på 1.3V och 4.8 all core går att kyla med luft/Aio går det nog utmärkt att kyla dessa med samma kylning också. 10980x på 1.4 och 5ghz all core blev lite för varmt och throttlade precis över gränsen i R15.

Visa signatur

14900KF--Apex Encore--RTX 4090--G.Skill 2x24GB DDR5-8000--Dynamic Evo XL
12900K--RTX 2080Ti--Gigabyte Z690 Aorus Master--4X16GB DDR5 6000
Ljud: Lewitt Connect 6--Shure SM7B
Skärmar: Neo G8 4K 240hz--Huawei 3440x1440 165hz

Permalänk
Musikälskare
Skrivet av ExcZist:

Självklart blir delarna gamla precis när man köpt något för då visas de upp nya grejer

Så är det alltid

Visa signatur

❀ Monitor: ASUS Swift 27" @ 1440p/165Hz ❀ CPU: Ryzen 7700X ❀ Cooling: Corsair H170i ELITE 420mm ❀ GPU: MSI 3080 Ti SUPRIM X ❀ Memory: Corsair 32GB DDR5 Vengeance ❀ Motherboard: ASUS Crosshair X670E Hero ❀ M.2: Samsung 980 Pro ❀ PSU: Corsair HX1200 ❀ Chassi: Corsair 7000X ❀ Time Spy: 19 340

📷 Mina fotografier
🎧 Vad lyssnar du på just nu?

Permalänk
Medlem

På pappret lär det ju bli ett riktigt monster i både singlecore prestanda och värmeutveckling. Riktigt hög hastighet, skulle inte bli förvånad om den klockar sämre än dagens modeller (procentuellt). Det som blir intressant är prissättningen, givetvis fult av Intel att återigen tvinga användare till att byta moderkort men annat var ju inte att vänta...

Visa signatur

7800X3D//4090
MINT XFCE // W11 🤮

Permalänk
Medlem
Skrivet av Icte:

5:e generationen med 14 nm Skylake igen, trevligt.
https://i.redd.it/xtm0yacnsi031.png

Vad spelar det för roll egentligen? Att kalla det skylake, känns ändå fel om du jämför i7 6600k mot i9-10900K så är det ju en jäkla skillnad även fast det är samma tillverkningsteknik.

Visa signatur

Dator 1: | i9 9900k | MSI RTX 4080 Ventus 3x OC | ASUS ROG STRIX Z390-F Gaming | Corsair LPX DDR4 32 GB 3200Mhz | FD define S | Samsung 850 EVO 1TB | Samsung 980 NVMe M.2 1TB | Noctua NH-U12S | Corsair RM750x 750W | Windows 11
Skärm 1: ASUS 27" ROG SWIFT PG279Q 1440p @ 165Hz/IPS/G-Sync
Skärm 2: ASUS 27" TUF VG27AQ1A 1440p @ 170Hz/IPS/G-Sync/HDR

Permalänk
Medlem

Slakten går mellan tråd å hus, de e liksom det som är hela grejen.

Intel må just idag äga singel trådar med knapp marginal. Men deras tåg har gått å kommer ej tillbaka förrän 2022 som tidigast

Skickades från m.sweclockers.com

Visa signatur

Det du inte hinner idag hinner du inte imorgon med.

Permalänk
Medlem

@Icte: så länge dom gör något som är bättre än innan är det väl struntsamma om dom kör samma nanometer?

Permalänk
Avstängd

Tror alldeles för många Intel fans gör kullebyttor under skrivbordet med mantrat"Snälla Intel, inga höga watt, snälla.

Sen när dom väl får en ny Intelpropp ryker husets frys, "för pappa behöver kyla datorn, lilla gubben"

Visa signatur

ASUS Prime B350 Plus, AMD Ryzen 5 1600X, Sapphire R9 390 8GB, 16GB Gskill Flare X 3200
Används för korsord online, och harpan.

Permalänk
Medlem
Skrivet av BritishTeaparty:

125w för 4,3 ghz på 6 kärnor , det är ju lite kasst för en 14nm ++++++++ teknik ))

Är väl någorlunda i paritet med en överklockad Ryzen 5 2600...?
Intel får nu göra med sina CPU vad AMD gjort med sina GPU: Överklocka (nära) max direkt från fabrik för att nå acceptabel beräkningsprestanda, med dålig energieffektivitet som följd.
Intel-fans slutar överklocka och övergår till att se hur mycket de kan sänka drivspänningen i stället...

Permalänk

Den lär väl bli jättedyr som alla nya intel monster CPU:er.

Permalänk
Sötast

Nä men, kan intel plötsligt, igen, öka prestandan?
Men varför har det då nästan stått still i 8 år?

Konstigt....

Permalänk
Avstängd
Skrivet av Allexz:

Nä men, kan intel plötsligt, igen, öka prestandan?
Men varför har det då nästan stått still i 8 år?

Konstigt....

Nä, de ökar bara antalet kärnor och kan tack vare bättre kvalité på 14 nm noden höjer frekvensen med 1-1,5%.

Det har stått still i med arkitekturen 4 år nu då de vanligen inte lanserar en ny arkitektur på samma nod, så de väntar på 10 nm.
Samtidigt har de fått 14 nm noden så bra att 10 nm nu som ren är klar inte har tillräckligt hög frekvens eller yield för att kunna pressa AMD än, därför hoppar de över 10 nm för desktop och satsar på 7 nm 2022.

Skickades från m.sweclockers.com

Visa signatur

2600x||16GB @3000Mhz 14-14-10-14-32-46||Vega 64||1TB SSD||HX1000 plat||FD R6 TG vit||CH VII||H100i V2||SST-ARM22SC||SG 32" QHD 144 Hz VA|| https://folding.extremeoverclocking.com/team_summary.php?s=&t...

Permalänk
Medlem

Intel kan det här med plus asså! Jag har själv ritat massa plus på min dator men inte fan blir den snabbare för det.

Ha det gött

Visa signatur

Intel 7700k | Asus StrixF | Asus 2080 Super Strix | Corsair Vengeance 16Gb 3000Mhz | 1,7Tb Ssd | Corsiar Rmx650w | Corsair H115i | Acer XB271HU 165Hz G-Sync | Corsair air 540 | Xbox One X | Ps4 Pro

Permalänk
Medlem

Mycket gnäll här i tråden. Tycker att denna cpun verkar vara en bra kompromiss. Man får max enkeltrådad prestanda och ändå 10 kärnor. Det är ju ett litet monster ju.

Får mig att seriöst överväga intel igen inför nästa uppgradering. Fram till nu har ju Ryzen9 varit lockande.

Vå får se.

Min överklockade 4790k har inte gjort mig besviken än så länge, men man ser i speltester att det snart börjar bli dags.

Visa signatur

Min musik: https://www.youtube.com/channel/UCZKidNeIKsz8LZMO3VRcBdQ

Ryzen 3900x. Skärm: AOC cu34g2x/bk 144hz 34" ultrawide. RTX 2080ti

Laptop: MSI GT80 Titan Sli