Inlägg

Inlägg som wowsers har skrivit i forumet
Av wowsers
Skrivet av Icte:

Högre multitrådprestanda var förväntat, men singeltråd också?? Visst, det handlar ju ändå om 4.1 GHz vs 3.9 GHz men ~500 fler poäng för 200 MHz högre frekvens låter ju ändå som att AMDs Zen 2 Mobile har bättre IPC än Intels 10 nm Sunny Cove, eller?

IPC vinner Intel med ca 20%, men hastighetsskillnaden gör att IPS (IPC*hastighet) ligger närmare 15%. Mulitrådat vinner AMD utan fråga, ca 27%.

4800U kanske är bättre enkeltrådad jämförelse, då borde Intel ligga 17% före i IPC och 12% för IPS, men då växer säkert skillnaden i multitrådat iväg lite till.

Skickades från m.sweclockers.com

Av wowsers

Bet i det sura äpplet och beställde chassi, mobo, processor och ram.

Får beställa ny SSD, nätverkskort (,graffikkort) och nätagg vid senare tilfälle då jag kan donera dessa från min gamla maskin tillfälligt.

När ryzen 4000 kommer ut kan jag helt enkelt uppgradera till detta, samma med "big navi".

Skickades från m.sweclockers.com

Av wowsers

Kommer personligen köra uATX med en 3000G (eller annan billig prolle, kanske 1600 med OC) tills nästa serie kommer ut och bios uppdateringar för nästa serie rullar ut.

Blir säkert gött.

Av wowsers
Skrivet av Fluf:

[meme] Heatpipes - So hot right now[/meme]

Lite förvånad över att det var vatten i en del, trodde det var nån acetonliknande lösning i så gott som alla heatpipes.

Bra video

Problemet med aceton är att trycket ger sprickrisk redan vid 100 grader när en vanlig heatpipe med vatten klarar 150 grader, skillnaden i värmeledningsförmåga är också ganska försumbart när man börjar dra in faktorer som orientering.

offtopic:
Ett exempel där värmerör bara är PR är i mobiltelefoner, vanliga värmerör med vatten behöver ca 25W innan dom börjar ge effekt (över ren koppar) om dom ligger platt (annars krävs det bara runt 15 oavsett vatten eller aceton), här borde man istället använda normalpentan som börjar bli effektivt redan vid 5W, på mobiler är man ofta rädd för mer än 80 grader så det spelar inte lika stor roll att maximala temperaturen är runt 100 grader för både aceton och n-pentan.

Av wowsers
Skrivet av Mainman:

Kan någon "kunnig" svara på om ögonen ens kan märka skillnad på låt oss säga 240 Hz och 360 Hz?

Snart kommer det väl en skärm med 500 Hz som ingen dödlig har någon nytta av.

Beror otroligt mycket på situation till situation, men 300-400 Hz är en praktisk gräns för kontinuerlig information vid "normala ljussättningar".

Men som @kaptenperre säger finns det undantag (ofta extrema).

Skickades från m.sweclockers.com

Av wowsers

Kalla mig pessimist, men jag är ganska säker på att det kommer vara 50% bättre prestanda vid samma strömförbrukning eller samma prestanda vid halva strömförbrukningen, inte båda samtidigt.

Skickades från m.sweclockers.com

Av wowsers
Skrivet av Esseboy:

Finns robotar som kan lägga 55 komponenter i sekunden, delar man upp då så tre fyra robotar gör jobbet kan man öka till 165-220 i sekunden, eller 18-24 sekunder per panel (4000 leds) , tror det räcker för massproduktion.
https://en.wikipedia.org/wiki/Pick-and-place_machine

Angående olika starka LEDs handlar det om att ställa tillräckligt strikta krav på leverantörens toleranser.

Ok, då ligger tekniken ganska långt framför vad vanliga CoB tillverkare använder (pga. kostnad?).

Olika styrka på olika LEDs är oftast inte ett problem om man använder samma rulle för samma skärm/panel, det är bara ett problem när man kör en rulle per rad (som CoB lampor uppenbarligen gör).

Maskinstopp vid varje station är fortfarande det största problemet, om det tar 10 sekunder per station och man kör 4 seriellt har man fortfarande en troughput av 1 panel/10sek, så man måste köra paralella produktionslinor för att följa de obscena antal skärmar som trycks genom enstor panelförsäljare.

Om man går tillbaka till mitt exempel med en rulle per rad, 10 komponenter per sekund, ~3 sekunder per panel, och det tar max 2 maskiner på rad istället för 4 (men närmare 50 rullar på bredden).

Av wowsers
Skrivet av Esseboy:

Hur kan de då sätta dit de små kondensatorerna bakom GPUn så tätt? De är ju mindre än en millimeter från varan.

Som sagt, produktionshastighet.

En robotarm kan bara sätta ut x antal komponenter per sekund vilket begränsar hur många man får ut per maskin, displayer (snarare LED-plattor) brukar använda en modifierad modell där flera "statiska" armar lägger ut lysdioder från varsin spole med lysdioder för att drastiskt öka komponenter/tid. Man kan se det i en video av bigclive där en rad av plattan har lite mer effektiva dioder:

Skickades från m.sweclockers.com

Av wowsers
Skrivet av Esseboy:

Lär nog lätt gå att få upp i 90x48 lätt, vilket är 4320 zoner. Finns LEDs på ner till 1x1mm

Skickades från m.sweclockers.com

Storleken har inte jättemycet med det att göra, dom flesta lysdioderna som används till detta är mindre än 1mm i storlek.

Stösta faktorn är att fysiskt placera ut lysdioderna och få alla att sitta kvar och fungera (när man lägger ut tiotals per sekund per rad), och då är minimum avstånd runt 1cm beroende på hur produktionslinan ser ut (oftast SMD dioder på rullar av plastband).

Att klämma flera komponenter på bredden är det svåraste, då kan man behöva flera maskiner som sätter komponenter offset på bredden från första maskinen.

Av wowsers

Vet väl ej om 20x12 lysdioder (eller därikring) är speciellt imponerande för en 4K skärm, det är ju 196x180px per zon. Skulle bli mer imponerad av 576 (32x18) eller 1296 (48x27) zoner, det är möjligt med nuvanade CoB teknik för dessa panelstorlekar.

Av wowsers

Istället för PLC skulle jag vilja se MLC på dessa dubbel celler, skulle motsvara QLC fast vara mer robust och förmodligen snabbare också.

Av wowsers
Skrivet av cheben:

Länkade artikeln från SVT tycker jag hjälper lite att belysa, jag har själv undrat vad poängen är men är nu positiv till att försök görs. Men framför allt handlar det om att inte lämna hela makten i landets penningsystem i händerna på några få privata aktörer. Som exempel (som svt artikeln inte tar upp), vad händer om Sverige utsätts för sanktioner/handelspåtryckningar (Visa/mastercard är bolag baserade utanför EU) genom att betalnätverk inte får göra affärer med svenska medborgare? Vad händer ifall internet skärs av utanför landet?

Utöver det så finns det den mer närliggande aspekten att alla kunder inte nödvändigtvis måste få använda de privata betalningsnätverken, och försvinner kontanter kan dessa personer från problem. Att vara funktionellt pank pga att man inte kan/ens får utnyttja sina pengar är ett nytt ohanterat problem när kontanter försvinner. Saker som detta har redan hänt för mindre organisationer när Visa/mastercard/paypal stängt av tillgång på grund av "Terms of service" brått

Det är i alla fall min latmansförståelse

Saken handlar om att bankerna faktiskt ska följa EU reglement, enligt lag får banker som bedrivs i EU inte stänga tillgång till ett konto (privat eller företag) om det inte misstänks pengatvätt, man kan tom. ha skulder på kontot men det får ändå inte stängas ned hursomhelst.

Finns dock nog mycket problem med typ banker som terminerar gamla konton utan att meddela användaren 2-3 månader i förväg (var väl någon bank här i sverige som gjorde detta något år sedan?), så jag förstår all oro.

Skickades från m.sweclockers.com

Av wowsers
Skrivet av ipac:

Det finns inga QLED-displayer alls. Punkt.
Iaf inte än så länge.
Det ger dock inte Samsung "rätt" att i förtid hitta på en "egen" displaytyp trots att displaytypen inte har ändrats. En LCD är fortfarande en LCD, även om den för displaytypen nödvändiga backlighten ändras.

Hade det varit ok för SSHD tillverkaren att hävda att de kör med masslagringstypen SSD om det skedde vid en tidpunkt innan någon SSD hunnit ut på marknaden menar du? Jo, det är väldigt närbesläktat.

Det är exakt vad vi diskuterar nu. QLED är bara en förlängning/fortsättning av det missvisande LED-begreppet, inser du inte det?

Pga att Samsung började ja. För att möta upp den marknadsfördel Samsung fick av att frångå namngivningsprincipen för olika displaytyper (och samtidigt göra allt för att dölja vilken displaytyp det faktiskt rör sig om, lite som om vår "SSD" tillverkare aktivt råkar glömma att nämna "aye, det här är en hybrid med en mekanisk drive").

Trots det så har flera tillverkare under flera år iaf faktiskt skrivit "LED-LCD" i sin specifikationer (inte kollat hur det ser ut nu). Hos Samsung har det varit som bortblåst sen evigheter.

Det fanns LCD med LED backlight långt före (t.o.m. från Samsung själva) Samsung kom på att de skulle kallas LED.
Än lustigare är att LED/LED-tv dök upp då Samsung lanserande en LCD med Edge LED i en tunn formfaktor. Att Sony hade lanserat exakt en sådan produkt ett halvår tidigare triggade inte dem att "bryta" med reglerna.

Är det hela världen? Nej. Är Samsung bra på reklam. Ja. Men det hade dock varit trevligt att fått en slant varje gång man helt i onödan hade behövt förklara hur det ligger till - om så hade varit fallet så hade det tveklöst varit Samsung man skulle tacka mest av alla tv-tillverkare. :D.

Vem skrev lagen att LED i namnet ens måste ha något att göra med individuell belysning av pixlar? Jag förstår att folk misstolkar begreppet pga mobilskärmar där AMOLED är det tekniska namnet, men LED har ju använts i marknadsföringssyfte före smartphones och TV apparater ens började använda OLED paneler (som du sade, LED-LCD).

Den enda skillnaden är att de har skippat att specificera LCD i namnet, för att LCD länge förknippats med displayer som har dålig kontrast och ser skit ut (tack vare lysrören som användes då), exakt samma anledning man skriver VA och IPS över LCD och TN, trots att den underliggande teknologin är densamma.

En bättre lösning kanske hade varit att kalla panelerna LC-LED eller något, då skulle vi kanske ha t.ex. LC-QLED vilket meddelar om att det är LED-LCD med specialsås, utan att skriva ut en dåligt förknippand term.

Skickades från m.sweclockers.com

Av wowsers
Skrivet av Yoshman:

Tror inte heller 3 ggr högre IPC från idag är realistiskt. Har ändå skruvat upp nivån på hur långt jag tror man kan komma med IPC, primärt då Apple numera har 80 % högre IPC jämfört med Zen2/Skylake. Även ARM har visat vad som är möjligt, Cortex A76 matchar Zen2/Skylake, Cortex A77 ökade IPC ~25 % och ARM har kommuncerat att kommande 2-3 generationer (en per år) kommer öka enkeltrådprestanda med 20-30 %.

Visst är Aarch64 en långt bättre ISA jämfört med x86_64, men svårt att tänk mig att det ger mer än kanske 30-40 % högre IPC, inte 80 % som fallet är nu (Apples A13 kärnor är helt jämförbara med Zen2/Skylake i komplexitet och storlek, Cortex A76 är väsentligt mindre).

Förstår dock inte varför du skriver 5-8 % och 10-15 %. Vad är vad där och varför tror du på olika utveckling för samma ISA?

Zen+ -> Zen2 gav ~15 % högre IPC. Fast kolla vad som krävdes... 8 Zen+ kärnor + L3$ tog ungefär 90 mm² kretsyta på GF/Samsung 14 nm medan 8 Zen2 kärnor + L3$ tar ~80 mm². TSMC hävdar dubbel densitet från 16 nm -> 10 nm och 1,6 gånger från 10 nm -> 7 nm, så 3,2 gånger högre densitet på 7 nm jämfört med 16 nm.

Nu gick AMD från GF/Samsung, GF planerade 7 nm process hade nära nog identisk densitet med TSMC. GF hävdade 2,8 gånger högre densitet från deras 14 nm till 7 nm. Så TSMC och GF siffror är sammstämmiga då TSMC 16 nm hade lägre densitet jämfört med GF/Samsung 14 nm.

Slutsatsen man kan dra är att Zen2 lär använda mer än dubbelt så många transistorer för CPU+L3$, det för 15 % högre IPC... Låter inte helt osannolikt när man ser att L3$, μ-op cache, SIMD-bredd fördubblades, antal ld/st-portar ökade 50%, L2-TLB$ ökade 33 %, out-of-order fönstret ökade 17 %, scheduler-köer ökade ~10 %. En sådan massiv förändring kan bara göras ihop med byte av nod, finns ingen chans att Zen3 (TSMC 7 nm+) kommer se en så stor ökning om man inte samtidigt kraftigt ökar storleken på kretsytan.

Skylake -> Sunny Cove verkar ju ha gett mer än de 18 % som Intel skrivit. ST GB5 visar på en ~22 % ökning av IPC, Phoronix uppmätte ~24 % högre prestanda hos i7-1065G över i7-8655U (då har den senare både högre maxboost och högre basfrekvens).

Men åter igen. Kollar man på vad som ändrats för att få den ökning så påminner den om Zen+ -> Zen. Arean för 4 st CPU+L3$ har minskat från ~50 mm² till ~30 mm² (fast med en densitetsökning på upp mot 2,7 gånger). En stor orsak är nog att Intel inte ökat L3$, L3$ tar massiv mängd utrymme i anspråk (lite över 50 % av Zen2-chiplet ser ut att vara L3$). Men huvudförändringen till Willow Cove är just massiv ökning av cache (L2$ ökar till 1,25 MB från ,25 MB i Skylake och ,5 MB i Sunny Cove, L3$ kommer öka 50 %), så då lär man vara tillbaka på ~50 mm² igen.

Antar vi att Intel faktiskt stannat vid sin ursprungliga 10 nm densitet (vilket mycket pekar på när folk jämfört storlek på t.ex. iGPU EUs) så har Sunny Cove CPU+L3$ ~60 % fler transistorer (och det är i praktiken 60 % fler transistorer i CPU då L3$ är lika stor som innan). Man har ökat L2$ och ITLB$ 100%, 80 % fler läs operationer kan vara "in-flight" (bra för att "gömma" latens), out-of-order fönstret hela 60 % (det lär svida i transistorbudget!), ökat μ-op och L1d$ 50 %, ökad back-end bredd 50 % (100 % fler portar för minnesoperationer), likt Zen2 har man 33 % större L2-TLB$.

En stor orsak till att Nehalem -> Sandy Bridge -> Haswell -> Skylake (mikroarkitekturändringarna, tock:en) bara sett 5-10 % IPC-ökning är att storleken på kretsen minskat rätt kraftigt. Man har mer använt krympningarna till att optimera servers för fler kärnor och minska tillverkningskostnad för konsumenter. Även i dessa har det krävts rätt stora relativa förändringar i teoretisk kapacitet för en rätt liten praktisk ökning.

TL;DR är ändå att man kan skruva upp IPC, men kvoten ökning IPC mot ökning antal transistorer är rätt dålig och minskar

Bara liten detalj men på Zen2 är ca 10-15% av CCD själva IF bryggan till cIOD, så CCX storleken har minskat från ca 45 till ca 35 mm^2.

Skickades från m.sweclockers.com

Av wowsers
Skrivet av Yoshman:

Alpha var en bra ide fram till att CPUer fick mer än en kärna... Precis som SPARCs registerhjul är designen för minnesoperationer i Alpha ett lysande exempel på hur rejält smarta idéer kan bli ordentliga ankare när det sker lite mer fundamentala förändringar i vad som är mest viktigt.

Alpha har också riktigt dålig kod-densitet (ett problem den delar med MIPS och SPARC, men dessa är inte fullt lika dåliga på den punkten). Ett litet problem när det begav sig, ett allt större problem ju mer RAM-latens sackar efter hastigheten hos CPU-kärnorna.

Itanium är ett exempel på att man kan göra allt enligt konstens alla regler, men ändå hamna i en dynghög. Itanium togs fram i en tid när man från akademiskt håll var övertygad om att framtiden låg i att göra mer optimeringar i programvara som kompilatorer då komplicerade breda out-of-order designer har rätt dålig prestanda vs antal transistorer skalning.

Tankevurpan det visade sig hela det spåret hade är att man bara kan ta hänsyn till statisk information för optimering, dynamiska aspekter där utfallet beror på hur den data man råkar jobba med påverkar körningen kräver av (när man är efterklok ) rätt uppenbara skäl information som bara finns när man faktiskt kör programmet.

Det RISC-V och Aarch64 (som man måste vara medveten om är en helt ny ISA från 32-bitars ARM, så finns en anledning varför ARM-prestanda först nu drar iväg så pass) är optimerat för är just att göra "IPC mot antal transistorer"-kvoten så bra som möjlig. Dessa ISA har egenskaper som möjliggör effektivt utnyttjande av väldigt många pipelines i backend, detta genom att designa instruktionerna så att de har minimalt med beroende mellan sig (hos 32-bitars ARM och än mer i x86 har tyvärr de flesta instruktioner en påverka på ett för CPU-kärnan globalt tillstånd, flag-fältet).

x86 har också problemet att överhuvudtaget vet var instruktioner börjar och slutar. μ-op cachen har flera fördelar (Cortex A77 har en μ-op$ av strömsparande orsaker), men för x86 är den helt kritisk för att kunna nå riktigt hög IPC då det är enda realistiska sättet att kunna avkoda tillräckligt med instruktioner per cykel.

Just här finns ett beslut som fundamental skiljer sig mellan RISC-V och Aarch64. Hos RISC-V kan instruktioner vara 2- eller 4-bytes, hos Aarch64 är de alltid 4 bytes. Båda har för- och nackdelar, högre kod-densitet mot enklare front-end. RISC-V är inte i närheten av x86 där instruktioner kan vara allt från 1-15 bytes (OK med variabel längd, men vem tyckte 1-15 bytes uppdelade i variabellängd-prefix, variabellängd-opkod och variabellängd-argument lät vettigt)...

Compressed subset i RISC-V skiljer sig ganska mycket från Thumb läget i tidigare Aarch versioner.

RVC är enbart en lista med alias som kan bakas in ganska triviellt för att komprimera kod, det är ett helt frivilligt tillägg, men är rekommenderat för generella implementeringar (bl.a. pga. det sparar ca 20% cache).

Kretsdesignare som vill klämma ur mer prestanda kan t.ex. implementera "macro op fusion" internt, vilket enklare kretsdesigner kan ignorera helt och hållet om de vill spara på transistorer och komplexitet.

Thumb läget i Aarch är ett helt separat exekveringsläge (i stort sett en egen ISA), så för att effektivt använda det måste man undvika byten till och från det läget, opraktiskt om man vill komma åt utökningar av standard ISAn som SIMD samtidigt som man vill spara på bytes, vilket jag gissar står till stor del varför man gett upp på det med Aarch64.

En annan grej jag tror står till skuld att de gav upp på Thumb är att modern Aarch har ganska många CISC liknande kommandon, som t.ex. "LDMIAEQ SP!, {R4-R7, PC}" vilket är en "stack pop and return from a function call", definitivt mindre bytes än motsvarande i RVC men börjar sträva iväg från RISC principen.

Av wowsers
Skrivet av NodCommander:

Välja ett nordiskt bolag istället för ett kinesiskt, ja, varför är det ens tal om något annat?

Bra nyheter!

Skickades från m.sweclockers.com

Vi har ingen (vad jag vet) direkt info om de ens har ASICs, vi vet att Intel och Ericsson har legat hand i hand för att implementera 5G på mjukvarusidan, och Intel har enbart haft strömtörstiga FPGA lösningar som varit svårkylda för serverracks på marken under master.

Förhoppningsvis är hårdvaruteamen inte lika hand i hand, för då kanske vi får vänta ytterligare 2-3 år innan skarpt kisel faktiskt är portat, validerat och användbart hos andra tillverkare typ TSMC eller Samsung.

Av wowsers
Skrivet av KalBumling:

Misslyckats? 10nm var totalt värdelös, cannon lake är beviset på det. Det man gjorde med 10nm har ju uppenbarligen gjort rejäla skillnader, nuvarande ICL 10nm chips som finns i bärbara är relativt stora för att vara quad cores (mer GPU än CPU). Intel skulle t.ex med samma mängd kisel nästan kunna göra en 10 kärnig CPU utan GPU, problemet är att nå frekvenser som gör det värt det än att bara pusha ut fler 14nm baserade chip (14nm är billigare).

Detta med hur dåliga yields deras APUer har får mig verkligen att ifrågasätta hur länge Intel har skjutit upp på att använda chiplets.

Om man i runda slängar säger att en sexkärnig processor och iGPU har samma storlek kommer yield ändå vara högre för båda separat än kombinerat, blus att samma GPU lina kan försätta alla CPUer som behöver en iGPU.

Även för 14nm var det en acceptabel lösning, det funkade med vega/intel kombon (även om detta var närmare en dGPU och SoC på samma paket).

Av wowsers
Skrivet av lindahlj:

Härligt att höra. Har inte haft en AMD processor sedan AMD Athlon 64 och jag hoppas att jag aldrig behöver köpa en av dem igen.

Mest troligt kommer inte behöva det heller i och med dessa nyheter.

Nja, tror du kan lugna förväntningar tills de faktiskt börjar leverera 10 eller 7nm i konsumentvänliga volymer

Skickades från m.sweclockers.com

Av wowsers
Skrivet av mpat:

De har ju precis lyckats backporta LPDDR4-kontrollern från Cannonlake till 14nm (Comet Lake), vilket borde kostat lika mycket och varit enormt mycket mer efterfrågat av kunderna. Intels planer har hela tiden varit att det bara gäller att fixa 10nm så fixar sig allt. Det är egentligen bara för ungefär ett år sen som de verkar ha fattat att det inte kommer att hända. Att ett gammalt low-end chip för embedded-marknaden får köra vidare med DDR3 är Intels minsta problem just nu.

Jo, det är definitivt mer marknad i nyare processorer, men att backporta från 14 till 22 borde vara markant mycket enklare än 10 till 14 pga bristen på beprövade 10nm chip, plus att utvecklingskostnaderna (och tiderna) för 22nm är mycket lägre än 14 och 10 oavsett.

Av wowsers
Skrivet av Greyguy1948:

Har AMD nån 28 nm CPU som är i klass med G3420?
Kanske Athlon 845?

Vet ej om 28nm, men dom har Athlon 200GE och 3000G: dom presterar bättre och drar mindre ström, och kostar max runt $50. Undra hur billiga dessa kommer bli (om det inte bara är OEM).

Jag hade trott att Intel skulle ha lagt tid och pengar på ett systerchipp till denna med stöd för DDR4 bara för att kunna trycka ner dem i nya moderkort.

Skrivet av mpat:

Nej, du får köra med ett gammalt moderkort. Att lägga till stöd för en ny minnesarkitektur är inte gjort i en handvändning.

Inte på en handvändning, men Intel har nog kunnat förutspå bristen på processorer redan då 10nm började bli förskenat (2016-2017).

Att sätta ett litet team på att backporta en DDR4 kontroller till 22nm skulle nog ta runt ett år + några månaders validering, så om de gjorde detta 2017 skulle det vara klart till nu, det är ju dock lätt att vara eftersmart.