Inlägg

Inlägg som aliassund har skrivit i forumet
Av aliassund

Det finns inget vetenskapligt stöd för att en tillräckligt komplicerad maskin får ett självmedvetande, faktum är att vetenskapen inte kan förklara företeelsen självmedvetande, att knyta den till den materialistiska världsåskådningen. Att man sen kan ha en konversationen med en maskin är en helt annan sak och att den kan vara väldigt sofistikerad hyser jag inga tvivel om.

Av aliassund
Skrivet av Ozzed:

Ja. Det borde inte kunna bli en diskussion om. Men det kommer alltid finnas muppar som menar att kvinnor är sämre på att förhandla och därför får skylla sig själva. Vilket är ett sjukt förhållningssätt oavsett om det är sant eller inte. Lön ska vara baserat på roll, kompetens och hur väl man utför sina arbetsuppgifter, inte hur bra eller dålig man är på att löneförhandla.

Helt rätt men i praktiken kantat av svårigheter. Problemet är väl att det ofta är väldigt svårt att mäta personers prestationer objektivt och samtidigt är olika personer olika bra på att marknadsföra sig och ta plats. På en kompetitiv arbetsplats måste man vara kompetitiv oavsett kön.

Av aliassund

Rätt mycket hype inom 6G för att kunna synas i mediebruset. Och 6G drivs fortfarande primärt av de som tidigare drivit utvecklingen inom mobila standarder framåt. Frågan är om de är bäst lämpade att definiera visionerna. Det finns mycket problem med att stoppa in elektronik i kroppen i stor skala och om det inte har mognat inom 3-4 år kommer det inte med i 6G standarden.

Av aliassund
Skrivet av Petterk:

Du får nog förtydliga vad du vill säga.

Det går inte att jämföra 3080 och 2080 rakt av med 1080 då lanseringspriset (för de första) är högre. Kretsen i ett 3080 är den samma som den i ett 3090 Ti innan delar stängs ner.

Det finns en god prestandaförbättring där och rå prestanda har ökat med kanske 50 % och ofta mer i spel för jämförbart pris (MSRP) och kretsstorlek på sådär 6 år, men programvaran tar knappast nytta av alla nya funktioner som förr som då gjorde att det i princip inte gick att ha kvar ett grafikkort som är några år gammalt. Självklart blir det inte samma behov, det är ju inte för att spela senaste spelen som det sticker iväg idag.

Skillnaden i rå prestanda mellan R350 (lanserad 2003) som jag tog upp tidigare och RV770 (2008) är att den senare är brutalt mycket större än tidigare exempel. Runt den tiden kunde du se mer än dubbla kraften på ~2 år.

Någon som köper ett Nvidia A40 gör det inte för status, eller för att de rädd om plånboken.

Jämförelsen avser antal transistorer per mm2 och att ökningen är rätt stor från 12nm till 7nm. I den bästa av världar så är prestanda proportionell mot antal transistorer för samma klockfrekvens (jag vet, väldigt grovt men ändå). Men baserat på vad Du skriver är så inte fallet. Man kan diskutera varför, men ytterst skulle det kunna förklara varför man väljer att gå från 314mm2 till 628mm2 för att kunna motverka detta, för att ge bilden av en fortsatt snabb utveckling.

Annars, vad jag försökte säga tidigare:
Du skrev "Där spelar nog inte köpbegär och status in", vilket implicerar att "köpbegär och status" har betydelse i en del andra fall. Och då var min fråga om köpbegär och status är skälet till att GPUer diskuteras här på sweclockers, och inte pga att det finns ett faktiskt reelt behov. Det ska ses i ljuset av att Du skrev "idag behöver du inte senaste värstingkortet för att köra senaste värstingspelet".

Av aliassund
Skrivet av Petterk:

Det jag syftade på i tidigare inlägg är det jag syftade på. Tidigare kunde du ha ett 2-3 år gammalt grafikkort och inte ens kunna starta det senaste spelet ibland, och ofta för låg prestanda för att ens köra med nedskruvade inställningar.

GTX 1080 är från maj 2016, alltså 6 år gammalt och du kan köra ditt Microsoft Flight Simulator på den utan större problem. Är enda sättet att dra ifrån GTX 1080's 314 mm² krets ordentligt att göra en 628,4 mm² krets så kommer det dra ifrån på priset och inte längre ha samma målgrupp. Tidigare kunde de öka prestandan utan att göra större kretsar.

Har du inte greppat att de riktas till andra målgrupper så blir det såklart konstigt, om du köpte GTX 1080 2016 så kanske det du ska köpa idag är RTX 3070 Ti, köper du högre köper du en helt annan klass. Värstingkorten idag har också andra användningsområden än spel och simulatorer så du kanske får acceptera att inte vara värst.

Jag har inte ifrågasatt vad Du skriver, snarare vill jag få bekräftat min slutsats som är baserat på vad Du skriver.

Det skulle vara rätt besvärande om en ny nod för tillverkning inte skulle ge signifikant prestandaökning per ytenhet kisel då antalet transistorer eller grindar per ytenhet har ökat rätt rejält. Så där finns säkert en prestandaökning per ytenhet men monsterchippen tillverkas eftersom, som Du säger, där nu finns en (annan) marknad även om kostnaden skjuter i höjden.

1080: 16nm FF 314mm2 7.2BT 23MT/mm2
2080: 12nm FF 545mm2 13.6BT 25MT/mm2
3080: 7nm FF 628mm2 28.3BT 45MT/mm2

Av aliassund
Skrivet av Petterk:

Det är ju en applikation där du aldrig haft vettig prestanda. Där spelar nog inte köpbegär och status in lika mycket.

Vet inte om det var intresset för flygsimulator eller hårdvara som kom först för min del...

Så om hygglig hårdvara räcker för nästan alla spel, vad som återstår som skäl för oss är alltså enbart köpbegär och status?

Av aliassund
Skrivet av Petterk:

Det är ju inte bara spelare som är målgruppen längre. Monsterkretsarna kommer leva även om spelarna inte köper de, sen är det ju som sagt inte som tidigare – idag behöver du inte senaste värstingkortet för att köra senaste värstingspelet.

Om det är sant, varför diskuterar vi överhuvudtaget detta här på Sweclockers?

För egen del kör jag ms flight simulator och VR och ska jag vara ärlig räcker inte ens 3090 så hoppas rätt mycket på 40xx.

Av aliassund
Skrivet av Petterk:

Fast priset har ju inget med tillverkningskostnaden att göra i det här fallet, någon har bara stoppat allt i fickan. Antyder att detta bara är början för vad ska tillverkare/dist/butik göra med tusentals RTX 3050 som är prissatta högre än RX 6600? Till slut måste de dumpa de. Det enda TSMC lär tillverka på ett grafikkort är grafikprocessorn, Navi 23 är 237 mm² och R350 (Radeon 9700-9800 anno 2002) var 218 mm². Klart de kan ta mer för de stora kretsarna, men grafikkorten är på väg ner till MSRP.

Att du inte får någon ordentlig uppgradering har mer med teknikutvecklingen att göra än priset. Gör något så enkelt som att titta på Sweclockers prestandaindex på 1080, från ett GTX 1070 Ti måste du upp till RTX 3070 för någon ordentlig prestandahöjning. Förr kunde du helt enkelt vänta dig större ökning på 2 år än på 5 år idag – jämför t.ex. GeForce 4 mot GeForce 6800.

Är inne på samma linje, elektronikindustrin håller långsamt på att krokna pga snabbt ökande kostnader. För att ändå leva upp till förväntningar och behålla intresse måste man öka priserna, men det finns en gräns.

Av aliassund

Har vad jag behöver och inväntar nästa generations GPUer, om de kommer att kunna köpas för rimlig peng. Om så är fallet kanske det blir läge att byta hela riggen.

Av aliassund

Privatkopierade musiksamlingen för 15år sedan och har löpande därefter gjort det med filmer också, men alltmer sällan. Alla cd, dvd osv på tippen. Behåller det rippade materialet ifall jag blir för irriterad på streamingtjänster med illa dold politisk agenda.

Av aliassund
Skrivet av DavidtheDoom:

Slarv av mig, tillslagsspänning, helt enkelt när en halvledare börja leda. Det är väl det man ofta kallar "gatespänning".
Låg spänning = högre frekvens (kortare stegsvar då tillslagsnivån ligger närmre) men även lägre energiförbrukning.
Dynamisk energiförbrukning kan oftast approximeras till:
Pdyn = Vcc²*C*A*freq

Således är tillslagsspänningen av stor betydelse i alla halvledare.

Vcc är drivspänningen och likaså också nivån för att representera logisk "1". Låg drivspänning ger snabbt lägre effektförbrukning Pdyn men också lägre maximal hastighet. Tillslagsspänning som Du nämner brukar normalt kallas tröskelspänning. Låg tröskelspänning ger snabbare transistorer men de läcker också mycket mer ström. Uttrycket för effektförbrukning ovan är rätt centralt för digitala kretsar och sweclockers kanske borde hitta någon som kan skriva en populärvetenskaplig artikel.

Av aliassund

Bara VR, 2x 2160 x 2160

Av aliassund
Skrivet av Det Otroliga Åbäket:

För läsning ja. Men sen ZFS första gången skrevs har i princip alla operativsystem gått över till att försöka använda allt tillgängligt utrymme för cache eftersom det är slöseri att ha helt oanvänt minne i en dator.
För filintegritet är den viktigaste faktorn vad som kan gå snett när saker skrivs, och då skulle jag nog påstå att ZFS åtminstone inte är sämre än andra filsystem om man inte har ECC-minne och utan tvekan mer tillförlitligt om man har det.

(Att det är total idioti att Intel och deras kumpaner gjort ECC till en premiumprodukt när det borde vara standard i allt minne idag är en helt annan fråga...)

Efter att ha läst följande är jag benägen att hålla med Dig på samtliga punkter.

https://jrs-s.net/2015/02/03/will-zfs-and-non-ecc-ram-kill-your-data/

Av aliassund
Skrivet av Cloudstone:

Om en bit flippas i minnet så kommer alla filsystem att drabbas, ext4, ntfs, xfs, zfs. Det är ett problem för alla, däremot har ZFS bra funktioner att hjälpa till om man inte har tillgång till ECC. Det jag menar är att det bör inte vara en showstopper för någon att köra ZFS om de ej har ECC minne, men givetvis om man har ECC så bör man köra det.

Använder man rsync (eller valfri filkopiering/backup verktyg) med --checksum flagga påslaget så kan man vara säker på att datan är korrekt skriven till disk. Sedan sköter ZFS checksumming resten, med regelbundna scrubs som ZFS gör per default tycker jag det är det bästa alternativet.

Om man är den typen av människa som bryr sig om ECC så lär man även backa upp sin NAS tänker jag

Jo, jag är den typen. Men som jag förstår det är ZFS känsligare i förhållande till andra filsystem, det använder gärna allt RAM som finns och på så vis är det mer utsatt.

Av aliassund
Skrivet av Mordekai:

Var inte detta på Sweclockers för ett år sedan? Det handlar väl dessutom mer om optimering av layout? Kan vi enas om att sluta kalla ML för AI?

ISSCC 2020 plenary, ca 30min in i videon.
https://youtu.be/eRlmruhTulU

Av aliassund
Skrivet av Cloudstone:

Linux och ZFS är det viktigaste i min mening. ECC minnen är inget man måste ha med ZFS eftersom ZFS gör checksumming av data för att förhindra filkorruption, bitrot, block/filreparation osv. För hemmabruk tycker jag att ZFS utan ECC funkar bra. Jag tror det är på by default, annars är det bara att köra:

# zfs set checksum=on pool/dataset

Sedan som OS är Ubuntu Server ett bra alternativ. Man vill gärna att ens NAS ska vara rock solid, så inga rullande releaser utan testade releaser. Ubuntu används överallt, finns mycket dokumentation men framförallt för att kärnan kommer med ZFS-modulen färdigkompilerad. Dvs du behöver inte kernel-headers och dkms för att installera modulen vid varje kernel update. Bra för användning för enterprise, så med andra ord så lär Canonical se till att ZFS fungerar bra med deras LTS releaser. Så vitt jag vet så är Ubuntu enda distron som gör detta (förutom Proxmox). Jag har ingen särskild kärlek till Ubuntu, föredrar Debian eller Arch men för just en NAS är det ett bra val.

Det råder delade meningar om ZFS och ECC. För egen del har jag ECC. Korrupta ZFS diskar är körda, finns inga recovery verktyg, så i det avseende är ZFS mer beroende av felfritt RAM.

https://louwrentius.com/please-use-zfs-with-ecc-memory.html

Av aliassund

Annonsen är avslutad

Av aliassund
Skrivet av MartenSV:

Jag tar tacksamt emot den, kan hämta

Skickar PM

Av aliassund

Fractal Design Define chassi bortskänkes

Skänker ett Fractal Desgn Define chassi, okänd version. Finns att hämta i centrala Lund, först till kvarn. Skicket är ok, har använt det som NAS chassi runt 5år, men inget man ställer på skrivbordet. Sitter en lågtrycks Noctua 120mm Redux fläkt i.

Läs hela annonsen här

Av aliassund
Skrivet av Kaspersky 0_o:

Har du belägg för dina påståenden?

Tycker inte underklocka/volta är ett rimligt argument, så kan du säga om allt som är ineffektivt.

Förenklat, varje gång en transistor ändrar tillstånd (1->0->1) går det åt en viss mängd energi och tar en viss tid. Ju oftare man byter tillstånd ju högre effektförbrukning, öka hastighet med 10% och effektförbrukning ökar 10%. Men till slut hinner inte transistorn med och det enda sättet att göra den snabbare är att öka spänningen. Men ökningen i effektförbrukning är kvadratisk, så om Du ökar spänningen 10% så ökar effekten ~20%. Sen finns det andra effekter som förvärrar situationen än mer tex i takt med ökad temperatur. Lyckligtvis fortsätter dimensionerna på transistorer i nya noder att minska och det minskar även energiåtgång för att ändra tillstånd. Däremot blir inte transistorerna speciellt mycket snabbare längre.

https://en.wikipedia.org/wiki/Processor_power_dissipation