Inlägg

Inlägg som Superthug har skrivit i forumet
Av Superthug

Folk som skapar en tråd och skriver: "Jag har problem med min dator?" "Satte in nytt grafikkort och nu är det helt svart?" osv...
Jag vet aldrig vad jag ska svara på dessa "frågor"

Av Superthug

Det är inte brist på negativa artiklar om MS nuförtiden är ett som är säkert

Av Superthug
Skrivet av THB:

Hoppas att det löser sig.
Ser ut som på senaste loggen som att det antingen är RAM eller kontrollern på moderkortet.

Bytte ut ena minnet men det blev bara sämre. rasdaemon rapporterade fel på minnen varje sekund
så nu är alla stickor bytta till samsung och det verkar fungera oavsett belastning på varken CPU, minne eller diskar!
Räddaren i nöden var rasdaemon som iaf visade vilken kanal felet var på.

/S

Av Superthug

Ser ut att vara kanal 0 som felar.
Sticka A1 och A2. Jag har en! reservsticka av samma modell.
Ska testa byta ut en och en så får vi se. Annars har jag kompatibla PC3L stickor
så kan jag byta ut alla

Av Superthug
Skrivet av THB:

Efter att ha läst runt lite så verkar det som att Proxmox slänger ut det där felmeddelandet fast inget är egentligen trasigt.
De flesta som har fått det har inga problem och allt rullar på som vanligt.

Jo jag läste runt en hel del och jag fick den bilden också. Dock lyckades jag fånga detta nu med rasdaemon

rasdaemon: read
<...>-27034 [000] 0.000652: mce_record: 2024-04-02 19:47:04 +0200 bank=8, status= 8c00004000010090, MEMORY CONTROLLER RD_CHANNEL0_ERR Transaction: Memory read error, mci=Corrected_error, n_errors=1, cpu_type= Ivy Bridge EP/EX, cpu= 0, socketid= 0, misc= 21405ada86, addr= 1fc5c98c80, mcgstatus=0, mcgcap= 1000c1d, apicid= 0

<...>-27034 [000] 0.000652: mce_record: 2024-04-02 19:47:04 +0200 bank=d, status= 8800004000800090, MEMORY CONTROLLER RD_CHANNEL0_ERR Transaction: Memory read error Corrected memory read error, mci=Corrected_error, n_errors=1 memory_channel=0 ranks=5 and -1, cpu_type= Ivy Bridge EP/EX, cpu= 0, socketid= 0, misc= 5229400040004000, mcgstatus=0, mcgcap= 1000c1d, apicid= 0

<...>-27034 [000] 0.000652: mce_record: 2024-04-02 19:47:05 +0200 bank=8, status= 8c00004000010090, MEMORY CONTROLLER RD_CHANNEL0_ERR Transaction: Memory read error, mci=Corrected_error, n_errors=1, cpu_type= Ivy Bridge EP/EX, cpu= 0, socketid= 0, misc= 20406eee86, addr= 2d6b5b680, mcgstatus=0, mcgcap= 1000c1d, apicid= 0

<...>-27034 [000] 0.000652: mce_record: 2024-04-02 19:47:05 +0200 bank=d, status= 8800004000800090, MEMORY CONTROLLER RD_CHANNEL0_ERR Transaction: Memory read error Corrected memory read error, mci=Corrected_error, n_errors=1 memory_channel=0 ranks=5 and -1, cpu_type= Ivy Bridge EP/EX, cpu= 0, socketid= 0, misc= 5229400200020000, mcgstatus=0, mcgcap= 1000c1d, apicid= 0

<...>-27034 [000] 0.000657: mce_record: 2024-04-02 19:48:01 +0200 bank=8, status= 8c00004000010090, MEMORY CONTROLLER RD_CHANNEL0_ERR Transaction: Memory read error, mci=Corrected_error, n_errors=1, cpu_type= Ivy Bridge EP/EX, cpu= 0, socketid= 0, misc= 2140787886, addr= 25fd1c680, mcgstatus=0, mcgcap= 1000c1d, apicid= 0

<...>-27034 [000] 0.000657: mce_record: 2024-04-02 19:48:01 +0200 bank=d, status= 8800004000800090, MEMORY CONTROLLER RD_CHANNEL0_ERR Transaction: Memory read error Corrected memory read error, mci=Corrected_error, n_errors=1 memory_channel=0 ranks=5 and -1, cpu_type= Ivy Bridge EP/EX, cpu= 0, socketid= 0, misc= 5229400100010000, mcgstatus=0, mcgcap= 1000c1d, apicid= 0
y read error Corrected memory read error, mci=Corrected_error, n_errors=1 memory_channel=0 ranks=5 and -1, cpu_type= Ivy Bridge EP/EX, cpu= 0, socketid= 0, misc= 5229400100010000, mcgstatus=0, mcgcap= 1000c1d, apicid= 0

Som jag tolkar detta så är det minnesproblem. Stämmer det?

/S

Av Superthug

Ja har läst den. Därför jag postade rasdaemon loggen. Inga fel.
Tittar jag i journal så ser jag följande:
Apr 02 18:44:41 xeon pvedaemon[11906]: INFO: Starting Backup of VM 102 (qemu)
Apr 02 18:45:04 xeon kernel: mce_notify_irq: 10 callbacks suppressed
Apr 02 18:45:04 xeon kernel: mce: [Hardware Error]: Machine check events logged
Apr 02 18:45:04 xeon kernel: mce: [Hardware Error]: Machine check events logged
Apr 02 18:45:15 xeon pvedaemon[11906]: INFO: Finished Backup of VM 102 (00:00:34)

Alltså hände detta när jag körde att backupjobb runt den tiden.
Efter det så finns det inget mer.
Ska köra en backup till för att se om jag bringar fram felet igen...

Av Superthug

Proxmox - mce: [Hardware Error]: Machine check events logged

Hej,

Har precis satt upp en Proxmox VE server och några vm's.
Alla 3 vms ligger och idlar så inte mycket belastning på varken cpu eller disk.
Och lite då och då under dagen får jag följande fel i hosten.

mce: [Hardware Error]: Machine check events logged

Jag märker inte av detta på något sätt.
En utav VM är ipfire som agerar router/brandvägg.
En är pihole och en openmediavault.

Inga utav dessa har några fel som jag märker.
Enda stället detta syns i är proxmox noden.

Jag har provat memtest under 2 dygn utan att hitta några fel där iaf.
rasdaemon visar:
root@xeon:~# ras-mc-ctl --summary
No Memory errors.

No PCIe AER errors.

No Extlog errors.

No MCE errors.

Vad tror ni kan vara fel? Inga HW errors loggade i BIOS heller.
Kan det vara kärnan som bråkar? Kan jag felsöka något mer?
Felmeddelandet känns inte speciellt specifikt.
6.5.13-3-pve

Spec:
Xeon 2697v2
128gb ecc ram
dubbla nätagg.

Total drifttid på servern är några månader endast.

/S

Av Superthug
Skrivet av schkutt:

Detta är lustigt, för jag har 500/500 från Bredband2 hemma och har EXAKT samma problem som dig. Enda är att jag har flertalet Nest mini, TV, 4 datorer, mobiler med mera som ansluter. 48 enheter säger min router.

Ibland låser sig bara internet helt och det är omstart av router och fiberkonverterare som löser problemet.

Vilken router har du?

Av Superthug
Skrivet av xxargs:

I linux spelar inte den fysiskt inkopplade ordningsföljden någon roll med sina egna mjukvaruraid (mdadm-RAID, LVM, LVM2, ZFS, BTRFS) då alla ingående partitioner kan identifileras med UUID och under UUID och det fins lista/struktur som säger vilken ordning och ordningsföljd de hänger ihop mot varandra.

HW-raid har inte något sådant utan på sin höjd berättar headen på disken allra första block i hur stripingen är mellan enheterna och vilken RAID-mode som används, men inte hur diskarna är inordnade gentemot varandra rent logiskt - det blir alltså väldigt fel om man byter fysisk plats på två diskar i en HW-RAID-struktur.

Nu hade ju den jag pratade om stoppat raiden och sedan manuellt skapat ny raid med diskarna i olika ordning.
Någon UUID använd sedan tidigare spelar ju då ingen roll då allt skrivs över enligt ny konfiguration/struktur.
Det viktiga om jag kommer ihåg rätt var den tidigare använda chunk size och vilken typ av raid man hade.
Data offset med om man inte använde default. (mdadm har visst använd olika offset historiskt)

Kan vara så att han fick leta fram filsystemet sedan med testdisk eller liknande verktyg för att reparera.
Men han fick tillbaka sina filer

Av Superthug
Skrivet av xxargs:

Om det är LSI-baserade HBA/smartcontrollers så har jag för mig att mdadm-RAID hade moder som kunde förstå headarna i början på var disk (när de läses i IT-mode) och sätta ihop en raid från en trasig HW-RAID kontroller - dock är det inte lika bekvämt som med mjukvaruraid där man kan montera in diskarna i valfri ordningsföljd och även via olika gränssnitt (usb, sata eller sas) blandat, utan där är det strikt rätt ordningsföljd sett rent logiskt mellan diskarna som gäller - det är väldigt lämpligt att göra diskimage av var disk (med HBA i IT-mode) innan man försöker fösa ihop dessa till en RAID-struktur av diskar som kommer ifrån på en (trasig) HW-RAID.

Det kommer med stor sannolikhet bli helt fel vid första försöket och följden en skrotad RAID-struktur eftersom räkneordningen av diskarna är inte självklar (och ofta spegelvänd sedd till fysisk placering gentemot logisk ordningsföljd sedd framifrån - dvs. räknas från höger till vänster och i grupper om fyra diskar liknande 4,3,2,1,8,7,6,5) och ytterligare andra mönster om diskarna ligger i två våningsplan.

Man kan bli förvirrad för mindre och det är extremt kritiskt att ordningsföljden är rätt logiskt sett när det kopplas till en Smartkontroller (HW-RAID) som P400, P410, P420 (HPE), PERC5, PERC6 (Dell) etc. då det inte sorterar ut det själv och blir det fel ordning så får man seriös RAID-haveri.

Om jag inte missminner mig helt fel så spelar ordningen på diskarna inte heller roll längre.
Såg en sida nåt år sedan där en satte upp mdadm raid5, formatterade och la in några filer,
och sen stoppade den och byggde ny raid med diskarna i olika ordning just för att testa det.
Resultatet var helt och komplett filsystem med filer som han hade lagt in tidigare.

Provade googla fram en länk men det var så många resultat på hur man byter ut en trasig disk så jag gav upp

Av Superthug

Jag skulle välja det mest använda och vanligaste filsystemet som används idag
och det är fortfarande ext4.

Av Superthug
Skrivet av Leelooo:

Så betedde sig min allra första dator jag byggde själv, hade helt missat att installera distanserna mellan moderkort & chassi. Av denna erfarenhet rikare så skulle jag gissa på att det kan röra sig om kortslutning någonstans och förhoppningsvis är det någon fail-safe som hindrar moderkortet från gå vidare och riskera att brinna upp. Har du något annat nätaggregat att prova? Har du dubbelkollat att alla kablar är inkopplade i moderkortet som dom skall?

Lägger till en röst för denna.
Har gjort exakt samma själv. Endast en gång.
Efter detta trippelkollar man distanser mot moderkortets hål

Av Superthug
Skrivet av pv2b:

Det var iofs väldigt konstigt att du skrev elbil och inte Tesla.

Att personen du svarade på var tvungen att byta däck på sin Tesla själv p.g.a. strejken är ju inget "elbilsproblem" direkt.

Ja nu skrev han ju lite mer text en så.
Och mitt slarvigt snabba svar var rätt så generaliserat och inte menat som svar
specifikt på den sista delen som du verkar ha tolkat.
Men vi behöver ju inte ta upp onödiga inlägg i denna tråd pga missförstånd.
Du kan pm mig om du är intresserad av en förklaring av mitt inlägg så förklarar jag gärna.

Ha en god kväll!

Av Superthug
Skrivet av pv2b:

Det är ju inte likhetstecken mellan elbilar och Tesla specifikt, finns många märken som har vettiga elbilar. Man måste inte köpa en Tesla längre, de är knappast bäst längre.

Därav skrev jag "elbil" och inte "Tesla"

Av Superthug
Skrivet av Läkarn:

Behöver dem nog inte.
Alla jag känner som har en Tesla har haft något form av mer eller mindre allvarligt fel på den och haft den på verkstad långa perioder. Det är innan strejken.

Fan, en av dem var tvungen att ta med sig vinterdäck själv till verkstaden för att kunna köra hem den. Tesla vägrade byta så han fick göra det själv på en parkering utanför.

Jo alla känner vi säkert någon med elbil som inte är helt nöjd.

Av Superthug
Skrivet av Rebben:

Tänk att det förr eller senare alltid slutar i sorg när en använder molnlösningar till hårdvara.

Jag är med i en hemautomationsgrupp och ett par gånger i veckan klagas det på problem med molntjänster som stänger ner, molntjänster som låser sina APIer, molntjänster som hackas, molntjänster som inte lyssnar på kunder, molntjänster som misslyckas med det mesta, och så vidare.

Köp bara hårdvaruprodukter som kan köras utan moln, helst då som inte ens har någon molnfunktion.

Jag håller med men den är ju inte lätt idag.
Det mesta är ju påtvingat så man inte har något val.

Av Superthug

Är det IF Metall som ligger bakom Teslas vistelse där?

Av Superthug

Problemet med sånna här funktioner är att dem måste ha egen app installerad som förmodligen är
lika buggig som alla andra appar som styr led, fläkt, moderkaksfunktioner ect....

Av Superthug
Skrivet av TobiasStockholm:

Problemet är att XC40 Recharge är byggd på en ICE plattform och konverterad till en BEV. Den är rätt usel ur aerodynamisk och effektivitetsperspektiv. Trevlig bil i övrigt dock men för långresor är den ett dåligt val av elbil.

Jag har haft min -23 andra vintern nu och kör ca 20 mil om dagen.
Var och körde en runda från Jönköping till starx norr om Västerås i början på veckan
och det var stor skillnad mot sommarkörning.
Fullt laddad visar den räckvidd 260km. Jag laddade första gången i Örebro.
216km senare och hade 12% batteri kvar. Snittfarten var 65km/h den sträckan
och tempen ute var mellan -2 och -4 grader.
Det är i stort serr så långt jag vågar köra. Kör extremt lugnt.
Inte riktigt imponerad av räckvidden även vid den milda temperaturen.

Totalt fram och tillbaka var det en sträcka på 632km.
När jag hade laddat fullt hemma igen så jade jag förbrukat totalt 191kWh

Senaste sommaren så körde jag en gång 31 mil och var nere på 5% när jag skulle ladda.

Största problemet är det buggiga Google systemet
som gör att jag nog byter märke nästa år...

/S

Edit: La in laddstationealltid i Google Maps så att värmepumpen används för optimerad laddning.

Av Superthug
Skrivet av Cryqer:

Tjena!

Jag har ett ''bio system'' hemma som innefattar Sonos Arc, Sub Gen 3, och 2x Era300 som bakhögtalare.

Och i kök + Sovrum har vi 1x Sonos one SL i vardera rum.

Men vi har under en längre tid haft problem med att det alltid är ett system som försvinner i Sonosappen. ELLER att någon högtalare från ''bio systemet'' försvinner.

Någon som kan tänka veta vad detta beror på? Det börjar bli sjukt frustrerande...

Är dem trådlöst kopplade kan du prova med kabel tillfälligt.
Hade själv detta problem ett tag. Sen körde jag med kabel ett tag. Sen när jag kopplade ur kabel
fungerade det även trådlöst. Gick nog igenom flera uppdateringar då jag hade kabel i så kan vara någon
firmware som fixade mitt problem.