Inlägg

Inlägg som nihilist71 har skrivit i forumet
Av nihilist71
Skrivet av Aeig:

Det känns som ett icke-problem med minnesfrekvens vid idle?

Mvh

Ja om man inte bryr sig om energiförbrukning.

Och angående det här med strömförbrukning vid idle för 6000-serien har sin förklaring i detta:

Citat:

The problem is that AMD's energy saving mechanisms only work when running the card with one monitor at Full HD and 60 Hz or below. Everything above that will have the card run at full memory speed, which sips a lot of power. Gaming power draw is 50 W higher than the AMD reference—MSI increased their voltages a bit to achieve higher OC potential. While it's always suboptimal to lose energy efficiency, that's the price you have to pay for the higher clocks. Still, NVIDIA's RTX 3090 is significantly less efficient.

Citat från:
6000-series power consumption

Av nihilist71
Skrivet av MortalDisease:

Detta är vad jag har kommit fram till efter flera dagar av problem med min Samsung Odyssey G9 i kombination med mitt RTX 3080 TI. Jag har bara testat med displayportkabeln som följer med skärmen och jag får inte igång skärmen om jag skulle stänga av datorn när den står i 240hz, enda lösningen för mig då har varit att koppla in en andra skärm när datorn är avstängd, då vaknar G9:an till liv, annars har jag blivit tvungen att ändra till 120hz innan avstängning så jag kan starta upp datorn med skärm utan problem nästa gång och sedan ändra till 240hz för att sedan ändra tillbaka till 120hz när jag ska stänga av datorn. Det känns som att det skulle kunna vara något med komprimeringstekniken som krävs vid högre än 120hz med den höga upplösningen 5120x1440p, detta problem är alltså endast när datorn stängts av och ska startas upp igen.

Jag har testat att stänga av en dator med ett RTX 3070 TI där skärmen var inställd på 240hz och där har det faktiskt fungerat utan problem så det känns som att det krånglar med RTX 3080 TI kortet i kombination med just G9:an.

Edit: Tråkigt att det inte ville fungera, i övrigt väldigt nöjd med skärmen men att hålla på att switcha hz för varje på och avstängning det är ett irritationsmoment som heter duga.. så det blir ett återköp imorgon. Jag får hålla utkik på sweclockers vad den nya G9 Neo klarar av annars blir det nog eventuellt en 38"/34" 3840x2160 gaming skärm.

Låter som exakt samma problem som jag hade med ett rog 3080 ti strix förra månaden, skönt att höra att jag inte är ensam. Provade du den senaste G9 firmware som släpptes nyligen?

Av nihilist71
Skrivet av Phod:

Det är inget motsatsförhållande, men att påpeka självklarheter som att så här ska det inte fungera och försöka ge en enstaka part skulden är ju så improduktivt. Men jag antar att det är ett sätt att ge utlopp för oron över att hamna i den situationen att man inte kan spela.

Just det att försöka sätt skulden på någon visar ju bara hur litet insikt man har om det här problemet. Grafikkorten har ju levererats med det här felet och fungerat ett tag, ändå tills en viss mjukvara har triggat någonting som brickat korten. Det är ju inte så att EVGA har levererat kort som de varit medvetna om kommer att dö när viss hårdvara körs på dem. Det här kommer säkert att kosta dem en hel del, så låt mig vara tydlig och påpeka att de inte vill vara i den här situationen.

Så att bara säga "Det är EVGAs fel" tillför ingenting, och är delvis felaktigt.

Vem har sagt att det är EVGAs fel?

Skrivet av Phod:

Ehh, ditt svar är ju också ett exempel på hur programmering inte fungerar? I verkligheten är det inte sådär simpelt, och i det här fallet är det osannolikt att det är temperaturen det är fel på. För hög temperatur orsakar instabilitet innan hårdvara går och dör helt och hållet.

Självklart är det inte så simpelt, det kallas pseudokod när man försöker illustrera på ett förenklat sätt för att förenkla diskussionen. Det är oklart vad du försöker säga egentligen, men du kan slappna av, det är inget fel på EVGA.

Av nihilist71
Skrivet av Shiprat:

Finns nog gott om artiklar men vad jag minnes handlade det om att få in en mjukvaruagent som kunde injicera kod i några centrifuger som först och främst fick dem att bete sig på fel sätt och dessutom dålde riktiga varvtalet så det såg ut som att de betedde sig enligt spec. Så det var ju alltså en avsiktlig attack, med en rejält genomarbetad plan för att få in mjukvaran överhuvudtaget och sedan förstå sig på hårdvaran bra nog för att kunna förstöra något.

Argumentet här är väl att vi har så många lager mellan instruktioner till hårdvaran på låg nivå och koden som utvecklarna har i sitt spel att det inte borde gå att göra något som kan orsaka hårdvaruproblem, och det är ett fint ideal men inte så realistiskt riktigt, det kommer alltid finnas gott om sätt man genom okunskap eller lathet kan sabba något.

Har skrivit om det här tidigare men en gång i tiden förberedde jag en lösning med Windows embedded som kördes med enhanced write filter från ett CF kort, alltså OS laddades till ram och enbart via ett kommando via terminal kunde ändringar sparas. Undantaget var en liten del av disken där jag lämnat plats för att deras applikation skulle kunna skriva loggar- loggarna var så små och skrevs så sällan att kortet (nischade cf-kort från tillverkare som specialiserade i kort som kunde överleva det mesta) skulle ha överlevt att skriva den partitionen on och om igen i flera år. Någon ny på deras it-avdelning fick först sig att det behövde finnas antivirus på denna 300MB xp embedded installation som krldes enbart i ram på ett fristående WiFi nätverk utan internet access, och installerade ett son fick plats på den lilla partitionen, och då inget kunde skrivas till någon annan del av disken la antiviruset temp filer på de få mb som fans kvar utöver AV själv, varpå kortet skrevs sönder på bara veckor eller månader.

AV gjorde inget fel, kortet och datorns hårdvara gjorde inget fel (nya SSD har givetvis kontroller som sköter detta), och jag gjorde inget fel, men personen som ignorerade de instruktioner jag lämnat med för att köra efwmgr commit vid behov och bara gissat sig fram till en lösning på ett problem som inte fanns (alltså, virus i ett slutet nätverk där alla devices är skrivskyddade och enbart laddar ram från disk vid start).
De tyckte givetvis att det var värt fel, för de hade inte rikgit kompetens bortom att föra argumentet "Men ingen modern dator ska väl gå sönder av ett jävla antivirusprogram eller??"

Jag håller med. Det som blir svårt att svälja med detta senaste New World vs 3090 scenario är tidsfaktorn. Man få intrycket att det skett inom ramen för några timmars spelande. Det har alltid funnits sätt att med mjukvara skapa orimligt "slitage" / belastning på hårdvara, både avsiktligt och oavsiktligt men då har man haft perspektivet månader, t ex att pressa GPU med mining tills minneskretsarna är utbrända.
Jag har hela tiden haft känslan att 3090 och till viss del 3080 Ti kanske är lite för mycket volt och watt och att de skyddsmekanismer man hittills haft inte längre är tillräckliga för att skydda dessa nya monster. Man behöver bara hålla handen i närheten av ett av dessa kort under spelande för att känna att dessa kort är på en helt ny nivå.

Vi får väl se om något år hur väl dessa kort åldrats.

Av nihilist71
Skrivet av Phod:

Alltså, jag förstår inte den här typen av argument. Det är ju inte som mjukvaran innehåller sådan här kod:

if (hardwareWillBrick) { dontBrickHardware(); }

Det handlar ju naturligtvis om ett edge case som de inte testat för, och nu har de inträffat. Då är det ju helt meningslöst att säga att det inte ska hända, för det har ju hänt. EVGA har nog aldrig haft för avsikt att leverera kort som går sönder om de används felaktigt. För mig känns det ju viktigare att ta reda på varför det hänt och hur man löser det.

Jag ser i och för sig inget motsatsförhållande mellan dessa.
Ja ett fel har inträffat, ja det är en typ av oacceptabelt fel och ja, det ska definitivt undersökas vad som gått fel så det inte inträffar igen.

Och firmware innehåller ju uppenbarligen en kod i stil med:

if (tempLimitReached) { ThrottleGPUFrequency(); }

Så liknande borde kunna uppnås med en parameter för spänningsvariationer likaväl som det finns mjukvarubaserade checks för Effektbudget etc.

Av nihilist71
Skrivet av MP-Jan:

Premium eller inte: Nvidia designar min-specen och godkänner samtliga kort innan försäljning. Och du pekar finger. Det är fult att peka finger, särskilt utan någon substans.

Kika igenom videon med Buildzoids tankar, och/eller Jayz (Two cents) klipp.

  1. Jag har sett båda

  2. Jag känner mig _utpekad_ av dig ;P

  3. Återigen, hela min post var en fråga, om jag pekar finger så är det mot tillverkare i stort, vi betalar enorma pengar för ett grafikkort numera, då SKA INTE detta ske, det är det minsta man kan begära. Precis som en bil har övervarvningsskydd, så ska detta inte vara en faktor för grafikkort över 20 000:-

Av nihilist71
Skrivet av Kvicksilver:

Ett spel som använder sig av de APIer som tillhandahålls ska inte kunna förstöra hårdvaran, då drivers/firmware/hårdvaran i sig skall förhindra att kortet kan användas på ett sådant sätt.

Exakt.

Av nihilist71
Skrivet av MP-Jan:

Alla söker någon skyldig.

Buildzoid: Nvidia godkänner slutligen samtliga kort innan de börjar säljas.

Jayz: EVGA har sålt överlägset flest 3090-kort i USA. Kort från andra tillverkare har också gått sönder. Det ligger i sakens natur att det mest sålda märket också är mest representerat. Sålla skitsnacket i trådar (som denna) där specifika märken utpekas.

Den här tråden: EVGA gör dåliga grafikkort, det är känt sedan länge.

Skrivet av Towbiekun:

Ja, verkligen udda hur folk börjar peka fingrar direkt för att saker går sönder.
Nu har det kommit in fler rapporter på grafikkort med andra AIB's där det har hänt precis samma sak. Känns som folk bara måste ha något att klaga på.

Har använt EVGA till varje revision av kort jag köpte sedan mängder av år tillbaka, aldrig haft ett problem.
Som tur är så är EVGA's kundservice svårslagen, och när problem väl uppstår så verkar dom finnas till hands på nolltid, framförallt när det kommer till RMA med mera.

Jag skrev min post medveten om risken att EVGA användare skulle komma till märkets försvar, något som jag finner lika märkligt som att någon skulle peka ut ett specifikt märke. Min post var t ex ställt som en fråga med några exempel från tidigare.

Det är ju inte ett fotbollslag som man ska vara lojal mot, det är en produkt som man betalar för och alla varumärken jobbar hårt för att framhäva sitt varumärke. För mig personligen har det varit lite väl mycket brus kring spektakulära EVGA fel som gör att jag troligen INTE skulle köpa ett EVGA i dagsläget. Men det är mina högst personliga urvalkriterier.

Jag kan dock tycka att det är enormt märkligt att det finns spel som kan förstöra en GPU genom att vara för "lättrenderad" i vissa partier, det låter för mig som ett designfel i hårdvaran, det ska finnas skydd för detta speciellt i dessa premiumkort som 3090 utgör.

Av nihilist71

Är det bara jag eller är EVGA grafikkort överrepresenterade med sådana här spektakulära konstigheter genom historien?

Tidigare var det EVGA 3090 som hade mankemang med strömbudgeten via PCI-E?

Och så det här:
EVGA GTX 1080 catches fire

EVGA är ju associerat med kvalitetskomponenter och rankas som ett kvalitetsmärke men jag tycker dom alltid är inblandade i väldigt märkliga fel.

Jag killgissar att ASUS, Gigabyte och MSI alla säljer flera GPUer än EVGA, ändå tycker jag man hör mera om EVGA problem än något annat märke.

Av nihilist71
Skrivet av FL3JM:

Om ni öppnar denna bild i er webbläsare och så drar ni runt fönstret runt hela skärmen, får ni "interlace"-mönster i vissa zoner av skärmen?
https://i.imgur.com/wkZjUpc.png

Större tråd om det hela: https://www.reddit.com/r/ultrawidemasterrace/comments/jej7qq/...

Det märks även i spel, jag och en polare (med G9'an) får samma problem i t.ex Valheim när det är natt och dimma, ofta när man åker båt. Då flippar skärmen ut helt och det blir riktigt irriterande.

Jo visst flimmer blir det, testade stänga av local dimming och dynamic contrast men det hade ingen effekt alls.

Av nihilist71
Skrivet av PeoplesMC:

ja då

https://downloadcenter.samsung.com/content/DR/202006/20200624...

frågan är ju om de gör någon skillnad eller om det bara är icc profiler

Det är bara färgprofiler, jag har installerat och avinstallerat den ett flertal ggr, har ingen påverkan på själva funktionaliteten annat än vid en färgkalibrering.

Av nihilist71
Skrivet av Drasteroid:

Ska ha dig i åtanke 🙂
Men vad skiljer dessa kort åt? Och är det ett bra pris?
Vad får man ge i butik annars?

Enkelt sammanfattat så har Strix kortet högre tak i sin energibudget vilket teoretiskt möjliggör högre överklockning. Detta är dock mest för om du ska vattenkyla grafikkortet, vid luftkylning är nog skillnaden i maxprestandan minimal.

Suprimkortet har en rätt enorm kyllösning och är förmodligen det tystaste luftkylda kortet.

Av nihilist71
Skrivet av PeoplesMC:

Japp alltså datornrebootar. Antingen snappar den upp kontakten igen och vaknar från sleep (skärmen alltså, datorn sover aldrig), eller så gör den inte det och datorn rebootar direkt. Tydligen ett ganska vanligt problem när man surfar reddit och forum med g9:an.

Inte alltid utan det händer kanske 1/10 gånger när den vaknar från sleep eller tappar kontakten för att den försöker synka HDR i nått spel.

Så 3080t funkar bra? ska testa ikväll och köra de andra skärmarna via HDMI har ett humm om att det kan hjälpa^^

Aha, jag som du beskriver nu, så betedde sig MSI 3090 Suprim kortet, typ 1 gång av 10 när man ska väcka skärmen så kommer ingen bild.
När det hände så lyckades jag logga in via terminal services och lyckades snappa upp ett felmeddelande, typ "session error" eller nått liknande innan datorn gav upp helt och jag blev tvungen och restarta.
Detta hände dock aldrig under min vecka med detta kort om jag ställde G9:an i 120 Hz läget istället för 240 Hz läget i G9:ans meny alltså. Då kunde jag i nvidia kontrollpanel definiera en egen upplösning, 5120x1440 @ 165Hz, det verkade funka helt felfritt.

Med Asus 3080 Ti Strix gick det inte ens att få bild via displayport till G9:an om man inte bootade med HDMI och sedan loggade in, sedan kunde man byta till displayport, alltså man fick hotswappa kablarna efter inloggning.

Av nihilist71
Skrivet av PeoplesMC:

De e ju nice att de funkar nu me 6900xt, har du inga problem alls med typ wake from sleep, att du måste trycka på den själv?

Annan fråga, hade du flera skärmar inkopplade när du testade innan med 3090/3080ti?

240hz funkar bra annars, men jag märker problem ofta när den vill byta mellan HDR och SDR, och ibland efter sleep så funkar det inte heller ens att väcka genom att trycka på knappen, utan alla skärmar blir svarta och så rebootar den.

Testade med ett annat 3080 kort också och då var det ännu värre, skärmen startade inte ibland från boot osv. Ska testa vidare med ett annat 3080 idag som har fler hdmi portar, och sätta alla de andra skärmarna på hdmi och se om de löser nått. Ser också folk som har provat olika DP portar på sina kort och fått olika resultat pga vilken DP port de använt.

Nej inga problem alls med AMD kortet.
Nej jag har bara G9 skärmen ansluten, enbart en skärm.

Mitt Gigabyte 3080 funkar också bra med skärmen, jag har en dator med 6900XT och en dator med 3080 ansluten och använder en KVM switch för att byta mellan dessa.
Men som sagt, varken det 3090 eller 3080 Ti som jag testade funkade bra med denna skärm så konstigt är det.

När du säger "rebootar den" menar du skärmen eller datorn?

Av nihilist71
Skrivet av PeoplesMC:

1012.1
hehe hittade inga change notes, ska kolla igen.

Edit:

https://www.reddit.com/r/ultrawidemasterrace/comments/ok9ql7/...

I kommentars tråden på reddit: So it seems it's stable in my multi monitor setup. Also the screen wakes when the pc is turned on now. Haven't seen any. Other things yet, will play some metro to see if there is still some flickering.

Kanske var liknande problem du hade?

f/ö verkar de inte släppt några change notes

Tack, ser ut som en annan firmware från maj också gått mig förbi.

Nu blir det svårt beslut. Det verkar som någon i tråden signalerar för nytt fel med AMD 6000 serien med den nya G9 firmwaren. Just nu funkar min skärm perfekt med just Mitt 6900XT så jag är tveksam.

Av nihilist71
Skrivet av PeoplesMC:

De kom en ny firmware i förrgår btw.

Fick skärmen igår, har inte upplevt nått skumt ännu, förutom att om jag tex installerat om drivrutiner eller nått och byter from nått annat till 240hz,krävs en omstart annars startar inte spelen^^ men bytte ganska snabbt till den nyaste firmwaren också. Den är bara så jävla massiv.

edit:strömsparsläget vaknar upp ok också, bara testat rtx 3080.

Å tusan, vilket versionsnummer har den nya firmwaren och står det några change notes?

Av nihilist71

Det absolut bästa med den här nyheten är att innovation lever i allra högsta grad, att det inte bara är windows, xbox, nintendo och ps5 som gäller.

Kul att se att steam/valve fortsätter med hårdvarusatsningar trots att dom kanske inte lyckats till 100% med tidigare försök.

Av nihilist71
Skrivet av SirMacke:

Synd att man inte kan se bilden under tiden bara!

Ja det får ju ses som en försvårande omständighet.
Det var just det här som jag hatade med dessa soft setups, bättre med jumpers att flytta tills det funkar.

Av nihilist71
Skrivet av SirMacke:

Japp, ska kolla över det idag.
CT4170 är modellen.

Just dom där ”Vibra” modellerna var väl blan de första med soft setup om jag inte minns fel.

Meninge var att det skulle bli enklare att konfigurera för IRQ/adress men jag tyckte det blev tvärtom. Det var någon setup.exe på en floppy där du ställde in IRQ och ljudinställnigar och den avslutade med att lägga in en rad i autoexec.bat med en massa parametrar.

Av nihilist71
Skrivet av SirMacke:

Har fått de 8 1MB-ram och satt i, inga problem.
Har även fått tag i ett ljudkort: Creative Sound Blaster Vibra 16
Men när det sitter i så blir bilden förvrängd och skärmen slår av och på.
Testat alla slots med samma resultat.
Säljaren har testat kortet.
Bara att hitta ett annat?

Du får förmodligen en IRQ eller minnesadresskonfliktmellan ljudkortet och någon annan komponent i datorn. Sitter det några jumper switchar på ljudkortet?