Inlägg

Inlägg som Lordsqueak har skrivit i forumet
Av Lordsqueak

Supercoolt
Kan inte låta bli att fundera på hur det skulle kunna gå att koppla in tittarna också, en riktigt Twitch Plays ___ . Lite problematiskt med delay, men vore riktigt coolt att göra.

Av Lordsqueak
Skrivet av JonasT:

Den är mer tungdriven än man kan tro!

Tänkte det när jag såg videon , Väldigt detaljerade stenar. och sen mera stenar , lite alien växt eller nått, och mer sten.....
Undrar om man verkligen behöver 100,000 polygoner per sten block?

Av Lordsqueak

Efter att ha spenderat en vecka med 560Ti ( 1gig ) , så kan jag rapportera att det funkar ändå. Moderna spel är tillräckligt stabila för att fungera även om det finns extremt lite vram tillgängligt.

Det vore intressant att testa med samma kort, fast nerlåst till mindre mängd minne. (och då menar jag ända ner till 1 gig) för att se vad som händer. Olika kort har ju förutom olika gpu'er, olika minneshastigheter och minnesbussar.
(ett sätt kan vara att köra en annan applikation som använder en viss mängd minne, för att kalibrera hur mycket tillgängligt minne spelet/benchmark kommer att kunna utnyttja.)

Laddningstider är ju en annan aspekt som vore intressant att titta på. kanske köra på en HDD för att göra laddtider lite mer mätbara? Jag tänker att om spelet laddar texturer medans man spelar så kan det vara märkbart, även på en snabb SSD.

Av Lordsqueak

Super nice!
Jag misstänker dock att lenticular 3D inte kommer bli någon hit förens grundupplösningen ligger på 8K, iallafall om man vill kunna ha lite olika vinklar. Men jag skulle nog tycka att detta kan bli bra, speciellt om man kör med ögonspårning så att man slipper sitta perfekt.
Ett av det stora bekymmert med glasögon 3D är just glasögonen. Antingen sladd eller batterier som tar slut, ständigt aber som gör att man till sist bara kör 2D för det är enklast. Och sen refreshrate, som delas mellan varje öga, en källa till ansträngda ögon och huvudvärk. Även om man kör 120hz så blir det 60hz per öga, vilket är jobbigare av att ljuset bara är på 50% av tiden per öga.

Men när det funkar bra,,, så är det underbart. Och när man väl vant sig vid att det är olika focus på olika djup, så framstår 2D som att titta på en utskriven bild. platt och livlöst.
Efter att ha kört mycket Pinball Fx2 på den tiden, i 3D, så var det nästan omöjligt att tolka vad som händer på skärmen i 2D, när man snabbt bytte, och det tog ett tag innan man vant sig vid 2D igen. Andra guldkorn som Trine, som redan är otroligt vackert i 2D , blir magiska i 3D. Jag höll inte på med CAD eller 3D modellering, men det hade varit guld värt att ha 3D för det.

Tricket till bra 3D är att flytta fokus, så att menyer och annan overlay hamnar på skärmglaset, och det mesta hamnar bakom glaset.
Det mesta av materialet som presenterades i 3D var dock intryckt i ansiktet på tittaren, vilket är lika jobbigt som en fjortis som viftar med handen i ditt ansikte "luften är fri, luften är fri", eller "fejk"-3D , som bara får allt att se ut som utklippta 2D figurer som rör sig på skärmen. Eller 2D shaders och skuggor i 3D,, vilket bara ser trasigt ut.
Men rätt gjort, så är det underbart.

Jag undrar dock hur Lenovo tänkt sig att få det att fungera, då det krävs 2 olika bilder, och stöd för 3D inte längre finns i drivarna.

Av Lordsqueak

Visst går det att baka in information i pixlarna utan att det syns. (Steganografi)
Men jag ser inte hur man skulle kunna skydda pixlarna från att manipuleras på ett sätt som tar bort vattenstämpeln. Låter som att det är något annat än bara pixlarna som får det att fungera.

Av Lordsqueak

Som jag ser det så har man alltså istället för att koppla direkt till grafikkortet, gjort en omväg över mobo... alla gamla problem kvarstår, plus nya som kommer med det, och moderkorten blir dyrare. *suck*

Ett förslag för att gömma kablar... välj ett chassi utan fönster.

Av Lordsqueak
Skrivet av Dinkefing:

Inte en chans att de får 120% prestandahopp. Nvidia eller AMD klarar knappt 60%.

Tja , till skillnad från Nvidia och AMD så har ju inte Intel snickrat på den i mer än en generation,, så kanske finns en hel del att optimera. Kanske?

Av Lordsqueak

Märkligt besök. Undrar vad dom tänkt lära sig som dom inte redan gör på mycket större skala?

Av Lordsqueak
Skrivet av BMac:

Varje grafikkrets är en "egen" individ med variation i sina egenskaper. De är inte alls identiska.
De uppfyller dock samma specifikation och krav.

Alltså, poängen är ju att dom har identiska specs, tillräckligt identiska för att kunna köra samma BIOS. Att dom sedan är individuella kretsar är ju uppenbart, lite väl analt att påpeka att fem myror är fler än fyra elefanter.
Visst kan det finnas skillnader i kislet, men alla kretsar uppfyller sina specs, och det är ju det som är relevant här.

Av Lordsqueak
Skrivet av BMac:

Du tror väl inte på fullaste allvar att alla kretsar i världen är identiska med just dina på dessa 1080-kort?

Det är väl det som är poängen med modellnummer på nvidia kretsar.
Sen att korten i sig skiljer sig åt med olika kylning etc, är ju en annan femma. Men vi kan väl anta att 'sveklockare' kan läsa mellan raderna och klura ut det.

Av Lordsqueak
Skrivet av cyklonen:

Ett dåligt och rätt meningslöst mått.

1. "Prestanda" handlar om mer än bara rena FPS i en benchmark. För vissa, i synnerhet e-sportare som spelar saker som rent tekniskt hör hemma på 00-talet, är det väl det enda relevanta, men det finns mycket mer i dag. Jag värderar t ex RT-prestanda högt, och den existerade inte förrän för ca fem år sen (första RTX-kortet kom i aug 2018). Där har prestandan ökat enormt jämfört med priserna, om man nu ändå vill räkna så.

2. Det är inte grafikkortens fel att inflation och dålig växelkurs finns. Om man justerar för inflation och växelkurs är skillnaderna mycket mindre i pris än vad många tror. Prestanda per krona fungerar inte särskilt bra pga det.

3. Hur många produkter får bättre prestanda per krona i samhället? Får bilen bättre prestanda per krona? Får stavmixern det?

4. Även om man går med på att prestanda per krona är ett acceptabelt mått, så är det ändå så att taket för den prestanda man kan köpa har lyfts rejält under åren. Ett 4090 är sinnesjukt mycket snabbare än ett 1080 Ti, som exempel. I Sweclockers prestandaindex för 4K är 4090 lite över fyra gånger snabbare än ett 1080 Ti. Utgångspriset för 1080 Ti var 700 dollar. Utgångspriset för 4090 var 1600 dollar. Om pris och prestanda hade följt varandra hade ett 4090 kostat 2800 dollar när det släpptes. Ja, jag använder dollar eftersom det tar bort effekten av skillnader i inflation och effekten av förändringar i valutakurser.

Självklart är det ju så att inflation och tillgång har påverkat priserna, men poängen är ju lite att Nvidia passat på att höja sina priser. Och det är ju något som dom i högsta grad har "utvecklat" i och med senaste generationen. Där tycker jag vi kan snacka om att "Konstlad utveckling gör ingen nytta". (se rubrik)
Det tråkigaste om vi ser till det lägre segmentet, är ju att 'mellanklassen', x060, kostar som x070 gjorde förut, men presterar knappt bättre än föregående generation.

Du pratar om RT prestanda. Och visst, den har blivit bättre. Till skillnad från artikelförfattaren så tycker jag att den utvecklingen är bra. det är ett val trots allt om man vill ha det eller inte. Du vill uppenbarligen ha RT prestanda, och det är helt ok. Nångång i framtiden så kommer till och med de billigaste korten ha tillräckligt med RT prestanda. Jag tycker bara att det är tråkigt när den vanliga prestandan blir lidande, som det uppenbarligen blivit i och med senaste generationen. (där en 4060 ligger långt ifrån 3070, nånstans mellan 3060 och 3060ti.) 4090 Ti Super är ju nice!,,, men jag väljer njurar!

Av Lordsqueak

. . . undrar hur många floppy en säkerhetskopia på 2TB blir, i ren volym i verkligheten menar jag??

Av Lordsqueak

Det intressanta med just Frore, är att dom har bra tryck i sig.
Just nu så det ju begränsat med vart man kan använda dom, då GPU och CPU kräver mer än vad dom kan leverera. Men jag kan mycket väl tänka mig att tillverkarna väljer dessa för att kyla mindre komponenter på svåra ställen. tex, VRM och styrkretsar, på moderkort, eller i kombination med vattenkylning på grafikkort, tex.

Jag undrar om det skulle vara möjligt att trycka luft igenom rör med dessa? Typ som vattenloop fast med luft, för svårtillgängliga ställen. Om det är så, så kan det ju bli en bra combo för vattenblock till grafikkortet.

En annan möjlighet i framtiden kan kanske vara att luftkyla komponenter som inte går att vattenkyla. Jag tänker då på kretsar som kan bli varmare än kokpunkten på vatten. Speciellt om man använder små rör så kan det ju bli problem. (lite det som får heatpipes att fungera som dom gör.)
Om vi börjar göra VRM'er och sånt av silicon carbide för att dom ska klara av höga strömmar på liten yta, tex, när allt ska köras på 12V och varje komponent ska omvandla ner till lägre spänningar som den behöver, (nångång i framtiden...kanske) så kan det ju bli problematiskt att kyla småkomponenter.

Av Lordsqueak

Utveckling måste börja någonstans.

Citat:

Rent krasst har Nvidia samarbetat med CD Projekt RED för att implementera tungdrivet grafikläge, vilket blir ett problem som endast kan lösas genom att köpa kraftfullt grafikkort. Det är förstås en översimplifiering, men i slutändan är det ett konstgjort problem, helt enkelt.

Problemet här är användarens.
Behöver du verkligen denna funktion för att spela??

Utvecklingen behövs ju, för att vi en dag i framtiden ska kunna titta på ett RTX9050 kort, och säga att ovanstående funktion är standard, även på ett lågbudgetkort.
Utan denna utveckling så hade vi stått kvar och stampat på Dx9 grafik, som visserligen hade flutit på bra, men sett ganska grå/brunt ut. Så jag skulle nog vilja säga att detta är ett problem som ligger i användarens huvud. Vill vi ha den senaste raytracing grafiken med allt lulllull?? Självklart vill vi det! ,, men behöver vi det, eller behöver vi båda njurarna??
Tja, det är ju upp till användaren att avgöra. Men det är fortfarande fullt möjligt att spela utan raytracing och uppskalning.

Den viktigare frågan i modern tid, är väl snarare,,, Om grafikkortet pajjar, har jag råd att köpa nytt, med bättre prestanda? (eller råd att köpa nytt kort alls??)
Problemet som jag ser det, är att korten inte alls blivit bättre de senaste generationerna, om man tittar på prestanda per krona.

Av Lordsqueak

så... mindre marginaler än väntat??

Av Lordsqueak
Skrivet av perost:

Det påverkar ju inte resultatet i sig, men vi vet förstås inte om processorn var överklockad eller ej. Men å andra sidan finns det en hög med Epyc 9654-resultat med liknande poäng, så det stämmer säkert eftersom de verkar dela design.

jo, det är ju det som är grejen. Vi vet ju inte om den körts på LN2 eller nått, eller om det bara är felrapporterad hastighet. tittar man på resultatet så kan det ju vara både och.

... och en kvist persilja.

Av Lordsqueak
Skrivet av Rouge of Darkness:

vad är det för fel på utforskaren ?

den gör sitt jobb.

För små skrivningar javisst.

Men kommer man upp över 10 gig eller mer så börjar det gå långsammare och långsammare,,, till sist fryser window i värsta fall. Ett rent helvete att kopiera video filer till en annan HDD. (typ om man vill flytta 50 gig av något så får man göra det en fil i taget, typ)
Ett jäkla aber när man har för vana att spela in video och editera och sånt, tex.

Av Lordsqueak

använder den för att fylla ut tomrummet i byrålådan så klart.

Av Lordsqueak
Skrivet av perost:

Det är inte ovanligt att mjukvara läser av saker fel när det gäller hårdvara den inte hunnit anpassas för, så det troligaste är att det bara är Geekbench som läst av frekvensen fel.

mjo,, men kan man lita på resultatet då?? Känns ju som att man får ta det med en nypa salt, lite olja och peppar, in i ugn is 25min tills den blir gyllenbrun och...

Av Lordsqueak

låter ju lite...mja?, med tanke på att det verkar vara företagen själva som ska rapportera.