Inlägg

Inlägg som Aemony har skrivit i forumet
Av Aemony
Skrivet av MeanGreen:

Jag utgår från att det är bäst att ha extraskärmen kopplad till processorns grafikkortsport på moderkortet, så länge som det är det dedikerade grafikkortet (och inte processorn) som flaskhalsar vid spelande?

Om ditt dedikerade grafikkort har tillräckligt platser så är det bäst att köra alla därigenom. Då kan du kanske till och med inaktivera iGPU:n i BIOS:en så att den inte reserverar RAM för VRAM-nyttjande heller, och diverse andra konsekvenser.

Av Aemony

Pre-2017 Cola Zero - Hatade den.
2017 Cola Zero - Älskade dem.
2021 Cola Zero - Märker knappt någon skillnad från 2017-smaken.

Tack och lov att ingen av dem är gamla per-2017 smaken — den där var verkligen inte alls god.

Av Aemony
Skrivet av d3rrty:

Om man har 2 skärmar inkopplade men väljer att stänga av den som man inte har spelet på.
Inte koppla ur utan bara stänga av den är det att anse att man bara har en inkopplad eller kan man lika gärna ha den igång då?

Lika gärna ha den igång.

Som artikeln säger så spelar det prestandamässigt inte någon roll alls, men vad som "spelar roll" i diskussionen är huruvida Windows behöver "dela ut" (och uppdatera) skrivbordet till en extra skärm eller inte.

Stänger du bara av skärmen men låter den fortfarande vara inkopplad och aktiverat i Windows så är det precis som om skärmen vore igång -- enda skillnaden är att du inte ser bilden eftersom skärmen är avstängd.

Så "korrekt" sätt att "koppla ur" skärmen hade varit att inaktivera skärmen i Windows' skärminställningar, så att bilden inte speglas till den och skrivbordet inte utökas till den heller.

Men som sagt så prestandamässigt så spelar det ingen roll ändå -- besväret att inaktivera och återaktivera skärmar hela tiden från och till och flytta fönster (eller ikoner osv) på nytt är inte värt den minimala prestandaskillnaden som det kan generera i enstaka spel.

Av Aemony

> och minnesanvändningen med GPU-Z.

> Att testa minnesanvändning är inte helt så enkelt som det kan framstå. Det kan finnas skillnader mellan allokerat minne och hur mycket minne som faktiskt används.

> Att bara titta på det vi kallar "VRAM-användning" berättar inte allt. Fokus för oss har istället varit på praktisk prestanda i kombination med indikationen på minnesallokering.

Ärligt talat så förstår jag inte riktigt syftet med artikeln, eller vad exakt ni har tittat på. "Allokering" av minnet är överlag totalt oväsentlig i faktiska diskussioner av VRAM-nyttjande. Även "allokering" är något felaktigt. Det ni har mät är inte faktiskt var som har allokherats eller nyttjats aktivt av spel, utan enbart vad dem har begärt från GPU:n. Till på det så rapporterar GPU-Z detta över hela systemet, och inte på processnivå.

Här är ett citat från ExtremeTech från 2015 från en Nvidia-representant som också är relevant:

Skrivet av ExtremeTech:

GPU-Z: An imperfect tool

GPU-Z claims to report how much VRAM the GPU actually uses, but there’s a significant caveat to this metric. GPU-Z doesn’t actually report how much VRAM the GPU is actually using — instead, it reports the amount of VRAM that a game has requested. We spoke to Nvidia’s Brandon Bell on this topic, who told us the following: “None of the GPU tools on the market report memory usage correctly, whether it’s GPU-Z, Afterburner, Precision, etc. They all report the amount of memory requested by the GPU, not the actual memory usage. Cards will (sic) larger memory will request more memory, but that doesn’t mean that they actually use it. They simply request it because the memory is available.”

Källa: https://www.extremetech.com/gaming/213069-is-4gb-of-vram-enou...

Ett exempel på hur detta påverkar är ett spel jag betatestade för några år sedan som hade en bugg där spelet kontinuerligt begärde mer minne trots att det faktiskt inte nyttjade det. Så i verktyg som GPU-Z och dåtida RTSS påstod att 11 GB av mitt VRAM (hela min 1080 Ti VRAM) var "allokerat" av spelet -- men det stoppade mig inte från att boota upp NieR: Automata eller Final Fantasy XV och köra dem utan större problem.

I verkligheten så trots att spelet "begärde" mer VRAM hela tiden så nyttjade det aldrig mer än typ ~2 GB, och återstående 9 GB trots att det var "allokerat" hade ingen negativ påverkan på andra applikationer eller spel som också behövde nyttja VRAM.

---

Vad ni faktiskt skulle ha fokuserat på och mät är vad man kallar "memory budget" i DXGI, eller faktiskt VRAM som nyttjas av processen. Senaste versionerna av RTSS mäter och rapporterar detta (det heter inte VRAM, utan något annat har jag för mig), likaså är det något som Special K-verktyget också rapporterar för processen.

Då hade ni fått _exakt_ VRAM-nyttjande för spelprocessen i sig, vilket hade låtit er se om prestandan faktiskt påverkas negativt av kortet (all VRAM som är tillgänglig nyttjas) eller inte, samt vad spel generellt nyttjar i olika upplösningar.

Och speciellt det sista kan vara av enormt intresse då spel ofta faktiskt nyttjar 2-3 GB lägre än vad dem begär. Nu har ni fokuserat på "dagens tyngsta spel" vilket gör det lättare för er (dem kommer nyttja mer än tidigare spel trots allt), men något som var av mycket intresse för mig vid spelande i 1440p och 4K sedan 3 år tillbaka med *korrekt* mätning av VRAM-nyttjande var hur lite VRAM som faktiskt nyttjades av de flesta spel i 4K. Trots att deras systemkrav nämnde siffror som 8 GB VRAM och begärde så mycket (eller till och med mer) osv så var det många som aldrig gick över 2.5-4 GB faktiskt nyttjande.

Men det var dåtidens spel -- moderna spel som har fokus på senaste generationen konsoler och hårdvara ligger någon/några GB överst -- och dagens tyngsta spel kan vara upp mot 7-8 GB eller högre beroende på inställningar och upplösning.

Av Aemony
Skrivet av Yatagarasu:

Kan säga att 2 skärmar med G-Sync kan spöka rätt mycket.. I alla fall om man har aktiverat Windowed Mode för G-sync. Har jag t.ex. en 30fps YT video på andra skärmen, då kan min main skärm låsa sig till 30fps också i spel. Detta är dock ett G-sync problem mer än 2-skärmar problem, då det även händer med borderless/"fullscreen" (d.v.s. ej Exclusive Fullscreen) om jag t.ex. har någon overlay som poppar in på main skärmen.

Detta händer både med vanliga sekundära skärmar så som sekundär G-Sync skärm.

Lite mer ingående så kan man säga att uppdateringsfrekvensen på VRR-skärmen påverkar uppdateringfrekvensen på samtliga inkopplade skärmar.

Jag rekommenderar dock starkt (jättejävla starkt) att inte nyttja ”G-Sync for fullscreen and **window mode**” inställningen i Nvidia’s kontrollpanel.

Den inställningen är ett drivrutinshack från Nvidia för att möjliggöra VRR även i fönster som inte täcker hela skärmen eller som nyttjar vad man kallar ”flip model” presentationsläget naturligt — det är detta som buggar o engage:ar G-Sync på YT-videos.

Men för folk som vill ha flip model (o då ”native VRR” typ) i sådana spel så finns det bättre alternativ, så som:

* Fullscreen Optimizations i Win10 (konfigurera spelet att köra i exklusivt fullskärmsläge så kommer OSet automatiskt konvertera det till ett ”borderless fullscreen” fönster som nyttjar flip presentationsmodellen.

* Använd modden Special K från Kaldaien för att konvertera spels naturliga presentationsläge i borderless läget till flip modellen (DX11 titlar endast).

* Släng DXVK på spelet och konvertera det till Vulkan i realtid, som troligtvis lär nyttja flip modellen i borderless-läget.

Ovanstående alternativ alla möjliggör VRR och en synkad uppdateringsfrekvens i så kallade ”fönster” (som täcker hela skärmen) utan Nvidia’s hemska drivrutinshack som är känt för att bugga ut.

Dvs nyttja det vanliga ”G-Sync for fullscreen mode” alternativet istället!

Av Aemony

> ”VESA Adaptive Sync/Fresync fungerar även över HDMI.”

Ovanstående från sammanfattningen stämmer inte helt. VESA Adaptive Sync är en DisplayPort standard som ej är tillgänglig över HDMI. AMD utvecklade även deras nedlåsta ”FreeSync over HDMI” lösning som implementerade VRR över HDMI via tillverkarspecifika tillägg för HDMI, men detta kräver att man köper en FreeSync over HDMI-kompatibel skärm. Dessa skärmar släppte AMD och specifica skärmtillverkare först i början av 2016Q1.

Skickades från m.sweclockers.com

Av Aemony
Skrivet av maniac:

Mycket bra artikel på en intressant monitor. Problemet är ju inte tekniken i sig, utan marknadsföringen.
Personligen så väntar jag nog några år till, tills hårdvaran hunnit ifatt, speciellt med tanke på priset. Känns som en 1440p monitor (Acer XB271HU) med 144Hz och G-sync till en fjärdedel av priset räcker långt.

Som en ägare av en sådan så hoppas jag dock 1440p 27-tum G-Sync HDR-skärmar anländer snart. Jag kan tänka mig uppgradera till en sådan för att dra nyttja av HDR-teknologin.

Så länge det minnst kostar hälften så mycket som dessa sjuka skärmar, dvs!

Skickades från m.sweclockers.com

Av Aemony
Skrivet av Alling:

Och G‑Sync och ULMB fungerar aldrig samtidigt

Detta stämmer vanligtvis, men inte alltid. masterotaku på Blur Busters forum har en tråd över hur man kan aktivera detta. Inte alltid möjligt på alla skärmar, men på en del är det: https://forums.blurbusters.com/viewtopic.php?f=4&t=2883

Av Aemony
Citat:

Kör du Nvidia-kort med G-Sync-kapacitet kan du inte kliva runt bandbreddsbegränsningarna som tvingar skärmen till YCbCr 4:2:2 för 144 Hz. Detta på grund av hur Nvidia styr över skärmen i den situationen. All skalning sker då i grafikkortet, som alltså alltid driver skärmen i 3 840 × 2 160 pixlar.

Om G-Sync HDR är som vanliga G-Sync så styrs detta av "Preferred refresh rate" inställningen i Nvidia Control Panel -> Manage 3D Settings. Är den inställd på "Highest available" så kommer Nvidia alltid försöka använda sig av högsta möjliga uppdateringsfrekvens som skärmen stödjer, oberoende av vilken spelet begär. Man kan stänga av detta beteende genom att sätta den inställningen på "Application-controlled", i vilket fall Nvidia kommer att använda den uppdateringsfrekvens spelet begär (vanligtvis 60 Hz).

Anledningen till denna inställning är för att uppdateringsfrekvensen som används benämner G-Syncs övre gräns där V-Sync kickar in. G-Sync är inte aktivt ända upp till uppdateringsfrekvensen som har begärts, utan endast 2-4 FPS/Hz nedanför, därefter inaktiverar G-Sync sig oberoende av V-Sync är aktiverat eller inte.

Så om "Preferred refresh rate" är inställd på "Application-controlled" och spelet begär 60 Hz så innebär detta att G-Sync är aktivt upp till ca 58 FPS/Hz max, därefter antingen synkas FPS:en mot 60 Hz via V-Sync (om aktivt), eller så börjar skärmen rivas i typiskt screen tearing-fashion. Detta inträffar både när skärmen då kör vid 60 FPS/Hz (V-Sync inaktiverat) eller övre än 60 FPS (skärmen är fortfarande begränsat till 60 Hz).

Utan att ha denna skärm själv och experimentera så kan jag inte säga säkert, men jag är 99% säker på att allt denna begränsningen med att Nvidia påtvingar 144 Hz ("Preferred Refresh Rate" = "Highest Available") är lösningsbart genom två steg:

1. Konfigurera om Nvidia Control Panel -> Manage 3D settings -> Preferred refresh rate till "Application-controlled". Detta kommer att göra att skärmen respekterar uppdateringsfrekvensen som spelet begär (vanligtvis 60 Hz).

2. Konfigurera spelet till rätt uppdateringsfrekvens om möjligt. För de spel som inte har denna möjlighet kan Special K användas för att åsidosätta spelets original-uppdateringsfrekvens till den bästa möjliga (98 Hz enligt artikeln).

3. Använd ett program eller verktyg (Special K fungerar bra) för att cappa frameraten på spelet till 96 Hz eller under, för att förhindra att V-Sync kickar in och G-Sync inaktiveras.

Ovanstående bör då resultera i att G-Sync samt skärmen konfigureras för 98 Hz, dvs upp till ca 96 FPS/Hz så kommer G-Sync vara aktivt och flitigt synkronisera uppdateringsfrevensen rätt. Vid 96-98 så inaktiveras G-Sync och V-Sync är här menat att användas för att synkronisera spelet till 98 Hz. Om V-Sync är inaktiverat så kommer skärmen börja riva och detta beteende kommer fortsätta över 98 Hz uppdateringsfrekvensen.

Och så får man 98 Hz 10-bit RGB HDR i exklusivt fullskärmsläge i spel.

Av Aemony
Skrivet av Tumnus:

Inte riktigt. Ryzen presterar ungefär 2% bättre än 4790K vid samma klock.

Det är möjligt. Jag utgår från SweClocker's speltester som visar minimal skillnad mellan de båda i några spel och ett markant övertag för 4790K i andra, troligtvis pga den högre frekvensen. Men recensioner har ju också visat att OC-möjligheterna just för 1800X inte är särskilt starka och att de flesta som har recenserat CPU:n slår emot en vägg vid 4,0-4,1 GHz. Att jämföra med det är min i7-4790K som kör uppe i 4,7 GHz när 1 kärna är belastad, till att sjunka stegvis till 4,4 GHz när alla 4 kärnor är belastade.

Men ja, stryper man i7-4790K till samma frekvens som 1800X så kanske Ryzen presterar 2% bättre, men det i sig är en situation som aldrig kommer uppstå i vardagen. Det talar inte heller positivt om 1800X då 4790K släpptes Q4 2014, dvs är en CPU från 3 generationer tillbaka.

Av Aemony

Oj, denna tråden var livlig. Själv var jag extremt hypad på Ryzen när jag såg antalet trådar men intresset dog över en natt då jag såg alla recensioner där min gamla i7 4790K ofta prestera snarlikt samma eller rent av bättre än 1800X.

Av Aemony
Skrivet av The Kristoffer:

Analoga brytare? Alltså steglösa anpassade för gamin?

Nej. De skickar en IR-stråle vågrätt under tangenten som brytaren bryter när tangenten trycks ner.

Illustration från produktsidan:

http://tesorotec.com/wp-content/uploads/2016/10/Metal-Bouncing-2...

Riktiga analoga brytare som t.ex. Wooting använder sig av bygger på samma teknik men istället för att skicka IR-strålen vågrätt under tangenten så skickas den lodrätt upp mot brytaren, som sedan reflekterar den tillbaka mot kretskortet som avläser avståndet från brytaren.

Så samma underliggande teknik men implementationen är annorlunda. Här är det tyvärr endast en simpel ON/OFF implementation som endast bryr sig om huruvida något förhindrar IR-strålen eller inte.

Av Aemony
Skrivet av Squall Leonhart:

Jag tycker att det känns som att varje gång en tillverkare gör ett försök med alternativ till Windows (förutom Apple då) så är försöket inte ens halvhjärtat. Man viftar lite med en produkt, folk hinner inte ens märka av viftningen och man ger upp innan dagen är slut.
Det var likadant när de här små bärbara datorerna var på tapeten. Det var väl Samsung som släppte någon 7" variant med en variant av Ubuntu, folk var skeptiska och sen skeppades femtioelva varianter ut med Windows 7 istället.
Känns lite som att gå på en fest och upptäcker att alla på festen har jeans och blå skjorta medan du själv har kostym. Istället för att gilla läget och ha trevligt så går du istället hem och byter kläder, går tillbaka och skyller på att du tog fel på tiden.

Så länge OEM-tillverkare inte är villiga att fokusera fullt ut på en egen-utvecklad plattform med flera års investering redo så kommer dem aldrig lyckas. Apple fortsätter att etablera nya marknader eftersom de har ett massivt ekosystem redan som kan användas för att stötta den nya marknaden tills den är självfinansierande. Det är på detta sättet de har lyckats att lansera iPad, Apple TV och Apple Watch, genom att ständigt bygga vidare på förekommande produkters ekosystem medan de samtidigt lyckats sälja in den nya idén hos konsumenter som något att ha.

Samsung med en egen netbook/ultrabook som bygger på Ubuntu är i princip dödsdömd vid release om den ska försöka konkurrera med Windows-, Android, Chrome OS-baserade produkter i samma prisklass. För att inte tala om alternativa enheter så som surfplattor som fyller samma funktion om än på ett lite annorlunda sätt. Och tills dess att produkterna går i vinst så är kostnaderna för vidareutvecklingen skyhöga.

Samma historia har vi sett med Microsoft och deras mobila plattform. De har ju i princip avskedat varenda f.d. Nokia-anställd de fick genom köpet (25'000 anställda) och spenderat över 8 miljarder dollar på en misslyckad affär. Idag försöker Microsoft inte längre konkurrera med Apple eller Google på mobila marknaden, istället försöker de värva konsumenter genom att göra det enkelt att bli en del av Microsoft-ekosystemet via plattformarna (så som SMS-läsning från Android-telefoner via Windows 10) och innovera genom t.ex. Continuum-tekniken som ger dig en fullskalig skrivbordsupplevelse genom en Windows-mobil.

Av Aemony

@Luminous: Jupp:

Skrivet av http://store.steampowered.com/steamos/:

So, what is SteamOS?

SteamOS is a public release of our Linux-based operating system. The base system draws from Debian 8, code named Debian Jessie. Our work builds on top of the solid Debian core and optimizes it for a living room experience. Most of all, it is an open Linux platform that leaves you in full control. You can take charge of your system and install new software or content as you want.

Av Aemony
Skrivet av Buio:

Har de fixat buggen med Gif/Gifv i Chrome också?

Nej. Du kan antingen stänga av Hardware Acceleration i Chrome eller nedgradera Nvidia-drivrutinerna till 373.06. Jag kommer nog stanna kvar lite längre på 373.06 pga de fel som verkar ha uppkommit i senaste drivisarna.

Av Aemony

Manualen är hjälpsam.

Från stycket om fläktar på moderkortet:
CPU Fan Speed Control (CPU_FAN Connector)
Allows you to determine whether to enable the fan speed control function and adjust the fan speed.

  • Normal - Allows the fan to run at different speeds according to the CPU temperature. You can adjust the fan speed with EasyTune based on your system requirements. (Default)

  • Silent - Allows the fan to run at slow speeds.

  • Manual - Allows you to control the fan speed under the Fan Speed Percentage item.

  • Full Speed - Allows the fan to run at full speeds.

Fan Speed Percentage
Allows you to control the fan speed. This item is configurable only when CPU Fan Speed Control is set
to Manual. Options are: 0.75 PWM value ~ 2.50 PWM value.

Från EasyTune-kapitlet:

  • The Smart Fan Auto tab allows you to specify a Smart Fan mode

  • The Smart Fan Advance tab allows you to adjust the smart fan speed. The fans will run at different speeds according to system temperatures. Using the Smart Fan option you can adjust the fan's workload according system temperatures or you can fix the fan speeds using the RPM Fixed Mode option. Click the Calibrate button and the fan speed will be shown in[ relation to overall fan workload after calibration. The Reset button can revert the fan settings back to the last saved values.

@OP: Sätt CPU Fan Speed Control (CPU_FAN Connector) till Normal och gå sedan in i EasyTune och fliken "Smart Fan Advance" och ändra till "RPM Fixed Mode".

Av Aemony

Jag ska erkänna, jag fnittrade lite när de sa "For the last twelve months, our software engineers have been hard at work on many exiting features and innovations" och visade en lista där "New Brushed Metal Design" var överst, som om det var det viktigaste och svåraste att uppnå.

Av Aemony
Skrivet av DeGreeZ:

Beställde direkt när det gick att förhandsboka kontrollen och linken. Betalade hela kalaset med en kniv som jag hade sålt några veckor tidigare.

Så bundlar dom med några spel så gör det ingenting!

Jag gjorde samma. Nu märkte jag dock att de har tydligen sänkt priset med 15€ per enhet, så vi som förhandsköpte enheterna tidigt fick betala 300:- mer än de som köper enheterna nu.

Eh, vet inte riktigt hur jag ska känna om det...

EDIT: Visade sig att jag betalade 115,94 EUR för båda enheterna (exklusive frakt), vilket är 5,96 EUR (56,39 SEK) mer än de som köper enheterna idag. Eh, i det fallet så bryr jag mig inte då vi trots allt tydligen ska få enheterna först.

Av Aemony
Skrivet av Verminator:

Jag tror inte "piraterna" köper något spel? Sen finns det ju såklart de också som laddar ned något enstaka spel någon gång.

Därav mitt andra stycke:

Skrivet av Aemony:

DRM är inte till för att stoppa piraterna, det är till för att tvinga så många potentiella köpare som möjligt att köpa det istället för att vänta till att spelet crackas (pga grupptryck, hype, osv).

Även om många utvecklare och utgivare gillar att slänga runt >90% förlorad försäljning pga piratkopiering (tack och lov har de inte gjort det så mycket dem senaste åren) så förstår dem att en nerladdning från en pirat inte kan översättas direkt till en förlorad kopia. Det förvånar mig inte om de faktiskt tog siffrorna på allvar för ca 10 år sedan när dem började visa sig, men sedan dess har argumentet gång på gång brutits isär av personer från alla möjliga olika grupper.

DRM är inte tänkt att stoppa piratkopieringen, för det är i praktiken omöjligt att stoppa den. Det är tänkt att göra det så svårt som möjligt för crackers att cracka spelets skydd och därigenom få så många potentiella köpare (som inte är det samma som människor som alltid piratkopierar oberoende av vad) att köpa spelet innan en piratkopierad kopia blir tillgänglig.

Så i kategorin "pirater" har du en mängd olika underkategorier av olika slag. Du har de som aldrig köper ett spel alls (dvs aldrig ens är en potentiell köpare av spelet), sedan har du dem som boycottar DRM och tankar piratkopian efter dem har köpt spelet för att slippa skyddet (dvs de har både köpt spelet och tankat det) och så har du en stor del som består av folk som har möjligheten att köpa spelet men gör inte det om det finns en piratkopierad version tillgänglig. Sedan har vi givetvis flertalet andra grupper med.

Men DRM riktar sig alltså mot dem som kan tänka sig köpa spelet men som inte gör det om det finns en piratkopierad version tillgänglig. Dessa är oftast dem som redan har visat intresse för spelet och följt utvecklingen och är sugen på att spela spelet. Finns det en piratkopia tillgänglig på dag 1 kommer dem ladda ner det, men finns det ingen kan dem sakta men säkert konverteras till en köpare ju längre tid det tar för crackers att ta sig igenom skyddet.

---

Spelindustrin vet redan om hur dem ska göra för att stoppa piratkopieringen fullständigt. T.ex. Ubisofts Tom Clancy's H.A.W.X 2 har fortfarande inte blivit crackat. Det spelet är nu fyra år gammalt och har ingen crack tillgänglig. Oberoende av hur mycket folk hatar Ubisofts Always-Online uPlay-DRM som de använde för några år sedan så är det lösningen på all piratkopiering. Prince of Persia: The Forgotten Sands (2010) anslöt och frågade Ubisofts servrar varje gång du interagerade med något objekt. "Hello server, I'm pulling this switch now, what should happen?" "Door A should be opened" "Okay, thanks! Opening door A..."

Crackers var tvungna att skapa en virtuell server som kördes på datorn och som hade alla möjliga frågor och svar för hela spelet i sig. Dvs de var tvungna att spela igenom 100% av spelet och testa alla objekt och grejer där spelet frågade Ubisofts server för att kunna skapa den virtuella servern som cracken bestod av. Det är knappast något jobb som är snabbt att fixa...

Att sedan Ubisofts DRM minskade deras PC-försäljning markant efter att de började kräva Always-Online pga att även legitima köpare påverkades är ju en tråkig sak, men verkligheten. Sedan dess har alla aktörer på marknaden, så väl stora som små, insett det viktiga med att bädda in DRM i en tjänst som förhöjer din spelupplevelse, i t.ex. form av Origin och Steam.

Av Aemony
Skrivet av Verminator:

Den lilla tidsfristen kan dock vara tillräcklig för att från utvecklarnas sida motivera införandet av kopieringsskydd, eftersom den stora merparten av försäljningen äger rum vid lanseringen. När det kommer till Lords of the Fallen och Fifa 15 har Denuvo lyckats desto bättre och hitintills hållit piraterna på behörigt avstånd i en respektive två månader.

Varför skulle man köpa ett spel istället för o vänta tills kopieringsskyddet är knäckt? Där tänkte de inte riktigt till tror jag.

Som sagt så är det de lagliga som råkar ut för alla problem.

Huh? Det är flera gånger statistiskt visat att majoriteten av försäljningen görs Dag 1, sedan Vecka 1 och till slut Månad 1. Efter det minskar försäljningssiffrorna markant och endast reor på t.ex. Steam kan få spelet att sälja mer igen.

DRM är inte till för att stoppa piraterna, det är till för att tvinga så många potentiella köpare som möjligt att köpa det istället för att vänta till att spelet crackas (pga grupptryck, hype, osv).