Gammal tråd men såg inte att du svarat förrän nu. Vet inte om du pratar om att spela?
Minnet borde spela mindre roll då det handlar om att visa skrivbordet bara.
Mitt 11 år gamla Matrox G400 hade dubbla skärmutgångar. På sina 32MB minne. 1 utgång för upp till 2048x1536, medans den andra klarade 1280x1024.
I infon du postade står det heller inget om maximal kombinerad upplösning. Utan står vad för maxupplösning den stöder på en utgång. Tex att den klarar av en 30" 2560x1600 skärm genom DVI dual-link och 2048x1536 på den analoga utgången (VGA/D-SUB).
Det detta handlar om så vitt jag vet, är RAMDAC'en. Och i alla dagens och gårdagens grafikkort så borde det vara en RAMDAC per utgång. Fast kanske finns undantag. Varför mitt G400 hade sämre maxupplösning på andra utgången var för att den inte hade två likadana ramdac'ar .
Här är iaf info för GeForce 7 serien.
NVIDIA® GeForce® 7 Ser
Advanced Display Functionality
* Dual integrated 400MHz RAMDACs for analog display resolutions up to and including 2048x1536 at 85Hz
* Dual-link DVI capability to drive the industry's largest and highest resolution digital flat panel displays up to 2560x1600
Ursäkta det sena svaret och reserverar mig även för att jag kan ha fel, men detta är det jag håller vid tills jag sett fakta på annat
Edit: Kollade upp lite och RAMDAC heter det för analoga, för det digitala (DVI/HDMI) vet jag inte om det är inbyggt i själva skärmen. Hittade så luddig information. Men tror det ska funka på samma sorts sätt iaf.
Kollade även upp hur mycket grafikkortsminne (VRAM) man behöver för att visa 2D, skrivbord med mera. Då jag hade glömt detta.
Upplösningen (bredden x höjden) x färgdjupet (antal bitar, vanligtvis 32) = antalet bits
bits / 8 = bytes | bytes / 1024 = kilobytes | kilobytes / 1024 = mib
Så med en upplösning på tex 2 st 2560x1600 skärmar så blir det.
5120x1600x32 bitar = 262144000 bitar = 32768000 bytes = 32000 kilobytes = 31,25 MiB
Blev ett långt svar detta, men då fick jag tillfälle att lära mig lite nytt. Eller snarare uppfriska mitt minne