Inlägg

Inlägg som Zcenicx har skrivit i forumet
Av Zcenicx
Skrivet av Zeuxlarsson:

1. Moderkortet ska visst stödja 1600mhz (inofficiellt, läs #2 för förklaring).
2. i7-2700 stödjer officiellt upp till 1333mhz vilket innebär att moderkortet följer vad CPU säger.
3. Nej, du märker ingen som helst skillnad på 1333 och 1600mhz.

EDIT: För att i7-2700 ska stödja och utnyttja 1600mhz så bör man överklocka processorn eftersom minneskontrollern är speccad att köras upp till 1333mhz även om minnet körs i 1600mhz.

Rätta mig om jag har fel.

Du har inte fel. Dock överklockas minneskontrollern automatiskt när man ställer in en XMP-profil, och Sandy Bridge ska egentligen stöda 1600 MHz utan problem så länge det är 1600 MHz @ 1.5V.

Av Zcenicx
Skrivet av Falcon:

Nja, det vet jag inte riktigt om jag håller med om. Vill du utveckla det?
Jag är ingen expert på förhållandet mellan DVI och HDMI, så se mitt svar som en nyfiken fråga och inte som något otrevligt nu!

De "nya" HDMI-kablarna klarar ju 4K upplösningar, det gör väl även DVI då antar jag?
Sen har ju DVI nackdelen med att den endast klarar RGB. HDMI klarar RGB, YCbCr 4:4:4 och YCbCr 4:2:2. Och dessa används flitigt, utanför datorvärlden.
DVI klarar inte heller några värre längder, redan vid 10 m är den begränsad.

Men, jag tror här att man ska vara försiktig med uttalanden. Därför att DVI har sin funktion inom datorvärlden med korta längder vid t.ex bildredigering etc medans HDMI är mer åt "film hållet" om ni förstår hur jag tänker.

Min slutsats är att ingen är bättre eller sämre än den andra. Allt beror på hur/var den ska användas.

DVI har samma teoretiska bandbredd och samma standardstöd som HDMI, men då DVI-kablar oftast är bättre skärmade når de längre. DVI's rekommenderade maximum utan förstärkning är 10 meter, vilket är 33% längre än HDMI (25 fot eller 7,5 m).

Den praktiska skillnaden är egentligen inte DVI vs HDMI, det är samma sak, utan skillnaden är DL-DVI vs HDMI. En Dual-Link DVI-kabel har dubbelt upp vad gäller bandbredd och kan således driva en dubbelt så hög upplösning i samma uppdateringsfrekvens, eller samma upplösning i dubbla frekvensen. Det är därför DL-DVI klarar 120 Hz i 1920x1200 medan HDMI (och Single-Link DVI) bara klarar 60.

Två HDMI-kablar kan förstås ge samma effekt som en DL-DVI-kabel, men det blir svårare att lösa det rent tekniskt.

Vad gäller YCbCr är det huvudsakligen en teoretisk brist eftersom dagens DVI-D faktiskt klarar av det, annars hade man inte kunnat köra DVI till HDMI-konverterare. Den ursprungliga DVI-standarden däremot klarar inte av det. Likaså kan man köra HDCP över DVI i dagsläget, vilket inte heller fungerade från början.

DVI-D ska således i praktiken snarare ses som HDMI med extra bandbredd än som "gamla hederliga" DVI.

Vad gäller 4k-upplösningar stöder både HDMI och DVI det, men enbart DL-DVI klarar av det i 48-bitars färgdjup. Likaså klarar HDMI enbart 24 Hz vid 36-bit, medan DL-DVI klarar 50 Hz.

Av Zcenicx
Skrivet av frilansare:

3.0 ger dig högre bandbredd vilket förbättrar prestandan på dina PCI-E grafikkort. Om man har två kort får man oftast PCI-E 8x på bägge och då gör det mycket liten skillnad men har man fler än 2 så får man 4x PCI-E och då kan 3.0 ge en märkbar förbättring. Med 3.0 får du dubbelt så hög bandbredd som 2.0 vilket gör att PCI-E 4x 3.0 = PCI-E 8x 2.0 förenklat... Då blir man inte lika begränsad av att köra 3 eller fler grafikkort i SLI/crossfire.

Sen finns ju en framtid med nya grafikkort som säkerligen behöver bättre bandbredder mot processorn än vad dagens grafikkort kräver.

Om Zcenicx svarar igen så har han säkert en bättre förklaring än min, kanske tillockmed rätter mig någonstans (ska inte vara något grovt fel i min beskrivning dock)

Nej, det stämmer väldigt bra.

Det bör väl också påpekas att den nuvarande generationen grafikkort (680/7970) är precis på gränsen till vad x8 2.0 klarar av, och att man faktiskt ser en flaskning på någon enstaka procent redan nu. Med kommande generationer lär man därför behöva antingen dubbla PCIe x16 om man ska sitta kvar på 2.0, medan man fortfarande klarar sig bra på x8/x8 när man kör 3.0.

Skrivet av drefk2000:

Ditt exempel är däremot inte helt jämförbart. 2011-plattformen har andra förutsättningar (och andra problem) än 1155.

PCIe 3.0 gör inte praktiskt någon skillnad varken till eller från då dina x16/x16 2.0-linor är direkt jämförbara med Ivy Bridges x8/x8 3.0, och då 680'or inte flaskar nämnvärt på x8 2.0 är det snarare en fråga om kompabilitetsproblem eller andra inställningar.

Skrivet av Oldvikingschool:

TPU gjorde nyligen en artikel om detta, x4 PCI-E 2.0 räcker för GTX680 utan någon hemsk prestandapåverkan.

Mjo, men x4 ger ändå en flaskning om 15~20%, vilket får anses vara direkt märkbart. Det blir också värre i högre upplösningar eller Surround.

Skrivet av Skrowd:

med 4x PCI-e är ju inte så dåligt de blir väl inte så stor skillnad egentligen! även med gammla 2.0

Av Zcenicx

På mitt P8P67 Pro fungerar det bra direkt out of box, men det kör förstås inte 3.0 alls.

Av Zcenicx
Skrivet av Imbauser123:

Vad skulle ni välja i dagsläget? Kollar man på Prisjakt så går GTX 560 Ti 448 att få tag på för mellan 2000-2050 kr och HD 7850 går för ca 2150 kr så drygt 100 kr mer.

Om man jämför prestanda mellan korten i Sweclockers recensioner av de båda så är ju GTX 560 Ti 448 det vassare kortet men undrar om 7850 kanske inte är långt efter längre tack vare förbättrade drivrutiner? Dessutom så drar det ju betydligt mindre ström och lämpar sig betydligt bättre för dual GPU setup gissar jag så det kanske är bättre att köra på 7850?

560 Ti 448 är det vassare valet, och så länge du inte bygger en maskin enbart för benchmarking är det även bättre för dualGPU (men du får antagligen köpa båda korten samtidigt).

CF är i dagsläget en sorglig historia med all stuttering 7000-serien har.

Av Zcenicx
Skrivet av bongt123:

Falcon, jo precis. hade ett 550 ti förut. och aldrig blivit sådär. kör drivrutinerrna från skivan. alltså 300.83. Gick även in på Nvidias kontrollpanel och 3D-inställningar - Program - BF3, Och energifunktior - maximal prestanda, ända jag gjort.

www.geforce.com

Tanka hem och installera 301.24 Beta.

Av Zcenicx
Skrivet av Blazin87:

Bullshit?

http://www.xbitlabs.com/articles/memory/display/sandy-bridge-...

Läs detta och be genast om ursäkt eller så anmäler jag ditt inlägg.

Men vad sjutton. Har du fortfarande inte förstått vad det är du länkar eller är du helt enkelt inte läskunnig när folk försöker förklara det för dig?!

Skrivet av Blazin87:

5-10fps ja, beroende på spel titel. Vilket är väldigt mycket om man redan sitter på låg fps.
T.ex, kan det avgöra skillnaden mellan spelbart->njutbart.
eller ospelbart->spelbart.

NEJ! Lögn och förbannat skitsnack!

RAM gör skillnad, men enbart i HÖGA FPS. Det gör inte skillnaden mellan ospelbart och spelbart - en gräns som ligger under 60 FPS. Det gör möjligtvis skillnaden mellan 120 FPS eller 130, och då i spel som är extremt CPU/RAM-beroende (typ just Civilization 5).

Kan du sluta sprida skit som det här som en jäkla gödselspridare nu?

Av Zcenicx

Funkar de så funkar de. Att nordbryggan ska brinna upp är något någon idiot på Komplett hittat på med tanke på att minnena inte ens matas av nordbryggan på ett 1155-system.

Av Zcenicx

Nej, det kommer inte att göra någon märkbar skillnad.

Mätbar, ja, men inte märkbar. Vi pratar kanske, kanske om 1 FPS hit eller dit.

Av Zcenicx

Det är en bra idé överlag, och du kommer att märka en enorm skillnad direkt out of box.
Ironiskt nog borde ett Delta 460W-agg klara det galant med tanke på att ett 670 drar mindre ström än ett 260.

Av Zcenicx

Värmeavledningsförmågan är alldeles för dålig och du har för liten area per volymenhet.

En Noctua U12P, som ett exempel, har en total ytarea på mer än 5000 cm2 vilket motsvarar mer än en halv kvadratmeter. Det motsvarar grovt räknat hela utsidan på ett lite mindre ATX-chassi. Den har all denna yta på en volym som är mindre än en halv liter och där hela ytan kan kylas aktivt. Den är också gjord i koppar och aluminium vilka leder värme bra - chassin är oftast gjorda i stål vilket leder betydligt sämre.

Trots all denna yta kan du fortfarande inte kyla processorn passivt med den här kylaren.

Av Zcenicx

Jag tror också, som andra redan varit inne på, att många som suttit med 7970 CF ett tag antingen skickar det ena eller båda nu.

Brorsans är ute på Blocket om någon är intresserad, han tröttnade på att se mina 680'or (med betadrivrutiner) flyta som smält smör medan hans stuttrar så illa att BF3 knappt är spelbart. Han byter dock till 670'or.

Av Zcenicx
Skrivet av Itchy Trojan:

Kanske detta vore någonting för swec favoriten inet att fixa

Tror det största problemet är att det är en väldigt dyr demo. Vi pratar om en totalkostnad på i runda snurrar 20.000:- plus moms för maskin och skärmar. Det är heller inget en vanlig Svensson kommer in och köper.

Skrivet av El1min4tor:

I Göteborg brukar Inet ha 3D-vision demo. Testat där?

På en skärm, TS vill se 3DVision Surround dvs 3 skärmar.

Av Zcenicx

Med den datorn kan han till och med köpa ett GTX 680 utan att känna sig lurad. För ett 690 skulle jag egentligen rekommendera byte till en "äkta" fyrkärnig, dvs en i5 760 eller dylikt.

Oavsett vilket bör han köpa till ett 2x2 GB-paket RAM till, då moderna grafikkort och spel mår bäst på 8 GB.

Av Zcenicx
Skrivet av BasseeBoii:

Jojo jag vet vad HDMI är men jag tänkte mer om den skulle kopplas till moderkortet
Men går det att ha HDMI på de flesta bildskärmar till PC:er?

HDMI och DVI är samma videosignal och de är elektriskt identiska, så du kan exempelvis med en enkel DVI>HDMI-adapter använda en datorskärm till ett XBox eller PS3, eller för den delen till en DVD. Däremot får man förstås inget ljud då i princip inga datorskärmar har digitalt matade högtalare, så man får dra separat ljud eller gå via en digital receiver.

Det finns också kablar med DVI på ena änden och HDMI på den andra.

Alla moderna grafikkort har också möjlighet att ge både bild och ljud via DVI till HDMI-adaptrar, så de två är i datorvärlden i princip direkt utbytbara mot varandra.

HDMI's nackdel jämfört med DVI är att HDMI inte klarar lika höga upplösningar och lika höga bildfrekvenser.

Av Zcenicx

Försök att hitta någon SweC'are i Stockholmsområdet som har lust att bjuda på kaffe vetja

Av Zcenicx

Stämmer, MW3 kan inte ge dig högre än sin hard cap på 91 FPS. Finns sätt att modda bort det, men det räknas som fusk av AntiCheat med omedelbar kickban som följd.

Av Zcenicx

För BF3 och Skyrim behöver du två för att spela i konstant 60+ FPS med högsta inställningarna, men kan du tänka dig att sänka några inställningar fungerar det även med ett.

Två är förstås betydligt mycket mer framtidssäkrare, de presterar ca 50% bättre än ett 680.

Av Zcenicx
Skrivet av Jekean:

Förutom större cache och eventuellt, möjligen högre överklockinings resultat...

Cacheskillnaden gör dock ingen nytta utan HT, så...

Av Zcenicx
Skrivet av Sammyc51:

Som sagt, jag ligger på 301.10 och har en GTX 680. Inga driversproblem sen jag installerade dom för första gången i början av april.

Har fortfarande ingen adaptive i vertikalsynk taben.

http://dl.dropbox.com/u/29187962/Pictures/jpgs/Namnl%C3%B6s2....

Hmm... okej, verkar som de bytt namn på den mellan 301.10 och 301.24 då.

http://i168.photobucket.com/albums/u196/zcenicx/zswecsync.jpg