Inlägg

Inlägg som WrongTarget har skrivit i forumet
Av WrongTarget

Någon som har koll på hur mycket dyrare en GDDR5-lösning blir jämfört med en DDR3-lösning? Känns ju som prisfrågan är rätt viktig för AMD (de konkurrerar ju främst i mellanklass och budgetsegmenten).

Av WrongTarget
Skrivet av Diversion:

http://reviews.cnet.com/8301-33199_7-57366319-221/why-4k-tvs-...

Rätt intressant. För den stora massan ser jag ingen användning för detta på ett bra tag.

Fanns mycket där som jag själv reflekterat över, men som de flesta inte verkar bry sig om, utan tänker 4K.....*dräggel*. För en datorskärm av större format, javisst, men för en TV är det meningslöst.

Slutsatsen från artikeln:

Citat:

[i]

Conclusion
The 4K standard is already here in the home projector space, more or less. Sony makes a $25k projector that's native 4K, while JVC has several models with the "e-Shift" pixel upconverter that puts 3,840x2,160 pixels on screen even though the LCOS chips are 1,920x1,080 pixels. A case can be made for 4K with larger screens at home. At the moment, though, light output limits screen size far more than resolution. For home projectors, let's just shrug and ask, "OK, why not?"

But with televisions, 4K is stupid. Stupid, stupid, stupid. For every one of you thinking you'll rearrange your living room to sit closer to the screen, I'm positive there are thousands of others who wouldn't (or wouldn't be allowed to).

Sure screen sizes are going up, but how many of you are really going to put an 85-inch screen in your home, and sit close enough to it for 4K to matter?

Don't believe me? Get a chair, and sit close enough to your TV so you can just see the pixel structure. Now watch an entire TV show like that. Now convince your family to do the same.

There's this feeling of inevitability with 4K, like because we can do it, we will do it. I just wanted to point out early that regardless of what the marketing and hype will say, you don't need 4K.

So if someday there's a choice between a 4K 80-inch OLED and a 1080p 80-inch OLED, sure, pick the 4K. Move a little closer to it and presto. But inevitably there will be even smaller 4K displays, and unless you're sitting on top of them, there's no point.

[/i]

Av WrongTarget
Skrivet av jOnÄTÄn:

Både Wii o 360 hade AMD grafik i sig, sen kan man ju undra om de kan göra några jättevinster på dessa grejer. De lär ju vara rejält prispressade för att få kontraktet.

Om man betänker de stora volymer som spelkonsoler säljs i, så är det välkommet för AMD att både Microsoft och Sony verkar satsa på AMD-processorer för sina nya plattformar. I och med de stora volymerna så behövs ju inte någon jättevinst per processor. Känns som livsnödvändigt för AMd i dagsläget då de inte riktigt kan konkurrera annat än i mid-segmentet och nedåt på PC-marknaden.

Av WrongTarget

Här är ett test, tyvärr innefattar det inte Phenom II 965 (3,4GHz), men väl Phenom II 980 (3,7GHz). 980 är exakt samma processor som 965, fast med 300MHz högre klockfrekvens. Av processorerna som finns med i testet är det väl Intels 9550 som ligger närmst 965 i prestanda (beroende på program så är den ena något bättre än den andra och vilken som är bäst varierar, så i stort är de likvärdiga ).
http://www.sweclockers.com/recension/15375-amd-fx-6100-och-fx...

I det stora hela skulle jag vilka säga att Phenom II x4 965BE och FX-6100 är rätt likvärdiga processorer prestandamässigt.

Av WrongTarget

Kan någon förklara varför man måste ha två fyrkärniga processorer och växla mellan dem? Programmen är ju inte särskilt bra kodade för många kärnor idag (och växling sker ju bara vid låg belastning), så jag funderar på om man inte skulle få samma eller bättre prestanda om man stängde ned två kärnor istället, så att man behåller två kärnor med hög klockfrekvens istället för att köra fyra med låg klockfrekvens. Eftersom man inte kan köra de båda fyrkärniga processorerna samtidigt, så blir ju prestanda under hög last densamma med tidigare nämnda teknik.

Av WrongTarget
Skrivet av anon127948:

Du inser att man kan göra annat med en dator än att spela bf3 och sedan skryta på FB om sina resultat?

Jodå, vilket jag gör på jobbet, men 9 av 10 som kommenterar här verkar vilja ha det för spel och det är just spel som ställer höga krav på grafikkortet/korten. Rätt många reflekterar inte ens över att en 4K skärm skulle vara svårdriven i spel med dagens grafikkort, utan tycker bara att högre upplösning måste vara bättre. Att sedan som någon föreslog ställa ned upplösningen under spelande är inte alltid någon bra ide' om man nu inte kan ställa ned grafiken till jämna multiplar av skärmens upplösning, eftersom man då får problemet att styrkretsen måste approximera och skala om, med varierande resultat (oftast sämre) och man tappar liksom lite av fördelen med en högupplöst skärm då.

Av WrongTarget
Skrivet av Boombastic:

"Drevs av schemat". Jo, tack. Det känner vi igen. Det kallas 2000-talet då kvalité inte är så viktigt och bara vi får sålt så mycket som möjligt så spelar det inte någon roll om kunden blir nöjd.

Skickades från m.sweclockers.com

Sedan är det ju ändå så att om inte uppdateringsschemat hålls så blir det ett jäkla gnäll på forum som detta för att uppdateringen inte kommer när det var sagt, så det är inte sååå konstigt att de vill hålla schemat, även om det betyder att de måste vänta med att implementera relevanta uppdateringa eftersom de inte är klara.

Av WrongTarget
Skrivet av anon168915:

Håller med de flesta om att upplösningen måste fixas till. Tråkigt att inga tillverkare verkligen tar tag i det hela och börjar ta fram högupplösta skärmar till oss vanliga konsumenter.

Nja, nu är detta ett entusiastforum, så ha inte för stora förhoppningar. Sedan verkar det vara på modet attklaga på upplösningen i varenda tråd om skärmar. för 24" tycker jag att 1920x1080 duger utmärkt, med större skärmar bör dock upplösningen ökas. Men 4K på en 24# are känns lite löjligt högt för mig i alla fall. Jag har inte lust att installera i två värstingkort bara för att kunna lira i defaultupplösningen.

Av WrongTarget

För en ren speldator skulle jag kört på Intel i5 3570. De flesta spel är dåliga på att sprida ut sin last på många kärnor utan belastar bara 2-4 kärnor hyfsat vettigt, kärnor utöver det får mest strölaster. Eftersom Intel's processorkärnor har rejält högre IPC och därmed kan utföra mer uppgifter under en klockcykel än AMD's processorkärnor, så funkar Intel-processorerna bättre i dagens spel. Då inte fler än fyra kärnor nyttjas på något vettigt sätt vill man ju att de kärnor som används skall ha så hög effektivitet som möjligt.

Detta sagt, så kommer en FX8350 även den fungera utmärkt i de flesta fall, särskilt om du inte tänkt köra med dubbla high-end grafikkort (eftersom det ofta är grafikkorten som begränsar spelprestandan då).

Av WrongTarget
Skrivet av Ilovegamingmuch:

Hej!

Jag behöver råd, jag har just nu en AMD 1055T 6X. Jag streamar när jag spelar olika spel och kör gärna med höga grafikinställningar. Mitt grafikkort är GTX 570. Jag vill ha något vassare istället för min nuvarande CPU, men ändå inte lägga för mycket pengar.

Jag är inne på att köpa i5-3570, eftersom den följer med paketet jag vill slå till på: http://www.komplett.se/k/ki.aspx?sku=752347. Vad tror ni om detta? Är i5-3570 bättre än den jag har och är det värt pengarna? eller ska jag vänta på fjärde generationen av Intels processorer eller helt enkelt ta en annan?

Tack tack.

En stilla undran, har du överklockat din nuvarande processor? Om du inte har gjort det, så skulle jag definitivt börjat med det. Sitter själv på en 1055T som jag tyckte var rätt seg i originalklock, men den luffar på i 3,7GHz sedan någon vecka efter köp utan minsta problem och i den klockfrekvensen är det en riktigt trevlig processor och det är en duktig skillnad i prestanda jämfört med originalfrekvensen. (maxklock är en bit högre, men jag vill inte höja spänningen för mycket för att kunna kyla med lågvarviga fläktar på min kylare).

Av WrongTarget
Skrivet av Funnyvlad:

http://www.cpu-world.com/CPUs/Bulldozer/AMD-FX-Series%20FX-83...

Om det är 8 fysiska kärnor så är de fantastiskt billiga. Har Intel öht någon modell med 8 "riktiga" kärnor? Hur som helst skulle de kostat förmodligen 4k och uppåt.

Fast nu är ju problemet att varje kärna har väldigt mycket lägre IPC än Intels kärnor, Intels HT-kärnor har ju lika hög eller högre IPC än AMD's kärnor......vilket AMD måste jobba på om de skall komma ikapp.

Skrivet av Funnyvlad:

Är Intel efter i utvecklingen om de inte har 8-kärniga processorer för de vanliga konsumenterna? För servermarknaden vet jag inget om.

Nja, som någon sagt redan så delar AMD's kärnor på resurser, så de är klenare var för sig än t.o.m. föregångaren Phenom II. Rent prestandamässigt så presterar intels fyrkärniga i7:or med hyper threading bättre, framför allt sett per klockcykel. Så det där med att AMD har fler "kärnor" har väldigt liten praktisk betydelse. AMd behöver få upp IPC per kärna och få ned effektförbrukningen en del för att komma i kapp Intel i dagsläget (den nya processorn tar ett steg i rätt riktning när det kommer till effektförbrukning i alla fall).

En jämförelse över prestanda vid samma klockfrekvens:
http://www.sweclockers.com/recension/15973-amd-fx-8350-visher...

Klicka på pilarna i bildens nederkant för att få fram fler jämförelser.

Av WrongTarget

Hmm, har inte hört något om Advance innan, men när ett 750W nätaggregat säljs för 330kr, så brukar det vara dags att dra öronen åt sig. Då brukar det för det mesta vara överspecificerad skit från Kina's budgettillverkare som säljs.

Ditt system i sig drar inte speciellt mycket, skulle tippa att det drar max runt 300-350W när det lastas som hårdast.

Får man lov att fråga varför du valt att köpa ett nätaggregat från en okänd tillverkare för en spottstyver för att driva ett relativt dyrt grafikkort? Det känns dumsnålt, när du kunde fått ett kvalitativt 550W aggregat för några hundringar till, som håller mycket längre och förmodligen även levererar mer effekt kontinuerligt än vad det sk. 750W aggregatet klarar.

Men om spelen laggar skulle jag hellre tro på taskiga drivrutiner till grafikkortet eller moderkort (har du bytt till Win 8 och inte dragit ner nya drivisar från AMD resp. moderkortstillverkaren)?

Av WrongTarget
Skrivet av Burain:

Har märkt att CPUn behöver arbeta mycket mer med t.ex. flash i den upplösningen. Så då är det möjligt att CPUn "flaskar" mer än vad den gör på lägre upplösningar relativt grafikkortet. För spel verkar det däremot som upplösning inte spelar så stor roll.

Det beror förmodligen på att du inte aktiverat hårdvarudecoding i flash player. I det fallet sker uppspelningen helt med CPU-kraft, om man aktiverar hårdvaruavkodning så läggs mycket av jobbet över på grafikkortet (likt hur det fungerar när du spelar spel). För spel gäller att ju högre upplösning desto mer last på främst grafikkortet/korten, lasten på CPU ökar inte speciellt mycket (iom att i stort sett all grafikberäkning sköts av grafikkortet).

Av WrongTarget
Skrivet av phoenixdisciple:

Tänkte bara kolla om det är fler som har samma problem, att 8gb @ 1600mhz inte räcker för spel?

Kör just nu Minecraft, med 2 WoW och 2 HB bottar på och datorn fryser i mellanåt fatt ramet inte räcker till.. den ligger stabilt på 7.66 av 8.00 usage så länge inte MC renderar nya chunks, är vi förbi spel-eran där 8gb är för lite, eller har jag något fel?

Mvh

Edit: lirar Tekkit MineCraft, och det drar minst 2.1gb minne utan att någon chunk laddas, eller utan Redstone-complex-wiring.

Suck och stön, naturligtvis kan man få minnet att bottna om man slänger upp flera olika spel och spelinstanser samtidigt, men de flesta spelar faktiskt bara ett spel åt gången (med lite addons kanske) och då räcker 8GB gott och väl.

Det är ju som att säga att i7 3770 inte duger till spel, för att man man renderar ett par filmer och rar:ar ett tiotal stora arkiv samtidigt som man spelar.

Av WrongTarget
Skrivet av _Merc_:

han lurar inte folk. AMD Funkar minst lika bra

jämför http://www.cpubenchmark.net/cpu.php?cpu=AMD+FX-8350+Eight-Cor...

Prisprestanda så är AMD oslagbara. man blir sugen på att Köpa en AMD octa-core för att se om man får bättre renderings tider än med intels 3820.

Fast det testet säger ju nada om hur bra processorn är i fåtrådade applikationer, vilket spel faktiskt är. Det testet är relevant för någon som likt dig skall rendera, men om man ser till "normalanvändaren", så ger högre IPC bättre prestanda rent allmänt.

Kollar man på diverse spelrecensioner, så ser man en klar tendens att Intels processorer har en fördel pga högre IPC, då spelen är dåliga på att nyttja fler kärnor än tre och usla på att utnyttja fler kärnor än fyra.

Dock klarar man sig ofta väldigt bra även med en AMD-processor, då det ändå för det mesta är grafikkortet som utgör en begränsande faktor, förutsatt att man inte sitter med flera high-end kort.

Så det hela är väl mest en budgetfråga. AMD är prisvärda i det lägre prissegmentet, medan Intel regerar prestandasegmentet för närvarande.

Av WrongTarget
Skrivet av matte70:

Dagens grafikkort stödjer visst PCI3.0

Stöder, ja, men det finns inget grafikkort idag som ens är i närheten av att maxa ut PCI-e 2.0 x16 så PCI-e 3.0 x16 ger rejält med tillväxtutrymme.

Av WrongTarget
Skrivet av Zodiaz:

står på paketet till mitt grafikkort att jag måste minst ha 600w nätagg och jag vill kunna överklocka rejält och samtidigt kunna driva massa hårdiskar o fläktar, tycker att det låter rimligt att ha 750w +

I Sweclockers test med en överklockad version av GTX 570 i en burk med bl.a. en i7 975@3.8GHz, så drog hela burken maximalt 439W från väggen. Deras nätaggregat har en verkningsgrad på ungefär 90% i det aktuella området (egentligen runt 87-88%), vilket ger att komponenterna drog 439W x 0,9= 395W.
http://www.sweclockers.com/recension/13087-nvidia-geforce-gtx...
Betänker man sedan att deras i7:a en hel del mer effekt än din i5:a ( här kan man se förhållandet mellan i5 och i7 i den generationen http://www.sweclockers.com/recension/6193-intel-lynnfield-cor...) så skulle jag vilja säga att ett 550W av hyfsad kvalitet räcker rätt långt.

När det gäller vad grafikkortstillverkaren rekommenderar, så tar de höjd för usla överspecificerade budgetaggregat och burkar fyllda med neon och hårddiskar. Rekommendationen är m.a.o. rejält överdriven.

Sedan kan nämnas att en SSD i allmänhet inte drar mer än 3W som mest, så det blir ingen direkt stor påverkan.

Av WrongTarget
Skrivet av Dual-Tjur:

1600MHz @ 1068MHz

klarar inte moderkortet snabbare? lite tweaking i bios så kan du få datorn räjelt snabbare.

Nja, rejält snabbare är väl att ta i, syntetiska testresultat för minneshastighet brukar i allmänhet säga väldigt lite om hur verkliga program reagerar. För det mesta ger snabbare minneshastighet en relativt blygsam vinst i verkliga program. Om sedan Latency-inställningarna ökas för att få upp minneshastigheten kan man snarare förlora på den snabbare hastigheten (högre latencies=längre väntelägen och en hel del program reagerar positivare till låga latencies än högre hastighet).

Av WrongTarget
Skrivet av biorrith:

När C2D lanserades var 2-kärniga ett vettigare köp för spel då spelen vid den tiden bara hade stöd för 2 kärnor.
Idag stödjer det flesta (alla?) spel 4 kärnor, och dessa CPUer är därför att föredra.

Fortfarande är faktiskt förvånansvärt många spel dåliga på att nyttja mer än två-tre kärnor. Särskilt MMORPG och RTS-spel brukar ha en kärna som kör spelets huvudtråd, sedan en tråd för fysik som drar rätt mycket av kärna två, men därefter är det ofta bara 20-30% belastning på kärna tre och resten av kärnorna nyttjas inte alls eller får bara ströbelastning.
Exempel på spel som uppför sig så här är WoW, SC2, Shogun 2. Ofta är det huvudtråden som bestämmer prestandan, så även om spelet i sig har stöd för fler än en kärna så blir spelets prestanda ofta beroende av hur hög IPC och klock den kärna som huvudtråden körs på har. Bottnar kärnan som huvudtråden körs på, så väntar de övriga trådarna på att huvudtråden skall exekveras klart innan de kan köras vidare, därmed bestämmer huvudtråden prestandan (vilket även är anledningen till att Intels processorer presterar klart bättre än AMD's i den typen av spel. Intels processorer har ju i dagsläget klart högre IPC och är relativt högt klockade i originalklock)

Av WrongTarget
Skrivet av rien:

Har testat att ändra bland profilerna och manuellt i Q-Fan och även i Windows i Fan Xpert, men det händer inget, fläkten surrar på i samma höga hastighet.

Du har inte missat att aktivera temperaturstyrning i BIOS?