GTX 560, 570 eller Radeon 6950 2GB ? Hel del svåra frågor

Permalänk
Quizmaster Malmö 22

GTX 560, 570 eller Radeon 6950 2GB ? Hel del svåra frågor

GTX 560 kan överklockas så det blir lika bra som ett GTX 570 (av vad jag förstått. Men kommer alla GTX 560 upp till ett GTX 570 ?).
Vad finns det för incentiv till att köpa ett GTX 570 när det är så lite skillnad mellan 560 och 570 ?

Hur står sig GTX 560 mot ett Radeon 6950 2GB ?

Sen verkar Radeon 6950 har dålig kylning jämfört med GTX 560. Men det kan jag nog byta ut om 1 år hoppas jag.

Jag måste också veta om grafikkortsminne över 1GB kommer till användning på min upplösning. Ta även med framtida spel i beräkningen som kommer max 2 år framåt).

Jag kör 1920x1080. Kommer INTE skaffa fler skärmar.

Har bestämt mig för antingen GTX 560 eller Radeon 6950.

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Medlem

Svaret på alla dina frågor hittar du i princip här http://www.sweclockers.com/recension/13357-nvidia-geforce-gtx... om du bara orkar läsa lite

Men:

Du bör klara dig på 1 Gb minne så länge du "bara" kör 1920x1080, kolla tester mellan 6950 1/2 Gb på till exempel Sweclockers.

Tja även om du kan klocka ett GTX 560 till runt 570 standard nivå kan man ju klocka ett 570 över 570 standardnivå Och till skillnad från CPU:er så skilljer det ju sig mellan hur många.

Utan en direkt jämförelse är Nvidias och AMD:s referenskylare ungefär lika dåliga/bra, man kan ju alltid jämföra effektförbrukning, då effektförbrukning och ljudnivå går hand i hand om kylningen är jämbördig.

Visa signatur

"Jag har inte gått 5 år på Chalmers, men till och med jag vet att det är en dum idé att blanda vatten och elektronik"
Min Fru

Permalänk
Medlem

6950 2GB och flasha till 6970.

Visa signatur

P8P67 Deluxe | i5 2500K @ 4,4 GHz (H70) | 4x4GB Corsair PC12800 | 2x 6950 @ (1536 Shaders) 880 MHz/1375Mhz | 480GB Intel 520 | OCZ Silencer MKIII 750W | 800D
Det heter effekten och spänningen, inte watten och volten.

Permalänk
Skrivet av seskima:

6950 2GB och flasha till 6970.

Yes funka för mig med

Visa signatur

Amd Phenom 6 1090t@3.6Ghz, Noctua d-14,Asus 570, Kingstone 4x2 G 1600Mhz, Gigabyte GA-890FXA-UD5, Socket-AM3, CM Silent pro 700W, Chassi: CM 690 II Advanced Svart, Massa fläktar. Windows 7 pro, 64 bitars

Permalänk
Medlem

Vad jag har läst ska man inte flasha 6950 med 6970 bios, utan snarare med en modifierad bios som låser upp låsta shaders. Tydligen så har 6950 något sämre minnesmoduler som inte alla klarar av att köras på 6970s nivåer.

ONT: Jag hade skaffat 570 gtx. Om du inte har planer att köra sli så hade jag skaffat ett kort med eftermarknads kylare, då tänker jag främst på detta kort: http://www.komplett.se/k/ki.aspx?sku=620660. Kyler bra, klockar bra och ser jäkligt bra ut.

Visa signatur

5800X3D, ASUS TUF 4080 , 32 GB G.SKILL Tridentz 3600cl16, Gigabyte x570 wifi pro, Samsung 960 EVO 512GB, Corsair SF750, Xtia Xproto-L

Permalänk
Visa signatur

Amd Ryzen 3900x -I- H100i -I- Asus ROG STRIX X470-F Gaming -I- Asus GTX 3060 12GB -I- 32gb HyperX RGB @3600mhz -I- Chieftec nitro 650w Bronze -I- Corsair MP510 1gb m.2, Ocz trion 150 128gb och 240gb -I- Windows 10 Home -I- Fractal R4

Permalänk
Skrivet av Haibane:

Vad jag har läst ska man inte flasha 6950 med 6970 bios, utan snarare med en modifierad bios som låser upp låsta shaders. Tydligen så har 6950 något sämre minnesmoduler som inte alla klarar av att köras på 6970s nivåer.

funkar prima för mig

Visa signatur

Intel i7 950 @ 3,00GHz | Radeon HD6950 @ 880MHz, 1375MHz | 12GB Dominator DHX+ 1600MHz | 1TB Western Digital Caviar Black 64MB cache 7200RPM | 500GB Wester Digital 8MB cache 7200RPM | 500GB Hitachi 16MB cache 7200RPM | Fractal Design R3 | Fractal Design Newton 1000W | CoolIT E.C.O

Permalänk
Medlem
Skrivet av samizzlah:

funkar prima för mig

Det är faktiskt relativt få vars kort gått sönder direkt vid flashningen, bara läst om tre sådana fall. Problemen brukar komma senare efter några veckor då något ger upp i kortet p.g.a övervoltningen.

Visa signatur

5800X3D, ASUS TUF 4080 , 32 GB G.SKILL Tridentz 3600cl16, Gigabyte x570 wifi pro, Samsung 960 EVO 512GB, Corsair SF750, Xtia Xproto-L

Permalänk
Medlem

Ypperligt bra 570 som redan är klockad: http://www.komplett.se/k/ki.aspx?sku=619615
Test av kortet: http://www.hardwareheaven.com/reviews/1088/pg1/gainward-gefor...

Inte många % efter 580

Man vill väl ha Physx trots allt

EDIT: var det här testet jag skulle länka http://www.tweaktown.com/articles/3723/gainward_geforce_gtx_5...

Där är den mot massa olika grafikkort

Permalänk
Medlem
Skrivet av Jeetk:

Man vill väl ha Physx trots allt

För att? Ytterst få spel man ser någon effekt av det och ännu färre spel som är det minsta intressanta (mirrors edge e ju jätte /care på t.ex.). PhysX är mest bara ett marknadsföringsknep för fjortisar som tycker om klistermärken i neongrönt..
Känns som detta borde vara lägsta prioritet möjlig att basera ett grafikkortsköp på.. Då är ju saker som prestanda, pris/prestanda och mångden ström kortet drar betydligt mer intressant och relevant för 99,9% av användarna.

Visa signatur

Home: i5 3570K, 16GB RAM, Gigabyte HD7950 WF, Samsung 830 SSD 128GB, Corsair 650W.
Work: Xeon X5260, 8GB RAM, nVidia Quadro FX 4600.

Permalänk
Medlem
Skrivet av Essin:

För att? Ytterst få spel man ser någon effekt av det och ännu färre spel som är det minsta intressanta (mirrors edge e ju jätte /care på t.ex.). PhysX är mest bara ett marknadsföringsknep för fjortisar som tycker om klistermärken i neongrönt..
Känns som detta borde vara lägsta prioritet möjlig att basera ett grafikkortsköp på.. Då är ju saker som prestanda, pris/prestanda och mångden ström kortet drar betydligt mer intressant och relevant för 99,9% av användarna.

du har rätt, dumt att sträva framåt!

Visa signatur

Outtröttlig, löpartokig besserwisser!

Bli vegan! För djuren, planeten, hälsan och våra barns skull!

Permalänk
Medlem
Skrivet av NisseG91:

du har rätt, dumt att sträva framåt!

Att företagen utvecklar egna låsta standarder är precis rakta motsatsen till att sträva frammåt!
Om det vore deras mål skulle de utveckla en öppen standard!
Bara för att jag trampade på en tå för dig så innebär det inte att jag har fel, PhysX tillför enormt lite och att basera sitt köp på detta är bara dumt. Då är väl snarare att förbättra prestanda/effekt(watt) betydligt mer att sträva framåt då energieffektiviseringar ligger i tiden i alla brancher (motorer m.m.).

Nvidias tankesätt de senaste generationerna är väldigt mycket sent 1900-talets USA, "störst (till chipyta i detta fall) är alltid bäst, vem bryr sig om energieffektivitet".
Medan ATI/AMD kör en mer modern (västeuropeisk/japansk) modell med små, effektiva och miljövänliga (drar mindre ström för samma prestanda) chip.

Eftersom du kommer ta detta som ett personligt påhopp på dina 580 så spelar det ju ingen roll vad jag säger tyvärr men sen när är stängda företagsunika standarder som delar spelmarknaden ett sätt att sträva framåt????

Visa signatur

Home: i5 3570K, 16GB RAM, Gigabyte HD7950 WF, Samsung 830 SSD 128GB, Corsair 650W.
Work: Xeon X5260, 8GB RAM, nVidia Quadro FX 4600.

Permalänk
Medlem
Skrivet av Essin:

Att företagen utvecklar egna låsta standarder är precis rakta motsatsen till att sträva frammåt!
Om det vore deras mål skulle de utveckla en öppen standard!
Bara för att jag trampade på en tå för dig så innebär det inte att jag har fel, PhysX tillför enormt lite och att basera sitt köp på detta är bara dumt. Då är väl snarare att förbättra prestanda/effekt(watt) betydligt mer att sträva framåt då energieffektiviseringar ligger i tiden i alla brancher (motorer m.m.).

Nvidias tankesätt de senaste generationerna är väldigt mycket sent 1900-talets USA, "störst (till chipyta i detta fall) är alltid bäst, vem bryr sig om energieffektivitet".
Medan ATI/AMD kör en mer modern (västeuropeisk/japansk) modell med små, effektiva och miljövänliga (drar mindre ström för samma prestanda) chip.

Eftersom du kommer ta detta som ett personligt påhopp på dina 580 så spelar det ju ingen roll vad jag säger tyvärr men sen när är stängda företagsunika standarder som delar spelmarknaden ett sätt att sträva framåt????

nejnej, du kan inte hålla på och anta massor med saker när det gäller mig.
enda anledningen till att jag köpte 580 är för att det är det snabbaste kortet på marknaden.

men du kan ju inte påstå att physx är en dålig grej? Visst, används inte så ofta osv, men är ju fortfarande någonting nyskapande eller hur?

Och vad spelar det för roll om det är företagsunika standarder egentligen? hittar man på någonting nytt så är det väl självklart att man inte vill att alla ska ta del utav det!

Visa signatur

Outtröttlig, löpartokig besserwisser!

Bli vegan! För djuren, planeten, hälsan och våra barns skull!

Permalänk
Medlem
Skrivet av NisseG91:

nejnej, du kan inte hålla på och anta massor med saker när det gäller mig.
enda anledningen till att jag köpte 580 är för att det är det snabbaste kortet på marknaden.

men du kan ju inte påstå att physx är en dålig grej? Visst, används inte så ofta osv, men är ju fortfarande någonting nyskapande eller hur?

Och vad spelar det för roll om det är företagsunika standarder egentligen? hittar man på någonting nytt så är det väl självklart att man inte vill att alla ska ta del utav det!

Nej jag menar inte att det är dåligt, men som personen jag kommenterade till uttryckte sig så lät det som att man direkt kunde bortse från alla ATI/ADM kort bara för att "man vill väl ha PhysX" vilket jag tycker är helt befängt baserat på hur lite nytta man kommer ha av PhysX så är det något som bör komma låååångt ner på listan över de saker man bör kolla på när man väljer grafikkort.

Sedan kom du och sa i stort sätt att man är en bakåtsträvare om man inte vill ha PhysX (ditt inlägg var för kort för att få fram någon annan åsikt). Det finns ju öppnare standarder som Havok som fungerar på båda företagens kort och att då utveckla en egen och betala några utvecklare att lägga till det i sina spel ger ju bara en mer segregerad marknad än något annat och det anser jag inte är detsamma som att vara framåtsträvande, snarare som sagt motsatsen.

Edit:Inte ens din önskeframtid är väl att halva spelmarknaden stöder AMD och halva nVidia och att ett spel som stöder ena sidan är knappt spelbart med den andra sidans grafikkort pga alla låsta standarder som inte stöds av det kortet? Det är ju åt ett sådant håll som denna typ av låsta standarder för marknaden tyvärr.

Visa signatur

Home: i5 3570K, 16GB RAM, Gigabyte HD7950 WF, Samsung 830 SSD 128GB, Corsair 650W.
Work: Xeon X5260, 8GB RAM, nVidia Quadro FX 4600.

Permalänk
Medlem
Skrivet av Essin:

Att företagen utvecklar egna låsta standarder är precis rakta motsatsen till att sträva frammåt!
Om det vore deras mål skulle de utveckla en öppen standard!
Bara för att jag trampade på en tå för dig så innebär det inte att jag har fel, PhysX tillför enormt lite och att basera sitt köp på detta är bara dumt. Då är väl snarare att förbättra prestanda/effekt(watt) betydligt mer att sträva framåt då energieffektiviseringar ligger i tiden i alla brancher (motorer m.m.).

Nvidias tankesätt de senaste generationerna är väldigt mycket sent 1900-talets USA, "störst (till chipyta i detta fall) är alltid bäst, vem bryr sig om energieffektivitet".
Medan ATI/AMD kör en mer modern (västeuropeisk/japansk) modell med små, effektiva och miljövänliga (drar mindre ström för samma prestanda) chip.

Eftersom du kommer ta detta som ett personligt påhopp på dina 580 så spelar det ju ingen roll vad jag säger tyvärr men sen när är stängda företagsunika standarder som delar spelmarknaden ett sätt att sträva framåt????

Jo,du har helt rätt att öppna standards är bäst.Problemet är att det kostar pengar att ta fram en fysik motor.Att som företag(Nvidia) betala för utveckligen av phys-x för att sedan ge Amd rättigheterna att använda det Gratisär emot all företags logik.Se bara på Intel och deras x86 licens eller Amd och deras 64bit.

Inte ser du Intel eller Amd låta någon använda deras licenser utan att få kompensation?.Så varför vägrar Amd betala för att få använda phys-x ? Dom har ju blivit erbjudna av Nvidia. snålhet??...vad vet jag..Kom bara inte dragandes med bullet fysik motorn.Visst den ska vara öppen/gratis att använda men ingen vill satsa några större belopp på att utveckla den,allra minst Amd.

Visa signatur

Money frees you from doing things you dislike. Since I dislike doing nearly everything, money is handy.

Permalänk
Medlem
Skrivet av NisseG91:

nejnej, du kan inte hålla på och anta massor med saker när det gäller mig.
enda anledningen till att jag köpte 580 är för att det är det snabbaste kortet på marknaden.

men du kan ju inte påstå att physx är en dålig grej? Visst, används inte så ofta osv, men är ju fortfarande någonting nyskapande eller hur?

Och vad spelar det för roll om det är företagsunika standarder egentligen? hittar man på någonting nytt så är det väl självklart att man inte vill att alla ska ta del utav det!

Essin har faktiskt rätt, PhysX skulle vara bra mycket bättre och populärare om nVidia inte låste folk från att använda det.

En annan grej som är fail med PhysX i dagsläget är att man behöver ett separat kort som kör physx beräkningar om det ska funka bra, det hade varit 100% bättre om det faktiskt funkat bra med ett singel kort.

Visa signatur

| CPU i7-13700KF | Mobo Asus PRIME Z790 D4 | Ram 32Gb 3600Mhz cl17 DDR4 | GFX RTX 3080 | HDD 2x 1024Gb M.2 SSD | Corsair 850W | Playstation 5 | Xbox Series X |
"Om allt verkar gå bra vet du förmodligen inte alls vad som pågår."

Permalänk
Medlem
Skrivet av tEan:

Jo,du har helt rätt att öppna standards är bäst.Problemet är att det kostar pengar att ta fram en fysik motor.Att som företag(Nvidia) betala för utveckligen av phys-x för att sedan ge Amd rättigheterna att använda det Gratisär emot all företags logik.Se bara på Intel och deras x86 licens eller Amd och deras 64bit.

Inte ser du Intel eller Amd låta någon använda deras licenser utan att få kompensation?.Så varför vägrar Amd betala för att få använda phys-x ? Dom har ju blivit erbjudna av Nvidia. snålhet??...vad vet jag..Kom bara inte dragandes med bullet fysik motorn.Visst den ska vara öppen/gratis att använda men ingen vill satsa några större belopp på att utveckla den,allra minst Amd.

Finns ju fler exempel, AMD låter moderkortstillverkare sätta in CrossFire gratis medan nVidia tar betalt för att få använda SLI (om detta inte ändrat på senare tid) vilket också är anledningen till att CrossFire finns på många fler moderkort och till att SLIkort oftast är lite dyrare..

Sen skulle en kvalificerad gissning på varför AMD inte vill betala för PhysX vara att nVidia antagligen tog så hutlöst mycket betalt att det vore omöjligt för AMD att hålla konkurrenskraftiga priser på sina kort längre. Ja menar tar man betalt för en sak som SLI som bara gynnar företaget om många använder så kan jag tänka mig hur mycket de ska ha i licensavgifter för PhysX..

Visa signatur

Home: i5 3570K, 16GB RAM, Gigabyte HD7950 WF, Samsung 830 SSD 128GB, Corsair 650W.
Work: Xeon X5260, 8GB RAM, nVidia Quadro FX 4600.

Permalänk
Medlem

Som sagt, grunda inte ditt svar på om kortet har PhysX eller inte, grunda det på prestandan. Då PhysX enligt mig inte är någon big deal.

Och då är det mellan 570 och 6950, men ska du ta 570 kan du lika väl ta 6970. Då det bara kostar ca 100 kr mer, (om man jämför med Gigabyte vs Gigabyte på Inet.)
http://www.inet.se/artikel/5409080/gigabyte-geforce-gtx-570-1... 2995
http://www.inet.se/artikel/5409087/gigabyte-radeon-hd6970-2gb 3072

Dock så verkar det som om du ska byta upp dig igen efter 2 år. Så då skulle jag nog kanske t.om. gå ner till ett 6870 kort. För de klarar ändå de flesta spelen, inte på Max men på duglig

Visa signatur

Citera så hittar jag ditt svar.

Permalänk
Medlem
Skrivet av Essin:

Finns ju fler exempel, AMD låter moderkortstillverkare sätta in CrossFire gratis medan nVidia tar betalt för att få använda SLI (om detta inte ändrat på senare tid) vilket också är anledningen till att CrossFire finns på många fler moderkort och till att SLIkort oftast är lite dyrare..

Sen skulle en kvalificerad gissning på varför AMD inte vill betala för PhysX vara att nVidia antagligen tog så hutlöst mycket betalt att det vore omöjligt för AMD att hålla konkurrenskraftiga priser på sina kort längre. Ja menar tar man betalt för en sak som SLI som bara gynnar företaget om många använder så kan jag tänka mig hur mycket de ska ha i licensavgifter för PhysX..

Men x-fire säljer ju Amd kort och inte Nvidia kort eller hur? Så den jämförelsen var väldigt dålig.En lika kvalificerad gissning som din till att Amd inte vill betala för phys-x är att dom fortfarande hoppas att någon tredje part ska plöja ned en massa pengar och utveckla deras Bullet motor.För själva är tänker dom inte betala för Bullet.

Visa signatur

Money frees you from doing things you dislike. Since I dislike doing nearly everything, money is handy.

Permalänk
Medlem
Skrivet av tEan:

Men x-fire säljer ju Amd kort och inte Nvidia kort eller hur? Så den jämförelsen var väldigt dålig.En lika kvalificerad gissning som din till att Amd inte vill betala för phys-x är att dom fortfarande hoppas att någon tredje part ska plöja ned en massa pengar och utveckla deras Bullet motor.För själva är tänker dom inte betala för Bullet.

Vad snackar du om? Ja CROSSFIRE (eller CF (x-fire är ett chatprogram som bl.a. registrer speltid i olika spel och kan inte användas som förkortning här!)) säljer fler AMD kort och därför anser inte AMD att de ska ta betalt för att licensiera detta till Asus, Gigabyte å de andra moderkortstillverkarna. MEN som min poäng också var om du läser bättre så tar nVidia BETALT av moderkortstillverkarna för SLI licens, en licens som skulle sälja mer nVidia kort. Tänk efter lite istället för att bara vara defensiv och försvara nVidia!

Edit: Förtydling (behövs tydligen):
Crossfire: AMDs multikortslösning, gratis för moderkortstillverkare att licensera då AMD ser mervärde av att det finns på många moderkort.

SLI: nVidias multikortslösning, kostar för moderkortstillverkare att licensera. (För att nVidia är snikna? Kan inte komma på någon logisk anledning iaf)

Visa signatur

Home: i5 3570K, 16GB RAM, Gigabyte HD7950 WF, Samsung 830 SSD 128GB, Corsair 650W.
Work: Xeon X5260, 8GB RAM, nVidia Quadro FX 4600.

Permalänk
Medlem

Eller så kan man sluta rage'a och hjälpa han med problemet!?
det finns inte mycket som hjälper med gnäll ändå

Permalänk
Medlem

Att jag startade krig med "Man vill väl ha Physx trots allt" gör mig lite ledsen i ena ögat. Var inte menat som ett så seriöst uttalande

Det som var poängen med mitt inlägg var väl ändå hur kortet presterade då jag klistrade in TVÅ länkar på TVÅ olika tester.
Sen att kortet kostar 3300kr är väl ingen nackdel heller.

Jaja

Permalänk
Medlem
Skrivet av Essin:

Vad snackar du om? Ja CROSSFIRE (eller CF (x-fire är ett chatprogram som bl.a. registrer speltid i olika spel och kan inte användas som förkortning här!)) säljer fler AMD kort och därför anser inte AMD att de ska ta betalt för att licensiera detta till Asus, Gigabyte å de andra moderkortstillverkarna. MEN som min poäng också var om du läser bättre så tar nVidia BETALT av moderkortstillverkarna för SLI licens, en licens som skulle sälja mer nVidia kort. Tänk efter lite istället för att bara vara defensiv och försvara nVidia!

Edit: Förtydling (behövs tydligen):
Crossfire: AMDs multikortslösning, gratis för moderkortstillverkare att licensera då AMD ser mervärde av att det finns på många moderkort.

SLI: nVidias multikortslösning, kostar för moderkortstillverkare att licensera. (För att nVidia är snikna? Kan inte komma på någon logisk anledning iaf)

Ööh,hur tänker du nu?Så du menar att Amd släppte cf licensen fri för att kunna sälja mer g-kort är det samma som att Nvidia släpper licensen för Phys-x fri utan att tjäna ngt på det? För det är väl phys-x licensen vi diskuterar o inte cf vs sli eller hur?

Och ett stort TACK till dej för att du så exemplariskt utförligt förklarade(och rättade mej) skillnaden mellan x-fire och +-fire.

Till trådskaparen:Gainward kortet du länkade till är mycket bra o prisvärt annars något 6950 kort kanske.

Visa signatur

Money frees you from doing things you dislike. Since I dislike doing nearly everything, money is handy.

Permalänk
Avstängd
Skrivet av tEan:

Ööh,hur tänker du nu?Så du menar att Amd släppte cf licensen fri för att kunna sälja mer g-kort är det samma som att Nvidia släpper licensen för Phys-x fri utan att tjäna ngt på det? För det är väl phys-x licensen vi diskuterar o inte cf vs sli eller hur?

Och ett stort TACK till dej för att du så exemplariskt utförligt förklarade(och rättade mej) skillnaden mellan x-fire och +-fire.

Till trådskaparen:Gainward kortet du länkade till är mycket bra o prisvärt annars något 6950 kort kanske.

alla borde gräva ner stridsyxan hihi

Hoppas trådskaparen har fått hjälp med sitt kort

Permalänk

Hur mkt mer ström drar ett 570 vs 6970 per år?

Visa signatur

EVGA 980 GTX SC | AMD Ryzen 2600 | ASUS B450-F | 16Gb Corsair 3000Mhz CL16 | Corsair 850w | Corsair 600T

Permalänk
Medlem
Skrivet av Campaigner:

GTX 560 kan överklockas så det blir lika bra som ett GTX 570 (av vad jag förstått. Men kommer alla GTX 560 upp till ett GTX 570 ?).
Vad finns det då för incentiv till att köpa ett GTX 570 ?

Hur mycket vassare är ett GTX 570 (o överklockat GTX 560) mot ett Radeon 6950 2GB ?
Sen verkar Radeon 6950 har dålig kylning jämfört med GTX 560. Men det kan jag nog byta ut om 1 år hoppas jag.

Jag måste också veta om grafikkortsminne över 1GB kommer till användning på min upplösning. Ta även med framtida spel i beräkningen som kommer max 2 år framåt).

Jag kör 1920x1080. Kommer INTE skaffa fler skärmar.

Kan säga som så att mina GTX 570 i SLI presterar långt bättre (oklockade) än min väns GTX 560 sli. Hans 560 är överklockade till 1GHZ. Han får 2-3k under mig i Vantage.

Permalänk
Medlem

Jag köpte ett XFX 6970 och visst presterar det bra, blir runt 90C i load och låter som en jävla dammsugare vid 50% fläkt användning.

Ni som äger gtx 570, hur låter det?

Visa signatur

Citera för snabbare svar.

Permalänk
Quizmaster Malmö 22

Kul att min tråd blev så populär

Dock blev jag inte klokare

Vet fortfarande varken ut eller in....
Enligt SweCs prestanda per krona test så är 6950 2GB liite snabbare och har dubbelt grafikminne.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews... <--- Ett klockat GTX 560 SLÅR Radeon 6950 2GB!! Hur kan det hända??

1920x1080 är det jag kollar på (med mest AA o AF).

Är det drivrutinerna..? E ju helt SJUKT att de ska vara såna enorma skillnader från spel ti spel!!

Om det nu är ATI som har kassa drivrutiner (som folk här säger rätt ofta) kommer ATI fixa det?

....Kommer aldrig bestämma mig....

Visa signatur

[Gigabyte EP35-DS4][Intel Core 2 Duo E8400 3.0 Ghz][2x2GB Corsair XMS 2][Gainward GTX 570][Sandisk Extreme II 480GB][Corsair HX 620W][Fractal Design Define XL R4][Acer GD245HQBID]

Permalänk
Hedersmedlem
Skrivet av Campaigner:

Kul att min tråd blev så populär

Dock blev jag inte klokare

Vet fortfarande varken ut eller in....
Enligt SweCs prestanda per krona test så är 6950 2GB liite snabbare och har dubbelt grafikminne.

http://www.hardwarecanucks.com/forum/hardware-canucks-reviews... <--- Ett klockat GTX 560 SLÅR Radeon 6950 2GB!! Hur kan det hända??

1920x1080 är det jag kollar på (med mest AA o AF).

Är det drivrutinerna..? E ju helt SJUKT att de ska vara såna enorma skillnader från spel ti spel!!

Om det nu är ATI som har kassa drivrutiner (som folk här säger rätt ofta) kommer ATI fixa det?

....Kommer aldrig bestämma mig....

Det är detaljer som skiljer mellan korten, känner du verkligen att det blir så stor skillnad vilket av dem du än väljer att det är värt att vänta?

Visa signatur

Numera nöjd med en Chromebook.

Permalänk
Skrivet av Orio:

Jag köpte ett XFX 6970 och visst presterar det bra, blir runt 90C i load och låter som en jävla dammsugare vid 50% fläkt användning.

Ni som äger gtx 570, hur låter det?

jag hade GTX 470 SLi innan och kan säga att GTX 570 SLi låter ingenting i jämförelse..
störde mig ifs inget på ljudnivån med GTX 4xxx korten heller
Men GTX 570 SLi är så nära ljudlös man kan komma,
enda gången jag fått dem att höras var när jag gjorde en aggresivare fläktkurva i Afterburner
och körde lopar med Metro 2033 benchmark...

Visa signatur

[Antec 1200][Xigmatek NRP-HC1001][Asus P6TD][Core i7 975; 4 GHz][Noctua NH-U12P][3x2GB Patriot Viper 1600MHz][EVGA GTX 570 SLI]