Permalänk
Medlem
Skrivet av Devildoll:

verkar ju inte vara så stor fara för komponenterna ,GTX 480 har väll inte spärren? och jag har i all fall inte läst några rapporter om kvaddade datorer pga brist av denna säkerhetslösning på GTX 480.

Har inte heller läst om någon vars dator tagit skada av det, är väl mest för att begränsa, korten kan ju inte vara hur bra som helst :D.

Permalänk
Avstängd
Skrivet av Kaspersky 0_o:

Jag har personligen införskaffat 2st zotac gtx 570. Detta för att de har många fler CUDA cores vilket är att föredra vid mycket beräkningar så som tesselering. Ett 560 med drygt 1050mhz i core presterar likvärt ett 570, dock inte vid kraftiga beräkningar eller intensiva/stora texturer. Kom ihåg att 570 klockar fruktansvärt bra, långt över gtx 580.

Hur ska du utnyttja denna prestanda?
Minecraft och HTML5?

Visa signatur

Asus PT6 Deluxe v2 | i7 920 @ 3,2GHz | Corsair Dominator DDR3 6GB @ 1600MHz | Intel X25-M 80GB SSD | 2x Gigabyte GTX470 1GB @ 850/2100 - 1.050v | Alienware OptX AW2310 23" 120Hz | nVidia 3D Vision

Permalänk
Medlem
Skrivet av SweRMW:

Hur ska du utnyttja denna prestanda?
Minecraft och HTML5?

folding åt sweclockers så klart

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | MP600 1TB + 2x 2TB RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Medlem

När man titta titta på tester så borde man klara sig med 1st 560 SOC för att maxa de flesta spel Utom Crysis och Metro 2033 typ på 1920x1080. SLI med dom kanske är lite overkill just nu.

Komplett.se har prel lev datum i Mars!

Permalänk
Medlem
Skrivet av SweRMW:

Hur ska du utnyttja denna prestanda?
Minecraft och HTML5?

Folding, datorspel samt en jävla massa CUDA-rendering. Kommer ev. skaffa 2 skärmar till och spela på väldigt hög upplösning.

Permalänk
Medlem
Skrivet av Devildoll:

att ignorera 580 och 570's furmark värden är nog i hårdaste laget , men det är upp till var och en att förstå relevansen av de olika momenten
ska inte bort bara för att folk som läser slarvigt existerar

verkar ju inte vara så stor fara för komponenterna ,GTX 480 har väll inte spärren? och jag har i all fall inte läst några rapporter om kvaddade datorer pga brist av denna säkerhetslösning på GTX 480.

GTX 480 drar mindre ström än GTX 580. Ligger väl kring GTX 570. GTX 580 utan några spärrar drar ~350w, vilket är 50W över PCI-E standarden. Om du har ett moderkort som inte pallar trycket så kan det gå sönder.

Permalänk
Medlem
Skrivet av Guteklockaren:

Var hittar du fakta om att GTX570 klockar långt bättre än GTX580???
Inte på sweclockers eller nordichardware åtminstone?

Skrivet från en iPhone på en tråkig föreläsning, vilket resulterade i en felformulering. Jag syftade på att ett klockat GTX 570 skulle prestera långt över ett GTX 580 vid stock frekvenser, alltså att GTX 570 klockar väldigt bra.

Permalänk

Tackar för alla svar!
Blir nog ett GTX580 ser det ut som just nu iallafall.
Nu är frågan om det är vät att lägga nån hundralapp extra för "livstids garanti" genom att köpa ett kort från EVGA, äger ett GTX470 av det märket som var begagnat när jag köpte det, men det har rullat på och ligger klockat utan voltändringar o.s.v.
Kan ju hoppas på samma med GTX580:t

Visa signatur

| BitFenix Prodigy White | Asus P8Z77-I DELUXE | i5-2500K | Corsair Vengeance 2x4 Gb @ 1333 MHz | Asus GTX 580 | Intel 520 180GB | OCZ Vertex 2 60 Gb | Samsung Spinpoint F3 1 TB | Corsair TX750W | Philips 24' |

Permalänk
Medlem
Skrivet av QuadRunner:

Tackar för alla svar!
Blir nog ett GTX580 ser det ut som just nu iallafall.
Nu är frågan om det är vät att lägga nån hundralapp extra för "livstids garanti" genom att köpa ett kort från EVGA, äger ett GTX470 av det märket som var begagnat när jag köpte det, men det har rullat på och ligger klockat utan voltändringar o.s.v.
Kan ju hoppas på samma med GTX580:t

Om jag inte missminner mig gäller endast livstids garanti amerikanska medborgare, inte oss här i EU.

Permalänk
Medlem
Skrivet av Kaspersky 0_o:

Om jag inte missminner mig gäller endast livstids garanti amerikanska medborgare, inte oss här i EU.

Dessutom var det väl en nyhet här på sweC för ett tag sen att deras garanti bara skulle gälla om man köpte det direkt från deras hemsida?

Visa signatur

i5 750 @ 3.9 GHz | NH-D14 | P7P55D |GTX 960 | Vulcan 8GB | Seagate 600 480 GB | Newton 650w | P280 | Dell U2515H

Permalänk
Medlem

Jag skulle också köra på 2 st 580. Men 560 om bara 1 kort! Eftersom fläktarna är specialtillverkade för de överklockade så kan man hälsa hem när fläkten har gjort sitt medans 580 finns i butikerna och är en standard som klarar av originalet.

Permalänk
Medlem
Skrivet av Kaspersky 0_o:

GTX 480 drar mindre ström än GTX 580. Ligger väl kring GTX 570. GTX 580 utan några spärrar drar ~350w, vilket är 50W över PCI-E standarden. Om du har ett moderkort som inte pallar trycket så kan det gå sönder.

http://www.sweclockers.com/recension/12993-nvidia-geforce-gtx...

vad jag kan se så är skillnaden i strömförbrukning marginell , aningen bättre i idle dock.
och i furmark så är load identisk , som du ser i mitt inlägg på första sidan av tråden.
iofs så kan man ju troligen bara åstadkomma 350 watt i furmark när det gäller GTX 580 , och där finns det ju en spärr i vanliga fall, men inte drar kortet mindre än 480

skulle varit intrssant att läsa om folk som skadat moderkorten av 50 watt extra faktiskt.

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | MP600 1TB + 2x 2TB RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Avstängd
Skrivet av Kaspersky 0_o:

Folding, datorspel samt en jävla massa CUDA-rendering. Kommer ev. skaffa 2 skärmar till och spela på väldigt hög upplösning.

Det är du alldeles för snål för kära vän.
I din sits är ett GPU-testamente där vapendragaren ärver.

Visa signatur

Asus PT6 Deluxe v2 | i7 920 @ 3,2GHz | Corsair Dominator DDR3 6GB @ 1600MHz | Intel X25-M 80GB SSD | 2x Gigabyte GTX470 1GB @ 850/2100 - 1.050v | Alienware OptX AW2310 23" 120Hz | nVidia 3D Vision

Permalänk
Medlem
Skrivet av Devildoll:

http://www.sweclockers.com/recension/12993-nvidia-geforce-gtx...

vad jag kan se så är skillnaden i strömförbrukning marginell , aningen bättre i idle dock.
och i furmark så är load identisk , som du ser i mitt inlägg på första sidan av tråden.
iofs så kan man ju troligen bara åstadkomma 350 watt i furmark när det gäller GTX 580 , och där finns det ju en spärr i vanliga fall, men inte drar kortet mindre än 480

skulle varit intrssant att läsa om folk som skadat moderkorten av 50 watt extra faktiskt.

http://www.techpowerup.com/134460/Disable-GeForce-GTX-580-Pow...

Furmark load är inte identisk. Något är tokigt med Sweclockers test.

Jag har aldrig påstått att GTX 580 drar mindre ström än GTX 480, det är tvärt emot.

50w är absolut något ett moderkort kan gå sönder av, speciellt om det inte är av toppkvalité.

Permalänk
Medlem
Skrivet av Kaspersky 0_o:

http://www.techpowerup.com/134460/Disable-GeForce-GTX-580-Pow...
50w är absolut något ett moderkort kan gå sönder av, speciellt om det inte är av toppkvalité.

Förutom att de extra 50 Watten inte kommer via moderkortet utan via de extra strömsladdarna direkt till grafikkortet. Det skulle möjligtvis kunna bli mer strålningsvärme som når moderkortet men 50 watt extra är inte så mycket med tanke på att folk kör med både två och tre värstingkort utan att moderkortet brinner upp.

PCIE-standardens gräns på 300 Watt per kortplats är ingen absolut barriär

Visa signatur

Det var enklare förr att skilja Asus moderkort åt:
Asus A7V -> Asus P5Q Pro -> Asus M4A88TD-V EVO/USB3

Permalänk
Medlem
Skrivet av A7V:

Förutom att de extra 50 Watten inte kommer via moderkortet utan via de extra strömsladdarna direkt till grafikkortet. Det skulle möjligtvis kunna bli mer strålningsvärme som når moderkortet men 50 watt extra är inte så mycket med tanke på att folk kör med både två och tre värstingkort utan att moderkortet brinner upp.

PCIE-standardens gräns på 300 Watt per kortplats är ingen absolut barriär

Vad grundar du det på? 6-pin levererar 75w som mest, 8-pin 150w. Simpel matteräkning ger att om ett GTX 580 ska köras vid absolut max last krävs det följande ur moderkortet: 350 - (150 + 75) = 125W. Moderkortet kan genom PCI-E platsen ge 75w (enligt specifikationerna) vilket resulterar i en överbelastning på 125 - 75 = 50W. Givetvis kan kablarna från din PSU mata på med mer ström och på så vis kompensera, men det är inget alla kan och absolut inget nvidia till riskera. Mitt nätagg kan t.ex leverera 150w ström per 6-pins kabel. En bra bit över vad specifikationerna kräver, men inte alla nätagg har det "så bra". Vissa kanske precis klarar sig förbi de givna specifikationerna. Ett moderkort som mitt har inga problem med att kompensera upp de där 50w, speciellt inte med de extra molex-utgångarna jag har. Men som sagt, man kan inte förutsätta sådana saker vilket är anledningen till att spärren existerar från första början. Då måste dessutom ta alla andra komponenter som sitter på moderkortet i beräkning, exempelvis CPUn.

Tycker du ska läsa igenom http://www.sweclockers.com/forum/125-geforce/975571-grafikkor...
Även om det i tråden fokuseras på SLI/CF så är det förutom väldigt god och givande läsning något du kan applicera på ett GTX 580 vid max last (speciellt om det överklockas) då det drar så mycket ström.

Permalänk
Medlem

Nån som vet om en i5 750 @4ghz stryper 2st 560 i SLI?

Permalänk
Antielefant
Skrivet av QuadRunner:

Tackar för alla svar!
Blir nog ett GTX580 ser det ut som just nu iallafall.
Nu är frågan om det är vät att lägga nån hundralapp extra för "livstids garanti" genom att köpa ett kort från EVGA, äger ett GTX470 av det märket som var begagnat när jag köpte det, men det har rullat på och ligger klockat utan voltändringar o.s.v.
Kan ju hoppas på samma med GTX580:t

Livstidsgaranti (Limited Lifetime) är kortets livslängd, med faktiska år räknat betyder det 10 år.

Skrivet av Kaspersky 0_o:

Om jag inte missminner mig gäller endast livstids garanti amerikanska medborgare, inte oss här i EU.

Skillnaden är enbart att EU-lag tvingar tillverkarna att faktiskt skriva det faktiska antalet år, i EVGA's fall 10.

Skrivet av Rydisen:

Dessutom var det väl en nyhet här på sweC för ett tag sen att deras garanti bara skulle gälla om man köpte det direkt från deras hemsida?

Den gäller enbart om man registrerar kortet på deras hemsida, och då inom tre månader från köptillfället.

Skrivet av A7V:

Förutom att de extra 50 Watten inte kommer via moderkortet utan via de extra strömsladdarna direkt till grafikkortet. Det skulle möjligtvis kunna bli mer strålningsvärme som når moderkortet men 50 watt extra är inte så mycket med tanke på att folk kör med både två och tre värstingkort utan att moderkortet brinner upp.

PCIE-standardens gräns på 300 Watt per kortplats är ingen absolut barriär

Skitsnack. 50 extra watt kommer att delas upp enligt exakt samma delning som kortet har från början, då vi pratar simpel parallell belastning. 50 watt innebär drygt 4A, 1A extra från moderkortet om grafikkortet har 6+8-pin eller 1.33A extra vid 6+6.
1-1.5 A kanske inte låter så mycket, men det är inte direkt grova ledare i moderkortets kontaktbanor och det sitter mycket snabba säkringar och överlastavkännare i både nätagg och moderkort.

Anledningen att det fungerar med flera grafikkort á 75W från moderkortet är att moderkortet byggs kraftigare samt har fler parallella ledare från EPS/ATX12V-kontakten.

Skrivet av Sper:

Nån som vet om en i5 750 @4ghz stryper 2st 560 i SLI?

Beror på moderkortet, 560 kan likställas med 470 i strömförbrukningstermer.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Medlem
Skrivet av Kaspersky 0_o:

http://www.techpowerup.com/134460/Disable-GeForce-GTX-580-Pow...

Furmark load är inte identisk. Något är tokigt med Sweclockers test.

Jag har aldrig påstått att GTX 580 drar mindre ström än GTX 480, det är tvärt emot.

50w är absolut något ett moderkort kan gå sönder av, speciellt om det inte är av toppkvalité.

länka gärna till ett annat furmark resultat i så fall , förstod riktigt vad du ville framhäva med den där länken

jag skrev inte heller något om att du sa gtx 580 drar mindre GTX 480 ,
precis som du sa , du påstod att 480 drog mindre än 580 , jag försökte föra fram bevis som visade på det motsatta. nämligen att strömförbrukningen är i det närmaste identisk , med fördel till 580.

om moderkortet skulle mata ut 125 istället för 75 så kan det nog vara lite galet , men frågan är ju hur fördelningen av dessa 50 extra watt skulle ske.

Skrivet av Kaspersky 0_o:

Vad grundar du det på? 6-pin levererar 75w som mest, 8-pin 150w. Simpel matteräkning ger att om ett GTX 580 ska köras vid absolut max last krävs det följande ur moderkortet: 350 - (150 + 75) = 125W. Moderkortet kan genom PCI-E platsen ge 75w (enligt specifikationerna) vilket resulterar i en överbelastning på 125 - 75 = 50W. Givetvis kan kablarna från din PSU mata på med mer ström och på så vis kompensera, men det är inget alla kan och absolut inget nvidia till riskera. Mitt nätagg kan t.ex leverera 150w ström per 6-pins kabel. En bra bit över vad specifikationerna kräver, men inte alla nätagg har det "så bra". Vissa kanske precis klarar sig förbi de givna specifikationerna. Ett moderkort som mitt har inga problem med att kompensera upp de där 50w, speciellt inte med de extra molex-utgångarna jag har. Men som sagt, man kan inte förutsätta sådana saker vilket är anledningen till att spärren existerar från första början. Då måste dessutom ta alla andra komponenter som sitter på moderkortet i beräkning, exempelvis CPUn.

Tycker du ska läsa igenom http://www.sweclockers.com/forum/125-geforce/975571-grafikkor...
Även om det i tråden fokuseras på SLI/CF så är det förutom väldigt god och givande läsning något du kan applicera på ett GTX 580 vid max last (speciellt om det överklockas) då det drar så mycket ström.

har du kikat på vad en pci-e 6 pin verkligen kan mata ut? vad jag har läst så "kan" man köra 8 ampere genom en sådan , vilket är 4 gånger mer än pci-e specifikationen tillåter.

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | MP600 1TB + 2x 2TB RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Medlem
Permalänk
Medlem
Skrivet av Devildoll:

länka gärna till ett annat furmark resultat i så fall , företog riktigt vad du ville framhäva med den där länken

jag skrev inte heller något om att du sa gtx 580 drar mindre GTX 480 ,
precis som du sa , du påstod att 480 drog mindre än 580 , jag försökte föra fram bevis som visade på det motsatta. nämligen att strömförbrukningen är i det närmaste identisk , med fördel till 580.

om moderkortet skulle mata ut 125 istället för 75 så kan det nog vara lite galet , men frågan är ju hur fördelningen av dessa 50 extra watt skulle ske.

har du kikat på vad en pci-e 6 pin verkligen kan mata ut? vad jag har läst så "kan" man köra 8 ampere genom en sådan , vilket är 4 gånger mer än pci-e specifikationen tillåter.

Fördelningen har beskrivits ovanför ditt inlägg.

Här ser du hur mycket watt ett 580 verkligen drar: http://www.techpowerup.com/img/10-11-13/gtx580_power_gpuz.jpg
Detta med upplåsningen via GPU-Z. Det var det jag försökte få dig att inse. Alltså drar ett GTX 480 mindre än GTX 580.

Beror helt på kvalitén av nätagg och sladdar.

Permalänk
Antielefant
Skrivet av Devildoll:

om moderkortet skulle mata ut 125 istället för 75 så kan det nog vara lite galet , men frågan är ju hur fördelningen av dessa 50 extra watt skulle ske.

...

har du kikat på vad en pci-e 6 pin verkligen kan mata ut? vad jag har läst så "kan" man köra 8 ampere genom en sådan , vilket är 4 gånger mer än pci-e specifikationen tillåter.

Fördelningen blir exakt parallell, eftersom grafikkortet måste dra exakt samma antal ampere per inkommande 12V-ledare - både genom PCIE-port och PCIE-strömkontakter. Annars skulle det krävas att grafikkortet hade ett väldigt komplext system av sensorer, strömställare, batterier och så vidare för att skapa faktisk lastdelning - vilket inte skulle få plats på det begränsade utrymmet.

Jag går igenom hur det ser ut i min sticky-tråd i forumet, och vill ni dubbelkolla finns reglerna för parallell belastning i grundläggande ellära på åk 8-nivå samt repetition i Ellära A på gymnasiet.

Vad gäller 8A på en 6-pin stämmer det att det går, men du pratar peak load vilken nätagget inte kommer att acceptera någon längre stund (normalt <1 sekund) innan dess automatsäkringar (eller grafikkortets failsafe) slår in. Annars skulle grejorna bli väldigt varma väldigt fort, då 8A kräver en 1,25mm2-ledare jämfört med den faktiska 0,5mm2-ledare som sitter där för att ens klara sig utan att bränna av kabeln.

Hur vet jag det? Nätaggen håller CE-standard för elsäkerhet (kolla Elsäkerhetsverkets hemsida) - annars får de inte säljas i EU.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Skrivet av SweRMW:

Jag har iallafall kört SLI med 2 st gigabyte 460 OC och det var fan svalt o tyst.

Kör också med det. Håller med till 100%:D

Permalänk
Medlem
Skrivet av Kaspersky 0_o:

Fördelningen har beskrivits ovanför ditt inlägg.

Här ser du hur mycket watt ett 580 verkligen drar: http://www.techpowerup.com/img/10-11-13/gtx580_power_gpuz.jpg
Detta med upplåsningen via GPU-Z. Det var det jag försökte få dig att inse. Alltså drar ett GTX 480 mindre än GTX 580.

Beror helt på kvalitén av nätagg och sladdar.

den grafen innehåller endast GTX 580 , och antagligen liknande strömförbrukning som hos sweclockers tester med och utan limiter.
var bevisar detta att gtx 480 drar mindre kräm än ett GTX 580?

på ett antal grafer över grafikkort , bland annat 580 och 480 så har techpowerup liknande fördel till 580 som hos sweclockers.

http://www.techpowerup.com/reviews/NVIDIA/GeForce_GTX_580_SLI...

Skrivet av Zcenicx:

Fördelningen blir exakt parallell, eftersom grafikkortet måste dra exakt samma antal ampere per inkommande 12V-ledare - både genom PCIE-port och PCIE-strömkontakter. Annars skulle det krävas att grafikkortet hade ett väldigt komplext system av sensorer, strömställare, batterier och så vidare för att skapa faktisk lastdelning - vilket inte skulle få plats på det begränsade utrymmet.

Jag går igenom hur det ser ut i min sticky-tråd i forumet, och vill ni dubbelkolla finns reglerna för parallell belastning i grundläggande ellära på åk 8-nivå samt repetition i Ellära A på gymnasiet.

Vad gäller 8A på en 6-pin stämmer det att det går, men du pratar peak load vilken nätagget inte kommer att acceptera någon längre stund (normalt <1 sekund) innan dess automatsäkringar (eller grafikkortets failsafe) slår in. Annars skulle grejorna bli väldigt varma väldigt fort, då 8A kräver en 1,25mm2-ledare jämfört med den faktiska 0,5mm2-ledare som sitter där för att ens klara sig utan att bränna av kabeln.

Hur vet jag det? Nätaggen håller CE-standard för elsäkerhet (kolla Elsäkerhetsverkets hemsida) - annars får de inte säljas i EU.

mm ska kika på din sticky vid senare tillfälle

visste inte att dessa 8 amps syftade på tillfällig maxbelastning , dock tycker man ju att åtminstone 3 amp bör vara ok på 0.5 mm kabel.

blir ju drygt 4 amp om man ska köra 150 watt genom en pci-e 8 pin , men är lite för trött för att kolla upp om det är en linjär ökning i förhållande till det höjda antalet kablar.

angående moderkort så har jag 0 koll på antalet ledningar och hur tjocka dem ofta är.
men hoppas på att det är en spegling av en pci-e 6 pin eftersom den ska stå pall för samma mängd kräm.

Visa signatur

| HAF932 | Ryzen 3700X @ 4,3 GHz | Gigabyte X570 Aorus Ultra | 32 GB G.Skill @ 3600 MHz | RTX 2070 @ 2 GHz | O2 + ODAC | MP600 1TB + 2x 2TB RAID 1 + 2x 2TB RAID 1 | Win10 Pro 64-bit |

Permalänk
Antielefant
Skrivet av Devildoll:

mm ska kika på din sticky vid senare tillfälle

visste inte att dessa 8 amps syftade på tillfällig maxbelastning , dock tycker man ju att åtminstone 3 amp bör vara ok på 0.5 mm kabel.

blir ju drygt 4 amp om man ska köra 150 watt genom en pci-e 8 pin , men är lite för trött för att kolla upp om det är en linjär ökning i förhållande till det höjda antalet kablar.

Vilken ampere man kör är lite olika beroende på kabel, molex är satt till 3,5A och om jag minns rätt är PCI-E avsäkrad till 4,25A.

Eftersom det är parallell är det också linjärt, men kom ihåg att en 6-pin egentligen bara använder 5 aktiva pins, 2x+12V och 3xGND.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk

Beställer snart!

Hej igen allihop. Har nu bestämt mig för GTX580 men har en liten fråga till innan jag beställer.

Jag har nu ett EVGA GTX470 SC som har tjänat mig mycket väl med relativt goda klockningsmöjligheter så jag litar helt och fullt på EVGA. Så nu är frågan vilket GTX580?
Har tittat ut 2 kort som jag väljer mellan:

MSI GeForce GTX580 Twin Frozr II
eller
EVGA GeForce GTX580 SC

Någon som har erfarenhet av dessa Twin Frozr-kylarna och om de verkligen presterar som MSI själv påstår?

MVH QR

Visa signatur

| BitFenix Prodigy White | Asus P8Z77-I DELUXE | i5-2500K | Corsair Vengeance 2x4 Gb @ 1333 MHz | Asus GTX 580 | Intel 520 180GB | OCZ Vertex 2 60 Gb | Samsung Spinpoint F3 1 TB | Corsair TX750W | Philips 24' |

Permalänk
Medlem

Skulle en stock I7 860 2,8 Ghz stock strypa en GTX 580 på något sätt? Samma fråga gäller för 460 i SLI?

Permalänk
Antielefant
Skrivet av Skadidle:

Skulle en stock I7 860 2,8 Ghz stock strypa en GTX 580 på något sätt? Samma fråga gäller för 460 i SLI?

Ja, i tillräckligt låg upplösning.

Visa signatur

i7-12700KF | 128 GB DDR4-4000 | RTX 4080 | Samsung 990 Pro | 3xAcer XB270HU G-Sync

Permalänk
Hedersmedlem
Skrivet av QuadRunner:

Hej igen allihop. Har nu bestämt mig för GTX580 men har en liten fråga till innan jag beställer.

Jag har nu ett EVGA GTX470 SC som har tjänat mig mycket väl med relativt goda klockningsmöjligheter så jag litar helt och fullt på EVGA. Så nu är frågan vilket GTX580?
Har tittat ut 2 kort som jag väljer mellan:

MSI GeForce GTX580 Twin Frozr II
eller
EVGA GeForce GTX580 SC

Någon som har erfarenhet av dessa Twin Frozr-kylarna och om de verkligen presterar som MSI själv påstår?

MVH QR

Registrerade du ditt kort på EVGA's hemsida när du köpte det? Isf är detta nog ditt bästa alternativ.

http://www.evga.com/support/stepup/

Visa signatur

|| SWECLOCKERS.COM ||
|| Självutnämnd Silverstone FT02-riddare ||
|| Silverstone FT02B-WRI "Limited Edition" No. 0743 & 0640 ||
|| Sweclockers officiella FT02-tråd ||

Permalänk
Medlem
Skrivet av Zcenicx:

Ja, i tillräckligt låg upplösning.

Kommer att köra i 2560 x 1440 eller vad det nu är och kommer spela lite olika spel som LOL, HoN och Team fortress 2 och förmodligen även Crysis 1+2.