Mer information om Geforce GTX 200

Permalänk
Medlem

Men såklart det kostar att ha det bästa. Bara att titta på vad Intel D5400XS, de bästa DDR3 minnena eller Intel Core 2 EXTREME QUAD X9650 kostar. Förstår inte varför man gnäller över priserna. Det har alltid varit dyrt att ha det bästa!

Permalänk

Hur vet du att inte 2st 4870 är bättre än 280x, de kanske kommer att vara billigare med 2st 4870???

Visa signatur

Desktop: AMD Ryzen 9 7950X, ASUS 4090 ROG Strix, 32GB RAM DDR5 6000MHz CL36 FURY,
ASUS TUF Gaming X670E-Plus / Monitor/Tv: LG C2 42Tum/ Playstation 5 // Xbox Series X // iPhone 14 Pro// iPad Pro Air m1 // TV Vardagsrummet LG Oled 77CX Sovrummet LG OLED B7 55TUM. Övervåningen LG C1 65

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av The man swe 90
Hur vet du att inte 2st 4870 är bättre än 280x, de kanske kommer att vara billigare med 2st 4870???

Och då blir två stycken GTX 280 bättre än 2 stycken 4870. Eller varför inte tre stycken när vi ända är på gång med SLI/Crossfire konfigurationer? Det är inte prestanda per krona man tänker på när man köper det bästa kortet på marknaden. Då vill man bara ha prestanda.

Permalänk
Medlem

Med tanke på hur Ati har lyckats med prestandan med ett xx70 och ett xx50 kort och om nu R700 skall smiska stjärt med GTX 280 så finns det ju risk att även ett xx70 och ett xx50 presterar bättre än GTX 280.

nVidia har problem i den närmaste framtiden och deras bråk med Intel gör inte att man direkt ser mer positivt på det hela. Man kan oxå till slut se frukten av AMD/ATIs sammangående med i grafikkortssammanhang låga effektförbrukning.

Visa signatur

Du som inte behärskar när du skall använda de och dem så finns en mycket enkel lösning. Skriv dom så blir det inte fel.
Första egna datorn -> ZX Spectrum 48k '82.
Linux Mint, Asus B550-F, Ryzen 5600X, LPX 64GB 3600, GT730

Permalänk
Citat:

Ursprungligen inskrivet av andy91
Och då blir två stycken GTX 280 bättre än 2 stycken 4870. Eller varför inte tre stycken när vi ända är på gång med SLI/Crossfire konfigurationer? Det är inte prestanda per krona man tänker på när man köper det bästa kortet på marknaden. Då vill man bara ha prestanda.

Visst, vill man vara en idiot så får man väl vara det. Finns många som köper ett kort över ett annat bara för att få 5% mer prestanda för 50% högre pris (8800Ultra anyone? Visst, en överdrift, men den är fanimig inte stor).

Sedan kan man ju fråga sig hur kul det ska vara med två stycken 280 GTX med tanke på det påstådda TDP-värdet. Lär ju bli ganska varmt och mysigt inne burken. Om det mot förmodan är svalt därinne har man nog tagit igen förlusten i värmeenergi genom en markant höjning i ljudnivå alternativt prisnivå (vattenkylning är ju inte direkt gratis).

Stämmer infon vi fått so far känns 280 GTX som en flopp med tanke på hur prisvärda radeon-korten ser ut att bli.

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem

Var går egentligen gränsen för vad man behöver om man INTE är ute efter rena benchmarks?

Att nvidia har slängt ut bättre kort dom senaste åren är ingen ingen nyhet.
Men även om man förlorar 10 eller 20 FPS med att ATI kort hur mycket gör det egentligen?

Om vi slänger bort benchmarks som 3dmark, hur mycket "tjänar" man egentligen på att använda sig av nvidia? Eller spelar det egentligen ingen roll?

Visa signatur

Massa skit innanför ett CoolerMaster Cosmos II

Permalänk
Medlem

Nice med nya kort Hoppas att en dual core version kommer också.

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Gratzner

Om vi slänger bort benchmarks som 3dmark, hur mycket "tjänar" man egentligen på att använda sig av nvidia? Eller spelar det egentligen ingen roll?

Egentligen handlar det inte om särskillt många fps när korten börja närma sig high-end. Ibland är det klart att ett kort för 5000:- drar ifrån rejält mot ett kort för 3000:-, men i regel så byts korten ändå samtidigt.

En person som köper ett 8800 Ultra för 7000:- byter förmodligen ut det kortet samtidigt som en person som köpte ett 8800GTX för 5000:-. Det är helt enkelt så att kort i samma serie dör mer eller mindre samtidigt.

En person som köpte 8800 Ultra ville ha alla inställningar på max
En person som köpte et 8800 GTX ville också ha alla inställningar på max.
Men marginalerna mellan korten är så små att när GTX behöver dra ner på inställningarna behöver även Ultra göra det.

Det är omöjligt att motivera ett ultra-high-end-kort utöver att man vill ha det bästa som finns. Pris och effektmässigt så är det ett dåligt köp om man ser till de billigare korten.

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk

Köper man 3 GTX 280 för att köra trippel-SLI bör man ju få en mindre kärnreaktor på köpet för att driva eländet.

Permalänk
Medlem

De är fanimej dumma i huvet. Att de höjer strömförbrukningen ännu mer kan ju inte kallas något annat än råpuckat. Shit...

Visa signatur

CPU: AMD Ryzen 7 7800X3D CO + 2133 MHz FCLK GPU: Sapphire RX 7900 XT Pulse OC
RAM: Corsair 2x16GB 6000 MT/s CL30 (Hynix) BZ subtimings
MB: ASUS ROG Strix B650E-F Gaming WIFI SSD: Kingston KC3000 2TB PSU: Corsair RM850x

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av andy91
Och då blir två stycken GTX 280 bättre än 2 stycken 4870. Eller varför inte tre stycken när vi ända är på gång med SLI/Crossfire konfigurationer? Det är inte prestanda per krona man tänker på när man köper det bästa kortet på marknaden. Då vill man bara ha prestanda.

Jo, det vore ju kul att dra iväg 708W till bara grafikkort med Tri-SLI, peta in det i ett 80% nätagg så har du inte många glödlampor kvar tills säkringen i proppskåpet går. Men "high end" datorer ska kanske köras på 15A trefas i framtiden om Nvidia får bygga kretsar med 65nm i 10 år till.

Permalänk
Medlem

Någon som är insatt i vad priset på el är i andra länder såsom USA, Japan, England, Tyskland osv. Jag har iaf uppfattningen att svenska elpriser är relativt höga, därav våran reaktion på vad korten drar.

mvh N.

Visa signatur

1: Win7, i7 920@4GHz, 12GB Dominator, Gainward 4870x2, CM Cosmos, 150GB Raptor + 750GB HDD
2. SuSE 11.1, Q9550@400x8½, 8GB A-Data, GeForce 8500GT, Antec 1200, 4TB HDD

Permalänk

niclaso: Just nu är elen rätt billig om jag inte misstar mig. Den var iaf det i vintras enligt nyheterna.

Permalänk
Medlem

Herrejävlar för Tri-SLI med GTX280 på en Skulltrail (nu vet jag inte om skulltrail stödjer Tri-SLI, men ponera att det gör det) med de två fetaste intel-quadarna, sen givetvis klocka så mycket det går... Då måste man ju hamna en bra bit över kilowatten :S

Visa signatur

WS: AMD Ryzen 3700X | 16GB Corsair LPX 3733 | MSI RX 6800 | Samsung PM981a 1TB | Louqe Ghost S1
Laptop: ASUS UX32LN | i7-4510U | 12GB DDR3 | 13.3" FHD | 256GB SSD
Server: Intel Xeon E5-2660 | 32GB DDR3 | UnRaid

Permalänk
Medlem

Herre gud sicka gnällspikar!

Det var samma hype innan 8800GTX lanserades...och vi vet med facit i hand vilket bra kort det blev (och fortfarande är).

Anyway...fysikprocessorn PhysX, CUDA interfacet, Folding@home, prestanda ökningen som vi adrig tidigare upplevt...GTX 280 kommer att bli ett fantastiskt grafikkort.

Jag hoppas verkligen att ni som oroar er för elräkningen inte kör bil.

Permalänk
Medlem

Varför är dom flesta som piper om nvidias strömslukning ati fanboys ?
Är det allt som ati är bättre på ?

Visa signatur

Main : AMD Ryzen 5900X @ 4.55 | NZXT Kraken X73 | 32 GB DDR4 Gskill 3600mhz @ 3800 CL16 | Asus ROG STRIX B550-A GAMING | Sapphire Radeon 7900 XT nitro+ | Samsung 970 evo 1TB | Windows 10 | Lian Li PC-O11 Dynamic EVO | Corsair RM 750 | AOC cu34g2x + Dell u3415w / 1st 24"
Htpc / server : Intel G3258 | Nvidia GTX 670 | 12 GB | 6TB lagring | Fractal design Node 804 | Win 10+Kodi

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av pellen
Herrejävlar för Tri-SLI med GTX280 på en Skulltrail (nu vet jag inte om skulltrail stödjer Tri-SLI, men ponera att det gör det) med de två fetaste intel-quadarna, sen givetvis klocka så mycket det går... Då måste man ju hamna en bra bit över kilowatten :S

Ja det lär man ju göra iaf,sjukt är vad det är ;D

Visa signatur

NZXT H440W||Rog Strix X470-4 Gaming || 2700X+Noctua NHD15-SE-AM4||G.Skill Flare X 16GB 3200Mhz||GTX 1080Ti Strix OC||MX100 512gb||3.5TB HDD||Corsair 750W||Steelseries Arctis Pro Wireless||Samsung 49" NEO||Windows 10 Pro||
Bärbar: Samsung Galaxy Book Pro 13.3" i7 & LTE || Mob: Samsung S22 Ultra||

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av Maho
Varför är dom flesta som piper om nvidias strömslukning ati fanboys ?
Är det allt som ati är bättre på ?

Du tycker inte själv det känns fel med ett grafikkort som drar så pass mycket?

Visa signatur

"Jo men det var exakt det jag menade med att den enda moddningen detta galleriet innehåller är Sanningsmodifikation och photoshoppande :)"

Permalänk
Medlem

Ge mig kommersiell fusion så ska jag sluta gnälla på hög effektförbrukning. Människans resursförbrukning skrämmer mig.

Visa signatur

WS: AMD Ryzen 3700X | 16GB Corsair LPX 3733 | MSI RX 6800 | Samsung PM981a 1TB | Louqe Ghost S1
Laptop: ASUS UX32LN | i7-4510U | 12GB DDR3 | 13.3" FHD | 256GB SSD
Server: Intel Xeon E5-2660 | 32GB DDR3 | UnRaid

Permalänk
Citat:

Ursprungligen inskrivet av andy91
Men såklart det kostar att ha det bästa. Bara att titta på vad Intel D5400XS, de bästa DDR3 minnena eller Intel Core 2 EXTREME QUAD X9650 kostar. Förstår inte varför man gnäller över priserna. Det har alltid varit dyrt att ha det bästa!

Vad ska man med Quad och DDR3 till?

Visa signatur

««« »»»

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av P1nGviN
Du tycker inte själv det känns fel med ett grafikkort som drar så pass mycket?

Om ett ATI hade varit lika bra som ett nvidia så hade de nog dragit likvärdigt.
Men de va inte min poäng , du är ati fanboy med ?
Men visst , det e mycket dom drar , men dom kommer förmodligen prestera därefter med.
Hur mycket ström över era tv apparater tror ni ? 20 W ? * skrattar roande *
Klagar ni över dom med ?
Kanske ati gör en tv som drar 30 w
Det lustiga är att det sägs samma sak om o om igen,
Nvidia kör över eller åtminstone har bättre prestanda än ett Ati , då kommer det som vanligt......... "ATI drar mindre ström" , hade dock varit konstigt om de hade dragit likvädigt eftersom det presterar sämre än Nvidia.
Och nej , jag är ingen nvidia fanboy , utan föredrar det som e för tillfället bäst på marknaden för tillfället

I fortsättningen så släcker vi Alla våra lampor , stänger av våra tv apparater, vi slutar köra bil o köper en cyckel "men glöm inte koppla ur lampan om den har nån sån"

Och en sak till , till dom som sa att ati´s 4000 serie skulle köra över nvidia.....
Kommer benchmarks snart
GO NVIDIA GO !!!!!
crush em like a bug !

Skämt o sido , presterar ett ex 4850/70 bättre än ett 260/280 så blir det ett
sånt istället.....

Gud , jag e för trött att fortsätta.......

Visa signatur

Main : AMD Ryzen 5900X @ 4.55 | NZXT Kraken X73 | 32 GB DDR4 Gskill 3600mhz @ 3800 CL16 | Asus ROG STRIX B550-A GAMING | Sapphire Radeon 7900 XT nitro+ | Samsung 970 evo 1TB | Windows 10 | Lian Li PC-O11 Dynamic EVO | Corsair RM 750 | AOC cu34g2x + Dell u3415w / 1st 24"
Htpc / server : Intel G3258 | Nvidia GTX 670 | 12 GB | 6TB lagring | Fractal design Node 804 | Win 10+Kodi

Permalänk
Citat:

Ursprungligen inskrivet av Maho
Om ett ATI hade varit lika bra som ett nvidia så hade de nog dragit likvärdigt.
Men de va inte min poäng , du är ati fanboy med ?
Men visst , det e mycket dom drar , men dom kommer förmodligen prestera därefter med.
Hur mycket ström över era tv apparater tror ni ? 20 W ? * skrattar roande *
Klagar ni över dom med ?
Kanske ati gör en tv som drar 30 w
Det lustiga är att det sägs samma sak om o om igen,
Nvidia kör över eller åtminstone har bättre prestanda än ett Ati , då kommer det som vanligt......... "ATI drar mindre ström" , hade dock varit konstigt om de hade dragit likvädigt eftersom det presterar sämre än Nvidia.
Och nej , jag är ingen nvidia fanboy , utan föredrar det som e för tillfället bäst på marknaden för tillfället

I fortsättningen så släcker vi Alla våra lampor , stänger av våra tv apparater, vi slutar köra bil o köper en cyckel "men glöm inte koppla ur lampan om den har nån sån"

Och en sak till , till dom som sa att ati´s 4000 serie skulle köra över nvidia.....
Kommer benchmarks snart
GO NVIDIA GO !!!!!
crush em like a bug !

Skämt o sido , presterar ett ex 4850/70 bättre än ett 260/280 så blir det ett
sånt istället.....

Gud , jag e för trött att fortsätta.......

Men snälla lilla vän ...

Även om 280 GTX presterar bättre än HD4870 kommer ATi då att kontra med HD4870x2 (och då får vi se vem som krossar vem ). Något "GX2" lär inte komma från Nvidia då ett sådant skulle bli en mardröm både när det gäller kylning och prislapp. Just det, effektförbrukningen betyder även oftast mer värmeenergi som behöver transporteras bort=större kylningsbehov för att skiten inte ska brinna upp/smälta=högre ljudnivå/gigantisk, tung kylning som knappt ryms i en vanlig låda.

Och det där snacket om att du inte är en fanboy. Språket du skrivit ditt inlägg med tyder på något helt annat om du frågar mig. Själv föredrar jag ATi men jag har inget som helst problem med att rekommendera Nvidia till andra och skulle själv köpt en rig med två stycken 8800GT i SLi om Nvidia kunde göra riktiga chipsets.

Visa signatur

"Aurora" Intel Core i5-4670K@4,2GHz - 8GB Corsair Vengeance 1600MHz - MSi Z87-G55 - Sapphire AMD R9 290 Tri-X - 2*Samsung 1TB (RAID 0) - Antec P182 - Corsair HX620 - Noctua NH-U12P
"Mirage" Macbook Pro 13" - 16GB RAM - dualboot OSX/Win7
Hä lön's int' förklar' för dem söm int' begrip'

Permalänk
Medlem

Jag brukar inte klaga på effektförbrukningen och jag brukar tycka de som gör det är lite löjliga, men den här gången ställer jag mig på deras sida. Vilket strömslukande monster

Visa signatur

System: CPU: AMD Ryzen 9 3900X, MB: Gigabyte X570 Aorus Elite, Minne: Corsair 32GB DDR4 3200MHz, GPU: Asus GeForce RTX 2080 Super ROG Strix Gaming OC

Permalänk
Medlem

Är det bra att saker drar mycket el? Det är en rätt enkel fråga och jag tror de flesta som betalar sina egna räkningar eller har en någorlunda långsiktigt perspektiv tycker att energiförbrukning är viktigt. När jag byter ut vitvaror är det första jag tittar på energiförbrukning, och samma sak gäller TV och all annan elektronik. Nu är ju det här dock ett forum för datorentusiaster och inte för miljöfrågor vilket leder in oss på mer datorentusiastrelaterade frågor.

Värmeutveckling är en stor faktor när det gäller överklockning och med ett Watt tal på 236 finns det knappt inga marginaler för att öka prestandan nämnvärt utan att behöva ta till extrema kylanordningar. Så potensialen hos Nvidias senaste kort är relativt lågt.

Även för den värsta entusiasten har det senaste kortet begränsningar nämligen att det knappt finns en PSU på marknaden som orkar att mata en QX9770, 3st GTX 280 samt chipset, hårddiskar och annat mys. Låt oss säga att en 1200W klarar det så har vi, om vi väljer det enda 80% certifierade nätaggregatet på marknaden, 1500W vid load i belastning på elnätet. Poof, där gick din 6A automatsäkring även om du bara hade datorn inkopplad och allt annat till och med skärmen på en egen fas.

Så varför klagar jag? Jo det hela är ganska enkelt, Nvidia försöker att bygga prestandamonster med hjälp av föråldrad teknologi. De gör monsterkort på 65nm och det suger, gränsen är nådd och nu är det dags att gå vidare. Troligtvis kommer de att lansera en 55nm GPU i samma arkitektur så småningom, och då ska jag överväga den.

GTX280 i nuläget är för mig bara en Beta version, om ni vill betala över $600 för att betatesta så kör på. Själv avvaktar jag...

Permalänk
Citat:

Ursprungligen inskrivet av Maho
Om ett ATI hade varit lika bra som ett nvidia så hade de nog dragit likvärdigt.
Men de va inte min poäng , du är ati fanboy med ?
Men visst , det e mycket dom drar , men dom kommer förmodligen prestera därefter med.
Hur mycket ström över era tv apparater tror ni ? 20 W ? * skrattar roande *
Klagar ni över dom med ?
Kanske ati gör en tv som drar 30 w
Det lustiga är att det sägs samma sak om o om igen,
Nvidia kör över eller åtminstone har bättre prestanda än ett Ati , då kommer det som vanligt......... "ATI drar mindre ström" , hade dock varit konstigt om de hade dragit likvädigt eftersom det presterar sämre än Nvidia.
Och nej , jag är ingen nvidia fanboy , utan föredrar det som e för tillfället bäst på marknaden för tillfället

I fortsättningen så släcker vi Alla våra lampor , stänger av våra tv apparater, vi slutar köra bil o köper en cyckel "men glöm inte koppla ur lampan om den har nån sån"

Och en sak till , till dom som sa att ati´s 4000 serie skulle köra över nvidia.....
Kommer benchmarks snart
GO NVIDIA GO !!!!!
crush em like a bug !

Skämt o sido , presterar ett ex 4850/70 bättre än ett 260/280 så blir det ett
sånt istället.....

Nej ett ATI kort hade inte presterat lika mycket då de använder sig av 55nm teknik och GDDR5. Det kallas utveckling. Jag har verkligen inget mot Nvidia, men när det gäller utveckling är ATI långt före.

Vad är det för någon jävla attityd? "Jag skiter i att stänga av datorn för den drar ju mindre än min plasma tv." Det är väl klart som fan att man skall försöka spara lite energi, det är nog kanske därför som 90% av forumet reagerar på att GTX 280 har en tdp på 240 watt.

Sist men inte minst, så står det i artikeln att det ryktas att HD4870X2 presterar ganska mycket bättre än GTX 280, men som sagt vi får väl se.

Visa signatur

Macbook Pro 15" Retina 2013 | Spelriggen: Asus Rampage Formula | Sapphire HD7970 | 4GB ram | Intel Q6600 @ 3.2 ghz | Samsung 840 Pro 256gb + 3.3TB HDD | Antec P182B | Zalman ZM-850HP | BenQ FP241W | Logitech G500+Qpad MK-85 Pro|
Ljud: Peachtree Grand Pre, Emotiva XPA-2, Triangle Magellan Duetto, Beyerdynamic DT990

Permalänk
Medlem

Som någon skrev är det idle-förbrukningen som är intressant, då jag sitter "i Windows" många timmar mer än jag spelar.

Men oavsett strömförbrukning, känner jag mig mer och mer ljummen inför täta och dyra uppgraderingar, och mer och mer lockad att hitta andra intressen. Grafiken i motionsslingan är väldigt bra.

Om prisvärdhet:
5000kr för ett grafikkort? Ja, inga problem, om jag har 10mille. Har jag en miljon så är det på gränsen. Har jag 100k i sparade pengar är det alldeles för dyrt.
Hur mycket pengar känner du att du vill ha, för att ett grafikkort ska vara prismässigt okej vid 5k?

Visa signatur

MSI B650 Tomahawk Wifi, 7800X3D, Noctua D15, 64GB Kingston Fury Beast, Sapphire Pulse 7900XT, Corsair RM750X V2, Samsung 990 Pro 4TB + MP510 960GB + PNY CS3030 2TB, Define R6, Win 11.
Sig uppdaterad 2023-12-28. Inlägg där bilar jämförs med datorer beaktas inte.

Permalänk
Medlem

Vad är det med alla här? Trodde detta var ett forum berikat med människor som älskar prestanda över allt annat. 5000:- för ett grafikkort är väl inget nytt? Det betalade vi många utan att klaga redan för fem år sedan. Om kortet sedan drar lite mer ström när man sitter och spelar så är inte det heller hel världen. Släck ett par glödlampor under tiden om ditt samvete kräver detta.

Helt plötsligt har dikussionen också kommit att handla om vilket kort som ger bäst prestanda/krona. Visst kan detta vara intressant ibland men i ärlighetens namn så borde nog många här sitta kvar med sina nuvarande 8800 eller 3870 ett bra tag till. Tänk vad det sliter på miljön att byta grafikkort varje år...

Jag bryr mig inte om vem som tillverkat delarna som sitter i min dator så länge de är snabba och fungerar som de ska. Ska bli intressant att se om nästa kort som åker in blir ett från ati eller nvidia!

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av P1nGviN
Du tycker inte själv det känns fel med ett grafikkort som drar så pass mycket?

Inte sett mycket gnäll över 9800 GX2 direkt, och det drar enormt med kräm.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Bazooka91
Men snälla lilla vän ...

Även om 280 GTX presterar bättre än HD4870 kommer ATi då att kontra med HD4870x2 (och då får vi se vem som krossar vem ). Något "GX2" lär inte komma från Nvidia då ett sådant skulle bli en mardröm både när det gäller kylning och prislapp. Just det, effektförbrukningen betyder även oftast mer värmeenergi som behöver transporteras bort=större kylningsbehov för att skiten inte ska brinna upp/smälta=högre ljudnivå/gigantisk, tung kylning som knappt ryms i en vanlig låda.

Och det där snacket om att du inte är en fanboy. Språket du skrivit ditt inlägg med tyder på något helt annat om du frågar mig. Själv föredrar jag ATi men jag har inget som helst problem med att rekommendera Nvidia till andra och skulle själv köpt en rig med två stycken 8800GT i SLi om Nvidia kunde göra riktiga chipsets.

Eeeh, va menar du me riktiga chipsets? Ere nå fel på dom eller?

Visa signatur

Skärm: Acer Predator X34A • Moderkort: ASUS Maximus V Gene • CPU: Core i5 2500K @ 4GHz • RAM: Corsair Vengeance DDR3 1600MHz 16GB • GPU: ASUS GeForce GTX 1080 • APU: ASUS ROG Xonar Phoebus • SSD: Intel X-25 M 80GB • HDD: WD Caviar Black 1TB, Hitachi Deskstar 1TB

Permalänk

Vad ni kidz spekulerar och kastar på varandra.

Ja GTX 280 blir bättre än HD4870 och yes GTX 280 drar mer ström. vill man inte ha ett strömslukande kort så köper man sig något annat helt enkelt. Det blir inte speciellt många kronor extra för 80w mer i load.
Sedan snackar ni om HD4870X2 skall prestera bättre än GTX 280, gör det säkert men till nästan 80w mer. Tycker man GTX 280 drar mycket ström kommer HD4870X2 dra betydligt mer ström, närmare 300w eftersom ett HD4870 har en TDP om cirka 160w.

Visa signatur

Min musik
@albinloan
Allt vi kan tänka, kan vi skapa.