ATi Radeon X800 XT Platinum

Permalänk
Medlem

Lite kul att läsa ändå, innan de här nya generationen kort sa "alla" som gillade ATI : kika på 3dmak resultatet, är ju uppenbart vilket kort man ska ha, radeon får bäst i 3dmark.
Nu efter nygenerationen låter det mest: 3dmark, näe, vem bryr sig om det, det ska man inte titta på, säger inte ett skit.

bara en liten observation jag gjorde

Visa signatur

USA har aldrig varit på månen, Sverige hade aldrig vm 1958 och 9/11 har aldrig inträffat och därmed basta.
P4 2,6C@<3,0Ghz + CNPS7000A-CU|AI7|1,5Gb BH5 & BH6|Antec Sonata|R9800np(BBA) + VF700-CU@425/258|HP LP2465|Logitech MX500, Seasonic S12 500W

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av MoNsT€R
Varför överhuvudtaget bry sig om hur många poäng korten får i 3d mark? Det är ju helt oväsentligt. Man köper väl inte ett nytt graffe för att sitta och köra 3d mark hela dagarna?

Väldigt, väldigt många gör det här på swec, kan man tro iaf.

Permalänk
Avstängd

Härligt att de inte blev mer strömkrävande, Nvidia kan drömma om att jag skulle koppla ur 2-3 diskar eller köpa ett starkare nätagg än min antec380w

Permalänk
Medlem

http://www.tomshardware.com/graphic/20040504/ati-x800-09.html

Så mycket ström drar dom inte.. tror bara nvidia säger 480watt för om dom hade sagt 380watt tex så kanske nån amatör köper ett megabudget agg på 380 som inte är kraftigt nog

Permalänk
Medlem

komer man värkligen använda ett åsdant grafekort inom 1 år?

Visa signatur

Dator: Ryzen 3900x - 16Gb - EVGA 3060 - Acer Predator X34A
Server: Synology DS415+ 3st WD red 6Tb 1st Toshiba N300 8Tb
Anslutning: Fiber 500Mbit
Bilar: Tesla model 3 LR 2023, MG EV ZS 2021
Solceller: 12,1kwh Batteri på gång.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av AnteP
Det där är vad man kallar att yra i nattmössan tror jag.
No offense.

Bara för att de använder samma API betyder det inte på långa vägar att de skulle ha något gemensamt vad det gäller prestandarelationer mellan olika grafikkort.

Nä, men med tanke på att nVidia alltid har piskat ATi i alla OpenGL applikationer och spel (i princip) så skulle det ju vara förvånande om Doom 3 flöt bättre på ett ATi kort.

Tidigare har det i vissa fall varigt rent ut sagt enorma skillnader men nu verkar det som om ATi har kommigt ikapp (även om de ligger snäppet efter).

Permalänk
Medlem

Nu kanske man kan få en relativt tyst dator med vass grafik. Underklocka X800 och kyla passivt och ändå få en prestanda som är klart bättre än ett 9800xt. Det är välkommet.

Visa signatur

Pd

Permalänk
Inaktiv

haha radeon är bäst så är det barra

Permalänk
Avstängd

Re: ...

Citat:

Ursprungligen inskrivet av deathclaw
q3 har alltid fungerat bättre på nvidias kort ... och den som kolar på hur många poäng man får i 3dmark när man ska köpa nytt grafikkort är dumm i huvet.... Föresten kör jue Nvidias kort med fuskade drivrutiner i testerna.... och ja skiter i om det är beta drivrutiner dom har jue ändå "optimerat" dom

Men Arne Anka som kör 3DMark mycket här på forumet, säg att han är dum i huvvet då. jag kör också 3DMark så jag tar även åt mig av det. Eftersom ditt inlägg inte fyller någon funktion eller är på något sett positivt utan tvärtom så HÅLL KÄFTEN I FORTSÄTTNINGEN TACK!

Visa signatur

[ Athlon 1466 @ 2714Mhz / Zalman 7000b-CU ][ Abit NF7-S 2.0 @ 261FSB ][ 2*512MB KHX3000 BH-5 @ 2-2-1-5 1:1 (MemTest) ]
[ ATi 9800PRO @ 500/405Mhz Kylning
][ Win2003 Server Enterprise Edition ] [ Catalyst 4.12beta/nForce 2.45 ]
[ 3DMark2001: 20658P][ 3DMark2003: 7246p ][ Super-Pi: 39s ] ----- AMD San Diego/Venice FAQ! - Posta 3DMark05 resultat här!

Permalänk
Medlem

Re: Re: ...

Citat:

Ursprungligen inskrivet av Sledgehammer
Men Arne Anka som kör 3DMark mycket här på forumet, säg att han är dum i huvvet då. jag kör också 3DMark så jag tar även åt mig av det. Eftersom ditt inlägg inte fyller någon funktion eller är på något sett positivt utan tvärtom så HÅLL KÄFTEN I FORTSÄTTNINGEN TACK!

Get a life

Visa signatur

:: MAIN :: Asrock P67 Extreme4 :: 2500K :: 970 GTX :: HP W2207 :: Corsair 16GB :: TRUE :: Samsung 850 :: Logitech diNovo Edge :: HTPC :: ION :: Intel X-25 G2 :: Array R2 :: Samsung F4 ::

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av SiBBoR
Kör man *NIX är det förstås en helt annan sak. Ska man skaffa sådana här grafikkort och man kör *NIX tycker jag det bara är dumt iofs. Varför? Jo, för att de flesta krävande spel inte finns till *NIX, och om man lyckas emulera spelen lär de inte flyta vidare bra iaf.

Doom 3 får vi se hur det blir. Jag tror det kommer prestera bra på ATi:s grafikkort också, men antagligen bättre på nVidias senaste monster, men endast tack vare det bättre OGL-stödet utan för deras nya Shadow-mekk (minns ej vad det heter just nu).

Finns massor av spel och kommer fler, bland annat ut2004 vars OpenGL variant av motorn inte är riktigt lika snabb som Direct 3D varianten (marginelt, men ändå). Doom3 kommer ju också att komma.

Permalänk
Medlem

Ser skitbra ut... fattar inte att det är i realtid! usch

Visa signatur

...excellent

Permalänk
Medlem

Några som klagar på 6800ue för att det bara kommer att bli lite snabbare än 6800u och kosta en jävla massa mer pengar... är inte det exakt som 9800XT då? Men är väl inte nån som klagar på det kortet....
Tror man ska ha i åtanke att alla nvidias kort inte har preseterat till 100% vid lansering, man måste i regel vänta ett tag på bra drivisar.

Om det är finns en andledning att köpa nvidia så är det för stabiliteten och hållbarheten, räcker med att kolla detta forum för att inse att ATI korten har mycke sämre drivisar och att det generelt mer problem med dom. Och dom som tycker det är jobbigt att nvidia fuskat i tester kan ju komma ihåg att ATI oxå gjort det.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av LocSin
Några som klagar på 6800ue för att det bara kommer att bli lite snabbare än 6800u och kosta en jävla massa mer pengar... är inte det exakt som 9800XT då? Men är väl inte nån som klagar på det kortet....
Tror man ska ha i åtanke att alla nvidias kort inte har preseterat till 100% vid lansering, man måste i regel vänta ett tag på bra drivisar.

Om det är finns en andledning att köpa nvidia så är det för stabiliteten och hållbarheten, räcker med att kolla detta forum för att inse att ATI korten har mycke sämre drivisar och att det generelt mer problem med dom. Och dom som tycker det är jobbigt att nvidia fuskat i tester kan ju komma ihåg att ATI oxå gjort det.

Jo ,det är ju klart, det är just med tiden som nVidias drivers har blivit sämre. I 4x.xx Detonator så fuskade dom inte. Det är ungefär som att säga "man måste vänta tills nVidia lagt till mer optimeringar som klassas som fusk i sina drivers." Sen så har ATi inte alls några problem med drivers. Idag ligger ATi riktigt bra till där sedan Catalyst 3.0, och det var lägesedan. Ati har fuskat när dom hade sina R8500 men inte alls på samma sätt. Även lite smått med R300, men det var ju så löjligt lite att dom flesta nästan tvekade. "Fusket" som ATi körde med var endast i 3DMark och var inte synligt. Det nVidia fuskar med skulle jag vilka kalla brutalt. Det ser ju förjävligt ut i de tester man sett när det gäller bildkvalité. Speciellt när man kollar på shaderkvalitén. Hoppas att nVidia tar bort detta permanent från sina drivers, för dom har ett jäkligt bra kort i alla fall. Sen det där ang, 9800XT så tycker jag att 9800XT inte är prisvärt för fem öre. Ett pro kort kostar nästan hälften av vad vissa XT kort gör och prestandan på ett XT kort är ca 5% högre. Det är synd att det skall skilja så jäkla mycket i pris på en liten skillnad.

På tala om Doom III så tror jag att NV40 är snabbare där, men det är en känsla från min sida dock. Det jag gillar med NV40 är alla nya tekniker och funktioner. Om man använder dessa så kan man få nya spel att se hisnande bra ut grafikmässigt. Även Ati har ju motsvarande men man har ju inte fått se så mycket av det förutom ATi:s PDF datablad.

Visa signatur

[ Athlon 1466 @ 2714Mhz / Zalman 7000b-CU ][ Abit NF7-S 2.0 @ 261FSB ][ 2*512MB KHX3000 BH-5 @ 2-2-1-5 1:1 (MemTest) ]
[ ATi 9800PRO @ 500/405Mhz Kylning
][ Win2003 Server Enterprise Edition ] [ Catalyst 4.12beta/nForce 2.45 ]
[ 3DMark2001: 20658P][ 3DMark2003: 7246p ][ Super-Pi: 39s ] ----- AMD San Diego/Venice FAQ! - Posta 3DMark05 resultat här!

Permalänk
Medlem

Yeah baby , ska nog införskaffas efter sommarn när man har lite stålar

Permalänk
Medlem

Re: Re: Re: ...

Citat:

Ursprungligen inskrivet av Warheart
Get a life

Nödvändigt Warheart. Om du inte har något intressant att tillföra kan du väl hålla dina idiotiska kommentarer för dig själv. Behöver jag berätta vad Sweclockers betyder?

Många(de flesta?) som överklockar kör benchmarks och vill få så hög score som möjligt.

Visa signatur

Error 412: Precondition Failed - You need to use a real browser in order to view this signature!

Permalänk
Hedersmedlem

Nu lugnar vi ner oss, det handlar trots allt "bara" om grafikkort.

Visa signatur

The variable 'brain' is declared but never used

Permalänk
Medlem

är de bara ja som inte kan ladda ner ruby mpg?
subsurface är den enda av de 4 filerna som vill.

Permalänk
Medlem

Varför i h*vete kostar X800Pro 4.800 bagis?

Hoppas det inte kommer vara så pass dyrt länge till, hade räknat kring 4000 kr eller dylikt.

Visa signatur

“More Human Than Human”
kniffswelt | no_jz.supra

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Sledgehammer
Jo ,det är ju klart, det är just med tiden som nVidias drivers har blivit sämre. I 4x.xx Detonator så fuskade dom inte. Det är ungefär som att säga "man måste vänta tills nVidia lagt till mer optimeringar som klassas som fusk i sina drivers." Sen så har ATi inte alls några problem med drivers. Idag ligger ATi riktigt bra till där sedan Catalyst 3.0, och det var lägesedan. Ati har fuskat när dom hade sina R8500 men inte alls på samma sätt. Även lite smått med R300, men det var ju så löjligt lite att dom flesta nästan tvekade. "Fusket" som ATi körde med var endast i 3DMark och var inte synligt. Det nVidia fuskar med skulle jag vilka kalla brutalt. Det ser ju förjävligt ut i de tester man sett när det gäller bildkvalité. Speciellt när man kollar på shaderkvalitén. Hoppas att nVidia tar bort detta permanent från sina drivers, för dom har ett jäkligt bra kort i alla fall. Sen det där ang, 9800XT så tycker jag att 9800XT inte är prisvärt för fem öre. Ett pro kort kostar nästan hälften av vad vissa XT kort gör och prestandan på ett XT kort är ca 5% högre. Det är synd att det skall skilja så jäkla mycket i pris på en liten skillnad.

På tala om Doom III så tror jag att NV40 är snabbare där, men det är en känsla från min sida dock. Det jag gillar med NV40 är alla nya tekniker och funktioner. Om man använder dessa så kan man få nya spel att se hisnande bra ut grafikmässigt. Även Ati har ju motsvarande men man har ju inte fått se så mycket av det förutom ATi:s PDF datablad.

Nog har ATi mer problem än nVidia med drivrutinerna idag också.

"Fusket som ATi körde med var endast i 3DMark..."
Är inte det där i princip halva definitionen av fusk?

3DMarks syfte är att testa datorn. Om man optimerar för det så har man fuskat oavsett hur stor skillnad man ser (en överdrift vore att visa en film istället för att benchmarka datorn, du ser ingen skillnad - eller, kvaliten kan säkert vara bra mycket bättre, många FPS - bra va? ).
Det är nog de värsta fusken som finns.

Hela poängen med benchmarkprogram är att de ska efterlikna det som korten används för - och då självklart behandlas på samma sätt som ex. ett spel.

Nu har även nVidia gjort liknande fusk så jag menar inte att ATi är särme pga. det, men att säga att fusket bara var för 3DMark och inte var synligt är inte en ursäkt utan är bra mycket sämre än att tumma på bildkvaliten då dess enda syfte är att vilseleda användarna.

Sen, optimeringar är inte samma sak som fusk. Optimeringar kan vi aldrig får för många utav och utan optimeringar så skulle vi haft betydligt sämre prestanda idag.
Känns som om folk hoppar på allt som innehåller ordet optimering när det egentligen är något positivt.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av mitrix
Lite kul att läsa ändå, innan de här nya generationen kort sa "alla" som gillade ATI : kika på 3dmak resultatet, är ju uppenbart vilket kort man ska ha, radeon får bäst i 3dmark.
Nu efter nygenerationen låter det mest: 3dmark, näe, vem bryr sig om det, det ska man inte titta på, säger inte ett skit.

HEHE:D DU har rätt när jag tänker efter...

ERA FÖRVRÄNGARE;)

OBS!! Seriös som ett rosa moln!

Visa signatur

All Eran Belysning Är Tillhör till mig! || Mustela är inte finskt! Det är latin! || Om jag fick 1 krona varje gång någon särskrev på detta forum...

Permalänk
Medlem

Nvidias drivisar blivit sämre? Själv har jag då inga problem med varken instabilitet, dålig kompabilitet med spel eller dålig bildkvalité. ATIs drivisar har mycke problem med både instabilitet och dålig kompabilitet med spel... Dom har blivit mycke bättre senaste tiden, men är fortfarande lågt ifrån Nvidia vad gäller det.

Vad gäller min tidigare kommentar angående 9800XT så verkar det som några missuppfattade den, vad jag menar är att det är konstigt att alla klagar på 6800ue men ingen som klagar på att det är precis samma sak som 9800XT, dvs fet med pengar för lite prestanda vinst.. Men då är det ju nästintill kliniskt bevisat att det är "inne" att klaga på nvidia och höja ATI till skyarna. Nvidias 6800 kort är idag kanske inte lika snabba kort, men dom kommer nog att växa med nya drivisar, precis som ATI korten lär göra, det är bara vänta och se vem som kan utvinna mer prestanda ur korten.

Permalänk
Medlem

Vad det gäller Open GL prestanda med ATI och Nvidia så är spelet Quake 3 en dålig benchmark såvida man inte spelar Quake 3 och FPS'n man då har lär duga bra med dom nya korten oavsett upplösning, AA och AF.

Quake 3 motorn som används i spelet Quake 3 är extremt gammal och skapades mer för grafikort som Geforce 2. Det har skett en del på grafikkortssidan sen Geforce 2 och spelet Quake 3s motor har inte stöd för att testa dom nya funktionerna som dagens nya grafikort har att erbjuda.
Nu har dock Quake 3 motorn fått en del lyft i och med att spel som är nyare än Quake 3 fått nyare versioner av orginal quake 3 motorn ett sånt spel är t.ex Call Of Duty.

Call Of Duty lämpar sig betydligt bättre till att benchmarka Open GL prestanda eftersom motorn har stöd för fler funktioner i grafikkorten än gamla Quake 3 orginal-motorn.

Ni som vill se en benchmark kan titta här och dra era egna slutsaster.
http://www.xbitlabs.com/articles/video/display/r420-2_5.html

Igentligen finns det bara ett bra sätt att bechmarka testa spelet man spelar dvs spelar bara EQ i princip ja då ska man skaffa det bästa kortet för EQ. Ett annat exempel BF Vietnam spelar du endast de spelet kolla upp vilket kort som är bäst för de spelet. Spelar man många spel får man såklart kolla upp ett flertal spel och sen dra sina egna slutssatser. Aquamark och 3dmark är bara eye-candy i mina ögon och dom blir man extremt less på efter man kört dom den 5 gången.

Dom här reviewsarna testar många spel

http://www.xbitlabs.com/articles/video/display/r420-2.html
http://www.anandtech.com/video/showdoc.html?i=2044

Jag gillar ATI och Nividas nya kort men för mig blir det ett Radeon X800XT eftersom jag vill behålla mitt nuvarande nättagg som är lite annolunda http://www.silentpcreview.com/article90-page1.html

/7of9

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av LocSin
ATIs drivisar har mycke problem med både instabilitet och dålig kompabilitet med spel... Dom har blivit mycke bättre senaste tiden, men är fortfarande lågt ifrån Nvidia vad gäller det.

Märkligt, min dator är väldigt sällan problem med spel eller instabilitet. Men som tur är fick jag nu reda på att mina grafikkortsdrivrutiner är instabila

Året är 2004 och jag kör ATi.

Visa signatur

Space, the final frontier

It's not what you've got, it's how you use it, som gamle Ray Stevens sa.

Permalänk

Kan bara hålla med Det enda problem jag upplevt har berott pga. själva spelets mjukvara, och har lösts genom att installera en patch. (Spelet var MP2)

"Call Of Duty lämpar sig betydligt bättre till att benchmarka Open GL prestanda eftersom motorn har stöd för fler funktioner i grafikkorten än gamla Quake 3 orginal-motorn.

Ni som vill se en benchmark kan titta här och dra era egna slutsaster.
http://www.xbitlabs.com/articles/vi...y/r420-2_5.html"

Det enda jag ser är att skillnaderna minskat, men Nvidia leder ju trots allt. Jag menar vem kör utan FSAA och AF på ett sånt kort?

Visa signatur

C2D Q6600 || Gigabyte P31-DS3L || Corsair 6400 1GB*2 || 8800GT || Audigy2

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Friamannen
Kan bara hålla med Det enda problem jag upplevt har berott pga. själva spelets mjukvara, och har lösts genom att installera en patch. (Spelet var MP2)

"Call Of Duty lämpar sig betydligt bättre till att benchmarka Open GL prestanda eftersom motorn har stöd för fler funktioner i grafikkorten än gamla Quake 3 orginal-motorn.

Ni som vill se en benchmark kan titta här och dra era egna slutsaster.
http://www.xbitlabs.com/articles/vi...y/r420-2_5.html"

Det enda jag ser är att skillnaderna minskat, men Nvidia leder ju trots allt. Jag menar vem kör utan FSAA och AF på ett sånt kort?

Jag håller med dig vem vill spela utan AA och AF om kortet kan hantera de i den upplösning man vill spela (min önskade upplösning i spel är 1600*1200). För mig väger direct 3d Farcry benchmarken betydligt mer än Open Gl Call of Duty benchmarken.
http://www.xbitlabs.com/articles/video/display/r420-2_15.html

Radeon X800XT och Geforce 6800Ultra är båda bra kort man bör ta reda på vilket som passar bäst för en själv och då bör man veta hur man skall gå tillväga, på sweclockers forum verkar det dock finnas mycke troll/fanboys som vilseleder folk som försöker ta reda på vad som är bäst för dom.

Ett exempel är dom sågar sönder ena företagets drivrutiner och vägrar inse att båda företagen har fördelar och nackdelar vad det gäller drivrutinerna, och visst de finns alltid personer som har problem med sitt grafikkort pga av drivrutiner men dom finns i båda lägren. Om du kör Windows XP och vill köpa ett Radeon eller Geforce låt inte drivrutinerna avgöra pga att en fanboy har sågat ena tillverkarens drivrutiner, köp istället kortet du vill ha. Drivrutinerna uppdateras ofta för att fixa fel och nya spel kommer att kräva uppdateringar till både Radoen och Geforce för att spelen funka korrekt och optimalt.

/7of9

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av echo
Nog har ATi mer problem än nVidia med drivrutinerna idag också.

"Fusket som ATi körde med var endast i 3DMark..."
Är inte det där i princip halva definitionen av fusk?

3DMarks syfte är att testa datorn. Om man optimerar för det så har man fuskat oavsett hur stor skillnad man ser (en överdrift vore att visa en film istället för att benchmarka datorn, du ser ingen skillnad - eller, kvaliten kan säkert vara bra mycket bättre, många FPS - bra va? ).
Det är nog de värsta fusken som finns.

Hela poängen med benchmarkprogram är att de ska efterlikna det som korten används för - och då självklart behandlas på samma sätt som ex. ett spel.

Nu har även nVidia gjort liknande fusk så jag menar inte att ATi är särme pga. det, men att säga att fusket bara var för 3DMark och inte var synligt är inte en ursäkt utan är bra mycket sämre än att tumma på bildkvaliten då dess enda syfte är att vilseleda användarna.

Sen, optimeringar är inte samma sak som fusk. Optimeringar kan vi aldrig får för många utav och utan optimeringar så skulle vi haft betydligt sämre prestanda idag.
Känns som om folk hoppar på allt som innehåller ordet optimering när det egentligen är något positivt.

Det var stor skillnad mellan de fusk som nVidia och ATI tog till. Det ATI gjorde var att skifta om bland shader instruktionerna om jag inte minns helt fel och det påverkar inte resultatet det minsta. nVidia fuskade på fler sätt men det absolut värsta som nVidia gjorde tycker jag var när de använde statiska ”clipping plane” för att ta bort ”onödiga” polygoner, detta förstör ju hela poängen med testen. ATI var också snabba med att ta bort fusket till skillnad från nVidia som inte tyckte att de dom gjorde var något fel.

Vad gäller optimeringar så är de enligt mig helt ok så länge de inte påverkar bildkvalitén negativt och om de ändå gör det skall användaren kunna välja att om han/hon vill använda denna optimering…så var inte fallet med en del av nVidias ”optimeringar”.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av 7of9
Ett exempel är dom sågar sönder ena företagets drivrutiner och vägrar inse att båda företagen har fördelar och nackdelar vad det gäller drivrutinerna, och visst de finns alltid personer som har problem med sitt grafikkort pga av drivrutiner men dom finns i båda lägren. Om du kör Windows XP och vill köpa ett Radeon eller Geforce låt inte drivrutinerna avgöra pga att en fanboy har sågat ena tillverkarens drivrutiner, köp istället kortet du vill ha. Drivrutinerna uppdateras ofta för att fixa fel och nya spel kommer att kräva uppdateringar till både Radoen och Geforce för att spelen funka korrekt och optimalt.

Nu är det så att ATi tidigare haft enorma problem med sina drivrutiner. De har med tiden blivigt mycket bättre men när de jämförs med nVidia (som gör riktigt bra drivrutiner) så har de en bit kvar.

När det kommer till drivrutiner är den enda riktiga nackdelen med nVidia fusket. Och personligen så skiter jag i att de fuskar. Visst är det dåligt utav dem, men bildkvaliten i spel har väldigt låg prioritet för mig. Då är 2d kvaliten bra mycket viktigare.

I mitt hem är det 5 st. datorer (borträknat gamla 100-200 MHz datorer) varav 2 st. har nVidia, 2 st. har ATi och en har Matrox. Även om inte alla datorer är mina så är det jag som bestället och sätter ihop dem.

Både ATi och nVidia är bra och jag har tidigare i denna tråd nämnt fördelar med båda.

Den största fördelen med nVidia är drivrutinerna och den största fördelen med ATi är strömförbrukningen. Det är i alla fall min åsikt.
Sen vad man använder datorn till så väger vissa fördelar/nackdelar mer vilket gör att nVidia/ATi blir det bättre valet.

Jag har inte sagt att något kort är bättre och med priser undantagna (har inte orkat kolla upp priser då det inte är aktuellt för mig och att jag i vilket fall aldrig inom en nära framtid lägga mer än 3k på ett grafikkort) så är ATi och nVidia väldigt lika.

Citat:

Det var stor skillnad mellan de fusk som nVidia och ATI tog till. Det ATI gjorde var att skifta om bland shader instruktionerna om jag inte minns helt fel och det påverkar inte resultatet det minsta. nVidia fuskade på fler sätt men det absolut värsta som nVidia gjorde tycker jag var när de använde statiska ”clipping plane” för att ta bort ”onödiga” polygoner, detta förstör ju hela poängen med testen. ATI var också snabba med att ta bort fusket till skillnad från nVidia som inte tyckte att de dom gjorde var något fel.

Vad gäller optimeringar så är de enligt mig helt ok så länge de inte påverkar bildkvalitén negativt och om de ändå gör det skall användaren kunna välja att om han/hon vill använda denna optimering…så var inte fallet med en del av nVidias ”optimeringar”.

Du förstod inte riktigt vad jag menade.
Jag sa aldrig att nVidia var bättre på fronten. Jag bara sa att jag inte höll med om Sledgehammers förmildrande av ATis fusk (som om att det knappt var nåt fusk).

nVidia är såvitt jag vet värre när det kommer till fusk. Och något annat sa jag som sagt inte.

Sen som jag sa så spelar det ingen roll hur stor optimeringen är - specifika optimeringar för benchmarkprogram är det fulaste man kan göra. Med det har jag inte sagt att ATi har gjort det mer än nVidia (eller tvärtom).
Att skifta om bland shaderinstruktionerna gav ju ATi mer prestanda - och det därför att grafikkortet inte gjorde såsom benchmarkprogrammet sa åt den att den skulle göra. Såvida man inte gör det för alla spel också så är det enbart för att vilseleda konsumenterna som man gör det. Och det är fult. Jag tar inte upp nVidias fall men självklart är det lika fult när nVidia gör det. Sen hur stora optimeringarna är för jusst 3dmark bryr jag mig väldigt lite om.
3D mark - och särskilt 2003 duger inte till att testa ett grafikkort, tycker jag.

Att optimera i spel så att bildkvaliten försämras må vara för att vilseleda konsumenterna det också. Men då tjänar också konsumenten på det genom bättre prestanda. (i 3dmarks fall så tjänar inte konsumenten något alls på det).
Men visst är det dåligt med fusk i spel också, och man blir ju minst sagt förvånad varför något top-of-the-line kort skulle behöva sådana 'optimeringar'.
Bättre hade det varigt om de gjorde det för gamla kort (med möjlighet att ta bort 'optimeringarna' om man vill), såsom GF4 TI4200 där man i många spel behöver mer prestanda.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av echo

Att skifta om bland shaderinstruktionerna gav ju ATi mer prestanda - och det därför att grafikkortet inte gjorde såsom benchmarkprogrammet sa åt den att den skulle göra. Såvida man inte gör det för alla spel också så är det enbart för att vilseleda konsumenterna som man gör det. Och det är fult. Jag tar inte upp nVidias fall men självklart är det lika fult när nVidia gör det. Sen hur stora optimeringarna är för jusst 3dmark bryr jag mig väldigt lite om.
3D mark - och särskilt 2003 duger inte till att testa ett grafikkort, tycker jag.

Det finns en liten skillnad (inte för att jag egentligen bryr mig om 3dmark, gillar att argumentera dock ):

ATi skiftade om några shaderinstruktioner (obs de bytta alltså inte ut innehållet mot något eget, istället arrangerade de om det).
Det här är något som ATi kan göra i spel också, och gör ibland vad jag vet.

nVidias "optimeringar" förutsatte alla att spelets kamera följde en fördefinierad bana. Den typen av optimeringar går inte att applicera på ett spel och dessutom sänkte de bildkvaliten.

Så:
ATi sänkte inte bildkvaliten och deras optimeringar går att (och blir) applicera(de) på spel.
nVidia sänkte bildkvaliten och deras optimeringar går inte att applicera på spel.

Så personligen tycker jag inte man kan säga "fusk som fusk" i den här situationen.

Går vi vidare med eftereffekterna när de blev påkommna så är det ju ingen tvekan om vem som skötte situationen snyggast och ärligast.

Visa signatur

Från den andra sidan. :)

Permalänk
Medlem

ATI = Jesus

Nvidia = Satan

Visa signatur

"Half-Life 2 is like Duracell of games. It just keeps owning and owning and owning."
i7 920@3.2 vCore 1.024 | Asus P6T Deluxe v2 | 6GB Corsair Dominator Twin3X 1600MHz (6-6-6-18) | Noctua NH-U12P SE2 | Asus DC2 Top V2@1000/1344 vGpu 1.025 | WD Raptor 1500ADFD | Corsair HX 750 | Vista Home Premium 64-bit|