Nvidias mörkaste period är här

De enorma framgångarna med Geforce 8000-serien följde Nvidia upp med att lansera den uppdaterade kretsen G92 som gjorde sitt intåg med Geforce 8800 GT oktober 2007 och två månader senare i en ny variant av 8800 GTS. Rent sett till funktioner och prestanda hade inte särskilt mycket hänt sedan G80-korten, men ett bra förhållande mellan pris och prestanda gjorde korten till en framgång. Nvidia åtnjöt en marknadsandel på cirka 70 procent vid det här laget.

Nvidia9800gx2.jpg

Nvidias 9800-serie var mer eller mindre en omdöpning av 8800-serien, här i form av Geforce 9800 GX2 med dubbla G92-kretsar.

Framgångarna till trots inleddes nu en period av besvär och avtagande framsteg för Nvidia. Besvär i form av problem med lödningen för en serie grafikkretsar i G70- och G80-familjerna samt mobila grafikkretsar uppdagades, vilket tillsammans med underdimensionerade lösningar för kylning gjorde att många grafikkort från dessa generationerna överhettade och gick sönder. Framförallt inom de mobila grafikkretsarna var detta företagets största lågvattenmärke.

Nvidia Geforce 9800-korten som följde efter detta var mer eller mindre en serie omdöpta varianter av Geforce 8800-korten. Det första kortet i serien som tillförde något nytt var Geforce 9800 GTX+ där en krympt tillverkningsprocess på 55 nanometer innebar att Nvidia kunde öka klockfrekvenserna.

Korten kunde dock forfarande inte rå på Radeon HD 3870 X2 vilket ledde till att Nvidia introducerade Geforce 9800 GX2. Det nya kortet förde ihop två Geforce 9800 GTS i ett grafikkort. Grafikkortet presterade förvisso bättre än ett Radeon HD 3870 X2, men då det kostade lika mycket som att köpa tre separata Geforce 9800 GT blev kortet inte samma försäljningsmässiga framgång som AMD:s dubbla prestandakort.

De tveksamma besluten från Nvidias sida slutade inte här. I juni samma år lanserades grafikkretsen GT200, baserad på en polerad variant av arkitekturen Tesla, med Geforce GTX 260 och GTX 280 i spetsen. Detta var massiva kretsar med en yta på 576 kvadratmillimeter. Här fokuserade Nvidia främst på att öka arkitekturens kapacitet för generella beräkningar, vilket bland annat innefattade stöd för flyttalsberäkningar med dubbel precision (FP64).

Denna kapacitet gjorde arkitekturen mer komplex och bättre lämpad för de generella beräkningar som Quadro-familjen användes till, men framstegen för spelprestanda var blygsamma. Den komplexa strukturen och stora kretsytan innebar att Geforce GTX 280 kostade 649 dollar, utan att tillföra de prestandamässiga framsteg som flaggskepp i prisklassen brukade tillföra.

AMD introducerar minnesteknik och krympning

AMD:s svar på den nya generationen blev grafikkretsen RV770 som gjorde sitt intåg med Radeon HD 4850 och HD 4870 i prestandasegmentet. Radeon HD 4000-serien var först ut med att använda den nya minnestekniken GDDR5, något som skulle ta ett och ett halvt år innan Nvidia gjorde detsamma med Geforce GT 240.

Både Radeon HD 4870 och HD 4850 fick ett varmt mottagande med väsentligt bättre förhållande mellan prestanda och energieffektivitet, avancerade funktioner som stöd för 7.1 LCPM-ljud över HDMI, bättre skalning över parkopplade grafikkort och framförallt ett markant lägre pris än Nvidias Geforce GTX 260 och GTX 280. Detta följdes även av dubbelkortet Radeon HD 4870 X2 som dominerade prestandasegmentet.

GTX295_GTX275_HD7850_HD4850_Bael.jpg

Längst upp från vänster samsas två Geforce GTX 295 med ett GTX 275, två Radeon HD 7850 samt ett Radeon HD 4850. Bild från SweClockers-medlemmen Bael.

Nvidias svar blev att i början av 2009 introducera grafikkretsen GT200b, som tog GT200 från TSMC:s tillverkningsteknik 65 nanometer till mer moderna 55 nanometer. Detta resulterade i de bättre presterande, mer energieffektiva och prisvärda Geforce GTX 285 och GTX 265, men även dubbelkortet GTX 295 som kombinerade två GT200b med en konfiguration mellan de två förstnämnda. Nvidia "klyvde" sedan GTX 295 och lanserade prestandamodellen GTX 275, i syfte att mota AMD:s uppföljare till HD 4870.

I samma veva lanserade AMD två kort, varav ett signifikant. Radeon HD 4890 var en reviderad version av föregångaren Radeon HD 4870 och blev det första grafikkortet att kunna säljas med en fabriksöverklockning på 1 000 MHz (1 GHz), men det var mellansegmentets Radeon HD 4770 som var särskilt intressant. Detta kort representerade nämligen AMD:s övergång till TSMC:s tillverkningsprocess på 40 nanometer.

Den som hängde med under den här tiden är säkerligen bekant med de långdragna bekymmer TSMC hade med 40-nanometerstekniken. Problemen innefattade innefattade bland annat att kretsarna på 40 nanometer läckte mer ström än väntat och led av hög felfrekvens, dels till följd av kontaminerade fabriker. Att AMD stötte på dessa problem med ett kort i mellansegmentet gav dem erfarenhet och förmåga att hantera detta när övergången skulle ske även i prestandasegmentet med större, mer svårtillverkade, kretsar.

Fermi – det ökända snedsteget

Nvidia hade inte doppat tårna i TSMC:s 40-nanometersteknik än och gjorde det ödesdigra misstaget att basera Fermi-arkitekturen på noden. Nvidia lanserade förvisso korten Geforce 205, Geforce 210 och Geforce GT 220 baserade på 40 nanometer, men dessa såldes primärt via återförsäljare och blev inte det stålbad som AMD redan gått igenom.

SweClockers-redaktionen fick uppleva problemen med Fermi-generationen i praktiken i form av ett eldhärjat Geforce GTX 590.

Nvidias problem med Fermi innebar att AMD kunde regera ganska ostört på marknaden och hann byta ut medlemmarna i samtliga produktsegment. Grafikkretsarna Cedar för budgetsegmentet (HD 5450), följt av Redwood (HD 5550 och HD 5570), Juniper (HD 5750 och HD 5770) och Cypress (HD 5830, HD 5850 och HD 5870) utgjorde Evergreen-generationen. Detta toppades av dubbelextremen HD 5970 med kodnamn Hemlock, som baserades på två Cypress-kretsar.

Evergreen-familjen blev Radeon HD 5000-familjen, och här kunde AMD njuta av välfärdsproblemet att efterfrågan var enormt mycket större än tillgången flera månader efter de lanserades. En av de stora nyheterna var att korten stödde det rykande färska DirectX 11 där en av flaggskeppsfunktionerna var tesselering, en teknik där detaljrikedomen i 3D-objekt kan dynamiskt skalas.

Evergreen-familjen introducerade inte bara nämnvärda grafikfunktioner utan även smidig samtidig anslutning av flera bildskärmar via anslutningen Displayport. Funktionen kallades Eyefinity och lät grafikkorten ansluta till tre skärmar samtidigt över Displayport-utgångar. En specialvariant av Radeon HD 5870 med suffixet Eyefinity Edition tillät till och med sex samtidigt anslutna skärmar.

AMD hann även släppa dubbelkortet Radeon HD 5970 innan Nvidia efter många förseningar till slut släppte ut de första Fermi-baserade grafikkorten i form av Geforce GTX 470 och GTX 480. Utöver att tillgängligheten var ytterst begränsad handikappades korten av hög värmeutveckling, vilket tvingade Nvidia vara mer konservativa med klockfrekvenserna än först utlovat och en svår minneskontroller gjorde frekvenserna på GDDR5-minnet lägre än hos AMD.

Geforce GTX 470 och GTX 480 blev en rejäl missbedömning från Nvidias sida både sett till prestanda och prisnivå. Att den Fermi-baserade kretsen GF100 låg på massiva 529 kvadratmillimeter innebar också att den låda andelen fungerande kretsar från TSMC drabbade Nvidia extra hårt eftersom det fanns mer kretsyta där fel kunde uppstå. Inga kort i GTX 400-serien hade hela kretsens kapacitet upplåst som ett resultat av detta.

Nvidia förfinar och AMD kostnadseffektiviserar

Nvidia lanserade senare samma år den uppdaterade och "lagade" kretsen GF110 som låg till grund för Geforce 500-serien, där den fullständiga kapaciteten hos föregångaren faktiskt var upplåst tack vare tillverkningstekniska justeringar. Samtidigt som detta inträffade valde AMD att återigen stuva om den aktuella grafikkortsfamiljen till att bli mer kostnadseffektiv.

Den första medlemmen i AMD:s Northern Islands-familj lanserades i oktober i form av Radeon HD 6800. Utöver ett byte från arkitekturen VLIW5 till VLIW4, som förbättrade prestanda i tessellering, skalade AMD ned på det mesta med HD 6000-serien. Antalet beräkningsenheter minskades, minneskontrollern blev mindre rent fysiskt men även sett till bandbredd och förmågan att hantera dubbelprecision för flyttalsberäkningar togs bort.

Radeon6870_Eyefinity6.jpg

Sett till prestanda och nya funktioner var Radeon HD 6000-serien inte spännande, men stöd för hela sex skärmar från ett grafikkort imponerade.

Prestandamässigt var Radeon HD 6000 ett ytterst blygsamt steg framåt jämfört med föregångaren, men gällande anslutning till bildskärmar via Eyefinity-tekniken gjordes större framsteg. Med stöd för Displayport 1.2 kunde nu flera skärmar drivas från en enda Displayport-utgång, 120 Hz bilduppdatering stöddes och HDMI-stödet gick upp till version 1.4a. Radeon HD 6950 och HD 6970 förbättrade prestanda ytterligare.

Vid det här laget hade Nvidias andra generations Fermi-kort mognat så pass mycket sett till både hårdvara och drivrutiner att de konkurrerade på jämn fot med AMD:s Radeon HD 6000-serie. De muntra tongångarna fick inte hålla i sig länge då introduktionen av Geforce GTX 590 i början av 2011 blev ett monumentalt misslyckande.

Geforce GTX 590 var två fullt fungerande GF110-kretsar på samma grafikkort. Häpnadsväckande nog kunde de tidiga drivrutinerna inte kontrollera strömtillförseln i kortet tillförlitligt nog, vilket i kombination med ett BIOS som tillät hög strömtillförsel ledde till att en stor andel av korten brände MOSFET-transistorer i alarmerande takt. Trots bekymren kunde korten inte nå mer är paritet med AMD:s dubbelkort Radeon HD 6990 som lanserats kort inpå.