Vill du vara del av diskussionerna i forumet, ställa frågor eller hjälpa andra? Registrera dig här!

Geforce Titan Z i handeln innan månadsskiftet

Geforce Titan Z i handeln innan månadsskiftet

Nvidia har siktet inställt på prestandatronen med nya Geforce GTX Titan Z, som dyker upp i slutet av månaden. Potentiellt rekordhög prestanda kombineras med en hårresande prislapp.

Läs artikeln

Vi får väl se. Allt verkar ju peka åt samma klock som Titan och då bör 295X2 prestera bättre då vanliga Titan är långsammare än 290X.

Citat:

Denna gång kombineras däremot två kretsar för sammanlagt 5 760 CUDA-kärnor och 12 GB GDDR5-minne, effektivt 6 GB per grafikprocessor.

Tycker det är skitbra att ni skriver vad den effektiva mängden minne är, men man kanske borde lägga till "i SLI" eller något, för visst kan man använda alla 12 GiB om man kör beräkningar eller annat utan SLI?

EDIT: Det är visst inte helt rätt: Man kan tydligen skriva program som låter varje GPU använda hela sitt minne oberoende av de andra, men man kan tydligen inte ge 12 GiB till en enda GPU, SLI eller ej, då varje chunk minne à 6 GiB är anslutet med en enda minnesbuss till en enda GPU. Det är alltså rent fysiskt omöjligt för GPU 0 att komma åt GPU 1:s minne (åtminstone med någon form av vettig bandbredd). The more you know ...

Då ändrar jag mig till att det som står i artikeln är asbra.

Senast redigerat 2014-04-24 12:46

Tänkte köpa en begagnad bil i bra skick ifrån 02, hittade en Jaguar för 26000... men ett nytt grafikkort kanske skulle sitta finare? *sarkasm* (ps. ska inte köpa bil heller)

Skrivet av Flamso:

Vi får väl se. Allt verkar ju peka åt samma klock som Titan och då bör 295X2 prestera bättre då vanliga Titan är långsammare än 290X.

Enligt mig så skulle de inte lansera det nu om de inte tar över rollen som "Världens snabbaste grafikkort".
Om det inte var bättre än 295X2 skulle de hålla på lanseringen tills de kan ta tronen

De har fanemig lyckats med designen. Namnamnaaam

Skrivet av Wille1504:

Enligt mig så skulle de inte lansera det nu om de inte tar över rollen som "Världens snabbaste grafikkort".
Om det inte var bättre än 295X2 skulle de hålla på lanseringen tills de kan ta tronen

De utannonserade kortet innan AMD visade sitt 295X2. Så visst, de kanske har justerat lite. Kortet måste vara rätt bra konstruerat för att hålla så höga frekvenser som behövs för att slå 295X2. Som Zotamedu har påpekat innan, flopsen på de slides Nvidia visade är inte lika högt som två Titan.

Skrivet av Flamso:

Vi får väl se. Allt verkar ju peka åt samma klock som Titan och då bör 295X2 prestera bättre då vanliga Titan är långsammare än 290X.

Är väl 2 st Titan black och eftersom Titan Black spöar ett 290x så tror jag detta kommer ta över som snabbaste onödigaste grafikkort

Skrivet av Flamso:

Vi får väl se. Allt verkar ju peka åt samma klock som Titan och då bör 295X2 prestera bättre då vanliga Titan är långsammare än 290X.

Fast är inte Titan Z baserat på Titan Black snarare än vanliga Titan? Annars hade det väl haft 5376 CUDA-kärnor och inte 5760. Så borde väl finnas potential trots allt.

Skrivet av fermia:

Är väl 2 st Titan black och eftersom Titan Black spöar ett 290x så tror jag detta kommer ta över som snabbaste onödigaste grafikkort

Skrivet av induce:

Fast är inte Titan Z baserat på Titan Black snarare än vanliga Titan? Annars hade det väl haft 5376 CUDA-kärnor och inte 5760. Så borde väl finnas potential trots allt.

Nu ska jag överdriva lite för dramatisk effekt. Ett enkelt Titan har 4,5 Teraflops i single precision. Titan Z ska tydligen ha 8 Teraflops (se bild ovan). Detta innebär att två Titan BÖR vara snabbare. Självklart kan det ändras innan släppet.

Vi får helt enkelt se. Nvidia brukar vara glada i att räkna sina Teraflops så det känns lite konstigt.

Gäsp, ge mig Maxwell istället.

Sen kommer Titan XY och efter det Titan black XY. Så sjukt bra affärsidé att klocka ett par mhz, ge den ett nytt namn och återgå till lanseringspriset (minst)

Oj vad det går undan med grafikutvecklingen. Hoppas verkligen på ett Grafikkort som klarar av att leverera 60fps i 3840x2160 nästa år!

Ifall någon vill upplysa en yngre läsare, är det dom första rena k*kförlängarekorten eller har det släppts sånt här förut?

Skrivet av RaxXeZ:

Ifall någon vill upplysa en yngre läsare, är det dom första rena k*kförlängarekorten eller har det släppts sånt här förut?

Inte så mycket Kukförlängning som P12-mjölkning.. Dvs, målgruppen är folk med äckligt rika föräldrar.

Skrivet av RaxXeZ:

Ifall någon vill upplysa en yngre läsare, är det dom första rena k*kförlängarekorten eller har det släppts sånt här förut?

Samtliga Asus ROG specialkort ur Mars och Ares serien? Men inte ens de har varit i denna prisklassen. Dock har Nvidia sålt Quadro lösningar för tre dubbla priset innan, dock menade till 3D rendering och film industrin.

Skrivet av HurMycket:

Tycker det är skitbra att ni skriver vad den effektiva mängden minne är, men man kanske borde lägga till "i SLI" eller något, för visst kan man använda alla 12 GiB om man kör beräkningar eller annat utan SLI?

Kan bara använda 6GB

Skrivet av tvelander:

Kan bara använda 6GB

Per kort i så fall. Fast det beror väl på om beräkningarna man kör använder alla GPUer samtidigt eller om det köra en instans per GPU.

Skrivet av RaxXeZ:

Ifall någon vill upplysa en yngre läsare, är det dom första rena k*kförlängarekorten eller har det släppts sånt här förut?

"Grafikkortet är huvudsakligen avsett för CUDA-utvecklare och kommer med en häftig prislapp: 2 999 dollar eller närmare 30 000 kronor inklusive moms."

Så där av priset.

Säljs ju Quadro i höga priser.

Står GeForce då helt plötsligt helt barockt.

På vilket sätt gör "dynamiska klockfrekvenser" att kortet blir svalt och tystare? Det är ju bara i idle som det stämmer. Så fort man börjar spela och belasta kortet fullt så kommer det låta som en dammsugare.

Skrivet av Flamso:

Per kort i så fall. Fast det beror väl på om beräkningarna man kör använder alla GPUer samtidigt eller om det köra en instans per GPU.

MintViz: Graphics cards that have dual GPU and memory are seen as two separate GPU’s and the entire scene must fit onto each one.

"Yup, it would be cool if the GTX 690 could use its 4GB RAM as a full 4GB card instead of a 2GB one, duplicated. Unfortunately, it's not the case and I'd like to give a slightly alternative explanation for this.

The root problem is that the GPUs aren't designed to gang together directly into one "super GPU". If they did, they'd have a wide, full bandwidth interface to directly connect to each other and would be physically sitting next to each other on the circuit board. In such a scenario, they would become one large GPU with literally double the rendering power and be able to use the full amount of RAM, rather than halving it like we see now. Benchmarks would then show a full 2x improvement in rendering speed under all situations (CPU bottlenecks not withstanding).

I'm sure that AMD and NVIDIA have built prototypes of something like this, but for some reason haven't made them commercially. Not sure why really, as dual GPUs would then work awesomely well, offering doubled rendering power without any of the inherent drawbacks of current designs.

Of course, GPUs physically sitting in different cards have no chance of doing this and maybe that's why they haven't done this.
"

Senast redigerat 2014-04-24 11:08
Skrivet av tvelander:

MintViz: Graphics cards that have dual GPU and memory are seen as two separate GPU’s and the entire scene must fit onto each one.

Ah. Ja, det finns ju båda varianterna!

Edit: Bra edit! Det är mycket intressant! Det jag syftade på är som sagt olika instanser på olika kort, men oftast vill man väl ha den sammanlagda beräkningskraften även i professionella sammanhang!

Senast redigerat 2014-04-24 11:21

Ja prestandan kanske slår 295X men till det priset... 13k vs 30k...

Skrivet av Blackbane78:

Ja prestandan kanske slår 295X men till det priset... 13k vs 30k...

Marknadsförs inte som spelkort.

Skrivet av Wille1504:

Enligt mig så skulle de inte lansera det nu om de inte tar över rollen som "Världens snabbaste grafikkort".
Om det inte var bättre än 295X2 skulle de hålla på lanseringen tills de kan ta tronen

Skrivet av fermia:

Är väl 2 st Titan black och eftersom Titan Black spöar ett 290x så tror jag detta kommer ta över som snabbaste onödigaste grafikkort

Skrivet av induce:

Fast är inte Titan Z baserat på Titan Black snarare än vanliga Titan? Annars hade det väl haft 5376 CUDA-kärnor och inte 5760. Så borde väl finnas potential trots allt.

På den slide som Nvidia använde när de visade upp kortet första gången stod det 8 TFLOPS. Räknar man bakvägen ger det en frekvens på runt 700 MHz. Det antagligen inte till för att slå ett 295X2 för det är en rätt kraftig sänkning av frekvenserna. Hade de haft full klockfrekvens som Titan Black hade kortet fått en teoretisk prestanda på strax över 10 TFLOPS. Nvidia hade inte missat chansen att skryta med över 10 TFLOPS om de hade kunnat.

Problemet är kylning. Hade de kört fulla klockfrekvenser hade de landat på 400-500 W för hela kortet och det är lite för mycket för att det ska gå att kyla på ett vettigt sätt med bara luft. Det finns en anledning att AMD var tvungna att ta till sluten vattenkylning för att hålla uppe frekvenserna. Det går helt enkelt inte att kyla bort så mycket värme på ett vettigt sätt. Nvidia riktar dessutom in sig mot workstations som har ännu högre krav på strömförbrukning och kylning. De brukar helt enkelt inte vara designade för att driva så kraftiga kort och de brukar inte ha chassin fulla av fläktar för att kyla så kraftiga kort.

Om Nvidia eller någon annan tillverkar ett Titan Z EPE (E-Penis Edition) med sluten vattenkylare blir det högst troligt snabbare än 295X2. Men som det ser ut nu finns det inget som tyder på att Titan Z kommer vara snabbare än 295X2.

Skrivet av tvelander:

Marknadsförs inte som spelkort.

Jo det gör det ju visst. De fokuserade i princip ENBART på spel i presentationen.

Skrivet av tvelander:

Kan bara använda 6GB

Per GPU ja. Om man skriver en applikation är jag rätt säker på att man får hantera det som två GPU devices, och därigenom kunna utnyttja 2x6GB. För applikationer som rendering där hela scenen måste vara i minnet samtidigt går det naturligtvis bara att använda 6GB effektivt. Men för exempelvis en fluid-simulering kan man separera domänen och lägga halva i vardera kort och därmed använda 12GB.

Men för att förtydliga, det går alltså inte att "automagiskt" använda alla 12GB för beräkningar, om inte programmet är speciellt skrivet för att hantera multi-GPU lösningar, samt att problemet måste vara uppdelbart (dvs rendering och spel går bort).

Edit: Tekniskt sett skulle det GÅ att skriva en renderingsmotor som använder alla 12GB, där hälften av scenen läggs på vardera GPU. Dock skulle båda GPU'erna då behöva kommunicera väldigt mycket med varandra vilket skulle göra det sjukt långsamt, vilket gör att hela poängen med GPU rendering försvinner.

Senast redigerat 2014-04-24 11:50
Skrivet av tvelander:

Marknadsförs inte som spelkort.

Citat:

ULTIMATE POWER

Two GPUs, One Insane Graphics Card: Introducing the GeForce GTX TITAN Z.

GeForce GTX TITAN Z is a gaming monster, built to power the most extreme gaming rigs on the planet. With a massive 5760 cores and 12 GB of 7 Gbps GDDR5 memory, TITAN Z gives you truly amazing performance—easily making it the fastest graphics card we’ve ever made.

This is a serious card built for serious gamers. TITAN Z is designed with the highest-grade components to deliver the best experience – incredible speed and cool, quiet performance—all in a stunningly crafted aluminum case.

If you’re looking for the ultimate in gaming power, GeForce GTX TITAN Z is your card. Arriving April.

http://www.geforce.com/whats-new/articles/announcing-the-gefo...

Det sägs att Titan Z ska vara mer inriktad mot GPGPU men Nvidia själva skriver bara om spelprestanda. De snackade lite om GPGPU innan de presenterade kortet på konferensen men på hemsidan står det bara spel. Så utåt är det ett spelkort. Sen kanske det marknadsförs på ett annat sätt mot kunder som frågar men de har själva inte sagt så mycket om generella beräkningar.

Skrivet av tvelander:

Marknadsförs inte som spelkort.

Det var precis vad de marknadsförde det för vad jag har sett. Detta är den första artikel som jag har sett där det inte är till för spelande.

Verkar som de gjort en helvändning och ångrat sig, nu har kortet ett annat användningsområde.

Fånigt kort men vissa kommer ju köpa det ändå bara för att de kan.