Geforce Titan Z i handeln innan månadsskiftet

Permalänk
Melding Plague

Geforce Titan Z i handeln innan månadsskiftet

Nvidia har siktet inställt på prestandatronen med nya Geforce GTX Titan Z, som dyker upp i slutet av månaden. Potentiellt rekordhög prestanda kombineras med en hårresande prislapp.

Läs artikeln

Visa signatur

Observera att samma trivselregler gäller i kommentarstrådarna som i övriga forumet och att brott mot dessa kan leda till avstängning. Kontakta redaktionen om du vill uppmärksamma fel i artikeln eller framföra andra synpunkter.

Permalänk
Discokungen

Vi får väl se. Allt verkar ju peka åt samma klock som Titan och då bör 295X2 prestera bättre då vanliga Titan är långsammare än 290X.

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
99:e percentilen
Citat:

Denna gång kombineras däremot två kretsar för sammanlagt 5 760 CUDA-kärnor och 12 GB GDDR5-minne, effektivt 6 GB per grafikprocessor.

Tycker det är skitbra att ni skriver vad den effektiva mängden minne är, men man kanske borde lägga till "i SLI" eller något, för visst kan man använda alla 12 GiB om man kör beräkningar eller annat utan SLI?

EDIT: Det är visst inte helt rätt: Man kan tydligen skriva program som låter varje GPU använda hela sitt minne oberoende av de andra, men man kan tydligen inte ge 12 GiB till en enda GPU, SLI eller ej, då varje chunk minne à 6 GiB är anslutet med en enda minnesbuss till en enda GPU. Det är alltså rent fysiskt omöjligt för GPU 0 att komma åt GPU 1:s minne (åtminstone med någon form av vettig bandbredd). The more you know ...

Då ändrar jag mig till att det som står i artikeln är asbra.

Visa signatur

Skrivet med hjälp av Better SweClockers

Permalänk
Medlem

Tänkte köpa en begagnad bil i bra skick ifrån 02, hittade en Jaguar för 26000... men ett nytt grafikkort kanske skulle sitta finare? *sarkasm* (ps. ska inte köpa bil heller)

Visa signatur
Permalänk
Skrivet av Flamso:

Vi får väl se. Allt verkar ju peka åt samma klock som Titan och då bör 295X2 prestera bättre då vanliga Titan är långsammare än 290X.

Enligt mig så skulle de inte lansera det nu om de inte tar över rollen som "Världens snabbaste grafikkort".
Om det inte var bättre än 295X2 skulle de hålla på lanseringen tills de kan ta tronen

Visa signatur

Microalus ı Phenom II 1090T ı GTX 680 ı 970M Pro ı Corsair HX750 ı Corsair XMS3 8GB ı TX3 Evo ı Toshiba HDD

Permalänk
Skäggig legend

De har fanemig lyckats med designen. Namnamnaaam

Visa signatur

Tråden om Skägg!
My cave...
Ryzen 5 3600@4,3Ghz - 16GB CL16 - RTX 3070 - Kingston Fury M.2 2TB
🎧Schiit Hel + DT-770 PRO - NAD C316 - B&W 685 - LG 65" OLED B6
 Watch Series 5 4G - Macbook Pro 13" 2015 - iPhone 11 PRO 256GB 

Permalänk
Discokungen
Skrivet av Wille1504:

Enligt mig så skulle de inte lansera det nu om de inte tar över rollen som "Världens snabbaste grafikkort".
Om det inte var bättre än 295X2 skulle de hålla på lanseringen tills de kan ta tronen

De utannonserade kortet innan AMD visade sitt 295X2. Så visst, de kanske har justerat lite. Kortet måste vara rätt bra konstruerat för att hålla så höga frekvenser som behövs för att slå 295X2. Som Zotamedu har påpekat innan, flopsen på de slides Nvidia visade är inte lika högt som två Titan.

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Medlem
Skrivet av Flamso:

Vi får väl se. Allt verkar ju peka åt samma klock som Titan och då bör 295X2 prestera bättre då vanliga Titan är långsammare än 290X.

Är väl 2 st Titan black och eftersom Titan Black spöar ett 290x så tror jag detta kommer ta över som snabbaste onödigaste grafikkort

Visa signatur

╔ Corsair 32GB DDR4 CL15 3000Mhz VENGEANCE RGB ■
╠ ASUS-ROG-MAXIMUS-X-HERO ■ ASUS-ROG-STRIX-RTX2070-OC ■ i7 8700K
╠ DeepCool Captain 280EX RGB ■ 2x Samsung 970 EVO 500GB■
╠ Deepcool NEW ARK 90 Electro Limited Edition NR58 ■ XFX PRO1000W Limited Black Edition
╚ Samsung SE790C 34" Ultrawide 3440x1440@75Hz

Permalänk
Inaktiv
Skrivet av Flamso:

Vi får väl se. Allt verkar ju peka åt samma klock som Titan och då bör 295X2 prestera bättre då vanliga Titan är långsammare än 290X.

Fast är inte Titan Z baserat på Titan Black snarare än vanliga Titan? Annars hade det väl haft 5376 CUDA-kärnor och inte 5760. Så borde väl finnas potential trots allt.

Permalänk
Discokungen
Skrivet av fermia:

Är väl 2 st Titan black och eftersom Titan Black spöar ett 290x så tror jag detta kommer ta över som snabbaste onödigaste grafikkort

Skrivet av anon46732:

Fast är inte Titan Z baserat på Titan Black snarare än vanliga Titan? Annars hade det väl haft 5376 CUDA-kärnor och inte 5760. Så borde väl finnas potential trots allt.

Nu ska jag överdriva lite för dramatisk effekt. Ett enkelt Titan har 4,5 Teraflops i single precision. Titan Z ska tydligen ha 8 Teraflops (se bild ovan). Detta innebär att två Titan BÖR vara snabbare. Självklart kan det ändras innan släppet.

Vi får helt enkelt se. Nvidia brukar vara glada i att räkna sina Teraflops så det känns lite konstigt.

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Avstängd

Gäsp, ge mig Maxwell istället.

Visa signatur

Nya funktioner i “Anniversary Update” för Windows 10 som släpps till sommaren:
http://www.howtogeek.com/248177/whats-new-in-windows-10s-anni...

Permalänk
Medlem

Sen kommer Titan XY och efter det Titan black XY. Så sjukt bra affärsidé att klocka ett par mhz, ge den ett nytt namn och återgå till lanseringspriset (minst)

Permalänk
Medlem

Oj vad det går undan med grafikutvecklingen. Hoppas verkligen på ett Grafikkort som klarar av att leverera 60fps i 3840x2160 nästa år!

Visa signatur

Ryzen 1800x, Sapphire nitro+ radeon rx vega 64, LG 24" 3840x2160@60 Freesync

Permalänk
Medlem

Ifall någon vill upplysa en yngre läsare, är det dom första rena k*kförlängarekorten eller har det släppts sånt här förut?

Visa signatur

Dator: i7 6700K @ 4.2 GHz, RTX 2070 SUPER | Rog SWIFT PQ279Q
Laptop: MacBook Pro Retina 13,3 inch, 2015.
Konsol: Playstation 4

Permalänk
Medlem
Skrivet av RaxXeZ:

Ifall någon vill upplysa en yngre läsare, är det dom första rena k*kförlängarekorten eller har det släppts sånt här förut?

Inte så mycket Kukförlängning som P12-mjölkning.. Dvs, målgruppen är folk med äckligt rika föräldrar.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem
Skrivet av RaxXeZ:

Ifall någon vill upplysa en yngre läsare, är det dom första rena k*kförlängarekorten eller har det släppts sånt här förut?

Samtliga Asus ROG specialkort ur Mars och Ares serien? Men inte ens de har varit i denna prisklassen. Dock har Nvidia sålt Quadro lösningar för tre dubbla priset innan, dock menade till 3D rendering och film industrin.

Visa signatur
Permalänk
Master of Overkill
Skrivet av HurMycket:

Tycker det är skitbra att ni skriver vad den effektiva mängden minne är, men man kanske borde lägga till "i SLI" eller något, för visst kan man använda alla 12 GiB om man kör beräkningar eller annat utan SLI?

Kan bara använda 6GB

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Discokungen
Skrivet av tvelander:

Kan bara använda 6GB

Per kort i så fall. Fast det beror väl på om beräkningarna man kör använder alla GPUer samtidigt eller om det köra en instans per GPU.

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Master of Overkill
Skrivet av RaxXeZ:

Ifall någon vill upplysa en yngre läsare, är det dom första rena k*kförlängarekorten eller har det släppts sånt här förut?

"Grafikkortet är huvudsakligen avsett för CUDA-utvecklare och kommer med en häftig prislapp: 2 999 dollar eller närmare 30 000 kronor inklusive moms."

Så där av priset.

Säljs ju Quadro i höga priser.

Står GeForce då helt plötsligt helt barockt.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Medlem

På vilket sätt gör "dynamiska klockfrekvenser" att kortet blir svalt och tystare? Det är ju bara i idle som det stämmer. Så fort man börjar spela och belasta kortet fullt så kommer det låta som en dammsugare.

Permalänk
Master of Overkill
Skrivet av Flamso:

Per kort i så fall. Fast det beror väl på om beräkningarna man kör använder alla GPUer samtidigt eller om det köra en instans per GPU.

MintViz: Graphics cards that have dual GPU and memory are seen as two separate GPU’s and the entire scene must fit onto each one.

"Yup, it would be cool if the GTX 690 could use its 4GB RAM as a full 4GB card instead of a 2GB one, duplicated. Unfortunately, it's not the case and I'd like to give a slightly alternative explanation for this.

The root problem is that the GPUs aren't designed to gang together directly into one "super GPU". If they did, they'd have a wide, full bandwidth interface to directly connect to each other and would be physically sitting next to each other on the circuit board. In such a scenario, they would become one large GPU with literally double the rendering power and be able to use the full amount of RAM, rather than halving it like we see now. Benchmarks would then show a full 2x improvement in rendering speed under all situations (CPU bottlenecks not withstanding).

I'm sure that AMD and NVIDIA have built prototypes of something like this, but for some reason haven't made them commercially. Not sure why really, as dual GPUs would then work awesomely well, offering doubled rendering power without any of the inherent drawbacks of current designs.

Of course, GPUs physically sitting in different cards have no chance of doing this and maybe that's why they haven't done this.
"

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Discokungen
Skrivet av tvelander:

MintViz: Graphics cards that have dual GPU and memory are seen as two separate GPU’s and the entire scene must fit onto each one.

Ah. Ja, det finns ju båda varianterna!

Edit: Bra edit! Det är mycket intressant! Det jag syftade på är som sagt olika instanser på olika kort, men oftast vill man väl ha den sammanlagda beräkningskraften även i professionella sammanhang!

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk

Ja prestandan kanske slår 295X men till det priset... 13k vs 30k...

Visa signatur

Moderkort: Maximus Gene Z87 Processor: i7-4770K@4,3 Volt=1,245V, Kylning: Custom Vatten Minne: 32Gb Corsair Venegance Pro 1866Mhz Grafik:MSI Seahawk 1080 EKWB Hårddiskar:Samsung SSD 850 EVO 500GBx2 + 3TB NAS Nätagg: Corsair AX850 Chassi: Corsair Obsidian 350D Skärm: Asus 27" ROG Swift Rigg2 TJ08 ASUS Maximus IV Z68 Gene-Z i5-2500K@4.5 H60 8GbLP ASUS GTX 970 STRIX (250GB+120GB)SSD+1Tb Corsair Cx500M

Permalänk
Master of Overkill
Skrivet av Blackbane78:

Ja prestandan kanske slår 295X men till det priset... 13k vs 30k...

Marknadsförs inte som spelkort.

Visa signatur

CASE Caselabs SMA8-A + TH10+PED + Louqe Ghost S1 CPU 9900k @5.3GHz (No AVX) 9800X @4.8GHz GPUs RTX 3090 FE RAM 4x16GB Corsair Dominator Platinum 3533MHz CL13 + 2x16GB Corsair Dominator Platinum RGB 3000MHz PSU EVGA T2 1600W + Corsair SFF 750W SSD 905p 480GB, 4x Samsung 970 Pro M.2 Headphones Audeze Maxwell + FOSTEX TR-X00 + Audeze LCD-2 + Moon Cable DAC/AMP Chord Mojo, Schiit Magni&Modi Screen LG 48CX 4K 120Hz HDR + ASUS ROG SWIFT PG258Q 240Hz
Motherboard X299 EVGA DARK + ASUS ROG Strix Z390-I Watercooling 560+480+480+280+360. 240+240

Permalänk
Entusiast
Skrivet av Wille1504:

Enligt mig så skulle de inte lansera det nu om de inte tar över rollen som "Världens snabbaste grafikkort".
Om det inte var bättre än 295X2 skulle de hålla på lanseringen tills de kan ta tronen

Skrivet av fermia:

Är väl 2 st Titan black och eftersom Titan Black spöar ett 290x så tror jag detta kommer ta över som snabbaste onödigaste grafikkort

Skrivet av anon46732:

Fast är inte Titan Z baserat på Titan Black snarare än vanliga Titan? Annars hade det väl haft 5376 CUDA-kärnor och inte 5760. Så borde väl finnas potential trots allt.

På den slide som Nvidia använde när de visade upp kortet första gången stod det 8 TFLOPS. Räknar man bakvägen ger det en frekvens på runt 700 MHz. Det antagligen inte till för att slå ett 295X2 för det är en rätt kraftig sänkning av frekvenserna. Hade de haft full klockfrekvens som Titan Black hade kortet fått en teoretisk prestanda på strax över 10 TFLOPS. Nvidia hade inte missat chansen att skryta med över 10 TFLOPS om de hade kunnat.

Problemet är kylning. Hade de kört fulla klockfrekvenser hade de landat på 400-500 W för hela kortet och det är lite för mycket för att det ska gå att kyla på ett vettigt sätt med bara luft. Det finns en anledning att AMD var tvungna att ta till sluten vattenkylning för att hålla uppe frekvenserna. Det går helt enkelt inte att kyla bort så mycket värme på ett vettigt sätt. Nvidia riktar dessutom in sig mot workstations som har ännu högre krav på strömförbrukning och kylning. De brukar helt enkelt inte vara designade för att driva så kraftiga kort och de brukar inte ha chassin fulla av fläktar för att kyla så kraftiga kort.

Om Nvidia eller någon annan tillverkar ett Titan Z EPE (E-Penis Edition) med sluten vattenkylare blir det högst troligt snabbare än 295X2. Men som det ser ut nu finns det inget som tyder på att Titan Z kommer vara snabbare än 295X2.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Discokungen
Skrivet av tvelander:

Marknadsförs inte som spelkort.

Jo det gör det ju visst. De fokuserade i princip ENBART på spel i presentationen.

Visa signatur

AMD 5800X3D - G.Skill Trident Z 3200 CL16 32GB - Asus B550 TUF - ASRock 7900 XTX Phantom - Intel 900p - CaseLabs S8 - LG 42C2 - Corsair AX1200i - Aquaero 6 - Vattenkyld

Permalänk
Medlem
Skrivet av tvelander:

Kan bara använda 6GB

Per GPU ja. Om man skriver en applikation är jag rätt säker på att man får hantera det som två GPU devices, och därigenom kunna utnyttja 2x6GB. För applikationer som rendering där hela scenen måste vara i minnet samtidigt går det naturligtvis bara att använda 6GB effektivt. Men för exempelvis en fluid-simulering kan man separera domänen och lägga halva i vardera kort och därmed använda 12GB.

Men för att förtydliga, det går alltså inte att "automagiskt" använda alla 12GB för beräkningar, om inte programmet är speciellt skrivet för att hantera multi-GPU lösningar, samt att problemet måste vara uppdelbart (dvs rendering och spel går bort).

Edit: Tekniskt sett skulle det GÅ att skriva en renderingsmotor som använder alla 12GB, där hälften av scenen läggs på vardera GPU. Dock skulle båda GPU'erna då behöva kommunicera väldigt mycket med varandra vilket skulle göra det sjukt långsamt, vilket gör att hela poängen med GPU rendering försvinner.

Permalänk
Entusiast
Skrivet av tvelander:

Marknadsförs inte som spelkort.

Citat:

ULTIMATE POWER

Two GPUs, One Insane Graphics Card: Introducing the GeForce GTX TITAN Z.

GeForce GTX TITAN Z is a gaming monster, built to power the most extreme gaming rigs on the planet. With a massive 5760 cores and 12 GB of 7 Gbps GDDR5 memory, TITAN Z gives you truly amazing performance—easily making it the fastest graphics card we’ve ever made.

This is a serious card built for serious gamers. TITAN Z is designed with the highest-grade components to deliver the best experience – incredible speed and cool, quiet performance—all in a stunningly crafted aluminum case.

If you’re looking for the ultimate in gaming power, GeForce GTX TITAN Z is your card. Arriving April.

http://www.geforce.com/whats-new/articles/announcing-the-gefo...

Det sägs att Titan Z ska vara mer inriktad mot GPGPU men Nvidia själva skriver bara om spelprestanda. De snackade lite om GPGPU innan de presenterade kortet på konferensen men på hemsidan står det bara spel. Så utåt är det ett spelkort. Sen kanske det marknadsförs på ett annat sätt mot kunder som frågar men de har själva inte sagt så mycket om generella beräkningar.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av tvelander:

Marknadsförs inte som spelkort.

Det var precis vad de marknadsförde det för vad jag har sett. Detta är den första artikel som jag har sett där det inte är till för spelande.

Verkar som de gjort en helvändning och ångrat sig, nu har kortet ett annat användningsområde.

Visa signatur

| Intel i5-4670k @ 4.6Ghz | Noctua NH-U12P SE2 | Asus GTX 980 | ASUS Z-87 A| Några SSD | Corsair TX V2 750W PSU | 12GB DDR3 Ram|

Permalänk
Medlem

Fånigt kort men vissa kommer ju köpa det ändå bara för att de kan.

Visa signatur

Stationär: AMD Ryzen 7 7800X3D | ASUS ROG Strix B650E-F Gaming WIFI | G.Skill 32GB DDR5 6000MHz CL30 Trident Z5 Neo RGB | Gigabyte 4090 Gaming OC | BeQuiet! Dark Rock 4 Pro | Samsung 980 Pro 1TB M.2 & Intel 660P 1TB M.2 | Corsair RM850x v2 White Series | Phanteks P500A D-RGB | Acer X34GS | Corsair Strafe RGB MX Silent | Razer Deathadder v.2 | Logitech PRO X 7.1
Laptop: AMD Ryzen 7 6800HS | 16GB 4800MHz DDR5 | RTX 3060 140W | 15,6" 144Hz FHD IPS 16:9