Geforce GTX 660 Ti: Specifikationer och lanseringsdatum

Permalänk
Medlem
Skrivet av shauni:

nvidia hade problem med yields utöver tilldelningen av wafers. Även fast de hade högre prioritet av tsmc så var bristen mycket värre hos kepler. De pushade upp 680 till orealistiska klockcyklar som de inte kunde producera alls för att med minsta marginal ta tronen. Och några månader senare göra 670 och 660 ti av alla rester.

ok. Men hade du läst vidare i tråden så ser du att jag redan har "fattat" detta.

Skrivet av shauni:

Du sitter och säger att detta är exakt så som nvidia vill ha det och att de bara tar det lugnt för amd suger eller nåt.

Ja nästan, Nvidia behöver ju inte att ta fram något nytt kort när dom redan har ett så effektift. Sen kan jag inte tala helt för vad Nvidia tänker, För det vet jag inte. Dock så är detta en bra position för företag att sitta i.

Skrivet av shauni:

Tror du på dig själv eller? Big kepler är enterprise-kort med ännu lägre yields. Du tror de kan bara sitta och sälja dom till privatpersoner när de inte ens får ut ett av hundra vanliga keplers? Du har ingen aning om hur tillverkningsteknik fungerar. Att designa ett monsterkort är inte detsamma som att tillverka det.

Där också. Om du hade läst tråden så hade du redan svar på frågan.

Permalänk
Avstängd
Skrivet av MrMuppet:

Om du nu tycker att "om någon månad" i detta sammanhang är 2-4 månader, kan man ju fråga sig vad du tycker att "om några månader" eller "om något kvartal" skulle vara? 2-4 kvartal? Om något år = 2-4 år? Dessutom betyder normalt sett "någon gång mot slutet av året, kanske rent av början på nästa år" (som du skrev i ditt förra inlägg) december, januari eller möjligen ännu senare, och det skulle vara 5-6 månader eller mer. Så "om något kvartal" = 5-6 kvartal = ~1,5 år?

Om "någon månad" är singular och betyder därför rimligen omkring en månad (kanske 0,5 - 1,5). Menar man flera månader använder man plural och säger också "om några månader". Om du verkligen menade 2-4 månader skulle "om några månader" eller "om något kvartal" fungerat. Men nu menade du inte ens 2-4 månader, utan 5-6 (omkring ett halvår eller ett par kvartal).

"någon månad" < "ett par månader" < "några månader" ~ "något kvartal", osv.

Förtydliga? Raden var tydlig, men saknade källa. Tydligen menade du faktiskt inte vad du skrev (språkförbistring?), så ett ifrågasättande var i allra högsta grad på sin plats.

Nu avbryter vi offtopic snacket. Det är bara petitesser.

Visa signatur

R7 3700X | X570 Aorus Master | 32GB | EVGA 1080 Ti FTW3 | Noctua NH-D15S | FD Meshify C Copper
R7 1700 | X370 Gaming-ITX | 16GB | RX Vega 64 LE | Noctua U12S | Node 304
2 x HPE ProLiant Microserver Gen 8 | 1265L V2 | 16GB | 20TB

Permalänk
Medlem
Skrivet av Superlight:

Varför skulle man sänka priset till 2000? Det är GTX 660 (utan Ti) som ska prissättas där.

Precis!

Skrivet av bjonss13:

Alltså hade du fel AMD har just nu tronen med singelgpu men ledningen är hårfin :/

GHz Edition räknas inte eftersom det bara är en överklockning vilket tidigare nyheter bevisar.

fel
Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Inaktiv
Skrivet av Orici:

Skitsnack! nVIDIA konkurrera i nästan alla segment.

Fast håller vi inte egentligen med varandra här? Det som fattas för att konkurrera för Nvidia i alla segment är ju (minst) ett färskt mellansegments kort i GTX 600-serien? I dagsläget är det ju gamla GTX 500-serien (GTX 560, 570) som får den uppgiften?

Permalänk
Medlem
Skrivet av anders190:

Nuvarande serie är HD7000 med högsta modell HD7970. Denna serie kommer ersättas med HD8000-serien någon gång mot slutet av året, kanske rent av början på nästa år. Första kortet att lanseras lär förmodligen bli HD8970, om de inte även väljer att lansera HD8950 samtidigt.

Såvida Nvidia inte tänker göra som med GTX 400-serien och ersätta denna med en 500-serie efter ett halvår så lär det vara HD8970 Nvidias GTX 780 kommer möta. Hur den ser ut designmässigt som prestandamässigt vet vi ju i dagsläget heller inget om. Med tanke på att HD7970 kommer vara runt ett år eller mer när Nvidia kanske får ut GK110 så är det ju rätt självklart att denna lär vara snabbare.

AMD svarade med HD7970 på Nvidias nu gamla GTX 580. Det var det nyaste som fanns ute vid lanseringen från Nvidias sida, förutom möjligen GTX 590. Det nya kortet lär nog kunna matcha ett GTX 110 (eller iallafall försöka) då HD7970 redan är i nivå med GTX 680.

Jag hoppas du inser att spel med flerskärmslösningar fortfarande är en extremt nischad bransch. Vad som istället är mycket vanligare är att koppla in flera skärmar för användning i annat än spel. Nu klarar förvisso DP 1.2 av daisy chaining och länka ihop flera skärmar med en kabel men nu går det dock trögt bland skärmtillverkarna att få ut detta. AMD har använt detta på deras grafikkort ett bra tag nu. Jag kan hålla med om att man förmodligen bör köra minst två kort vid flerskärmsspelande, då på tunga titlar som BF3, men oftast klarar man sig väldigt bra med endast ett kort.
Jag kör utan större problem det mesta i 6048x1200 med allt från mellanhöga till höga inställningar med mitt HD6970. Med de HD7900-kort jag provat gick det ännu bättre även om just BF3 såklart gick väldigt trögt. SLI och CF är även här inte en självklarhet om man kan acceptera andra lägen än reglagen på max. Samt att man slipper alla problem dessa tekniker lider av vilket är viktigt för mig.

Räknat GTX 560 kort på sistonde? Gör det och du bör inse varför (vanliga) konsumenter ogillar dessa. Det är inte solklart hur dessa förhåller sig till varandra.

Nish javisst då jag aldrig påstått annat men den kommer mer och mer när storleken stannat av i utveckling och det är upplösningen som blir mer och mer viktigt även om det kommer förbli vanligare med snorbilliga 3x24"TN än 3x30" IPS.
Som jag sa dom som vill köra flera DP per kort får betala för det då dom dels har råd med det och dels det är enda vettiga lösningen i dagsläget och då det blir både billigare än motsatsen med adaptrar för runt 1000kr/st och tillgodser långt flera än tvärt om utan adaptrar. När skärmar med DVI skrotats ut om ca 10 år eller så kan man fundera på att ta bort DVI, men så länge dom säljs, tillhör toppskicktet i klassen och brukas finns inget skäl att ta bort det då det finns lösningar för dom som vill ha flera av andra typer av anslutningar och inget hindar dom från multikorts lösningar även om dom inte behöver det då kostnaden i el inte blir särskillt mycket högre att det blir negativt i slutändan mot vad det ger.
Bästa är ju om man gratis till varje kort skickar med nån billig DVI till DP adapter likt man nu gör med DVI till VGA och ta bort DVI til VGA adaptern.

Hurvid man använder GK110 mot HD8xx0 eller ej återstår att se men har inga större förhoppningar om att se det innan våren/tidig sommar och som jag sa ser jag hellre en bra produkt än förhastad och då nvidia har fördelen av prestandan på senaste rundorna har man råd att vänta då folk kommer byta till deras ändå när historien upprepar sig för det kommer den att göra liksom våren kommer varje år.
Att det skiljer "lite" mellan diverse 560 är ju inget konstigt men som alltid är det upp till köparen att göra sitt jobb och undersöka vad som är vad, inte gråta och gnälla över sina felköp baserat på häftig kylare, färgscheman man ändå inte ser eller löjliga namn som FTW, Ultra hej kom och hjälp mig, mfl istället för prestandan och även kollat om plånboken accepterar detta. Har inget övers till dom som gnäller över för många olika kort med prestandan ej självklar i familjen då det bara tyder på lathet från dom och att dom inte gör sitt jobb och undersöker innan köp vilket är allas skyldighet.
Är snart värre på 680 sidan med Signature, Signature+, FTW fjoll osv med löjligt många modeller när det räcker med i princip 2 st, 2GB och 4GB och som bonus ev. ett med förmonterat kylblock av högsta kvalitet.

Permalänk
Medlem

Förstår inte riktigt det här med att "Nvidia inte är konkurrenskraftiga i mellansegmentet" - de är de ju faktiskt (GTX 560 Ti, 448 Core,GTX 570).
Javisst, det är en generation gammalt, men prestandan är fortfarande där, och korten säljer fortfarande.
För dem där watt/prestanda spelar stor roll så är ju vinnaren 7000-serien, men för dem som bara är ute efter rå prestanda är ju Nvidias 500-serie fortfarande ett lockande val.

Det kan mycket väl vara så att Nvidia helt enkelt struntar i den marknaden med sin nuvarande generation (verkar ju nästan så) och helt enkelt låter prestandan bestämma priset på deras 600-kort.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Medlem
Skrivet av anders190:

Fast håller vi inte egentligen med varandra här? Det som fattas för att konkurrera för Nvidia i alla segment är ju (minst) ett färskt mellansegments kort i GTX 600-serien? I dagsläget är det ju gamla GTX 500-serien (GTX 560, 570) som får den uppgiften?

Läste fel

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Medlem
Skrivet av Minsc S2:

Förstår inte riktigt det här med att "Nvidia inte är konkurrenskraftiga i mellansegmentet" - de är de ju faktiskt (GTX 560 Ti, 448 Core,GTX 570).
Javisst, det är en generation gammalt, men prestandan är fortfarande där, och korten säljer fortfarande.
För dem där watt/prestanda spelar stor roll så är ju vinnaren 7000-serien, men för dem som bara är ute efter rå prestanda är ju Nvidias 500-serie fortfarande ett lockande val.

Det kan mycket väl vara så att Nvidia helt enkelt struntar i den marknaden med sin nuvarande generation (verkar ju nästan så) och helt enkelt låter prestandan bestämma priset på deras 600-kort.

Gtx 560-korten har väl oftast bara 1GB minne vilket känns lite snålt i dagens läge.

Visa signatur

Det var enklare förr att skilja Asus moderkort åt:
Asus A7V -> Asus P5Q Pro -> Asus M4A88TD-V EVO/USB3

Permalänk
Medlem
Skrivet av Blow:

Om du kollar igen ser du att det inte finns för 2000kr. Ingen av de butikerna som är listade till det priset har det.
2600kr har cdon det för.
http://cdon.se/hemelektronik/asus_hd7950_3gb_direct_cu_ii-178...

Jävlar vad billigt, 7950 är i princip 7970, löjligt att få ett sånt med en av de bästa kylarna för 2.6k, måste vara det bästa erbjudandet på marknaden just nu!

Permalänk
Medlem
Skrivet av Crakso:

Jävlar vad billigt, 7950 är i princip 7970, löjligt att få ett sånt med en av de bästa kylarna för 2.6k, måste vara det bästa erbjudandet på marknaden just nu!

Du kan få antingen ett GTX 670 Windforce eller ett HD 7970 Dual-X för ~3050 kr också (använd koden "SWECJULI").

Gigabyte GeForce GTX 670 OC 2GB DDR5 2xDVI HDMI DisplayPort PCIe - 3051 kr

Sapphire HD7970 3GB PCI-E DDR5, Full retail - 3055 kr

Permalänk

660 ti borde i min mening ersätta 560ti.

Byggde 3 datorer för mer än ett år sen och då köpte jag in 2 st asus 560ti DC2 båda för under 2000kr och ett 6950 DC2 för liknande pris.

Vid lanseringen tycker sweclockers att "560ti top"s riktpris 1900kr är ett högt pris!

Något ÄR fel hos nvidia.

Visa signatur

5800X, Asus dual 4070, 32GB, Fractal newton R2 650 watt, Asus Prime B350-plus , Phanteks 400s vit, Asus TUF VG27AQ1A, Dell U2515H.
https://www.flickr.com/photos/albinivik/

Permalänk

Ursäkta men måste bara påpeka att TI inte är ett prefix utan ett suffix.

Permalänk
Medlem
Skrivet av Zotamedu:

Än har de ju bara lyckats prestera GK104 med minimala variationer och GK117.

Det är något som också slår mig, Kepler är i princip bara GK104 hittills för desktop. Förra serien så började de med GF110 och sen GF114 ett par månader efter och GF116 ytterligare ett par månader senare. GTX 660 Ti verkar vara en kompromiss för att få ut något innan de kommer med en mindre krets (GK106?).

Permalänk
Inaktiv
Skrivet av Gamers:

Nish javisst då jag aldrig påstått annat men den kommer mer och mer när storleken stannat av i utveckling och det är upplösningen som blir mer och mer viktigt även om det kommer förbli vanligare med snorbilliga 3x24"TN än 3x30" IPS.
Som jag sa dom som vill köra flera DP per kort får betala för det då dom dels har råd med det och dels det är enda vettiga lösningen i dagsläget och då det blir både billigare än motsatsen med adaptrar för runt 1000kr/st och tillgodser långt flera än tvärt om utan adaptrar. När skärmar med DVI skrotats ut om ca 10 år eller så kan man fundera på att ta bort DVI, men så länge dom säljs, tillhör toppskicktet i klassen och brukas finns inget skäl att ta bort det då det finns lösningar för dom som vill ha flera av andra typer av anslutningar och inget hindar dom från multikorts lösningar även om dom inte behöver det då kostnaden i el inte blir särskillt mycket högre att det blir negativt i slutändan mot vad det ger.
Bästa är ju om man gratis till varje kort skickar med nån billig DVI till DP adapter likt man nu gör med DVI till VGA och ta bort DVI til VGA adaptern.

Hurvid man använder GK110 mot HD8xx0 eller ej återstår att se men har inga större förhoppningar om att se det innan våren/tidig sommar och som jag sa ser jag hellre en bra produkt än förhastad och då nvidia har fördelen av prestandan på senaste rundorna har man råd att vänta då folk kommer byta till deras ändå när historien upprepar sig för det kommer den att göra liksom våren kommer varje år.
Att det skiljer "lite" mellan diverse 560 är ju inget konstigt men som alltid är det upp till köparen att göra sitt jobb och undersöka vad som är vad, inte gråta och gnälla över sina felköp baserat på häftig kylare, färgscheman man ändå inte ser eller löjliga namn som FTW, Ultra hej kom och hjälp mig, mfl istället för prestandan och även kollat om plånboken accepterar detta. Har inget övers till dom som gnäller över för många olika kort med prestandan ej självklar i familjen då det bara tyder på lathet från dom och att dom inte gör sitt jobb och undersöker innan köp vilket är allas skyldighet.
Är snart värre på 680 sidan med Signature, Signature+, FTW fjoll osv med löjligt många modeller när det räcker med i princip 2 st, 2GB och 4GB och som bonus ev. ett med förmonterat kylblock av högsta kvalitet.

Finns ingen anledning att använda gamla standarder på nya produkter när något nyare kommit som dessutom klarar av nya features (och dessutom är bakåtkompatibel). DVI lär förmodligen bli kvar ett bra tag till men med tiden ersättas av HDMI men också DP. Aktiva adaptrar finns och de är rätt billiga för upplösningar upp till 1920x1080/1200 iallafall. 2560x1440/1600 kräver ju dual link och där drar priserna definitivt iväg. Nu är dessa skärmar inte jättevanliga och de som säljs idag kommer med DP. Jag håller definitivt med dig om att HDMI/DVI till DP/mDP ska skickas med grafikkort med dessa anslutningar.

Jag håller överlag med dig här men det jag syftade på var att det finns från Nvidia minst fyra olika GTX 560-modeller. GTX 560 SE, GTX 560, GTX 560 Ti och GTX 560 Ti 448 Core. Och på det har vi sedan alla olika varianter som partnertillverkarna lanserar men det var inte dessa jag syftade till utan just att Nvidia lanserat (minst) fyra olika varianter av samma modell. Samma sak lär säkert hända även med GTX 660, då man redan benämner den som just "Ti".

citat
Permalänk
Medlem
Skrivet av Orici:

GHz Edition räknas inte eftersom det bara är en överklockning vilket tidigare nyheter bevisar.

Så klart det räknas. Kan de leverera kort med en högre klock från fabrik så är ju korten snabbare från fabrik.

Visa signatur

Ryzen 5600X | Asus B550-F Gaming | 32GB G.Skill Trident Z 3600mhz | Powercolor 6800 XT | Seasonic Prime TX 850W

Athlon 64, du har alltid en plats i mitt hjärta. <3

Permalänk
Entusiast
Skrivet av Orici:

GHz Edition räknas inte eftersom det bara är en överklockning vilket tidigare nyheter bevisar.

och med liknande logik har Nvidia nu, snart 7 månader efter att AMD släppte sitt första kort i nuvarande generation och fyra månader efter att de släppt 680, fortfarande bara presterat ett enda grafikkort. 670 är ju bara ett lite trasigt 680 och 690 är bara SLI. Totalt har de två olika kärnor ute, en för stationära som är uppdelad på tre kort, och en för laptopar och OEM som är uppdelad på 4 kort. Över hälften av alla kort i 600-serien är fortfarande Fermi , en del är till och med 400-serien som är nästan två år gammal.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Skrivet av Orici:

Precis!

GHz Edition räknas inte eftersom det bara är en överklockning vilket tidigare nyheter bevisar.

Haha dina inlägg är alltid en fröjd att läsa. Subjektiviteten och fanboyismen i dess puraste form

Amd har ledningen på snabbaste gpu just nu. Nvidia har det snabbaste kortet dock.

Skickades från m.sweclockers.com

Visa signatur

5800X, Asus dual 4070, 32GB, Fractal newton R2 650 watt, Asus Prime B350-plus , Phanteks 400s vit, Asus TUF VG27AQ1A, Dell U2515H.
https://www.flickr.com/photos/albinivik/

Permalänk
Medlem
Skrivet av MrMuppet:

Du kan få antingen ett GTX 670 Windforce eller ett HD 7970 Dual-X för ~3050 kr också (använd koden "SWECJULI").

Gigabyte GeForce GTX 670 OC 2GB DDR5 2xDVI HDMI DisplayPort PCIe - 3051 kr

Sapphire HD7970 3GB PCI-E DDR5, Full retail - 3055 kr

Trevligt fynd, hade tänkt vänta på gtx660 men verkar ju inte komma, kanske lika bra att slå till på en 670..
Undrar om mitt 400W nätagg räcker till, den har endast en 6+2pin PCIe - sedan köra 2molex->6pin PCIe antar jag ska fungera? Kan man underklocka??

Permalänk
Medlem
Skrivet av Johannes Bluml:

Trevligt fynd, hade tänkt vänta på gtx660 men verkar ju inte komma, kanske lika bra att slå till på en 670..
Undrar om mitt 400W nätagg räcker till, den har endast en 6+2pin PCIe - sedan köra 2molex->6pin PCIe antar jag ska fungera? Kan man underklocka??

Ditt agg kan ge 204W på 12V-linan, och GTX670 har en TDP på 170W.

Det ska räcka till m.a.o.

Permalänk
Avstängd
Skrivet av Buio:

Det är något som också slår mig, Kepler är i princip bara GK104 hittills för desktop. Förra serien så började de med GF110 och sen GF114 ett par månader efter och GF116 ytterligare ett par månader senare. GTX 660 Ti verkar vara en kompromiss för att få ut något innan de kommer med en mindre krets (GK106?).

Som någon sa på Nvidias forum innan Kepler kom, one card to rule them all.

Permalänk
Medlem

Nu finns det bilder!

Citat:

UPDATE
Expreview crew has already received a sample unit for a review. They confirm that the card similar to GTX 670 besides a 192-bit memory interface. Also this model from EVGA will use a Delta Electronics fan. Please note that EVGA models use a custom design for most of their cards and this is not a reference design of the final product. EVGA orderd 25.000 units four days ago, cards are expected to be available in two weeks.

http://videocardz.com/33942/evga-geforce-gtx-660-ti-pictured

Permalänk
Medlem

Det ser inte tyst ut och Delta är inte heller direkt kända för att göra tysta fläktar (kanske hög kvalitet/driftsäkerhet, men också högljudda/höga varvtal). Som ett GTX 670 helt enkelt, fast bara 192-bit.

Permalänk
Skrivet av AckeDman:

Det jag vill veta är strömförbrukning och tempuraturer. TDP säger inte mig så mycket då HD6950 hade lägre strömförbrukning än HD7950 men högre tempuraturer vilket i och för sig kan tyda på kvalitetsskillnad på kylaren men ändå liksom.

Källa.
Temps: http://www.sweclockers.com/recension/15131-amd-radeon-hd-7870...
Strömförbrukning: http://www.sweclockers.com/recension/15131-amd-radeon-hd-7870...

Ja, TDP säger inte så himla mycket, då faktiskt effektutveckling alltid är lägre (TDP är ju bara en angivelse för hur mycket effekt en kylare för kortet skall kunna transportera bort för att kortet säkert skall hållas inom temperaturgränserna).

Däremot är strömförbrukningen (alt. faktiskt effektförbrukning) vad som är intressant. Har ett kort lägre effektförbrukning än ett annat men samma kylare så kommer kortet med lägst effektutveckling vara det svalare kortet. Så om ett kort med lägre effektförbrukning håller högre temperatur än ett kort med högre effektförbrukning, så beror det enbart på att kylaren på kortet med lägre effektförbrukning är sämre än den på det med högre effektförbrukning.
Eftersom nästan alla kort numera inte använder sig av referenskylaren så är det strömförbrukningen på kortet som är väsentlig, den talar ju om hur pass kompetent kylaren behöver vara. Vill man ha ett svalt kort väljer man bara ett kort med en riktigt fet kylare t.ex. DCII.
Vill man ha en sval burk, väljer man ett kort med låg effektutveckling, då korten för det mesta dumpar all effekt i form av värme i chassit (det är få kylare som dumpar merparten av värmen utanför chassit).

Visa signatur

~Pelle~

Permalänk
Medlem

Vänta nu. Stop Reverse!

Vad är detta?

2 olika Gtx 660Ti? eller Gtx 660 samt 660TI

"NVIDIA GeForce GTX 660 Ti Also in 256-bit Version"

http://videocardz.com/33968/nvidia-geforce-gtx-660-ti-also-in...

Permalänk
Medlem
Skrivet av Burks:

Vänta nu. Stop Reverse!

Vad är detta?

2 olika Gtx 660Ti? eller Gtx 660 samt 660TI

"NVIDIA GeForce GTX 660 Ti Also in 256-bit Version"

http://videocardz.com/33968/nvidia-geforce-gtx-660-ti-also-in...

Men vafan?! Två stycken GTX660Ti?

Dom borde skalat av några kärnor, sänkt klocken lite, och gett fan i resten.

Permalänk
Medlem

Så, de har gjort ett 660 Ti med samma bandbredd men mindre CUDA-kärnor än ett 670, och ett annat 660 Ti med mindre bandbredd men samma CUDA-kärnor som ett 670?
Kanske ett 660 Ti 1344 Core's

Det låter för dumt för att vara sant, jag väntar tills jag får det bekräftat från en annan källa.

Visa signatur

CPU: i9-13900K + Cooler Master ML360L ARGB V2 || GPU: Gainward RTX 4090 Phantom GS.
MoBo: Asus Rog Strix Z790-F Gaming || RAM 32 GB Kingston Fury Beast CL40 DDR5 RGB 5600 MHz.
PSU: Corsair RMe 1000W 80+ Gold || Chassi: Phanteks Eclipse P500A D-RGB.
Lagring: Kingston Fury Renegade M.2 NVME 2TB + Samsung 860 QVO 1TB.
Skärmar: 27" 1440p 144 Hz IPS G-sync + 27" 1440p 155 Hz VA || OS: Win 11 Home.

Permalänk
Entusiast
Skrivet av Minsc S2:

Så, de har gjort ett 660 Ti med samma bandbredd men mindre CUDA-kärnor än ett 670, och ett annat 660 Ti med mindre bandbredd men samma CUDA-kärnor som ett 670?
Kanske ett 660 Ti 1344 Core's

Det låter för dumt för att vara sant, jag väntar tills jag får det bekräftat från en annan källa.

Det är Nvidia vi pratar om så jag skulle inte alls bli förvånad om det var sant. Kolla hur många olika 560 det fanns. De har redan börjat röra till 600-serien också med två 620, tre 630 och fyra (!) 640. Det kan skilja mycket mellan korten också. Till exempel är ett av 630 GK107 och de andra två är GT 440 med antingen GDDR eller DDR3. Nvidia borde seriöst sparka gänget som sitter och hittar på namn på korten för det här börjar bli löjligt.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Avstängd

NVIDIA behöver se om sitt namnschema igen. De retar mig också att dom blandar lite hit och dit. När GF 400 serien släpptes blev de ju kaos med namnen igen. Trodde att deras virrvarr ifrån 8800 serien vart slut, men icke. Jag har så svårt att förstå varför man väljer att låta GTX namnet finnas med i mellanklassen när man hade ett bra namn redan, nämligen GTS.

Visa signatur

Fractal Design Arc Mini. Fractal Design Newton R2 650W. Intel Core i5-2500. Intel Liquid Cooling Solution RTS2011LC. ASUS P8H77-M Pro. 8GB Samsung PC3-10600. ASUS GTX 560 Ti 448-cores DirectCU II 1280MB. 1 St Samsung 830 Series 128GB. 1 st Samsung SpinPoint F1 500GB. 1 st Samsung EcoGreen F4 2TB. Samsung SH-123. ASUS VH238T. SteelSeries Ikari Optical. SteelSeries QcK Mini. SteelSeries G6v2. SteelSeries 4H. Edifier E3300.

Permalänk
Entusiast
Skrivet av Raghor:

NVIDIA behöver se om sitt namnschema igen. De retar mig också att dom blandar lite hit och dit. När GF 400 serien släpptes blev de ju kaos med namnen igen. Trodde att deras virrvarr ifrån 8800 serien vart slut, men icke. Jag har så svårt att förstå varför man väljer att låta GTX namnet finnas med i mellanklassen när man hade ett bra namn redan, nämligen GTS.

GT, GTS och GTX är inte jättebra namn eftersom de är förvirrande när de blandas med samma siffror efteråt. Det är inte alls uppenbart vilket som är bäst och det är för lätt att förväxla dem. De två eller tre bokstäverna är helt överflödiga i namnet i dagsläget eftersom klassen enbart bestäms av siffrorna ändå. Vore bättre om de istället för att ha ett 660 Ti och ett 660 kallade dem för 660 och 665. Då är det ju uppenbart vilket som är bättre.

Visa signatur

Q9450, HD4850, 8 GB DDR2 800 MHz, 3x750 GB, Antec 300, Dell 2408WFP, U2410, Qnap TS-419p+ 4x2 TB Samsung F4, Asus UL30A-QX056V, Logitech Z-680, Sennheiser HD380pro, M-Audio FastTrack Pro, Ibanez sa160qm, Ibanez TB 15R, Zoom 505II, Ibanez GSR 200, Ibanez SW 35, Cort AC-15, Squier SD-3 BBL, Yamaha PSR 270, Røde NT1-A, Nikon D200, Nikkor 18-70/3,5-4,5, 70-300VR, 50/1,8, 28/2,8, Tamron 17-50/2,8, 90/2,8, Sigma 30/1,4, SB-800, SB-25, SB-24

Permalänk
Medlem

Varsågoda!

http://videocardz.com/33976/nvidia-geforce-gtx-660-non-ti-spe...