Nvidia: CUDA och PhysX viktigare än DirectX 11

Permalänk
Citat:

Ursprungligen inskrivet av Essin
(ok, mirrors edge blir bättre av det, men sen är det inget mer)..

Jag förslår att du tittar på Batman Arkham Asylum och Cryostasis.

http://www.youtube.com/watch?v=vINH6Z9kqgI

http://www.youtube.com/watch?v=g_11T0jficE

Jag har testat Mirrors edge, Batman Arkham Asylum och Cryostasis med PhysX och inte ända gång fick jag problem i någon av spelen.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Citat:

Ursprungligen inskrivet av shagy
Varför skulle det vara slösande med resurser att tillåta ett populärt OS att göra tekniska beräkningar ? Bara för att det kan spela upp film och köra häftiga spel också ?

Haha, du resonerar kul. Om jag vänder på det. Tror du att det är intressant om man kan köra spel eller spela upp film på en beräkningsnod som går dygnet runt med tekniska beräkningar?

Med resursslöseri menar jag att Linux är den bästa plattformen för tekniska beräkningar eftersom det innebär snabbare lösningstider. Det har visats i benchmarks efter benchmarks och att ta en titt på top500 listan är ju också ganska övertygande. Att välja något annat är därmed slöseri med resurser. Så att satsa på att kunna köra beräkningar på grafikkortet även om man inte använder DirectX är värdefullare än du kan ana eftersom DirectX är Windows only.

Permalänk
Medlem

Men Dx11 Tessellation då Nvidia..va?

Permalänk
Citat:

Ursprungligen inskrivet av djchester
Haha, du resonerar kul. Om jag vänder på det. Tror du att det är intressant om man kan köra spel eller spela upp film på en beräkningsnod som går dygnet runt med tekniska beräkningar?

Med resursslöseri menar jag att Linux är den bästa plattformen för tekniska beräkningar eftersom det innebär snabbare lösningstider. Det har visats i benchmarks efter benchmarks och att ta en titt på top500 listan är ju också ganska övertygande. Att välja något annat är därmed slöseri med resurser. Så att satsa på att kunna köra beräkningar på grafikkortet även om man inte använder DirectX är värdefullare än du kan ana eftersom DirectX är Windows only.

Ja, men 95%* av alla privatpersoner som köper ett nytt datorsystem behöver inte den beräkningskraften, dom sitter på windows, dom surfar, spelar spel och kanske lite poker på nätet, dom sitter inte och renderar 3D, zippar flera 100gb dagligen, eller jobbar med jättestora bilder.

*Har jag så klart ingen källa till, så den siffran kan så klart vara 98%, eller 75%, men det är en rätt bra gissning skulle jag tro.

Visa signatur

WS1: | Gigabyte X670 G AX | Ryzen 9 7950x3D | 32GB G.Skill Trident Z5 NeoRGB | Sapphire RX 7800XT Pure | Corsair RM650i | FD North XL | EK Nucleus CR360 | WS2: | Asus RoG Strix X470-F | Ryzen 7 5600x | 16gb G.skill Trident Z Neo 3600mhz | Asus RoG Strix 3070 | Lian-Li Lancool 205 | ESX Srvr1 | MSI B450-A Pro Max | Ryzen 7 3700x | 64GB Corsair Vengence | Jonsbo UMX4 | Srvr2 MacMini | ClearOS

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av djchester
Haha, du resonerar kul. Om jag vänder på det. Tror du att det är intressant om man kan köra spel eller spela upp film på en beräkningsnod som går dygnet runt med tekniska beräkningar?

Med resursslöseri menar jag att Linux är den bästa plattformen för tekniska beräkningar eftersom det innebär snabbare lösningstider. Det har visats i benchmarks efter benchmarks och att ta en titt på top500 listan är ju också ganska övertygande. Att välja något annat är därmed slöseri med resurser. Så att satsa på att kunna köra beräkningar på grafikkortet även om man inte använder DirectX är värdefullare än du kan ana eftersom DirectX är Windows only.

Om jag vänder på det, varför skall man använda ett grafikkkort till tekniska beräkningar och inte grafik.
Vore det inte bättre med något som är avsett för den saken baserat tex på en cellprocessor.

http://en.wikipedia.org/wiki/Cell_(microprocessor)

Tycker iofs att Nvidia inte är helt fel ute, det behövs något nytt för att beräkna vissa saker, men jag tycker inte att man skall belasta grafikkortet med den saken, det har alldeles för mycket att göra redan och det presterar bäst om det förblir specialicerat.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Citat:

Ursprungligen inskrivet av Ratatosk
Om jag vänder på det, varför skall man använda ett grafikkkort till tekniska beräkningar och inte grafik.
Vore det inte bättre med något som är avsett för den saken baserat tex på en cellprocessor.

http://en.wikipedia.org/wiki/Cell_(microprocessor)

Tycker iofs att Nvidia inte är helt fel ute, det behövs något nytt för att beräkna vissa saker, men jag tycker inte att man skall belasta grafikkortet med den saken, det har alldeles för mycket att göra redan och det presterar bäst om det förblir specialicerat.

Bra Ratatosk! Äntligen ett intelligent argument!

Jag kan svara genom ytterligare en motfråga: Varför ska GPUn vara ett eget instickskort och inte en core av flera specialiserade cores i en multicore CPU?

Anledningen till att man vill använda GPUn idag till vissa typer av beräkningar är att den är oerhört mycket snabbare på flyttalsoperationer än CPUn. Med det sagt vill man fortfarande ha kvar CPUn då den är suverän på andra typer av beräkningar. I det specifika fallet att man har en beräkningsnod så används heller ingen grafik så GPUn står där alldeles oanvänd idag.

Cell är absolut ett alternativ då den är väldigt kompetent på flyttaloperationer men den har en uppenbar nackdel: kostnaden. IBM PowerXCell 8i kan man ju t.ex. köpa för den uppgiften. Bygger man kostnadseffektiva HPC miljöer vill man dock kunna använda standardkomponenter och kräma ut så mkt kraft det bara går och ur den aspekten passar billiga grafikkort bra.

Permalänk
Medlem

Fysik i spel är bra grejer det... och om det finns effektivare sätt att beräkna fysiken på: go for it.

Jag förstår bara inte varför man måste säga att nånting är viktigare än det andra? Jag tror ju knappast dx blir lidande för att man satsar på PhysX.

Jag väntar bara på att OpenGL + CL ska bli mer aktuellt för spelutvecklarna. Själv har jag hobbyprogrammerat OpenGL.

http://www.brightsideofnews.com/news/2009/9/17/amd-supports-o...

Visa signatur

åhoj

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av djchester
Bra Ratatosk! Äntligen ett intelligent argument!

Jag kan svara genom ytterligare en motfråga: Varför ska GPUn vara ett eget instickskort och inte en core av flera specialiserade cores i en multicore CPU?

Anledningen till att man vill använda GPUn idag till vissa typer av beräkningar är att den är oerhört mycket snabbare på flyttalsoperationer än CPUn. Med det sagt vill man fortfarande ha kvar CPUn då den är suverän på andra typer av beräkningar. I det specifika fallet att man har en beräkningsnod så används heller ingen grafik så GPUn står där alldeles oanvänd idag.

Cell är absolut ett alternativ då den är väldigt kompetent på flyttaloperationer men den har en uppenbar nackdel: kostnaden. IBM PowerXCell 8i kan man ju t.ex. köpa för den uppgiften. Bygger man kostnadseffektiva HPC miljöer vill man dock kunna använda standardkomponenter och kräma ut så mkt kraft det bara går och ur den aspekten passar billiga grafikkort bra.

Orsaken tror jag främst är två, både CPU:n och GPU:n trivs bäst om dom slipper dela på minnet med andra och att man vill hålla ned storleken på chipet.
Tekniken kan dock vara intressant för enklare datorer.
Jag kan inte så mycket om GPU:n som beräkningsenhet, men är det inte problem med att den inte är tillräckligt generell, tex, på att använda långa flyttal?

Edit; En orsak till att lösningar med cellprocessorn är dyra är antagligen små serier, om behov av beräkningar via tex OpenCL och Compute shader blir stort kommer kanske konsumentversioner.
Så beräkningarna börjar köras på grafikkort, för att sen köras på separata kort när marknaden för sådant finns.

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Ratatosk
Om jag vänder på det, varför skall man använda ett grafikkkort till tekniska beräkningar och inte grafik.
Vore det inte bättre med något som är avsett för den saken baserat tex på en cellprocessor.

Det är för att en GPU har oerhört mycket högre prestanda än en CPU när det gäller parallella operationer och flyttals beräkningar.

I spel kommer det förstås att handla om en balans. Men då kapaciteten på GPU ökar fruktansvärt snabbt, så kommer det att finnas kraft att ta av i framtiden. Jämför hur många cores och kapacitet en CPU har haft under ett antal år med en GPU med under samma tid.

När det gäller fysik/AI och annat på GPU så kommer vi att få se en revolution först när dessa GPGPU hamnar i konsoller. Nästa generation konsoller kommer att ha mer avancerade GPU än RV870/G300, och öppna standarder för att programmera dem, vilket gör att vi kan få spel som från grunden byggts att använda GPU för både grafik och allt annat som den är lämpad för. Det är först då vi kan få se vad speltillverkarna kan göra med detta.

Citat:

Ursprungligen inskrivet av Ratatosk
Jag kan inte så mycket om GPU:n som beräkningsenhet, men är det inte problem med att den inte är tillräckligt generell, tex, på att använda långa flyttal?

Det stämmer nog, men de blir bättre på det framöver. ATI har varit bättre än NVidia, men tror båda jobbar på det för att det är viktigt för GPGPU.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Buio
DX11 kommer bli en faktor, det verkar som Windows 7 blir populärt och därmed en betydligt större bas spelare som har det än DX10.

- Har man DX11 så har man ju definitionsmässigt även DX10, eftersom det råder full bakåtkompatibilitet.
- Med mjukvaran DX11 installerad på datorn tillsammans med de senaste grafikdrivrutinerna så skall det gå att använda även äldre grafikkort. Klientdelen av Direct X emulerar bara ner instruktionerna till den nivå som stöds av hårdvaran. Begränsningarna i hårdvaran gör bara att det eventuellt går långsammare och inte blir lika "vackert". Den som har ett hyfsat snabbt grafikkort (typ nVidias GTX200-serie) kommer knappt att få någon märkbar visuell försämring gentemot ett Radeon HD 54xx (instegsmodellerna med hårdvarustöd för DX11), och samtidigt ha snabbare grafik.

Citat:

Ursprungligen inskrivet av pekkasteele
DX11 kommer ju klara sig bättre än DX10 pga några orsaker. För det första så kommer det att komma även till Vista, alltså till ett gammalt OS, man kommer alltså att kunna dra nytta av det även om man inte vill köpa nytt OS. Och det, skall enligt tester göra spel snabbare än föregångaren, ...

Det första argumentet tror jag helt på. Om ett år kommer majoriteten av den intressanta målgruppen att använda Vista eller Win7 och därmed ha tillgång till mjukvaran DX11, medan en majoritet i dag bara har mjukvarustöd upp till DX9c (och ett outnyttjat hårdvarustöd för DX10).

Att DX11 är snabbare tar jag med en nypa salt, men man kan ju alltid försöka göra ett jämförande test på ett äldre grafikkort, typ GF4, och se vilken version som emuleras bäst...

/Olle

Permalänk
Hjälpsam
Citat:

Ursprungligen inskrivet av Buio
Det är för att en GPU har oerhört mycket högre prestanda än en CPU när det gäller parallella operationer och flyttals beräkningar.

I spel kommer det förstås att handla om en balans. Men då kapaciteten på GPU ökar fruktansvärt snabbt, så kommer det att finnas kraft att ta av i framtiden. Jämför hur många cores och kapacitet en CPU har haft under ett antal år med en GPU med under samma tid.

När det gäller fysik/AI och annat på GPU så kommer vi att få se en revolution först när dessa GPGPU hamnar i konsoller. Nästa generation konsoller kommer att ha mer avancerade GPU än RV870/G300, och öppna standarder för att programmera dem, vilket gör att vi kan få spel som från grunden byggts att använda GPU för både grafik och allt annat som den är lämpad för. Det är först då vi kan få se vad speltillverkarna kan göra med detta.

Det stämmer nog, men de blir bättre på det framöver. ATI har varit bättre än NVidia, men tror båda jobbar på det för att det är viktigt för GPGPU.

Du missförstod mig jag menade att köra det på tex en Cellprocessor inte CPU;n, Sony Playstation 3 har redan en inbyggd Cellprocessor, jag vet dock inte vad den används till.
Första länken sabbades den här fungerar.

http://en.wikipedia.org/wiki/Cell_(microprocessor)

Kolla en bit ned på länken vad den används och är kapabel till.
Visst skulle det börja suga i köptarmen om sådant här blev en konsumentprodukt?

Visa signatur

AMD Ryzen 7 1700 | Saphire RX 5700 Pulse XT (Silent Mode) | 64 GB Kingston ECC | https://valid.x86.fr/z2ljhr | Stockkylaren | Bitfenix Whisper M 750W.
AMD Ryzen 9 5900X | AMD RX 5700 | 64 GB Micron ECC | https://valid.x86.fr/5krwxf
HTPC | https://valid.x86.fr/uuzli0 |

Permalänk
Medlem

Intel jobbar med vektor funktioner till sin nästa CPU generation Sandy Bridge, även om det är långt från hur Cell är uppbyggd.
http://en.wikipedia.org/wiki/Advanced_Vector_Extensions

Dock så är det svårt för CPU tillverkarna för deras stora kunder på företagen har ju ofta inte behov av t.ex. 16 cores i en desktop CPU (även om det säkert kommer finnas där i framtiden ändå).

Permalänk
Medlem

Alla behöver 1024 core... ingen vet om det än bara.

Visa signatur

åhoj

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av this
Detta är helt enligt min åsikt, öppna programmeringsspråk är det som gäller.

Nei det som gäller är att tjäna pengar ! och det gör man inte på öppna programmeringspråk så därför sätter man de bästa programerarna på att optimera de låsta, så dom presterar bättre och människor vill använda det som är bäst i slutändan.

Citat:

Ursprungligen inskrivet av Essin
Men oj, fick du slut på argument och var tvungen att övergå till personangrepp eller vad hände där på slutet? Vilket är mitt "aggressiva utfall"? Det är ju du som tar till svordomar, inte jag.
Allt jag sa var att i DX11 finns möjlighet att göra i stort sätt exakt samma sak som Cuda och physX gör så att nVidia ska stå och slå sig för bröstet p.g.a. dessa anledningar känns lite larvigt, sen att physX i stort sätt inte gör mycket mer än att bugga gör ju inte saken bättre (ok, mirrors edge blir bättre av det, men sen är det inget mer)..

Vet du vad en antagonist är överhuvudtaget ?
Och jag tycker först att ATI ska slå sig på bröstet som efter att ha skaffat sig partners med teknik som tillåter fysisk beräkning på deras kort alls och får nu möjlighet till detta genom att windows också öppmar för dom genom dx11... Kanske funkar detta bättre än något nvidia åstdkommit ??? Sen tycker jag att Nvidia ska slå sig på bröstet för att dom klarar behålla sin marknadstlällning trots sina svåra patent och för täta samarbete med intel och microsoft, men dom gör ju pengar åt alla tre, återigen pengar pengar...Att dom försvårar med sitt patent och gör arkitekturer för att efektivisera sin beräkningskraft på sina kort är en del av att tjäna pengar och förankra sin marknadsandel bland de som gjort sig beroende på just deras teknologi och mjukvara.

Citat:

Ursprungligen inskrivet av djchester
Haha, du resonerar kul. Om jag vänder på det. Tror du att det är intressant om man kan köra spel eller spela upp film på en beräkningsnod som går dygnet runt med tekniska beräkningar?

Med resursslöseri menar jag att Linux är den bästa plattformen för tekniska beräkningar eftersom det innebär snabbare lösningstider. Det har visats i benchmarks efter benchmarks och att ta en titt på top500 listan är ju också ganska övertygande. Att välja något annat är därmed slöseri med resurser. Så att satsa på att kunna köra beräkningar på grafikkortet även om man inte använder DirectX är värdefullare än du kan ana eftersom DirectX är Windows only.

Min fråga är om det är ett problem att det KAN göra mer, varför skulle det vara ett slösande med resurser.... men så är det ju är man Linux frälst så är man .... hittar man ett sä att göra windows lika effektiv så vore väl inte det ett slöseri men en utveckling. Och självklart är dx windows only... patent och pengar ..... patent och pengar.... dom skiter väl i att det vore bättre med öppna koder ... ger man dom pengar för det öpnar dom för vemsomhelst...pengar pengar pengar allt handlar om pengar och kommer alltid handla om pengar. ett slöseri nei för dom får inga pängar för vad som händer på ett linux system.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Jag förslår att du tittar på Batman Arkham Asylum och Cryostasis.

http://www.youtube.com/watch?v=vINH6Z9kqgI

http://www.youtube.com/watch?v=g_11T0jficE

Jag har testat Mirrors edge, Batman Arkham Asylum och Cryostasis med PhysX och inte ända gång fick jag problem i någon av spelen.

Så allt som spel utvecklade för nVidia ger är lite extra papper på marken?

Visa signatur

Home: i5 3570K, 16GB RAM, Gigabyte HD7950 WF, Samsung 830 SSD 128GB, Corsair 650W.
Work: Xeon X5260, 8GB RAM, nVidia Quadro FX 4600.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Essin
Så allt som spel utvecklade för nVidia ger är lite extra papper på marken?

JA... sen då dom tjänar pengar.......pengar är papper....

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av djchester
Bra Ratatosk! Äntligen ett intelligent argument!

Jag kan svara genom ytterligare en motfråga: Varför ska GPUn vara ett eget instickskort och inte en core av flera specialiserade cores i en multicore CPU?

Anledningen till att man vill använda GPUn idag till vissa typer av beräkningar är att den är oerhört mycket snabbare på flyttalsoperationer än CPUn. Med det sagt vill man fortfarande ha kvar CPUn då den är suverän på andra typer av beräkningar. I det specifika fallet att man har en beräkningsnod så används heller ingen grafik så GPUn står där alldeles oanvänd idag.

Cell är absolut ett alternativ då den är väldigt kompetent på flyttaloperationer men den har en uppenbar nackdel: kostnaden. IBM PowerXCell 8i kan man ju t.ex. köpa för den uppgiften. Bygger man kostnadseffektiva HPC miljöer vill man dock kunna använda standardkomponenter och kräma ut så mkt kraft det bara går och ur den aspekten passar billiga grafikkort bra.

Du har aldeles förträffliga poäng här...
Ett läkemedelsföretag precis brevid mig har köppt in 30 stk Playsation 3 som dom har lyckats koppla ihop, fan vete hur men dom ersätter ett betydligt dyrare gammalt IBM system för dom och det nya skulle kosta uppemot 2,5 miljoner kronor och ha ungefärligt samma beräkningkraft och ta upp ungegär 15 kvadratmeter golvyta...med alla whistles and bells.... nu har dom byggt om en skrubb så den har grymm ventilation och det är hela deras beräkningcentral. så cell är klart grymm på beräkning men det finns ju klart bättre prollar idag än vad ps3 använder men till grymma priser...
Men det är fortfarande ett intel serversystem med dubbla xeon w3570 som måste til för att fördela beräkningsuppgifterna så anledning att ha kvar cpu finns det ju också . Sen har flera företag här i norge faktiskt avbeställt sin beställning av av IBM portabla datacentraler för detta väckte uppsikt. Bland dom som gjort det är Aker Solutions som bygger oljepipelines offshore här neranför mitt fönster för dom väntar nu idag på sina ps3:or som dom ska bygga en liten portabel enhet av... Detta kommer sprida sig ända tills utvecklingen av cell har hunnit ifatt dom kostnadsmässigt.

Permalänk
Medlem

Kolla in denna trevliga site om PhysX -> http://physxinfo.com/

Visa signatur

"Maybe one day you will learn that your way, is not the only way"

Permalänk
Citat:

Ursprungligen inskrivet av Essin
Så allt som spel utvecklade för nVidia ger är lite extra papper på marken?

Ta din tid att titta på video som demonstrerar olika aspekter av interaktiv miljö (tyg, rök, partiklar osv.) som PhysX ger innan du uttalar dig och uppvisar den ignorerande inställning du verkar ha.

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Ta din tid att titta på video som demonstrerar olika aspekter av interaktiv miljö (tyg, rök, partiklar osv.) som PhysX ger innan du uttalar dig och uppvisar den ignorerande inställning du verkar ha.

Den sista otrevliga delen kan vi väll skippa.

Här är en videoklipp som bättre visar skillnaden med PhysX på och av i Batman spelet.

http://www.youtube.com/watch?v=luSAnouAFJs&feature=channel_pa...

Klippen är från vår medlem Robbaz och honom kan ni fråga om vad han tycker om PhysX eller om han har haft problem med PhysX i dem spelen han spelar.

Visa signatur

[ Intel Core I7 930 4.2GHz HT på ] - [ Corsair Dominator GT 12GB DDR III 2000Mhz CL9-10-0-27 2N ] - [ ASUS P6DX58 Premium ] - [ MSI Gaming 4G GTX 970 - [ Creative SB X-FI Fatal1ty Pro ] - [ 1TB-750-500-Intel 80 G2 SSD] - [ Corsiar AX860 ] - [ Logitech Z530 ] - [ Antec P182SE ] - [ ASUS PA246Q ] - [ LG Blu-Ray Burner ] - [ Windows 7 64 Ultimate Swe ] - [Acer Aspire 8920G]

Permalänk
Medlem

Klart Nvidia går ut o säger såhär när dom inte kommer vara först ut med DX11-kort.

Nvidia har snackat så himla mycket skit senaste tiden att jag har noll förtroende för företaget och bryr mig inte det minsta om vad som sägs från deras håll längre.

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Mortac
Klart Nvidia går ut o säger såhär när dom inte kommer vara först ut med DX11-kort.

Nvidia har snackat så himla mycket skit senaste tiden att jag har noll förtroende för företaget och bryr mig inte det minsta om vad som sägs från deras håll längre.

haha... vem bryr sig, allt handlar om pengar idag. Business allt vad det är.
Inget att haka upp sig på, jag bryr mig inte om namnet utan om vad dom levererar, sen om det är ett företag som snackar mycket spelar inte mig någonroll så länge jag får ett grafikkort som gör vad det lovar.

Permalänk
Medlem

Nvidia chefen filmad i den stund han tar emot beskedet om ATI lanseringen
http://www.youtube.com/watch?v=FR45ja_fNzU&NR=1

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av Mortac
Klart Nvidia går ut o säger såhär när dom inte kommer vara först ut med DX11-kort.

Nvidia har snackat så himla mycket skit senaste tiden att jag har noll förtroende för företaget och bryr mig inte det minsta om vad som sägs från deras håll längre.

Nvidia hit o dit etc, det viktiga är att vi inte är "fanbois", vänd kappan efter vinden som någon skrev, det är det som gällersom konsument, att va otrogen här lönar sig. Sen när ATI skriver massa dynga när Nvidia släpper sina kort om antagligen ett halvår kommer ingen lyssna på dom heller om dom är sämre :).

Historia:
P2 450 -> amd XP 1800 -> P4 2,8, C2D XXX, C2Q 6600. AMD en gång och thats it
Grafikkort har det varit Nvidia hela livet med start från TNT, samt 4600 GT, 6600 GT, 7600 GT, 8800 GT, och snart antagligen ATI 5870 :). Om några år är Intel ikapp ATI och NVIDIA, ska bli kul.

Visa signatur

Fractal R3, Corsair AX 850W, 2x Gigabyte 580 Windforce + Gigabyte 210, I7 2600k @ 4.6 GHz, Asus P8P67 PRO, Corsair 32GB 2133 MHz, Corsair H80, Intel 320 300GB, 5x2TB WD GP, 5xSchyte F-Flex 1600, 2xFractal 140mm Silent, 7xFanmate, 3xDell U3014, LG BH10LS30, Qpad 5k, Logitech Z-5500, Sennheiser 360, 2xDinovo Edge. Samsung 900X4C, 256GB SSD, 16 GB Ram.

Permalänk
Medlem

Jag kommer ihåg när grafikkort var en lyx man inte hadde råd att unna sig.....
Nu hoppas jag att ett par stk 5870 kommer glänsa över mina GTX275.... och sen hoppas jag antagligen att nvidia släpper nåt som överglänser dom och väntar sen på nästa släpp av kort som ska överglänsa vad det nu blir för märke... men nu pratar vi några få tusenlappar då var det tiotusenlappar om vi räknar om vad pengar var värda då..... Med risk för att låta som mina döda förfäder: Vart är vi på väg med utvecklingen, inget duger åt oss längre än några månader nu..... Förr planerade vi att grejer skulle behållas åratal.

Permalänk
Avstängd
Citat:

Ursprungligen inskrivet av shagy
Nvidia chefen filmad i den stund han tar emot beskedet om ATI lanseringen
http://www.youtube.com/watch?v=FR45ja_fNzU&NR=1

NVIDIA Corp. (NVDA) President and CEO Jen Hsun Huang sells 260,475 Shares
http://www.gurufocus.com/news.php?id=69204

Visa signatur

7800x3d, 64GB 6000cl30, Gigabyte X670 Gaming X AX (F9d) 12TB m.2/nvme, 8TB SSD, WD 2x12TB 5400rpm, XFX 7900xt, SoundBlasterX AE-5+, HP X34", Fractal Design Define 7, Corsair HX750, Topping MX3s, Ino Audio piMx, Dan Clark Audio Aeon 2 closed..
LG B1 65", Topping e70, Topping pa5 II plus, Guru Audio Junior+ (primärt) / Canton GLE 90, Nintendo Switch OLED, Pico 4 VR

Permalänk

Nu brinner det i pelagoonerna! ms rycker bort mattan under nvidias fötter, deras paradgren dvs cuda neutraliseras av dx11..så nu spelar det ingen roll om vad kortet har för klister märke, utan vad den råa beräknings kraften är... tror att det gröna laget har/hade ett lite försprång på den sidan. framtiden får utvisa vad spm händer med cuda, jag har väldigt svårt att tro att stream och cuda överlever dx11, på icke ms mark så kommer ju open cl/gl att vara att föredra tror jag...

ovanstående text är ett rent fakta befriande dravel från en omdömeslös idiot!

Fluff out!

Visa signatur

I am the Leech King!

Permalänk
Citat:

Ursprungligen inskrivet av Kaleid
NVIDIA Corp. (NVDA) President and CEO Jen Hsun Huang sells 260,475 Shares
http://www.gurufocus.com/news.php?id=69204

Eftersom det finns hårda regler för att motarbeta missbruk av intern handel så måste beslut av sälj och köp presenterar i god tid. Över 6 månader eller mer innan transaktionen sker efter ansökan.

Denna händelse har inget med AMD's HD5xx serie att göra om även många verkar få för sig det när de läser den här "nyheten".

Visa signatur

"The flames of freedom. How lovely. How just. Ahh, my precious anarchy.."

Permalänk
Medlem
Citat:

Ursprungligen inskrivet av DataNusse
Eftersom det finns hårda regler för att motarbeta missbruk av intern handel så måste beslut av sälj och köp presenterar i god tid. Över 6 månader eller mer innan transaktionen sker efter ansökan.

Denna händelse har inget med AMD's HD5xx serie att göra om även många verkar få för sig det när de läser den här "nyheten".

hmm problemen började väl ungefär då... men har dom samma regler i hela världen ?

Permalänk
Medlem

Svårt och bedöma, men jag ser det inte som en insideraffär om han säljer och ATI går bra med 58xx/DX11 och NVidias aktievärde sjunker. Däremot om NVidas kretsar blir väldigt sena och inte konkurrenskraftiga är det en annan fråga om han tjänar på försäljningen. Jun Hsun Huang kanske ville köpa något, ny lyxvilla eller liknande?