Nvidia upphör med stöd för 3D Vision i framtida drivrutiner

Permalänk

=( Okey Tack.. Vad är det som skiljer sig i tekniken?

Visa signatur

.

Permalänk
Medlem

Fan vad trist, kör fortfarande med gtx780 i andra datorn

Permalänk
Medlem

Så som det känns så var 3D mest något som branchen smetade på för att få folk att köpa nytt, typ som "Loka majonäs och lingon", och så tänker man "Va?? Den kombinationen kan väl inte vara god", så köper man, dricker, och får det bekräftat, men då har man redan köpt. Typ så är det med 3D. En gimmick som marknaden försökte pusha till kunderna men misslyckades.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem

Gällande 3d så var jag taggad för detta, och de indirekta möjligheterna som dual play, två olika bilder på samma skärm etc. De inköp som jag gjort på fronten de senaste 10 åren har precis missat trenden dock.. projektor årsmodellen innan det lanserades i samma segment och teven ca 3 år efter tillverkarna slutade med det.

Hade det standardiserats så hade det ju kunnat leva kvar. Finns väl dock mer marginal att hämta i VR och då båda är relativt nischade marknader och då är det väl rimligt ur ett businessperspektiv att döda av den mindre lönsamma grenen.

Skickades från m.sweclockers.com

Visa signatur

🛜🫀: HP ProDesk 400 G3, i5 6500, 8GB DDR4, Intel X520-DA2
🐳🐧: AMD R5 3600 | Google Coral.ai | ASRock X570D4U-2L2T | Silverstone CS381 | 80GB DDR4 | 8 HDD BTRFS RAID1
⌨️🎮: R9 3900X | RTX 2080 LC | Acer XF270HUA | 96GB @ 3200 | MSI X570 MPG G EDGE WIFI | CORSAIR C70
🎞🎶: LG OLED55C8 | Epson TW3200 | Onkyo TX-NR646 | Infinity Reference 61/51 mk2 | Shield TV V2 | minhembio.com

Permalänk
Medlem

Värt att poängtera att det är mobila Kepler-kort som slutar stödjas, Kepler för stationära kommer fortsatt få officiellt stöd i de vanliga drivrutinerna.
"Game Ready Driver upgrades will continue to be available for desktop Kepler, Maxwell, Pascal, Volta, and Turing-series GPUs."
https://nvidia.custhelp.com/app/answers/detail/a_id/4779

Kepler har åldrats men de bättre korten i serien klarar fortfarande alla moderna spel. Jag tycker helt klart att det vore uselt att överge alla Kepler nu.

Historiskt har Nvidia haft långt drivrutinsstöd för sina kort, med Geforce 8-serien som hade stöd till 2014 och fick Legacy-drivrutiner i ytterligare två år, och Fermi som slutade stödjas förra året (fick ingen Legacy-drivrutin), och då var dessa kort otillräckliga för många moderna spel.

Permalänk
Medlem
Skrivet av Ozzed:

Så som det känns så var 3D mest något som branchen smetade på för att få folk att köpa nytt, typ som "Loka majonäs och lingon", och så tänker man "Va?? Den kombinationen kan väl inte vara god", så köper man, dricker, och får det bekräftat, men då har man redan köpt. Typ så är det med 3D. En gimmick som marknaden försökte pusha till kunderna men misslyckades.

Jag och många andra menar tvärt om, att köparna misslyckades se det för vad det är. D v s amazing.
Amazing för oss som uppskattar det då. <-- OBS

Det är ingen gimmick, det är inte något smetat på, nej det är en extra dimension som förhöjer upplevelsen för oss som uppskattar den.

Se det så här, det var många som var nöjda med att spela utan grafikkort med 3d-effekterna som utvecklats till vad vi spelar med idag.
Var glad att folk inte lyssnade på dom och lade sina pengar på grafikkort som hade d3d, glide och opengl.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

Man kan ju börja undra om det är ett fulknep för att folk ska bli tvingade att köpa nytt kort nu när försäljningen inte gått som tänkt, haha. Skämt åsido(eller?) vet jag inte hur vad som är en normal livslängd på officiellt mjukvarustöd men eftersom ett 780 som exempel faktiskt är ett hållbart grafikkort än idag känns det aningen snålt med tid..

Visa signatur

Chassi: Louqe Ghost S1 | CPU: AMD Ryzen 7 7700X | Kylare: Cooler Master MasterLiquid Lite 240 | Ram: Kingston Fury Beast RGB 32GB 6000MHz | GPU: AMD Radeon RX 6800 | MB: ROG STRIX X670E-I GAMING WIFI | PSU: Corsair SF750 Platinum | SSD: Samsung 970 EVO 1TB + Intel 660p 1TB | Skärm: Acer Nitro XV252QF@390hz | Ljud: HD650+Røde AI-1 | KB: Hemmabygge 60% | Mus: Logitech PRO X Superlight 2 |

Permalänk
Medlem

Era kort kommer inte sluta att fungera. Det största ni missar är nog spel optimerinar som nya drivers har.
Bara gå och köpa ett par nya 2080 ti

Skickades från m.sweclockers.com

Visa signatur

Ryzen 5900X @ Stock, MSI Suprim X 3080 @ game mode.

Permalänk
Medlem
Skrivet av SCORPIUS:

Jag och många andra menar tvärt om, att köparna misslyckades se det för vad det är. D v s amazing.
Amazing för oss som uppskattar det då. <-- OBS

Det är ingen gimmick, det är inte något smetat på, nej det är en extra dimension som förhöjer upplevelsen för oss som uppskattar den.

Se det så här, det var många som var nöjda med att spela utan grafikkort med 3d-effekterna som utvecklats till vad vi spelar med idag.
Var glad att folk inte lyssnade på dom och lade sina pengar på grafikkort som hade d3d, glide och opengl.

Ungefär som "Majonäs och lingon", då?

Näme det är klart att om man uppskattar något och tycker det är värt det extra krånglet så är det väl bara bra. Men om något skall slå brett så skall man inte behöva köpa extra tillbehör, det vill inte folk.

Tänk exempelvis om "3d-korten" när de var nya hade krävt glasögon eller en speciell 3d-skärm. Hade det slagit på bred front då? Nej det hade förblivit en niche-produkt, och likadant är det med 3D-vision.

Jag säger inte att det är dåligt, bara att de flesta inte tycker det är bra nog för att orka köpa till det extra krånglet.

Visa signatur

ozzed.net Min egenkomponerade 8-bit musik. Gillar du musiken från gamla klassiska NES eller Gameboy och liknande är det värt ett besök. :) Jag finns också på Spotify, Bandcamp, Jamendo, Youtube, och du kan även följa mig på Twitter och Facebook.
Vet du att du har fel? Signalera detta tydligt med Argumentationsfel och gärna Whataboutism.

Permalänk
Medlem

Kör själv 3D här hemma med en 4K projektor som även klarar av 3D. Och för er som säger att 3D är en flopp eller skit, har ni ens provat se en film i 3D på 120-200" hemma i en skön soffa med era vänner? Föga troligt.

Det ger en helt annan upplevelse i film. Även om jag aldrig riktigt tyckte om det i spel så har det alltid varit något jag älskat i filmer. Skulle aldrig få för mig gå på en biofilm och se filmen utan 3D om det fanns en med 3D.
Men jag gissar att "3D är en flopp" är en av anledningarna till varför biofilmer som Alita är helt sjukt snygga att se i 3D och som alla övriga andra 3D filmer på biografer som säljer som smör?

Nu är inte detta hela världen för oss som sitter med ordentlig utrustning för 3D, t.ex projektorn jag använder som kan slänga om side-by-side, upside/down med mera helt själv och ge aktiv 3D, utan att behöva stöd från grafikkortet eller drivrutiner.

Kanske därför Nvidia skrotar 3D vision, när dom insett att vi som kör 3D förmodligen gör det på en duk och inte på deras pyttesmå skärmar.

Visa signatur

Star Citizen ❤

Permalänk
Medlem

Jag har alltid avbokat 3D vision och HD audio under drivrutinsinstallationen. För mig räcker det med bara GPU drivrutinen.

Visa signatur

Chassi: Corsair 4000D CPU: Intel i7 11700K RAM: 32Gb DDR4 Moderkort: ASUS Z590-F
Grafik: RTX 3070 Ti OS: W11 SSD: M.2 1TB snabb som tusan

Permalänk
Avstängd

Nu blir ju min lillebror lite ledsen. Han spelar spel i 3D i så stor utsträckning de går. Han köpte på sig skärm och glasögon för två år sen tror jag.

Skickades från m.sweclockers.com

Visa signatur

🖥Phanteks Enthoo Evolv iTX . Phanteks AMP 650W. AMD R5 3600X. msi B450I GAMING PLUS AC. 32gB HyperX Fury RGB 3200MHz. msi RX 5700 XT GAMING. 1TB Kingston A2000.
AOC G2460FQ. Logitech G903. Logitech G840 XL. Logitech G513. Logitech PRO Gaming Headset. Luxorparts Headphone Stand. LG BP50NB40.

Permalänk
Medlem
Skrivet av VadSaDu:

Inkl 700-serien även 750Ti?

Menar, har inte 750Ti Maxwell?

”Samtidigt slutar de även stödja Kepler-baserade grafikkort i Geforce 600-serien och Geforce 700-serien.”

Den meningen betyder inte att de slutar stödja ALLA grafikkort i 700-serien, det står att de stutar stödja Kepler-baserade kort i 700-serien.

Permalänk
Medlem

@Cooling23: Om du vill kan du göra som jag gör.

Ta följande text och gör till en .bat fil. Du kan naturligtvis lägga till och ta bort.

rd /s /q DisplayDriverCrashAnalyzer
rd /s /q Display.Optimus
rd /s /q Display.NView
rd /s /q Display.Update
rd /s /q HDAudio
rd /s /q LEDVisualizer
rd /s /q Miracast.VirtualAudio
rd /s /q MS.NET
rd /s /q MSVCRT
rd /s /q Network.Service
rd /s /q NV3DVision
rd /s /q NV3DVisionUSB.Driver
rd /s /q NvCamera
rd /s /q NvVAD
rd /s /q ShadowPlay
rd /s /q ShieldWirelessController
rd /s /q Update.Core
rd /s /q nodejs
rd /s /q NvBackend
rd /s /q NvContainer
rd /s /q NvTelemetry
rd /s /q NvvHCI

1. Packa upp drivrutinen.
2. Lägg din .bat i drivrutinsmappen.
3. Kör batfilen.
4. Installera drivrutinen.

Visa signatur

CPU: I7 7700k @ 4.6GHz - Noctua NH D15S - Asus ROG Strix Z270F Gaming.
GPU: RTX 3070TI @2 st 120mm cf-v12hp hydro dynamic fläktar. 👍
RAM: 32GB DDR4 3200MHz. HÅRDDISK: 4 st SSD, 2 Mekaniska.
MONITOR:1 Xiaomi MI 34"- 3440x1440 144Hz MONITOR:2 Optix MAG274R 27" 1080p 144Hz MONITOR/Tv:3 LG 47lv355n-ZB 47". Nätagg: Corsair Newton R2 1000W. Allt i ett Cooler Master CM Storm Stryker.

Permalänk
Medlem

@SCORPIUS: Går det inte bara snabbare att avbocka 3D Vision och HD-Audio flikarna? Din .bat-fil idé är kanske inte dålig men det är nästan att göra mer jobb för sig själv i slutändan.

Visa signatur

Star Citizen ❤

Permalänk
Medlem

För alla er som sitter på 600 och 700 serien, era kort kommer inte bli obrukbara efter april månad utan kommer bara bli exkluderade i nyare versioner av drivrutiner där optimeringar för nyare titlar som ändå säkerligen inte kan spelas på någon vettig fps på gamla kort.

Visa signatur

R7 5800X3D / RX 6950 XT / 32GB Ram / 1TB SSD / X570 Bräda / 850w Nätagg.
32 Tums Skärm 1440p 144hz Curved VA panel.

Permalänk
Medlem
Skrivet av Oliver91:

För alla er som sitter på 600 och 700 serien, era kort kommer inte bli obrukbara efter april månad utan kommer bara bli exkluderade i nyare versioner av drivrutiner där optimeringar för nyare titlar som ändå säkerligen inte kan spelas på någon vettig fps på gamla kort.

Eller så kanske inte spel startar när man kör med en gammal updatering..
Är ju ett lätt sätt för Nvidia att få folk köpa deras nya kort och tjäna pengar antar jag..

Permalänk
Inaktiv

Uberöverklockat GTX780 i datorn här. Hoppas det kan användas åtminståne två år till... kör fortfarande allt nytt jag testat på högsta inst 1920x1080. Hade aldrig ens gissat att det skulle äga så länge. Bästa investeringen någonsin i datorsammanhang.

Skickades från m.sweclockers.com

Permalänk
Medlem

Tror min skärm har 3d vision. Aldrig använt för jag har alltid kört amdkort

Visa signatur

Ducati Streetfighter 848, -2013
Yamaha FZR 1000, -1987

Permalänk
Medlem

Nackdelen med 3D Vision var att allting upplevdes som pyttelitet. Spelar man ett bilspel på vanlig 2D-skärm tänker man inte på det, men när man kör bilspel i 3D Vision ser allt så mycket mer verkligt ut, eftersom det blir djup i bilden, och bilen man styr i spelet ser då ut som en Mattel leksaksbil, eftersom den faktiska grafiken på en liten skärm inte är speciellt stor i centimeter mätt. Lite tråkigt. Tur då det finns VR som löser problemet.

Permalänk
Medlem

Fan va trist!!
Jag körde 3D vision ganska mycket på FX2 och för dom som har kört det, Trine och Trine 2 var helt jävla amazeballs i 3D. Funkade bäst med fixed camera views, typ platformers och sånt.

Ska nog ta och köra igen Trine trilogin igen innan det är dax att packa undan glajorna för gott.

Permalänk
Medlem
Skrivet av duked:

Nackdelen med 3D Vision var att allting upplevdes som pyttelitet. Spelar man ett bilspel på vanlig 2D-skärm tänker man inte på det, men när man kör bilspel i 3D Vision ser allt så mycket mer verkligt ut, eftersom det blir djup i bilden, och bilen man styr i spelet ser då ut som en Mattel leksaksbil, eftersom den faktiska grafiken på en liten skärm inte är speciellt stor i centimeter mätt. Lite tråkigt. Tur då det finns VR som löser problemet.

Jo, det var en nackdel. gick dock att flytta focal point djupare in i monitorn, och då ser det mer ut som man är van vid från 2D.

Permalänk
Medlem

Innebär detta att jag slipper göra en anpassad installtion när drivrutiner ska installeras? Isåfall tummen upp 👍

Skickades från m.sweclockers.com

Visa signatur

Tjo & tjim
Nzxt H7 Flow || ASUS ROG Strix B650E-F Gaming WIFI || Gigabyte GeForce RTX 4080 16GB Gaming OC || AMD Ryzen 7 7800X3D || Corsair 32GB DDR5 5200MHz CL40 Vengeance RGB AMD EXPO || NZXT Kraken Elite RGB 360 || Samsung 990 PRO M.2 NVMe SSD 1TB & 2TB || ASUS ROG Strix Aura 850W

Permalänk
Medlem
Skrivet av HoboCop:

Mig gör det inget att 3D Vision försvinner. Har aldrig använt det. Har någon använt det?

Nä. Aldrig!

Visa signatur

FD define r4 vitt// ASUS ROG Strix B550-F Gaming (Wi-Fi) II + Corsair 32GB (2x16GB) DDR4 3600MHz CL16 Vengeance RGB RT Svart// Ryzen 7 5700X 3.4 GHz + Corsair iCUE H100i RGB PRO XT// Sapphire RX5600XT Pulse// AOC 27G2UG4 IPS 144Hz// Win11 på wd_black sn850x 1tb// Corsair RM750x// MATTA: SWECLOCKERS 90cm// Corsair Dark Core RGB PRO Wireless // Google pixel 8 Pro// HyperX Cloud II

Permalänk
Inaktiv

Enligt TechPowerup är det bara mobila Kepler-kort som blir av med officiellt stöd.
"Desktop kepler is still supported"
https://www.techpowerup.com/253490/nvidia-ceases-support-for-...

Permalänk
Medlem

Mitt GTX780 går fint, referens blower, tyst som en mus och dammade ut det igår, 41C idle och har aldrig gått över sina 84C load i stresstest efter 5+ år av 24/7 drift.
Har fortfarande inte maxat ut den men kör linux, får se hur driver stödet blir där.

Synd om man ska behöva byta bara så man kan köra senaste drivisarna och hålla allt upp to date på mjukvarusidan licksom.

Mitt spelkort är ett RX460 2Gb alltså slöare och det kör mina mest spelade spel i 1440p 60fps så GTX780 har inga problem. Och är det så kan man droppa till 1080p så går allt runt på 60+ fps i high.

Förstår att folk med 4K och ultra settings och 144hz behöver RTX kort och liknande men så fort man kan nöja sig med 1440 eller 1080p med medium eller high så kan man till 95% hålla 60+ fps och dom flesta skulle jag argumentera har inte råd med 8-15K grafikkort så detta är vad dom kör.

Senaste 6-7 åren har jag aldrig sett så lite behov av att uppgradera.

1999-2000 så dubblades frekvenser på CPU:er och GPU'er blev dubbelt så snabba varje år.

Nu fick jag en Xeon E5-1680 V2, 8core 16t, 25Mb cache som är helt upplåst och kör just nu 4Ghz i min X79 bräda som blir 7 år i sommar.
Den presterar i 4.6Ghz mellan en i9 9900K @5Ghz och en Ryzen 2700X @ 4.3Ghz om båda dessa är maxklockade med.
Helt stört för en CPU som är 6 år gammal och dessutom fick den lite lägre strömförbrukning än 9900K så prestanda per watt var typ samma, sjukt egentligen.
Den hade bland dom bästa latenserna med i tester gjorda nyligen, troligen pga sitt stora cache så bra för esportare.

1000 seriens grafikkort till 2000 har ju inte varit någon upphetsande uppgradering.
Tyckte redan det var lite samma sak från 700 till 900 serien.

Händer inte tillräckligt lägre utan man kan lätt hoppa en gärna två generationer CPU och GPU:er.
Hjälper ju inte att både Intel, AMD och Nvidia haft problem med noder och designer så att allt skjuts på framtiden hela tiden med.

Ockerpriserna i hop med minimal prestanda förbättring för att enbart åldern och därmed haverier av komponenter tvingar en att uppgradera, eller i värsta fall där tillverkares mjukvara är medvetet designad att försämra upplevelsen med varje ny version.

På våra retroburkar för 90 tals lan kör vi ofta dom äldsta drivisarna som fungerar på ett Nvidia kort, alltså dom första som kom ut för Nvidia antigen medvetet eller omedvetet har alltid haft degraderande prestanda för varje ny version och det finns väl dokumenterade moderna testar på detta.

Permalänk
Inaktiv
Skrivet av pa1983:

Mitt GTX780 går fint, referens blower, tyst som en mus och dammade ut det igår, 41C idle och har aldrig gått över sina 84C load i stresstest efter 5+ år av 24/7 drift.
Har fortfarande inte maxat ut den men kör linux, får se hur driver stödet blir där.

Synd om man ska behöva byta bara så man kan köra senaste drivisarna och hålla allt upp to date på mjukvarusidan licksom.

Mitt spelkort är ett RX460 2Gb alltså slöare och det kör mina mest spelade spel i 1440p 60fps så GTX780 har inga problem. Och är det så kan man droppa till 1080p så går allt runt på 60+ fps i high.

Förstår att folk med 4K och ultra settings och 144hz behöver RTX kort och liknande men så fort man kan nöja sig med 1440 eller 1080p med medium eller high så kan man till 95% hålla 60+ fps och dom flesta skulle jag argumentera har inte råd med 8-15K grafikkort så detta är vad dom kör.

Senaste 6-7 åren har jag aldrig sett så lite behov av att uppgradera.

1999-2000 så dubblades frekvenser på CPU:er och GPU'er blev dubbelt så snabba varje år.

Nu fick jag en Xeon E5-1680 V2, 8core 16t, 25Mb cache som är helt upplåst och kör just nu 4Ghz i min X79 bräda som blir 7 år i sommar.
Den presterar i 4.6Ghz mellan en i9 9900K @5Ghz och en Ryzen 2700X @ 4.3Ghz om båda dessa är maxklockade med.
Helt stört för en CPU som är 6 år gammal och dessutom fick den lite lägre strömförbrukning än 9900K så prestanda per watt var typ samma, sjukt egentligen.
Den hade bland dom bästa latenserna med i tester gjorda nyligen, troligen pga sitt stora cache så bra för esportare.

1000 seriens grafikkort till 2000 har ju inte varit någon upphetsande uppgradering.
Tyckte redan det var lite samma sak från 700 till 900 serien.

Händer inte tillräckligt lägre utan man kan lätt hoppa en gärna två generationer CPU och GPU:er.
Hjälper ju inte att både Intel, AMD och Nvidia haft problem med noder och designer så att allt skjuts på framtiden hela tiden med.

Ockerpriserna i hop med minimal prestanda förbättring för att enbart åldern och därmed haverier av komponenter tvingar en att uppgradera, eller i värsta fall där tillverkares mjukvara är medvetet designad att försämra upplevelsen med varje ny version.

På våra retroburkar för 90 tals lan kör vi ofta dom äldsta drivisarna som fungerar på ett Nvidia kort, alltså dom första som kom ut för Nvidia antigen medvetet eller omedvetet har alltid haft degraderande prestanda för varje ny version och det finns väl dokumenterade moderna testar på detta.

Som sagt TechPowerup rapporterar att det endast är mobila Kepler-kort som blir av med stödet. På Nvidias sida angående detta så listas bland länkade artiklar bara de mobila Kepler-kortens supportplaner så det verkar stämma

Permalänk
Medlem

Värt att nämna är att 600- och 700-serien är de sista med bra stöd i den öppna drivrutinen i Linux. 900-serien och senare behöver signerad firmware som NVIDIA inte tillåter separat distribution av och därmed kan den inte skickas med i Linux-distar utan separat avtal med NVIDIA, vilket gör att du behöver extrahera den manuellt från den officiella drivrutinen. Hela cirkusen gör att NVIDIAs nya kort inte ger hårdvaruaccelerad grafik "out of the box" i de stora distarna.

Skickades från m.sweclockers.com

Visa signatur

Mjölnir: Ryzen 9 3900X | X570-I | Ballistix Sport 32GB | Powercolor RX 5500XT 4GB ITX | Kolink Sattelite
Server: Ryzen 5 1400 | X470-F | Ballistix Sport 24GB | ASUS HD 7790 2GB | Sapphire RX 470 8GB ME | NZXT Switch 810

Permalänk
Medlem
Skrivet av anon307719:

Som sagt TechPowerup rapporterar att det endast är mobila Kepler-kort som blir av med stödet. På Nvidias sida angående detta så listas bland länkade artiklar bara de mobila Kepler-kortens supportplaner så det verkar stämma

Jo jag såg det, men synd även för dessa användare. Polaren satt på sin laptop med 600 serien till nyligen innan dågon donna av hans spilde öl i den.

För han räckte en i5 2400U mer än väl med 6Gb i ram, jag upgraderad den till 128Gb SSD gratis åt han. Den hade han länge, en asus laptop för 6K.
Saker blir gamla men behovet av det "senaste" är inte samma i dag som det var för 20 år sedan där prestandan dubblades på ett år och en 1 år gammal dator var en laggfest i senaste spelet eller programmet, i dag kan en 7 år gammal dator hänga med i det senaste med smärre uppgraderingar.

Problemet är ju att tillverkarna vill sälja nytt så planed obsolesens har ju nått nya höjder, syns på smartphones tex där min nallen har hårdvaran men aldrig får en update för att låsa upp dom funktionerna utan man får allt köpa en ny i så fall. Irriterande.

Permalänk
Medlem
Skrivet av Djhg2000:

Värt att nämna är att 600- och 700-serien är de sista med bra stöd i den öppna drivrutinen i Linux. 900-serien och senare behöver signerad firmware som NVIDIA inte tillåter separat distribution av och därmed kan den inte skickas med i Linux-distar utan separat avtal med NVIDIA, vilket gör att du behöver extrahera den manuellt från den officiella drivrutinen. Hela cirkusen gör att NVIDIAs nya kort inte ger hårdvaruaccelerad grafik "out of the box" i de stora distarna.

Skickades från m.sweclockers.com

Jag har alltid varit en Nvidia user i linux bara för det alltid fungerade och nån månad efter windows fick en driver update som gav en fet boost i nya spel fick linux samma boost för dom spelen som var portade till linux.

Numera överväger jag AMD som Linux kort, för 15 år sedan var det ett big nono om man inte ville ha 1/3 av teoretisk prestanda.
Kör AMD för virituella maskinen så har just nu Nvidia och AMD i burken samtidigt.

Nvidia dummar sig desutom med att stänga av korten i Virituella maskiner om man inte lurar den att tro att den går på real hardware.
AMD har andra problem med buggar vid reboot på RX serien tex i viritualisering när Windows 10 gör en reboot i hop med en update så ja Nvidia eller AMD det är frågan, finns tekniska och principiella problem med båda, lite därför jag avvaktar, priserna tillåter en inte att fucka upp valet av kort just nu.