Radeon RX 6000-serien uppges få 16 och 12 GB grafikminne

Permalänk
Medlem
Skrivet av ipac:

Jag tror inte de stora AMD chippen har för avsikt att max konkurrera med RTX3060 nej.

Vet du något vi andra inte vet? AMD har både på cpu och gpu sidan konstant lagt sig just under top segmentet till en billigare peng för att vinna marknadsandelar.
De har konstant verkat agera efter 80/20 i det att de sista 20% tar 80% av jobbet så de skippar det, ser ingen anledning för dem att ändra en strategi som fungerar väl hittills?

Sedan konkurrens fungerar ju så att man vill vinna pengarna, vem som pressar ut 3 extra FPS är oväsentligt för aktieägarna? Att tävla med nvidia om toppen när man börjar långt bakom är bara dumt resursmässigt, men för de flesta användare som inte vill lägga 10000 på en gpu är det mer viktigt med ok prestanda för minimal peng, där är 3070 och 3060 de man tävlar mot.

Visa signatur

"One is always considered mad, when one discovers something that others cannot grasp."
- Ed Wood

Permalänk
Medlem
Skrivet av str8forthakill:

Det är för att som alltid, AMD slåss mot föregående generationens grafikkort.

Alltid? Verkar som någon behöver en historielektion..

Skrivet av ipac:

Jag tror inte de stora AMD chippen har för avsikt att max konkurrera med RTX3060 nej.

Det var inte hans poäng. Poängen var att den största delen av marknaden söker efter så hög prestanda per krona som möjligt. Vilket visat sig vara antingen xx60 eller xx70 hos Nvidia t.ex. Det är här pengarna finns och statistiken pekar mot det också. AMD behöver inte slå Nvidias toppkort utan de behöver bara matcha deras bästsäljare i prestanda och lägga sig något under i pris för att få marknadsandelar.

Visa signatur

Fractal Design Meshify 2 Compact w/ Dark Tint | Intel i5 12600K | Asus ROG Strix B660-F | 32 GB Corsair DDR5 5600 MHz CL36 | MSI Geforce RTX 3060 TI Ventus 2X OCV1 | 512 GB Samsung Pro 850 SSD + 2TB WD Black SN850 NVME PCI-E 4.0 | Corsair RM750X |

Permalänk
Medlem

@perost: Kan vara att jag har fel men trodde detta var i grafikmotorerna & att detta kördes i internminnet (systemminne ) & inte i vram på grafikkorten, kan vara att jag missat nåt men förr så var det upplösningen & effekter inbyggt i grafikkorten som bestämde hur mycket vram som krävdes inte texturer i spelen. men som sagt kan ju vara jag som har fel.(hade dessutom fått för mig att direct storage var det nya som skulle ge texturer osv direkt till grafikkorten & inte till internminne & cpu (beräkningar /minnesförflyttning) Men vem vet kan ju då missförstått detta oxå då.

Visa signatur

Arne Berg

Permalänk
Skrivet av Nozze666:

Buildzoid kollade på renderingarna so släpptes i Fortnight och han tycker att fästet för kylflänsen ser ut att gå där minnena i vanliga fall sitter. Vilket då skulle tala för att BigNavi skulle få HBM-minnen.
Men allt är ju bara spekulationer just nu.
https://youtu.be/6uxLy1qWRAk?t=345

Hålen hör inte hemma där nej. Då kan de varken vara Navi 23 eller 21.
Jahapp. Bara en månad kvar då

Visa signatur

Wasserkühlung::5900X::ASSrock X570 TB3::2x8 Ballistix 3000@3800::6800Nitro+

Vilken leksak>> CH341-biosprogrammerare

Permalänk
Medlem

De hade ju varit kul om alla läckor som varit är inte ens närheten av de vi förhoppningsvis få reda nu i Oktober och de visar sig va mycket högre än tänkt.

Visa signatur

AMD Ryzen 5 5600 | EVGA GeForce GTX 1070 8GB ACX 3.0 FTW | Fractal Design North Black TG | MSI MPG B550 Gaming Plus | Kingston Fury 32GB DDR4 3200MHz CL16 Beast | WD Black SN850X 1TB Gen 4 With Heatsink | EVGA SuperNOVA 750 G2 750W | Noctua NH-D15 | Windows 11 Pro

Permalänk
Medlem
Skrivet av sKRUVARN:

Jag skulle nog villja hävda att det nästan är det motsatta, den delen av VRAMet som behövs som framebuffer är en extremt liten del av den totala mängd minne som används på spelkort. Det är väl framförallt texturer som tar upp den största mängden minne i vramet?

T ex 3840x2160x8 = ~63MB, så det är mängden minne som krävs för att lagra en 2160p bild , även med tripple buffering och eller post-processing som kräver flera bilder så pratar vi inga enorma mängder.

Någon med erfarnhet av spelutveckling och grafikhårdvara får gärna rätta mig om jag tänker fel dock.

Det är väl iaf 3840x2160x24 bits om man ska ha 8-bit färgdjup, och detta är mätt i bits så det bli ca 24MiB för en bildruta. Siktar man på HDR med 12 bitar per färg är man uppe på lite högre nivåer, men inte ens dubbla. Bara en liten korrigering, resonemanget var rätt i övrigt

Permalänk
Medlem
Skrivet av Yoshman:

Nvidia verkar bara haft en krets med 512-bitars buss: GT200-300 (toppkretsen hos 200-serien, Tesla gen 2).

Det som talar emot 512-bitars buss hos big-navi är att GDDRx tyvärr drar rätt mycket ström, framförallt när man går upp på riktigt breda bussar. Sett uppskattningar på att VRAM-delen hos 3080/3090 börjar närma sig 100 W.

Förhoppningsvis blir HBM tillräckligt billigt för att användas på bred front även i konsumentprodukter, att man håller fast vid GDDRx lär primärt vara en kostnadsfråga.

Är det inte likt andra saker att frekvensen är det värsta för strömförbrukningen och att ha en bredare buss i lägre frekvens kan vara effektivare? Jag tycker det känns som att 3090 med 24 kapslar och extrem frekvens pressar sig mer än vad 512-bit vid rimliga frekvenser skulle göra..

Permalänk
Medlem
Skrivet av Ferrat:

Vet du något vi andra inte vet? AMD har både på cpu och gpu sidan konstant lagt sig just under top segmentet till en billigare peng för att vinna marknadsandelar.
De har konstant verkat agera efter 80/20 i det att de sista 20% tar 80% av jobbet så de skippar det, ser ingen anledning för dem att ändra en strategi som fungerar väl hittills?

AMD har historiskt inte placerat sina toppkort avsiktligt under NVidias toppkort.

7970 gick direkt upp mot 680, och lanserades tidigare. Den uppgraderade version (GHz Edition) har också hållit väsentligt bättre.
290X tävlade med original-Titan till mycket lägre pris, och Nvidia fick ta till en 780 Ti för att konkurrera
390X höll sig någorlunda mot ett år nyare 980. Här kom det dock en Titan till som AMD först inte kunde kontra förrän efter några månader.
Fury var planerad mot denna Titan Maxwell, men Nvidia lanserade en 980 Ti för att kontra strax innan. Det är ändå ganska jämt här.

Sedan spricker det. Polaris 10/20 gick bra mot 1060, men saknade en efterföljare i grenen 7970-290X-Fury, och Nvidia fick härja ostört. Vega, när det kom, var sannolikt (baserat på hur mycket det måste kostat att producera) avsett för att möta 1080 Ti, men det gick inte, utan 1080 Ti fick vara ostört toppkort en hel generation. När det sedan kommer till 2000-serien har AMD på samma sätt inget som möter 2080 Ti.

Det är således bara de sista åren som AMD har gett upp på de översta nivåerna, och det är för att de flyttat resurser till att få Zen att fungera. Sen kör de lite olika uppgraderings-cykler - Nvidia gör en hel generation vartannat år, något utspridd, medan AMD helst vill in och peta på något kort vartenda år. Den nivån som fått flest uppdateringar är något oväntat lågpriskortet, som gick Cape Verde-Bonaire-x-Polaris 11-Vega 12-Navi 14, där det bara fattades en uppdatering en gång (den ganska minimala GCN 1.2-uppdateringen hade inget nytt kort i den klassen, utan återupplivade gamla Pitcairn för en sista runda på en lägre prestandanivå).

Visa signatur

5900X | 6700XT

Permalänk
Medlem
Skrivet av medbor:

Det är väl iaf 3840x2160x24 bits om man ska ha 8-bit färgdjup, och detta är mätt i bits så det bli ca 24MiB för en bildruta. Siktar man på HDR med 12 bitar per färg är man uppe på lite högre nivåer, men inte ens dubbla. Bara en liten korrigering, resonemanget var rätt i övrigt

Helt rätt, tack för rättelsen, måste tagit stopp i hjärnfabriken!

Permalänk
Medlem
Skrivet av medbor:

Är det inte likt andra saker att frekvensen är det värsta för strömförbrukningen och att ha en bredare buss i lägre frekvens kan vara effektivare? Jag tycker det känns som att 3090 med 24 kapslar och extrem frekvens pressar sig mer än vad 512-bit vid rimliga frekvenser skulle göra..

Det kan vara så. Hawaii (290X) var ju sådant, 512-bitars buss med klockan nedvriden till 5GHz samtidigt som AMD körde 6.5GHz på andra kort, och Nvidia var upp i 7GHz. Det är en tänkbar lösning, förutom att kretskortet blir ganska enormt då. Det är bara det att rykten säger att det inte är så den här gången, att det bara är 256-bitars minnesbuss och att detta fantastiska magiska Infinity Cache skall lösa alla problem. Den som lever får se.

(OBS att det inte är omöjligt att det funkar. Hela poängen med Maxwells tile-baserade rendering är att man kan få bättre användning av cachen om man strukturerar vad man renderar lite intelligentare. Om AMD har kommit på något liknande, så visst, det kan gå. Men jag vill se lite benchmarks i verkliga spel innan jag tror på det.)

Visa signatur

5900X | 6700XT

Permalänk
Medlem

Men snälla 3090 är titan och vi har inte 3080ti som lär komma . Så jämför rätt tack. Navi 21 är inte emot 3090, eller menar ni navi 21 kommer inte kosta som ett 3090?Swclockers har tydligt börjat jämföra med dubbelt så dyra kort från N jämfört med AMD. Navi21 lär kosta kring 3070-3080 och man jämför det emot 3090?
Förstår inte hur man kan säga 3080 10gb är toppklass när det har för lite minne för det som det är bra på och det är 4k. Bojkotta den snåla minnes kortet tycker jag. Men är väl som vanligt det ska mjölkas på pengar från N sida som vanligt. Köpt 3080 när det kommer med 20gb istället.

Visa signatur

Magnus AMD

Permalänk
Medlem
Skrivet av Ase:

@perost: Kan vara att jag har fel men trodde detta var i grafikmotorerna & att detta kördes i internminnet (systemminne ) & inte i vram på grafikkorten, kan vara att jag missat nåt men förr så var det upplösningen & effekter inbyggt i grafikkorten som bestämde hur mycket vram som krävdes inte texturer i spelen. men som sagt kan ju vara jag som har fel.(hade dessutom fått för mig att direct storage var det nya som skulle ge texturer osv direkt till grafikkorten & inte till internminne & cpu (beräkningar /minnesförflyttning) Men vem vet kan ju då missförstått detta oxå då.

Ja, för en sådär 15 år sedan när grafikkorten bara hade runt 128MB minne så kunde upplösningen göra stor skillnad. En framebuffer för 4K kan som nämnts ta upp 24MB minne, medan 1080p då bara skulle ta upp 6MB. Det blir ju en signifikant skillnad när man har så lite minne. Nu för tiden när de flesta moderna grafikkort har minst 6GB så är 24MB bara en droppe i havet.

Directstorage handlar om att snabba upp överföringen av data från en SSD till grafikkortets minne genom att tillhandahålla ett API som är bättre anpassat för dagens snabba NVMe-baserade SSDer.

Permalänk
Medlem

@perost: Vet att det är från ssd till grafikkort direct storage handlar om & att det handlar om att slippa belasta cpu med förflyttning av data till grafikkort, om detta stämmer som du säger så borde ju vara internminne vara onödigt förutom att driva windows då borde grafikkorten ha minst 32gb minne & inte 4,8, 6 eller 20 gb vram eller nåt,
så känns som att vi båda missar nåt här, minns tillexempel 970 korten som hade 3,5gb minne vilket ledde till bekymmer vid höga upplösningar men du påstår att det handlar om grafikmotorerna & dess texturer som gjorde att minnet tog slut ,jag vet inte riktigt om jag kan hålla med dig i ditt resonemang ,men som sagt jag kan ju ha fel.

Visa signatur

Arne Berg

Permalänk
Medlem
Skrivet av Ferrat:

Vet du något vi andra inte vet? AMD har både på cpu och gpu sidan konstant lagt sig just under top segmentet till en billigare peng för att vinna marknadsandelar.
De har konstant verkat agera efter 80/20 i det att de sista 20% tar 80% av jobbet så de skippar det, ser ingen anledning för dem att ändra en strategi som fungerar väl hittills?

Sedan konkurrens fungerar ju så att man vill vinna pengarna, vem som pressar ut 3 extra FPS är oväsentligt för aktieägarna? Att tävla med nvidia om toppen när man börjar långt bakom är bara dumt resursmässigt, men för de flesta användare som inte vill lägga 10000 på en gpu är det mer viktigt med ok prestanda för minimal peng, där är 3070 och 3060 de man tävlar mot.

Vad jag vet är att 3070 presterar klart bättre än 2080. Till den grad att det förmodligen är där omkring 3060 8GB kommer hamna.
Vad jag oxå vet är att stora chip på TSMC 7e nm är dyra.
Då är det inte jättesvårt att räkna ut att "Big Navi" inte kan vara så billig så att 2080 prestanda duger.

Skrivet av Xinpei:

Det var inte hans poäng. Poängen var att den största delen av marknaden söker efter så hög prestanda per krona som möjligt. Vilket visat sig vara antingen xx60 eller xx70 hos Nvidia t.ex. Det är här pengarna finns och statistiken pekar mot det också. AMD behöver inte slå Nvidias toppkort utan de behöver bara matcha deras bästsäljare i prestanda och lägga sig något under i pris för att få marknadsandelar.

Ärligt talat så ignorerade jag hans prat om var den stora marknaden finns. Av den enkla anledningen att det vi diskuterar i den här tråden, "Big Navi" och dess eventuella 256 bit buss, inte är riktat mot den stora marknaden.

Sen kan man ju gå runt och drömma om att AMD ska gå från att ha ett 250 mm2 chip i $400-klassen till att de kommer köra ett 500 mm2 chip för samma pengar men det kommer med största säkerhet bara stanna vid drömmar...

Permalänk
Datavetare
Skrivet av medbor:

Är det inte likt andra saker att frekvensen är det värsta för strömförbrukningen och att ha en bredare buss i lägre frekvens kan vara effektivare? Jag tycker det känns som att 3090 med 24 kapslar och extrem frekvens pressar sig mer än vad 512-bit vid rimliga frekvenser skulle göra..

Korten klockar ungefär lika högt, antar man att effekten i GPU är någorlunda linjär med antal CUDA-kärnor medan effekten är någorlunda linjär med bredden på VRAM-bussen (den avgör hur många RAM-kretsar som typiskt aktiveras per transaktion).

Kör lite linjärregression på det hela går inte att få ihop ekvationen där 3070 drar ~220 W, 3080 drar ~320 W och 3090 drar ~350 W med mindre än att VRAM faktiskt står för ~100 W av totala budget.

Är möjligt att modellen är totalt fel, men en av sakerna som brukar lyftas fram som fördel hos HBM är just att det är betydligt effektsnålare. Om det ska vara en relevant fördel måste absolut effekt för GDDRx vara relativt hög ställd mot totalt effekt.

Visa signatur

Care About Your Craft: Why spend your life developing software unless you care about doing it well? - The Pragmatic Programmer

Permalänk
Medlem
Skrivet av Ratatosk:

R9 290 hade 4 GB och R9 390 hade 8 GB.
R9 290 var ett riktigt höjdarkort, släpptes 2013 och duger fortfarande bra till spel även i dag.

Prestanda är drygt 50% av ett GTX1080 i DX11 och knappt 60% i DX12.
Test från 2018.

290x fanns det 8gb varianter av också.
https://www.komplett.se/product/830670

Och ja de var riktigt bra grejer, vet flera som fortfarande kör 290/x samt 390 varianterna.

Visa signatur

Ryzen 5 7600
Rx 6650xt
32Gb

Permalänk
Medlem

ATI 2900 XT hade väl en 512 bits buss om jag inte minns fel, hade ett själv och det lät som en lövblås. 😂

Visa signatur

Intel i5 12600K | 128 GB DDR4 3600 Mhz
ASUS TUF Z690-PLUS D4 | ASUS TUF VG32VQ 32" 1440p
XFX 6900 XT Merc 319 Black Limited
HP ProLiant DL380p Gen8 | HP MicroServer Gen 8 |
Mikrotik 10 GbE Networking

Permalänk
Medlem

Detta synkar väl med 3st HBM på 4GB 3072bitars buss på 1000MHz+, samt 4st på 4096bitars buss. Allt tyder på att det blir HBM.

Visa signatur

Happy Face!

Permalänk
Medlem
Skrivet av Ase:

@perost: Vet att det är från ssd till grafikkort direct storage handlar om & att det handlar om att slippa belasta cpu med förflyttning av data till grafikkort, om detta stämmer som du säger så borde ju vara internminne vara onödigt förutom att driva windows då borde grafikkorten ha minst 32gb minne & inte 4,8, 6 eller 20 gb vram eller nåt,

Spel har förstås en massa annan data än bara grafikdata att lagra: information om alla spelobjekt och spelvärlden som helhet, information om spelaren, datastrukturer för t.ex. pathfinding och AI, o.s.v. Det kan variera stort hur mycket och vilken typ av minne spel använder. Grafik är ju (förhoppningsvis) bara en del av ett spel.

Skrivet av Ase:

så känns som att vi båda missar nåt här, minns tillexempel 970 korten som hade 3,5gb minne vilket ledde till bekymmer vid höga upplösningar men du påstår att det handlar om grafikmotorerna & dess texturer som gjorde att minnet tog slut ,jag vet inte riktigt om jag kan hålla med dig i ditt resonemang ,men som sagt jag kan ju ha fel.

970 var problematiska p.g.a. att de hade 4GB minne totalt, men 0.5GB av detta hade rejält strypt bandbredd p.g.a. hur NVIDIA valde att skala ner GM204-kretsen. Detta orsakade prestandaproblem i spel som använde mer än 3.5GB minne, och hade inte specifikt med upplösningen att göra.

Permalänk
Medlem

Om AMD hade något klart så skulle vi väl fått något tidigare.

De borde i allafall likt Nvidia kunna vissa upp korten och säga säljstart 28/10, men det har de inte gjort.

Därför tror jag att det kommer dröja med säljstart.

Visa signatur

I5 9600k@stock / Cooler Master Evo 212 / Gigabyte Z390 Gaming X / Corsair Vengeance LPX 16GB DDR4 3000MHz / MSI RTX2070 Gaming Z / EVGA 550 BQ / Asus VG27BQ 27" 165Hz

Ryzen 5 5600x@stock / Asus Rog Strix X570-E Gaming / Corsair Vengeance RGB Pro 16GB 3600MHz CL18 / MSI RTX3070 Suprim X / BeQuiet Pure Power 11 600W / Asus VG278Q 27" 144Hz

Permalänk
Avstängd

Jag blir inte yngre av att vänta hela tiden.

Visa signatur

Man är inte dum för att man har stavproblem.
Läs mer om min synfel Visual Snow
Om mig ----> #16970666

Permalänk
Medlem
Skrivet av Jonhed:

Är någon här inne på att köpa någon av dessa?

Kommer sannolikt köpa vad som än verkar ge bäst prestanda/krona runt omkring 3080's prestandanivå runt årskiftet.
Vill ha något relativt framtidsäkert dock så mer än 10GB Vram helst. Jag är i oändligt gräl med geforce experience så om jag kan gå tillbaka till Catalyst och ReLive så är det en definitiv bonus.

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Sveklockarn:

Fortfarande ofattbart att de inte har sin avtäckning förrän 28/10.

Vad väntar de på?

Dom kanske faktiskt vill ha kort till salu i butikerna när dom lanserar?

Permalänk
Medlem
Skrivet av perost:

Spel har förstås en massa annan data än bara grafikdata att lagra: information om alla spelobjekt och spelvärlden som helhet, information om spelaren, datastrukturer för t.ex. pathfinding och AI, o.s.v. Det kan variera stort hur mycket och vilken typ av minne spel använder. Grafik är ju (förhoppningsvis) bara en del av ett spel.
970 var problematiska p.g.a. att de hade 4GB minne totalt, men 0.5GB av detta hade rejält strypt bandbredd p.g.a. hur NVIDIA valde att skala ner GM204-kretsen. Detta orsakade prestandaproblem i spel som använde mer än 3.5GB minne, och hade inte specifikt med upplösningen att göra.

Näh nu är du helt ute och cyklar, dom där extra 0.5GB var ju en feature enligt Nvidia. En extra bonus som ägarna bara skulle vara glada över var där.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem

@Shiprat: Ja, om det inte var för att jag gärna använder G-Sync i andra spel än csgo så hade jag nog köpt en också..

Visa signatur

i7 8700k 5.1ghz egengjord delid | 32gb G.Skill Trident Z RGB 3600mhz cl15 | MSI Suprim X 3070ti
https://valid.x86.fr/uudh64

Permalänk
Medlem
Skrivet av IceKey:

ATI 2900 XT hade väl en 512 bits buss om jag inte minns fel, hade ett själv och det lät som en lövblås. 😂

Ja, dom där breda minnesbussarna kan vara ohyggligt högljudda under belastning.

Visa signatur

If you follow the herd you are going to have to step through a lot of manure. Have the courage to trust in yourself and follow your own path.

Permalänk
Medlem

Det ryktas om 2100mhz+ gpu clock på Twitter enligt coreteks.

Visa signatur

Ryzen 7 5800x / Fractal Design celsius s24 / asus rog crosshair 7 hero wifi / 32gb g.skill 3600mhz cl16 trident Z neo C / MSI Radeon RX5700XT Gaming X / samsung 970 EVO Plus 500gb nvme / Western Digital blue 500gb ssd.

Permalänk
Medlem
Skrivet av Jonhed:

@Shiprat: Ja, om det inte var för att jag gärna använder G-Sync i andra spel än csgo så hade jag nog köpt en också..

Har som tur är en C32HG70QQ- hade både 1070Ti och Vega 64 när jag skaffade den så körde på Freesync med förhoppningen om att det skulle bli en gemensam standard då oddsen att nvidia skulle öppna G-Sync för AMD kändes ungefär som noll

Visa signatur

Gamingrigg: MEG x570 ACE, 5950X, Ripjaws V 32GB 4000MT/S CL16, 6800XT Red Devil LE, HX1200i.
Laptop: XPS 9570 x GTX 1050 x 8300h + 16GB Vengeance 2666Mhz + Intel AX200
Valheim server: i7-8559 + Iris Plus 655 + 32GB + 256GB
Printers? Yes. Ender 5, Creality LD-002R, Velleman VM8600, Velleman K8200

Permalänk
Medlem
Skrivet av Shiprat:

Har som tur är en C32HG70QQ- hade både 1070Ti och Vega 64 när jag skaffade den så körde på Freesync med förhoppningen om att det skulle bli en gemensam standard då oddsen att nvidia skulle öppna G-Sync för AMD kändes ungefär som noll

Så du kör på Vega 64 nu?
Har inte hört en enda person som haft en sådan till annat än mining typ. Är den bra?

Visa signatur

i7 8700k 5.1ghz egengjord delid | 32gb G.Skill Trident Z RGB 3600mhz cl15 | MSI Suprim X 3070ti
https://valid.x86.fr/uudh64

Permalänk
Avstängd
Skrivet av Jonhed:

Så du kör på Vega 64 nu?
Har inte hört en enda person som haft en sådan till annat än mining typ. Är den bra?

Har också ett Vega64. Hade en del black screens i början men efter lite uppdateringar händer inte längre.

Visa signatur

There is more stupidity than hydrogen in the universe, and it has a longer shelf life. /Frank Zappa