Inlägg

Inlägg som Galadhnen har skrivit i forumet
Av Galadhnen

Minns ärligt talat inte hur mycket jag lurkade här innan jag registrerade mig, men när jag väl gjorde det så va det för att få tips om ett datorbygge. Då hade jag sparat pengar från mitt första jobb och kunde för första gången investera i en egen dator. Det va då som Windows 7-betan blev tillgänglig, så jag körde dual-boot Fedora Linux och Windows 7 beta.

Av Galadhnen

@Yoshman:
Tack för svaret!

Lägligt nog fick jag i princip den info jag ville ha från Gamers Nexus:
https://www.youtube.com/watch?v=bfyBtGXU41I

Riktigt intressant!

Av Galadhnen
Skrivet av perost:

De jämför endast vilken prestanda som krävs för att göra motsvarande arbete som RT-kärnorna gör, d.v.s. om man inte har RT-kärnor så krävs ungefär 10 TFLOP per Gigaray. Det betyder inte att RT-kärnorna faktiskt utför 10 TFLOP per Gigaray, utan hela poängen med dem är att kunna göra beräkningarna på ett effektivare sätt än att bara bruteforcea dem med CUDA-kärnor. Prestandan för RT-kärnorna räknas alltså främst i Gigaray/s och inte TFLOP/s, eftersom det intressanta är hur många strålar per sekund som kan beräknas.

CUDA-kärnorna (och AMDs motsvarighet) är designade att utföra samma operationer på en stor mängd data, eftersom rastrering främst är ett dataparallellt problem. Ray tracing är istället främst ett uppgiftsparallellt problem då strålarna kräver olika beräkningar beroende på hur de studsar, så traditionella grafikkort lämpar sig ganska illa för ray tracing. Men det går förstås att göra ray tracing på grafikkort utan RT-kärnor också, de är bara inte särskilt effektiva på det.

Däremot så ligger tensorkärnorna på ett 2080 Ti faktiskt på ungefär 100 TFLOPS, men de är då helt specialiserade på att utföra operationen D = A * B + C där A, B, C och D är 4x4-matriser.

Har vi någon konkret information om hur RT-kärnorna accelererar BVH-sökningen?
Jag har... kanske inte lusläst hela Nvidias Turing Architechture Whitepaper, men allt där som har med ray tracing har jag läst och det finns ingen konkret, teknisk förklaring hur en RT-kärna gör beräkningarna annorlunda.

De visar upp nedanstående:

https://i.imgur.com/gcnejYQ.png

- Nvidia Turing Architecture Whitepaper

Där kallar de det "emulation" (lite nedlåtande) i Pascal och "acceleration" (låter fint) i Turing men pekar inte på något annat än att:
1. En RT-kärna delar upp arbetet i två dedikerade enheter: en hanterar BVH-sökning genom trädet av bounding-boxar, och när den lägsta nivån identifieras tar andra enheten vid och beräknar vilken triangel som träffas av strålen
2. SM befrias från arbetet iom att RT-kärnorna gör jobbet

Vi skulle, troligen hyfsat tryggt, kunna anta att RT-kärnor gör arbetet mer effektivt (operationer per Giga Ray) än om man hade exakt samma beräkningskraft tillgänglig via en massa SM utan RT-kärnor, men med tanke på att t.ex. begrepp som "CUDA cores" används kanske mer för marknadsföring än något annat (Gamers Nexus ft. David Kanter) så tänker jag inte helt och hållet nöja mig med det. Jag vill ha konkret, teknisk fakta.

Så när Nvidia säger att Pascal spenderar 10 TFLOPS per Giga Ray, men sen inte nämner något om hur faktiskt effektivt deras nya RT-kärnor hanterar samma operationer... då undrar jag om de undanhåller information av en anledning. För de jämför äpplen och päron när de säger "Pascal: 10 TFLOPS = 1 Giga Ray" ||| "Turing: 68 RT cores = 10 Giga Rays".

Har någon här en källa som har någon teknisk information om hur RT-cores gör BVH-sökningen mer effektivt, gärna beskrivet i operationer per Giga Ray eller beräkningskraft per RT-core.

Av Galadhnen
Skrivet av Radolov:

De använder sig av motion blur (även på vissa statiska föremål ibland? Stabiliseras efter ett tag), vilket kan få vissa saker att se konstiga ut. (Har inget att göra med ray tracing)

Kolla när spegelytorna här roterar:
https://youtu.be/1nqhkDm2_Tw?t=77

Det skulle kunna ha med ray tracing att göra ändå.
Jag läste på om implementationen av ray tracing från Nvidia, de använder inte någon "temporal data", alltså de jämför inte värden från ray tracing data från tidigare frames. Att göra det kan leda till ghosting. Skulle det kunna vara så att Cryengine valt att göra det och därför få något som liknar motion blur?

Nvidia skrev:
All of the denoisers work on 1-2 sample per pixel input even without temporal reprojection. We don’t have to suffer from the ghosting or other typical issues introduced by temporal filtering.
- https://devblogs.nvidia.com/ray-tracing-games-nvidia-rtx/

Jag bara spekulerar, jag har inte sett några exempel på effekterna så jag kan inte göra en jämförelse med Cryengines demo.

Av Galadhnen
Skrivet av Ozzed:

Man kan ju ana att Nvidia på något sätt kommer spy galla över det här.

Själv tycker jag bara det är bra om det fungerar. Hela grejen med "dedikerade bitar av kärnan" till en specifik uppgift känns väldigt lökig, utan det jag önskar är snarare att råkraften ökar och ökar och sedan kan spelutvecklare göra vad de vill med den, som om det här på sikt dödar "turing cores" eller vad nu den specialanpassade biten heter så är det bara bra enligt min egen personliga åsikt.

Edit: Fixade typos.

Det beror väl på vilken typ av operationer som ska göras och optimeringar som kan göras utifrån det?
DLSS verkar vara ett use case där det är befogat med dedikerade kärnor, där det ska göras en massa matrismultiplikation enligt
https://www.sweclockers.com/nyhet/27108-computerphile-forklar...

Nu är ju inte DLSS så lyckat i praktiken än men det är ändå något som rimligen underlättas av något som tensorkärnor.

Jag minns inte om jag hört något liknande om operationerna som görs för ray tracing. Nvidia får det att framstå att det krävs "RTX cores" men det kan ju vara ren marknadsföringsmörja. Jag försökte göra lite research nu, läste på om path tracing, ray tracing, Nvidias egen beskrivning av implementationen (som till skillnad från DLSS inte nämner något om att det är någon särskilt operation som RT-kärnorna fokuserar på) och diskussioner mellan utvecklare på:
https://devtalk.nvidia.com/default/board/57/

Detta va särskilt upplysande:
https://devblogs.nvidia.com/ray-tracing-games-nvidia-rtx/

Nu är jag inget kodgeni eller specialist inom datorgrafik men av allt jag läst, sett och hört skulle jag sammanfattningsvis säga att:
- Mycket av de algoritmer som lagt grunden för ray tracing har inte markant förändrats sedan 70-talet
- Nya approximerade algoritmer som mer eller mindre löser "the rendering equation" har inte tillkommit sedan Photon mapping, 1995 (vad jag kan hitta iaf)
- Trots försök att optimera ray tracing är det fortfarande inte realistiskt att använda mer än 1 eller 2 samples per pixel i realtid
- Denoising är inget nytt men Nvidia har utvecklat en metod som riktar in sig på att kunna effektivt göra denoising trots endast 1-2 samples per pixel.
- Nvidias lösning använder tre sorters denoising för olika effekter, vilka var för sig använder sig av olika (delvis gemensamma) uppsättningar data
- Nvidias exempel på hur Turing resp. Pascal hanterar ray tracing visar att RT-kärnorna inte kan processa fler rays med samma antal FP-operationer, det är bara så att alla RT-kärnor på en RTX 2080 Ti har en kapacitet på 100 TFLOPS så den kan processa 10 "gigarays" medan en GTX 1080Ti med ~11 TFLOPS kan processa 1.1 "gigaray" - eller tolkar jag nedanstående fel?

In Pascal, ray tracing is emulated in software on CUDA cores, and takes about 10 TFLOPs per Giga Ray, while in Turing this work is performed on the dedicated RT cores, with about 10 Giga Rays of total throughput or 100 tera-ops of compute for ray tracing.
- NVIDIA-Turing-Architecture-Whitepaper.pdf

Att de säger 100 tera-ops kanske är för att det inte bara är FP-operationer...?
Eller vill de bara vara missvisande och inte peka ut att RT-kärnorna inte alls är extra effektiva på raytracing, utan bara har en jäkla massa extra beräkningskraft?

Så det enda "nya" som gör ray tracing i realtid möjligt är:
1. Effektiv denoising som kan hantera ray tracing som gjorts med endast 1 sample per pixel (eller upp till 2)
2. En jäkla massa extra beräkningskraft, dedikerad för Raytracing i RT-kärnor men som inte verkar skilja sig direkt från FP32-enheterna i CUDA-kärnorna - om inte mot förmodan RT-kärnorna faktiskt gör en kombination av operationstyper

TLDR:
Den extra beräkningskraft som RT-kärnorna erbjuder innebär antagligen att AMD ändå inte kan mäta sig med Turing-korten i Cryengine. Jag antar också att någon motsvarande sorts denoising som Nvidia använder också används för AMD-korten, antingen implementerat helt och hållet av Cryengine eller i samarbete med AMD.

Ser fram emot att få lite mer faktisk, konkret info om hur det funkar i Cryengine och se om jag är helt ute och cyklar eller inte.

Av Galadhnen

@freelander:
När min sambo byggde sin dator senast gjorde hon det enkla misstaget att sätta sina två RAM-minnen direkt bredvid varandra, och åtminstone med hennes moderkort så kunde datorn inte boota upp då.

Är det första gången du sätter ihop en egen dator?
Jag frågar bara så vi vet på vilken nivå vi kan förvänta oss att din kunskap ligger, så kan vi göra kvalificerade gissningar om vad som gått snett.

Av Galadhnen

@Hoggaforfan:
Det finns väl ändå belägg för telefontillverkare medvetet åldrar sina äldre telefoner på olika sätt?
Exempelvis Apple och Samsung enligt denna artikel:
https://www.theguardian.com/technology/2018/oct/24/apple-sams...

Jag har inte gjort någon större genomgång av bevisen eller så, men det har ju varit lite av en snackis senaste tiden.
När Apple erbjöd batteriutbyte för något tag sedan så var det kanske i respons till den här kritiken?
Mer nyligen, när det va dags för Apple att rapportera hur finanserna gått, då nämner de deras batteriutbyte som en anledning till varför de sålt färre telefoner. De är ju mycket väl medvetna om att det är negativt för deras affärer om folk inte behöver köpa ny telefon pga dålig batteritid eller slöhet.

Något annat som brukar nämnas av t.ex. Gamers Nexus (youtube-kanal) är... vad är det de kallar det? "Right to repair"?
De klagar ofta på framförallt Apple (trots att de inte egentligen har mobiltelefoner som ett fokus för kanalen) och deras försök att göra det så svårt som möjligt för användare att själva reparera sina telefoner.

Av Galadhnen

Intressant tråd för mig med tanke på att jag sitter med en 3570k, överklockad till 4.2ghz (mer än så är oftast stabilt men inte alltid) och en GTX 970 överklockad till ~1500mhz.

Har inte undersökt supernoga vilken som är störst flaskhals. I Doom (2016) ligger både CPU och GPU nära eller vid 100%. Skärmen är 1080p 144hz om någon undrar.

Jag har aldrig gjort en delid så att köpa en 3770k skulle vara kul för att bara lära sig det.
Men hur mycket är HT värt i dagens spel? Min 3570k överklockar som sagt inte till mer än 4.2ghz (ingen delid), kan jag förvänta mig bättre med 3770k och utan/med delid?

Billigaste jag hittar är just nu 860kr:
https://www.tradera.com/item/344505/335196693/intel-i7-3770k-...

Jag skulle inte lägga mer än kanske... 600kr? Kanske är värt pengarna bara för att lära sig delid.

Av Galadhnen

Jag sitter med en Acer XF240H, vilket är så gott som en uppdaterad version av Acer XFA240, så jag hoppas att XF240H också går bra. Ska definitivt testa den 15:e!

Av Galadhnen

@Laxpudding:
Tack för din input!
Just eftersläpningarna som jag såg var mycket lätt att observera, det va kraftiga släpningar som jag och min sambo reagerade på omedelbart. Det var ju rätt många år sedan nu så minnet är inte perfekt men jag har svårt att tänka mig att jag inte skulle felsöka grundligt och pröva alla tänkbara inställningar innan jag dömde ut TVn. Vi spenderade 2-3 dagar med det innan vi till slut lämnade tillbaka den.

Den erfarenheten, vare sig den är representativ för dagens läge eller inte, har gjort mig vaksam för sånt här. Så köper jag en TV så kommer jag definitivt testa hur den hanterar lägre upplöst video.
edit: vilken upplösning jag i slutändan kommer testa med beror förstås på mina behov där och då. Jag kommer nog inte använda min Wii med den t.ex.

@yrfhar:
Okej, intressant att det skiljer sig mellan appen respektive PC/Chromecast.
Oavsett vad det beror på är det bra att ha i åtanke att det kan skilja sig, tack!

Av Galadhnen

När jag köpte min nuvarande TV, vilket nån gång mellan 2011-2013 , då spelade uppskalning av lägre upplöst video en avgörande roll. Jag köpte först en Samsung LCD (LED-upplyst) för cirka 10000kr men lämnade tillbaka den direkt efter jag testat den. Uppskalningen va hemsk, det va t.o.m. släpningar i bilden om den va något lägre än 1080p. Sedan köpte jag en Panasonic plasmatv för drygt 9000 och den håller än idag, om man nöjer sig med 1080p.

Är inte bra uppskalning fortfarande relevant? Säg att jag pluggar in en Switch som ger en video på 1080p och kopplar in den i en 4K-tv, finns ingen risk för dålig uppskalning där? Eller om jag vill se en 720p-stream från Twitch (inte alla streamar i 1080p) på min TV medan jag degar i soffan?

Av Galadhnen

Jag måste instämma med @Trunk
Om du är ute efter att öka din fps i 4k så har du ingen nytta av en ny cpu och kommer nog inte behöva det ens vid nästa generation av grafikkort från Nvidia, alltså 3000-serien eller vad det nu kan tänkas heta då.

Om du vill få något extra värde för 40k så kan du köpa en RTX 2080 TI och spara resten till en ny skärm istället?
Asus ROG Swift PG27UQ är saftigt dyr men beroende på vilken 4k-skärm du sitter med idag kanske du lockas av vad den erbjuder: VESA HDR-1000 certifierad, 144hz, 4k-upplösning och G-sync. Det är en våt dröm som få skulle vara villiga att pröjsa 22k för om de ens kunde.

Av Galadhnen

Jag har själv använt trådlösa Xbox 360-kontrollers länge. Den trådlösa adaptern ("receivern") dog efter ett år eller två men jag hade en i reserv och den funkar fortfarande.

Numera använder jag min Wii U Pro controller med en Asus bluetooth-adapter. Det var inte helt felfritt till en början men har varit stabilt i minst ett halvår, sedan jag uppdaterade mjukvaran, WiinUSoft.
Den simulerar en Xbox 360-kontroller via XInput.

Om du letar efter ett säkert kort, kör på Xbox One-kontrollern. Om du har någon särskild anledning att köra på 360-kontrollern så för all del gör det, men jag är inte den enda som haft strul med receivern.

Om du letar efter anledningar att använda Wii U Pro Controller så skulle jag säga att följande är bra anledningar:
+ Oerhört bra batteritid och kan laddas medan du spelar
+ Inbyggt batteri, dvs du slipper hantera AA-batterier
+ Sköna knappar/spakar (subjektivt)
+ Passar bra till normalstora händer (Xbox-kontrollerna är lite större)
+ Du kan känna dig lite extra cool och speciell

Tänk dock på att:
- Layouten skiljer sig lite från Xbox 360-kontrollern och det kan ta lite tid att vänja sig. Du kan binda om A och B, X och Y, men högra analogspaken sitter där den sitter.
- Det är inte säkert att WiinUSoft kommer fungera felfritt över flera år framöver, medan man bör kunna förvänta sig bra support från Windows gällande deras egna Xbox-kontroller.
- Du behöver Bluetooth, inbyggt eller via adapter
- Lite (inte mycket!) extra strul att komma igång med

Många andra Nintendo-kontrollers som t.ex. Switch Pro Controller och Joycons går också bra med WiinUSoft men jag har inte testat dem så jag kan säga varken bu eller bä.

Av Galadhnen

Bra tråd MaLo! Man tackar.

Jag använde dina råd som utgångspunkt när jag skulle sätta ihop en dator till min lillebror som nyligen fyllde 18 år, och samtidigt tänkte jag själv köpa en ny dator och överlåta min nuvarande till min flickvän. Vi har båda ungefär samma krav, jag har möjligen lite högre krav och en del mer pengar att tillgå, så med det i åtanke satte jag ihop en dator till mig och en budgetvariant till brorsan. Jag har några frågor, men de kommer jag till strax.

Min tilltänkta dator:
Chassi
http://www.prisjakt.nu/produkt.php?g=802367 Fractal Design Arc (Svart) 745 kr (inet)

Nätaggregat
Har redan ett från Corsair på 650W.

DVD
http://www.prisjakt.nu/produkt.php?p=868215 Sony Optiarc AD-7280S 149 kr (webhallen)

SSD
http://www.prisjakt.nu/produkt.php?p=974936 795 kr (inet)

Hårddisk
Har redan en WD Green 1 TB.

RAM
http://www.prisjakt.nu/produkt.php?p=916997 Corsair DDR3 2x4 GB 339 kr (komplett) | 378 kr inkl. frakt

Grafikkort
http://www.prisjakt.nu/produkt.php?p=1239034 GTX 670 2 GB 3469 kr (komplett) | 3528 kr inkl. frakt
eller
http://www.prisjakt.nu/produkt.php?p=1370115 GTX 660 Ti 2 GB 2499 kr (inet)

Processor
http://www.prisjakt.nu/produkt.php?p=1189950 i5 3570K 1838 kr (inet)

Moderkort
http://www.prisjakt.nu/produkt.php?o=1165756 AsRock Z77 Extreme4 1193 kr (inet)
eller
http://www.prisjakt.nu/produkt.php?p=1167993 Asus Maximus V Gene 1595 kr (komplett) | 1644 kr inkl. frakt

Extra CPU-kylare
http://www.prisjakt.nu/produkt.php?p=828022 Antec Kühler H20 620 (vattenkylning) 489 kr (inet)

Totalt: mellan 8086 kr och 9458 kr

Så då frågar jag mig varför jag skulle vilja lägga ut 400 kr extra på moderkortet? Både duger väl för att överklocka med eller?
Och varför ska jag lägga ut en tusenlapp extra på grafikkortet? Om prestandaökningen ligger på 9% i det test du refererar till, befogar det en prisökning på 39%? Jag vill förstås gärna ha en så bra dator som möjligt, och jag är villig att lägga ut lite extra på det, men jag kan stå ut med att sänka någon enstaka spelinställning i t.ex. BF3 för att få samma prestanda som jag skulle fått om jag spenderat ytterligare 1000 kr. Eller behöver jag sänka mycket för att nå samma prestanda?

Så till budgetvarianten. Det är samma delar som ovanstående, med undantag för:

Nätaggregat
http://www.prisjakt.nu/produkt.php?p=963097 FSP Group FSP650-80EGN 650W 649 kr (inet)

Hårddisk
http://www.prisjakt.nu/produkt.php?p=1059944 1 TB 625 kr (CDON) | 674 kr inkl. frakt

Processor
http://www.prisjakt.nu/produkt.php?p=514335 AMD Phenom II 3,4GHz 785 kr (inet)
eller möjligen
http://www.prisjakt.nu/produkt.php?p=1189952 i5 3450 1549 kr (inet)

Moderkort
http://www.prisjakt.nu/produkt.php?e=913235 Gigabyte GA-970A-UD3 709 kr (dustin) | 768 kr inkl. frakt
eller om vi kör på i5 3450
http://www.prisjakt.nu/produkt.php?p=1165802 Gigabyte GA-Z77M-D3H 695 kr (inWarehouse & komplett) | 754 kr inkl. frakt

Så till mina frågor om dessa.
AMD-processorn ovan är från 2009, så för att den ska mäta sig med en i5 3450 måste den överklockas eller? Duger den för moderna spel som BF3 även utan att överklockas? Min bror spelar visserligen mest spel i Anno-serien, nya X-COM och framtida Sim City-spel, så den duger kanske som den är? Och apropå det så utgår jag ifrån att GTX 660 Ti duger bra för dessa. Min bror är definitivt inte villig att lägga ut 1000 kr extra för ett något bättre grafikkort.

Rent allmänt så har jag inte missat något eller? Allt verkar kompatibelt så vitt jag kan se iaf.

Tack återigen för din fina guide, och jag ber om ursäkt för mitt lite väl långa inlägg.
// Rickard

Av Galadhnen

Meh, ingen som helst aktivitet här... och det finns ju inte ens en view count på det här forumet, så HDstarcraft har ju ingen aning om hur många det är som kollar.

Men anyway, ni kan ju forfarande skaffa er en chans att få en betakey om ni subcribar.

Av Galadhnen

Husky visar en hel del sc1-replays faktiskt, men hans röst är inte alls lika behaglig som HDstarcrafts röst. Men jag har sett alla hans sc2-replays och de nyare för sc1 ändå.

En annan bra shoutcaster är Crota (blizshouter på youtube). Han är lite vimsig och säger fel ord då och då, men är riktigt duktig, har bra koll på strategier och spelet i allmänhet, och är ibland jävligt rolig helt av misstag.
Och för den som gillar det gör han även wc3-shoutcasts.

(edit: hade skrivit crotas youtubenamn fel...)

Av Galadhnen

@Insanity92
Muahahahahaha!!!

Jag vet dock inte hur många "raffles" han ger mig för det dock. Majoriteten av hans tittare är antagligen amerikaner, och även om amerikanska forum är större så kommer de flesta av hans subscribers rikta sig till amerikaner, medan jag lyckades nå en grupp som inte lika många av hans subscribers skulle kunna nå.

Så jag hoppas han värderar mitt inlägg högt.

Och ju mer aktivitet det är i tråden desto fler poäng kan jag få, kom jag på. Så skriv gärna något här om ni är snälla nog att hjälpa mig öka mina chanser en liten aning, om än säkert marginellt.

Men ni kan väl knipa något annat forum? Postar ni en länk här så kan jag och andra gå in och kommentera det kanske.
Bara en tanke.

Av Galadhnen

SC2 betakey giveaway på youtube av HDstarcraft!

Hallå alla sweclockare!

Jag kollade, som jag ofta gör, på HDstarcrafts youtube-sida idag när jag såg att han har fått in en extra betakey,
och ger sina subscribers en chans att vinna den!

För mer info, kolla in HDstarcrafts youtube-sida:
http://www.youtube.com/user/hdstarcraft

För er som inte redan visste det så är HDstarcraft en starcraft-shoutcaster, en av mina favoriter.
Och till skillnad från många andra inte skriker så man får ont i öronen.
Om ni vill lära er hur ni ska spela SC2 så är han ett hett tips.

Lycka till!

edit: skriv gärna ett svar!

Av Galadhnen

Western Digital Caviar Green Power 1TB ska vara bland det tystaste du kan få tag i, om du är intresserad av en tyst hårddisk. Den är väldigt energisnål också, men vid 5400 RPM så finns det kanske en del prestanda-freaks som hellre tar en på 7200 RPM.
Här är iaf en artikel om den: http://www.silentpcreview.com/article804-page1.html

Du kanske vill ha en optisk enhet också?
Det är skitsvårt att hitta någon som är tyst dock.
Själv fick jag nöja mig med en PIONEER DVD±R/RW DL 16X DVR-216BK.
216BK för att jag alltså ville ha den svarta varianten.

Jag har inte testat den än, men den ska inte låta mer än andra iaf, men förhoppningsvis stämmer det att den är "ovanligt" tyst som vissa har sagt.

I övrigt håller jag väl med roxkz. Chassit och nätagget kommer inte hålla om den ska vara tyst.

Kanske ett nätagg från Corsair, och en låda från Antec? Typ en Antec Solo.
Då går det ju upp i pris förstås, men för en tyst dator är det värt det.

Av Galadhnen

Från vad jag förstår är Samsung Syncmaster T220 en riktigt bra skärm.
Jag beställde en igår, så jag vet inte än om det stämmer. Men om man ska tro på de reviews som finns ute på nätet så borde jag inte bli besviken:

http://www.digitalversus.com/article-358-3448-36.html