Inlägg

Inlägg som psilobe har skrivit i forumet
Av psilobe

GPU, jag tänker som så att om jag skaffar ett 3090 eller 4090 24gb vram så kommer dom släppa en 48gb till konsumenter strax därefter och jag kan dra mitt strå till den gemensamma stacken.

Av psilobe
Nytt bud: 5 000 kr hämtar
Gå till annonsen för att lägga ett bud.
Av psilobe
Skrivet av Chmat76:

Du kan ju alltid försöka med brute-force. Hur långt ungefär var lösenordet, och hur många sekel har du på dig?

Det var någon stans mellan 8-16. Har/hade en cirka höftning på några av tecknen men jag uppskattade att i bästa fall lyckades skära ner vilken tecken uppsättning som skulle användas skulle det ta 1 månad konstant körning med ett 3070 kort.

Men det förutsätter att det ungefärliga lösenord som jag minns är måttligt korrekt. Har bara behållit databasen utifall det blir så att jag har flera kraftiga grafikkort eller en dator jag kan ha tuggandes i bakgrunden i framtiden.

Vem vet, om ett par år kanske man har köpt sig ett 6090ti för 87000kr och offrar en vecka eller två.

Av psilobe

Fan, här hoppades på något som kunde hjälpa mig att komma in i min gamla lösenords bank där jag glömt lösenordet.

Av psilobe

Flikarna ser najs ut, dock lite väl mycket webbläsare feeling vilket gör mig orolig att det bara är en tidsfråga innan dom börjar mygla in reklam och annat där.

Av psilobe
Skrivet av Curik:

Väldigt få som vet hur man får till det du beskriver, så visa gärna lite bilder. För att ha "pysslar en del med AI genererad text och bild" så låter det lite väl otroligt.

Väldigt djupt ämne men jag skummar ytan, summerar lite och kommer med ett eget exempel här.

Allt kan köras via commandline men lite enkla web-uis gör det bra mycket enklare att komma igång.
CLI och python erfarenhet är att rekomendera. Man behöver inte koda men hanterar man pip och venv så klarar man sig.

Först och främst lite resurser:

Huggingface samlar allt möjligt som man kan behöva. Allt från modeller till saker som modifierar dom. Spaces att utforska osv. Ett konto kommer att behövas.

För text är KoboldAI ett smidigt sett att komma igång. Följ bara instruktionerna, finns en Windows-installer som gör det lite enklare. Man bootar upp och sedan väljer man vilken AI modell man vill köra. Gränssnittet kommer dra ned den åt en. Finns modellen inte så kan man specificera ett repo att dra ner. Det enda som tog mig en stund att fatta det var att när man laddar en modell så har man några sliders för vart man skall ladda in modellens alla lager. Man får experimentera lite men helst vill man ha allt i vram. Därefter systemminne vilket blir allt som inte ligger i vram. Tar systemminnet slut så får man dra upp disk layer men det är sjukt långsamt. När modellen är laddad är det bara att börja skriva och sedan researcha olika topics efter ens intresse.

https://github.com/KoboldAI/KoboldAI-Client
Ex text modell:
https://huggingface.co/KoboldAI/fairseq-dense-13B-Janeway

För bilder har jag bara använt stable diffusion och då detta webui. Väldigt enkelt och smidigt att komma igång med. Man installerar webui:t. Sedan letar man upp en modell (stable-diffusion-v1-5) är att rekommendera som utgångspunkt.
I Ui't väljer man modell och så börjar man skriva prompts och experimentera och sedan läser man på om en miljard olika topics.Stark rekommendation: använd modeller med filändelsen .safetensor för .ckpt kan innehålla skadlig kod.
https://github.com/AUTOMATIC1111/stable-diffusion-webui
https://huggingface.co/runwayml/stable-diffusion-v1-5

r/stablediffusion har många bra tutorials och länkar samlade här. Både om man vill utforska vad andra gjort, lära sig mer, hitta inspiration med mera. Varningens ord bara att väldigt mycket är NSFW exempelvis openart. Mycket bra resurs och så skrollar man och plötsligt är det naket.
https://www.reddit.com/r/stablediffusion/wiki/tutorials/

Hur det funkar (grovt):

Magi!
Nej men det är neutral-networks och som jobbar i ett par lager. Dom tar en massa bilder och taggar upp dom, beskriver osv och sedan får modellerna tränas på detta. till sist så har du en chunk med data på några gig som generar en massa härliga bilder beroende på vilka parametrar som matas in. Det är här en stor del av problemen kommer då du många gånger tar andra verk och tränar på och i slutändan kan du återskapa, replikera och extrahera koncept från dom och återanvända.

Vad jag förstått så när man tränat tills man är nöjd så har men en modell eller vad som också kallas checkpoint. Denna kan nu distribueras och användas. Man kan t.ex ha ett sett med data och träna utifrån denna checkpoint för att få en ny modell som är specialiserad på ex fotorealism, vissa visuella element. t.ex om jag samlar in en massa bilder på diverse bilnärken, modeller, årtal osv så kan jag skapa en egen checkpoint tränad just för att leverera mycket bra bilder på bilar.

T.ex skriver man typ Volvo XC69 concept car, very detailed, realistic, multiple views i modellen Anything_v3 så fick jag något som var en mix mellan v90, xc40 och v60.

Man kan även ta 2 eller fler modeller och merga samman. En stor del av detta är dock inte det att vi tar en databas av bilder och mosar utan det är bearbetad data och tränade nätverk som mergas.

Utöver att träna en helt ny checkpoint av en modell vilket man kanske behöver om man vill ens nya modell skall kunna göra mycket finns det andra tekniker så som textural inversion vilket är det som jag experimenterar med än så länge.

Embeddings som triggas av ord i prompten. Dom är mycket små, bara några kb stora och är om jag uppfattat det rätt en uppsättning modifierade weights till AIn som bidrar till det resultat du vill ha. Räcker med 4-5 bilder för att kunna lägga in ditt ansikte istället för andra eller som jag, skapa bättre bilder av mina hundar. Tränar detta på t.ex stable-diffusion-v1.5 så kommer generellt sett denna embedding producera bra resultat för andra checkpoints beserade på samma modell.

Hypernetworks är snarlikt embeddings men tar generellt sett längre tid och arbetar i de senare lagren av AI modellen. Min bild är att du kan göra mer komplexa saker med dessa än med embeddings men tar längre tid att träna.

Exempel på problemet
Jag har en vän som jag spelar DnD med som regelbundet köper konst av folk via ex Reddit. När han postade sin senaste karaktär och länk till konstnären så behövde jag bara ta ett par bilder som denna person lagt upp på twitter och sedan spendera ca 2 timmar och jag hade ett grundläggande filter för denna konstnär. I en modell, tror det var Anything_v3 som är väldigt bra på anime kunde jag återskapa min väns karaktär något så nära och sedan applicera min embedding och det ser ut i stort sett som att det var han på twitter som skapat den nya bilden. Lite dedikering, plocka de bilder som bäst illustrerar stilen, bra taggning osv och man kan få väldigt bra resultat.

Varför jag känner som jag gör och varför det är så svårt att hitta färdiga embeddings och hypernetworks, folk är väldigt rädda för copyright situationen. Därav tycker jag det är bra att det blir lite utredning. AI är här för att stanna men vi måste lösa frågan så att vi kan börja köpa, sälja eller publicerar de olika delarna.

Ge det något år och någon kommer ha en tjänst där konstnärer själva kan publicera sina modeller, embeddings eller hypernetworks och man kan få sin prompt med artistens stil med olika rättigheter beroende på vad man betalar för.

Men derivat då? Om jag har en generering och sedan köper av konstnär X så att jag har mitt verk i X stil vad händer om man tar mitt verk och tränar på? spännande tider, glad om jag slipper reda ut allt!

Exempel vad jag har producerat

Bilder samt prompts till bilder i flytande text, man kan även köra med olika tags.

Efter att ha tränat på detta i ca 1h så kunde jag producera dessa som exempel:

Samma prompt i två olika modeller.

Sista sak att tillägga
Amd 3600, 32gb ram och 3070 8gb Vram. Med detta kan jag köra halv stora text modeller även om dom tar tid. Träna textural inversions på några timmar och ha väldigt kul. Så man måste inte ha ett monster system men det hjälper. Särskilt inte för bilder.

Här kan man testa på text2text: https://lite.koboldai.net/
Crowdsoursade resurser så ifall det är någons hemma burk som står det så kan dom läsa i loggarna vad som frågats och genererats så tänk på det.
Varierar också vilka modeller som är tillgängliga beroende på vad de som hostar har laddat in men oftast så finns det någon av de större modellerna.

Ex så kan jag få in vissa 1.3B modeller i mitt vram, 6B kan generar svar på 10-30s beroende på komplexitet. 30B vill jag inte ens tänka på...
Skall tilläggas att B är antal parametrar i miljarder och jag har hört att chat-gpt är någonstans norr om 150B parametrar.

Av psilobe

Efter att ha pysslar en del med AI genererad text och bild så tycker jag att det är bra att det blir lite klarhet. Jag håller inte med om att det går att jämföra med att ta inspiration så som en människa gör. Jag har själv plockat väldigt specifika bilder och tränat på just för att kunna återskapa en specifik stil fast med andra motiv. Jag har i stort sett plockat det som gör den konstnären unik och gjort det reparerbart åtminstone stilmässigt och kan generera konst snabbare, flexiblare och många gånger snyggare.

Sedan ytterligare så tror jag att detta handlar inte så mycket om att stämma några organisationer på pengar i sig utan detta är helt enkelt så här processen går till för att man skall kunna lista ut vad som gäller. Har AIn inspirerats eller faktiskt kopierat osv.

Skicka ett 4090, jag har slut på vram, går långsamt att träna mina modeller!

Av psilobe

Användare: @MrToasterable
Typ av affär: Jag köpte
Tillvägagångssätt: Upphämtning + swish
Produkt: Mobo, cpu + kylare

Vi kom överens kring hur och var och utförde affären utan konstigheter.

5/5

Av psilobe
Nytt bud: 500 kr mobo,cpu, kylare - hämtar
Gå till annonsen för att lägga ett bud.
Av psilobe
Skrivet av psilobe:

700 kr + frakt

För processorn

Av psilobe

700 + frak för B450-f

Av psilobe
Nytt bud: 700 kr +frakt
Gå till annonsen för att lägga ett bud.
Av psilobe
Nytt bud: 1 500 kr Hämtar
Gå till annonsen för att lägga ett bud.
Av psilobe

Radeon5850 -> gtx970 - Fallout 4 & Just Cause 3
Var väldigt väldigt nöjd med mitt Radeon men var bara 1 eller 2 gig Vram och där tog det i taket och gick inte att pusha längre.
Köptes i Jan 2016.

Gtx970 -> Vega64 - Inget spel utan hittade det för 2999kr nytt i butik runt black friday 2019 så jag slog till.

Vega 64 -> rtx3070 - Hell Let Loose. Typ det enda spelet som jag pushar kortet något. Våren 2021.
Hade också skaffat en 144hz skärm i 1440p strax innan.

Ser fram emot kort som är ett steg upp i prestanda men framförallt som är strömsnålare. Inga planer på 4k på lång sikt och mindre, tystare, kallare burk är mer intressant.

Av psilobe
Skrivet av medbor:

Undrar hur retrospelande kommer se i ut för dessa konsoler om 15-20 år. Till Wii/PS3 fanns det ju fortfarande kompletta spel på skiva som inte krävde internet alls. Men när det blir som med de nya konsolerna finns ju inte spelen längre fysiskt, man måste ha deras tjänst, precis som med streamingtjänsterna för tv/film.

Visserligen kommer det säkert remasters och annat för vissa spel, men de udda spelen, konstiga plattformar som Apple Arcade, …

Tråkig utveckling detta

Ja, nu för tiden så kan man hitta nästan alla gamla spel som abandonware till både pc och äldre konsoler men i framtiden?
En enorm mängd utav mediet riskeras att helt försvinna.

Av psilobe

Kort 2: 800kr - hämtar

Av psilobe

För folk som har svårt att koppla av om dom inte har något att göra kan jag rekommendera att lära sig att slipa med ett enkelt bryne. På med lite musik eller ljudbok eller bara tystnad och slipa en kniv eller två. Också roligt när man befinner sig vid kusten, landet, snickebo och hittar något gammalt, slitet och rostigt för att sedan skänka nytt liv.

De flesta knivar vi har skaffade jag och frun för >10 år sedan och varit billiga saker. 20kr i brynen har förhindrat nyinköp.

Av psilobe

När jag ser klipp på någon random snubbe som står och pratar så känns det som att någon försöker sälja mig en produkt och då blir jag misstänksam automagiskt oavsett hur vettigt det verkar. Är ju fortfarande långt i framtiden som detta släpps så känner inget behov att hoppa på något hype tåg. Min backlog med spel är stor nog. I sinom tid släpps även detta spel och då ser vi ifall det står på sina egna meriter.

Av psilobe

Absolut största problemet: Allt känns för rusat. Jordans stil var utdragen. Bra att man går speedar upp lite men saker känns alldeles för hastade. Flytet känns fel för mig, där vi är nu skulle behövt två avsnitt till eller så. Varje episod måste inte ha en massa action. Jag tror att om dom inte reder ut det så kommer dom bara rusa snabbare och snabbare tills serien faller pannkaka.

Dock är det väldigt mycket till trots som jag tycker dom har gjort bra med att fånga karaktären i storyn, personerna och händelser.
När Thom gav den döda Aiel krigaren några ord är ett av mina favorit ögonblick hittills och ett bra exempel. Det liksom dränktes i allt annat på något sätt.

Sedan hur dom väver magin är jag lite so-so på. I första avsnittet vart jag ordentligt besviken, billiga effekter med Moiraine som stod och vevade. Lite bättre har det blivit men särskilt när dom använde helande skulle jag sett lite mer subtila effekter. Inte varje gång men ibland lite likt introt typ i karaktärens mind-eye att dom faktiskt väver samman olika element.

Där missade dom också något viktigt med Rand och hur han föreställer sig lågan som fokus.

Men som en långtime Wot fan så måste jag säga att dom ändå gör ett bra jobb med många skådisar som verkligen passar. Kate Fleetwood passar perfekt som Liandrin.

Av psilobe

Topplåtar
1. Carolus Rex
2. Karolinens Bön
3. Attack of the dead men
4. To hell and back
5. Gott mit uns.

Vart dock bara 5,4k minuter så 0.5% av topp lyssnarna slog mig på Sabaton.
Synd att jag lyssnar så mycket mha youtube, skulle vart skoj att haft bättre statistik.