Framtiden är här: Folk pratar i timmar med chattbottar

Permalänk
Medlem
Skrivet av Spawnbadboy:

Använder chatgpt varje dag på jobbet och ibland privat. Ersatt google nästan helt för min del.

Sparat otaliga timmar på jobbet och otroligt bra att bolla ideer med. Mycket bättre än de flesta människorna.

Låter inte hälsosamt.

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Medlem
Skrivet av JoOngle:

En .. // ..

Fångat. Fattar. Bättre an beräkningar i alla fall som andra pular med.

Visa signatur
Permalänk
Medlem
Skrivet av Whitepilledoomer:

Eftersom jag suger på matematik så tänkte jag att du får avgöra själv lol

Ville jag främst visa att den använder ett annat format nu för siffror istället för vanlig text som i början. Men jag kan försöka med fler tal.

För ett halvår sedan var den så dålig att den inte kunde räkna ut 5+6.

Så för mig är den mycket bättre än då.

Jag bad den räkna ut kubikroten ur 23948756, och sedan frågade jag hur den gjorde - om den skriver in i en kalkylator som den sen lägger in i prompten som svar eller om det är mer sofistikerat. Jag frågade även om man lyckats klämma in kalkylatorn i själva modellen. Men det verkar som att den helt enkelt "räknar" som vi gör, genom nätverket. Med andra ord har OpenAI lyckats få den att generera korrekt matematik genom neurala nätverket. Detta svarade den, jag och den igen:

https://i.ibb.co/XpMyscM/bild.png

Men den svarar ju helt totalt fel!

288,36 * 288,36 * 288,36
≈ 23 977 563,541
Inte 23948756

Kubikroten av talet du nämnde är ju ungefär 288,244

288,36/288,244 ≈ 1,0004

Ett litet men ganska allvarligt fel!

Det mest häpnadsväckande är ju att den ljuger dig rakt upp i ansiktet och du tror på den blint utan att verifiera (flera gånger dessutom). En halv promille är långt från sanningen

Det var exakt detta jag sa till dig och du bevisar det än en gång. Den gör inga interna beräkningar alls, den letar efter nästa bokstav, och hittade något närliggande som den chansade på. Absolut ingen förståelse

Permalänk
Medlem
Skrivet av Allexz:

Så, alla de tusentals, hundratusentals, miljontals människor som fastnat i depression och ensamhet... som kanske redan har försökt allt i sin makt med att hitta någon som kan finnas där, kanske för att lyssna, kanske för att vara en vän, eller partner eller vad som helst...

Ska vi be dem att inte prata med bottarna, för att det vore dystopiskt, mörkt och tragiskt att tillåta dessa människor att försöka hitta någon form av icke ensamhet?

Mycket på denna planet är tragiskt, om inte det mesta helt ärligt. Men jag tycker nog inte att människor som i desperation, nyfikenhet, ledsamhet, glädje, eller någon annan känsla som söker efter något bör klassas som tragiskt. Speciellt inte de som är ensamna och inte finner någon annan väg.

Jag skulle nog hellre vilja påstå att det är tragiskt att mänskligheten finner vis att utnyttja de som redan lider. Det är lättare att tjäna pengar på att utnyttja de i behov, än att faktiskt förbättra något för dem.

Det tragiska kommer sen, om det inte redan gjort det. Relationsbottarna, för endast $59.99 per week. Åtminstone för den stympade botten som är programmerad att breaka immersion lite då å då, de riktigt bra, "mänskliga" de går för 50% av månadslönen från de riktigt desperata.

Är just det jag menar med att det låter tragiskt. Att människor känner sig tvingade till att prata med en bot för att få någon slags social samvaro. Jag menar inte att DE är tragiska.

Visa signatur

Phanteks P400A RGB : Asus Prime X570-P : Ryzen 9 5900X : Corsair H100X : 32GB G.Skill Trident Z Neo 3600CL14 : Sapphire Nitro+ 6800 XT : Xiaomi 34" Curved 3440x1440 : Playseat Evolution Alcantara : Thrustmaster T300RS GT / Ferrari SF1000 Edition Add-on : HP Reverb G2

Permalänk
Skrivet av medbor:

Men den svarar ju helt totalt fel!

288,36 * 288,36 * 288,36
≈ 23 977 563,541
Inte 23948756

Kubikroten av talet du nämnde är ju ungefär 288,244

288,36/288,244 ≈ 1,0004

Ett litet men ganska allvarligt fel!

Det mest häpnadsväckande är ju att den ljuger dig rakt upp i ansiktet och du tror på den blint utan att verifiera (flera gånger dessutom). En halv promille är långt från sanningen

Det var exakt detta jag sa till dig och du bevisar det än en gång. Den gör inga interna beräkningar alls, den letar efter nästa bokstav, och hittade något närliggande som den chansade på. Absolut ingen förståelse

Nu hänger jag inte riktigt med. Jag och den förklarade precis vad den gör och hur den har förbättrats. Om du vill ha exakta beräkningar så kan man använda wolframalphatillägget. Den beskrev i förra bilden hur den räknar ut det, och det ger inte ett exakt resultat. Jag skulle inte kunna eller orka räkna ut det själv ens till den precisionen.

Jag är i alla fall mer intresserad (och imponerad) över att den beräknar det i neurala nätverket överhuvudtaget till skillnad från hur en kalkylator gör det. Om jag ville ha en exakt uträkning av något så använder jag väl en kalkylator. Det är dock bra att ha ett neuralt nätverk som kanske inte räknar ut perfekt i decimal men som har ett hum om vad svaret är, ungefär som en själv fast signifikant snabbare och mer minne lol. Som den skriver är det ungefärligt uträknat och var tydlig med det.

Vet dock inte vad du menar med nästa bokstav?

Det känns som att vissa är väldigt emotionellt laddade angående att vara mot AI, vilket jag ibland råkar trampa på fötterna kring. Besynnerligt från mitt perspektiv då det är ett språkverktyg och inget att vara arg över. Som att varje misstag av AI är ett bevis för att det är totalt värdelöst och att det är väldigt viktigt att skrika det högt. Jag undrar vad det kommer sig, varför det är så viktigt för vissa att peka ut det. Hoppas att du kan behärska dig för jag är inte intresserad av någon diskussion nu om att "den inte har medvetande" - som jag aldrig förnekat (detta är från erfarenhet, att folk nästan blir arga för att man talar om AI och det brukar bottna i någon rädsla över medvetandefrågan hos sig själv eller nåt).

Här har du Wolframalphatillägget. Man bör precisera hur många decimaler man vill ha:

Permalänk
Medlem
Skrivet av Whitepilledoomer:

Nu hänger jag inte riktigt med. Jag och den förklarade precis vad den gör och hur den har förbättrats. Om du vill ha exakta beräkningar så kan man använda wolframalphatillägget. Den beskrev i förra bilden hur den räknar ut det, och det ger inte ett exakt resultat. Jag skulle inte kunna eller orka räkna ut det själv ens till den precisionen.

Jag är i alla fall mer intresserad (och imponerad) över att den beräknar det i neurala nätverket överhuvudtaget till skillnad från hur en kalkylator gör det. Om jag ville ha en exakt uträkning av något så använder jag väl en kalkylator. Det är dock bra att ha ett neuralt nätverk som kanske inte räknar ut perfekt i decimal men som har ett hum om vad svaret är, ungefär som en själv fast signifikant snabbare och mer minne lol. Som den skriver är det ungefärligt uträknat och var tydlig med det.

Vet dock inte vad du menar med nästa bokstav?

Det känns som att vissa är väldigt emotionellt laddade angående att vara mot AI, vilket jag ibland råkar trampa på fötterna kring. Besynnerligt från mitt perspektiv då det är ett språkverktyg och inget att vara arg över. Som att varje misstag av AI är ett bevis för att det är totalt värdelöst och att det är väldigt viktigt att skrika det högt. Jag undrar vad det kommer sig, varför det är så viktigt för vissa att peka ut det. Hoppas att du kan behärska dig för jag är inte intresserad av någon diskussion nu om att "den inte har medvetande" - som jag aldrig förnekat (detta är från erfarenhet, att folk nästan blir arga för att man talar om AI och det brukar bottna i någon rädsla över medvetandefrågan hos sig själv eller nåt).

Här har du Wolframalphatillägget. Man bör precisera hur många decimaler man vill ha:

https://i.ibb.co/McsZT1b/bild.png

WolframAlpha räknar ju rätt utan AI dock

Det jag menar är att chatGPT inte är ’smart’, den letar svar i sin träningsdata. I förklaringen till 3/3.5 går de tidligt igenom att det fungerar så. Varje pass av iterationen spottar ur sig en bokstav i taget

Jag är inte känslomässigt engagerad i detta, jag bara försöker förklara för dig att den ljuger, den gör inte allt den säger att den gör. Den fuskar och manipulerar dig för att övertyga dig

Det är svårt att förklara, men den är mycket ytligare än du tror. Det den kan är att skriva trovärdig text, den lurar dig

Permalänk
Medlem
Skrivet av medbor:

WolframAlpha räknar ju rätt utan AI dock

Det jag menar är att chatGPT inte är ’smart’, den letar svar i sin träningsdata. I förklaringen till 3/3.5 går de tidligt igenom att det fungerar så. Varje pass av iterationen spottar ur sig en bokstav i taget

Jag är inte känslomässigt engagerad i detta, jag bara försöker förklara för dig att den ljuger, den gör inte allt den säger att den gör. Den fuskar och manipulerar dig för att övertyga dig

Det är svårt att förklara, men den är mycket ytligare än du tror. Det den kan är att skriva trovärdig text, den lurar dig

Ska man ta allt den säger med en nypa salt: Absolut! (vilket är sant med det svar som kommer även från en människa)

Kan man använda den för att få en ungefärlig känsla för ett svar, sådär mellan tummen och pekfingret: Absolut! (vilket är lika sant när det kommer från en människa...men jag tror få människor har så bred bas för sin kunskap som nuvarande AI)

Så beroende på vad man är ute efter kan den vara totalt värdelös eller exakt vad man är ute efter.
Det är ett verktyg i mängden. Men man ska inte låta sig luras att den är mer än den är

Sen vad gäller att den "fuskar och manipulerar" för att lura dig så är det nog inget jag kan skriva under på. För att om den har som syfte att uppnå målet att lura dig, så kräver det ju att den blivit tränad för det, samt att den har ett elakt uppsåt - vilket en AI än inte kan ha. Den dagen det händer har vi nog Skynet. Det är snarare så att den saknar kapaciteten att uppskatta hur pass osäker den data den genererar, är, och därmed låter den alltid helt säker på sin sak. Tills man rättar den, och då är den säker på sin nästa sak

Visa signatur

5700x3D | RTX 2060 Super | 2 TB M.2 | 32 GB RAM | Gigabyte DS3H| 750 WATT

Permalänk
Medlem
Skrivet av FX9:

Ska man ta allt den säger med en nypa salt: Absolut! (vilket är sant med det svar som kommer även från en människa)

Kan man använda den för att få en ungefärlig känsla för ett svar, sådär mellan tummen och pekfingret: Absolut! (vilket är lika sant när det kommer från en människa...men jag tror få människor har så bred bas för sin kunskap som nuvarande AI)

Så beroende på vad man är ute efter kan den vara totalt värdelös eller exakt vad man är ute efter.
Det är ett verktyg i mängden. Men man ska inte låta sig luras att den är mer än den är

Sen vad gäller att den "fuskar och manipulerar" för att lura dig så är det nog inget jag kan skriva under på. För att om den har som syfte att uppnå målet att lura dig, så kräver det ju att den blivit tränad för det, samt att den har ett elakt uppsåt - vilket en AI än inte kan ha. Den dagen det händer har vi nog Skynet. Det är snarare så att den saknar kapaciteten att uppskatta hur pass osäker den data den genererar, är, och därmed låter den alltid helt säker på sin sak. Tills man rättar den, och då är den säker på sin nästa sak

Jag menar det är en språkmodell som är specialiserad på att svara på frågor och den ger alltid självsäkra svar som låter att den är mer säker än vad den rimligen kan vara

Det är dock absolut ett sjukt användbart verktyg på extremt många sätt, det säger jag inte alls emot. Men det mesta den säger är delvis en lögn, även om det är en liten sån.

Permalänk
Medlem
Skrivet av Dizzö:

Låter inte hälsosamt.

Vad är inte hälsosamt?

Permalänk
Hedersmedlem
Skrivet av FX9:

Det är snarare så att den saknar kapaciteten att uppskatta hur pass osäker den data den genererar, är, och därmed låter den alltid helt säker på sin sak. Tills man rättar den, och då är den säker på sin nästa sak

Nu säger jag inte att den är intelligent, men är det inte lite så man förväntar sig att intelligens fungerar (inklusive vi själva)? Visst kan man intala sig att man är bara är delvis säker på vissa saker man ”vet” men mycket har man väl inga referenser eller tillförlitlighetssiffror till?

Permalänk
Medlem
Skrivet av Spawnbadboy:

Vad är inte hälsosamt?

Socialisera istället. Det kommer du må bättre av.

Visa signatur

Fractal Design Define R4 | ASUS Z170-A | i7 6700K @ 4.6 GHz med CM Hyper 212 Evo
ASUS GTX 1070 Ti Cerberus Advanced | Corsair LPX Black 3000 Mhz 16 GB CL 14
Samsung m2 970 Evo 1 TB | EVGA Supernova G2 750W | Huawei Mate 20 X

Permalänk
Medlem
Skrivet av Dizzö:

Socialisera istället. Det kommer du må bättre av.

Har faktiskt ingen aning vad du pratar om?

Om man använder chatgpt så socialiserar man aldrig med människor?

Permalänk
Skrivet av medbor:

WolframAlpha räknar ju rätt utan AI dock

Det jag menar är att chatGPT inte är ’smart’, den letar svar i sin träningsdata. I förklaringen till 3/3.5 går de tidligt igenom att det fungerar så. Varje pass av iterationen spottar ur sig en bokstav i taget

Jag är inte känslomässigt engagerad i detta, jag bara försöker förklara för dig att den ljuger, den gör inte allt den säger att den gör. Den fuskar och manipulerar dig för att övertyga dig

Det är svårt att förklara, men den är mycket ytligare än du tror. Det den kan är att skriva trovärdig text, den lurar dig

GPT-4 exempelvis är inte en enkel textförutsägare som T9. Den opererar via ett omfattande neuralt nätverk med hundratals miljarder parametrar som agerar i flera hundra dimensioner. Detta nätverk lagrar inte "fakta" i en traditionell databas, utan snarare innehåller kodade representationer av information och språkmönster i dessa parametrar - koncept, mönster och relationer mellan dem, eller semantik.

Träningen av dessa modeller är tvåstegs. Först genomgår den en pre-träning, där den lär sig generera sammanhängande och trovärdig text helt på egen hand. Det är i detta steg den lär sig att "förlänga" text på ett logiskt sätt; om du ger den inledningen "En bra sak med vatten är...", skulle den kunna fortsätta med "...att det kan släcka bränder". Kul partytrick men inte särskilt användbart (enligt mig).

Därefter sker en övervakad träning. Här justeras modellens parametrar ytterligare med hjälp av en specifik uppsättning data och mänsklig inblandning. Detta gör att den kan utföra mer komplexa uppgifter, som att svara på frågor eller fungera som en chatbot. Så när du interagerar med exempelvis GPT-4, är det en interaktion med en modell som har "lärt sig" genom dessa komplexa, högdimensionella parametrar - alltså mönster i träningsdatan som människor finner användbara.

Så man kan säga att den i första steget lär sig "skriva" och i nästa steg lär sig konversera, om man ska göra en liknelse. Det är dock skillnad på att konversera och konversera bra. Olika modeller är olika bra på det beroende på träningsdatan, antalet parametrar, folket som arbetat med modellen och så vidare.

Så nej, den "lurar" inte mig. Det finns ingen medvetenhet eller agenda. Det är en avancerad maskin som kan härma mänskliga språkmönster och generera användbar text, baserat på en omfattande träningsprocess. Om du menar att den är "ytlig", antar jag att ytlighet i det här fallet handlar om en avsaknad av förmågan att "förstå" i den meningen vi människor gör vilket stämmer. Det hindrar dock inte GPT-4 från att vara ett exceptionellt användbart verktyg som genererar värdeful och användbar text (eller bilder).

Permalänk
Medlem
Skrivet av Whitepilledoomer:

GPT-4 exempelvis är inte en enkel textförutsägare som T9. Den opererar via ett omfattande neuralt nätverk med hundratals miljarder parametrar som agerar i flera hundra dimensioner. Detta nätverk lagrar inte "fakta" i en traditionell databas, utan snarare innehåller kodade representationer av information och språkmönster i dessa parametrar - koncept, mönster och relationer mellan dem, eller semantik.

Träningen av dessa modeller är tvåstegs. Först genomgår den en pre-träning, där den lär sig generera sammanhängande och trovärdig text helt på egen hand. Det är i detta steg den lär sig att "förlänga" text på ett logiskt sätt; om du ger den inledningen "En bra sak med vatten är...", skulle den kunna fortsätta med "...att det kan släcka bränder". Kul partytrick men inte särskilt användbart (enligt mig).

Därefter sker en övervakad träning. Här justeras modellens parametrar ytterligare med hjälp av en specifik uppsättning data och mänsklig inblandning. Detta gör att den kan utföra mer komplexa uppgifter, som att svara på frågor eller fungera som en chatbot. Så när du interagerar med exempelvis GPT-4, är det en interaktion med en modell som har "lärt sig" genom dessa komplexa, högdimensionella parametrar - alltså mönster i träningsdatan som människor finner användbara.

Så man kan säga att den i första steget lär sig "skriva" och i nästa steg lär sig konversera, om man ska göra en liknelse. Det är dock skillnad på att konversera och konversera bra. Olika modeller är olika bra på det beroende på träningsdatan, antalet parametrar, folket som arbetat med modellen och så vidare.

Så nej, den "lurar" inte mig. Det finns ingen medvetenhet eller agenda. Det är en avancerad maskin som kan härma mänskliga språkmönster och generera användbar text, baserat på en omfattande träningsprocess. Om du menar att den är "ytlig", antar jag att ytlighet i det här fallet handlar om en avsaknad av förmågan att "förstå" i den meningen vi människor gör vilket stämmer. Det hindrar dock inte GPT-4 från att vara ett exceptionellt användbart verktyg som genererar värdeful och användbar text (eller bilder).

Jo jag vet att neurala nätverk inte kollar i en databas, dock var nog träningsdatat i den formen därför jag liknade den vid det

Det verkar som du förstår mer än dina första inlägg ger sken av, så då behöver jag inte försöka övertyga mer om dess begränsningar och brister

Man ska än så länge se dem som ett verktyg i mängden, men man behöver faktagranska det man får ut

Det jag menade när jag sa att den klipper och klistrar i sin träningsdata är ju att den inför varje stycke, ord och bokstav står inför ett vägskäl, hur den ska fortsätta skriva, dessa val och vikter har ju tränats in från den databas den utgår från. Något förenklat kanske den väljer meningar eller liknande från olika böcker/artiklar på ämnet i din fråga, vad som passar in bäst givet frågorna innan och dess tidigare svar. På det viset är det som att den väger in allt som en sökterm i en databas av alla möjliga kombinationer av träningsdatan. Det kan bli mycket fel om man tror på resultatet, det var bara det jag ville vara tydlig med

Användbart kan det vara även om den ofta har lite fel

Permalänk
Medlem
Skrivet av Elgot:

Nu säger jag inte att den är intelligent, men är det inte lite så man förväntar sig att intelligens fungerar (inklusive vi själva)? Visst kan man intala sig att man är bara är delvis säker på vissa saker man ”vet” men mycket har man väl inga referenser eller tillförlitlighetssiffror till?

Jag kanske inte är intelligent...men jag försöker alltid bedöma hur säker jag är på något och sen få fram det till mottagaren. Om jag inte är säker så försöker jag snarare få fram att jag är osäkrare än jag verkligen är, tvärtemot vad du föreslår att intelligens är

Man bör även ta mig med en nypa salt

Visa signatur

5700x3D | RTX 2060 Super | 2 TB M.2 | 32 GB RAM | Gigabyte DS3H| 750 WATT

Permalänk
Hedersmedlem
Skrivet av FX9:

Jag kanske inte är intelligent...men jag försöker alltid bedöma hur säker jag är på något och sen få fram det till mottagaren. Om jag inte är säker så försöker jag snarare få fram att jag är osäkrare än jag verkligen är, tvärtemot vad du föreslår att intelligens är

Jo, fast det handlar väl vanligen om att man i några enskilda fall försöker nyasera sig ("99% säker" (eller någon annan bra siffra)) snarare än att man på riktigt har beräknat någon sannolikhet?

Permalänk
Medlem
Skrivet av Elgot:

Jo, fast det handlar väl vanligen om att man i några enskilda fall försöker nyasera sig ("99% säker" (eller någon annan bra siffra)) snarare än att man på riktigt har beräknat någon sannolikhet?

Självklart säger jag inte, "42%" säker eller nån sån siffra utan snarare: "Jag är rätt osäker så kolla gärna upp", eller liknande.

Och detta är enbart i de fall där det är viktigt att vara noggrann. T.ex. om nån ska räkna ut omkretsen i en ritning för att printa nått så kanske jag inte säger att hen kan räkna på PI = 3,141592654 utan då nöjer jag mig med 3 (eller möjligtvis 3,14).

Men tror du förstår

Visa signatur

5700x3D | RTX 2060 Super | 2 TB M.2 | 32 GB RAM | Gigabyte DS3H| 750 WATT

Permalänk
Hedersmedlem
Skrivet av FX9:

Självklart säger jag inte, "42%" säker eller nån sån siffra utan snarare: "Jag är rätt osäker så kolla gärna upp", eller liknande.

Och detta är enbart i de fall där det är viktigt att vara noggrann. T.ex. om nån ska räkna ut omkretsen i en ritning för att printa nått så kanske jag inte säger att hen kan räkna på PI = 3,141592654 utan då nöjer jag mig med 3 (eller möjligtvis 3,14).

Men tror du förstår

Ja, men jag tror som sagt att det är ett specialfall snarare än något som man gör generellt (många saker reflekterar man väl inte över alls) och det är kanske svårt att få en användbar siffra? Om man skall vara strikt är man kanske osäker på allt? Nog har väl även du kommit på dig själv med att ha fel om något du trodde du visste?

Permalänk
Medlem
Skrivet av Elgot:

Ja, men jag tror som sagt att det är ett specialfall snarare än något som man gör generellt (många saker reflekterar man väl inte över alls) och det är kanske svårt att få en användbar siffra? Om man skall vara strikt är man kanske osäker på allt? Nog har väl även du kommit på dig själv med att ha fel om något du trodde du visste?

Yepp, fråga min fru bara

Visa signatur

5700x3D | RTX 2060 Super | 2 TB M.2 | 32 GB RAM | Gigabyte DS3H| 750 WATT

Permalänk
Medlem

Använder ofta google assist för min nest hub och telefonen.. men den är dum i huvudet.. När kommer Ai till dessa?

Permalänk
Skrivet av Whitepilledoomer:

Värst vad folk är negativa lol

Älskar utvecklingen. Fick jag bestämma skulle hela samhället styras av AI.

Det gör det redan , Alternativ intelligens

Permalänk
Medlem
Skrivet av Whitepilledoomer:

Här har du Wolframalphatillägget. Man bör precisera hur många decimaler man vill ha:

https://i.ibb.co/McsZT1b/bild.png

Försvinner inte åtminstone hälften av poängen med ett allvetande AI om man själv måste kontrollräkna och googla vilka tillägg man först bör aktivera för att få fram samma sak som det man precis kontrollräknade fram?

Jag väntar mest på att ChatGPT blir inavlad. Det är bara en tidsfråga. Det dataset man tränat de första versionerna på kan vara det bästa datasetet någonsin. Internet utan AI. Alla framtida dataset kommer vara fyllda till bredden av AI genererat innehåll med varierande kvalitet.

Hur ska du någonsin kunna filtrera bort AI genererat innehåll ur internet igen? Det är där nu och så var det med det.

Permalänk
Skrivet av medbor:

Jo jag vet att neurala nätverk inte kollar i en databas, dock var nog träningsdatat i den formen därför jag liknade den vid det

Det verkar som du förstår mer än dina första inlägg ger sken av, så då behöver jag inte försöka övertyga mer om dess begränsningar och brister

Man ska än så länge se dem som ett verktyg i mängden, men man behöver faktagranska det man får ut

Det jag menade när jag sa att den klipper och klistrar i sin träningsdata är ju att den inför varje stycke, ord och bokstav står inför ett vägskäl, hur den ska fortsätta skriva, dessa val och vikter har ju tränats in från den databas den utgår från. Något förenklat kanske den väljer meningar eller liknande från olika böcker/artiklar på ämnet i din fråga, vad som passar in bäst givet frågorna innan och dess tidigare svar. På det viset är det som att den väger in allt som en sökterm i en databas av alla möjliga kombinationer av träningsdatan. Det kan bli mycket fel om man tror på resultatet, det var bara det jag ville vara tydlig med

Användbart kan det vara även om den ofta har lite fel

Fast den lär sig mönster kring hur dessa koncept relaterar till varandra. Det är det som sker i modellen. Den lär sig inte att bara härma skriven text i slutänden. Det finns abstrakta representationer av fakta, koncept och relationer i modellen, något vi aldrig kunnat göra förut. Det är inte bara "ytlig språklig härmning" den gör, den utför verkligen abstrakta bearbetningar av "semantiken" av vad du frågar.

Sen gör den inte det perfekt. Mänskliga hjärnan är signifikant mer sofistikerad än de AI-modeller vi har. På så vis är det dock imponerande att vi kan göra så pass mycket ändå med dem.

Tänk dig nutidens modeller som mer eller mindre "cerebralt funktionshindrade" enheter med viss kognition intakt. Ibland gör de fel. Ibland kommer fel ord eller en misstolkning. Det här är bara första steget. Det finns mycket kvar att utforska. Inget ont menat mot personer med hjärnskada. Jag har själv hjärnsvårigheter som skapar problem.