Det är möjligt att den gode professorn har fel. Men någon får förklara hur en sådan intelligens skulle kunna uppstå. Innan någon kan göra det är det bara science fiction. Ett tankeexperiment som vi kan ägna oss åt just för att vi har en sådan fantastisk intelligens.
Bara för att vi inte vet hur det fungerar kan vi väl dock inte avskriva det? Kanske visar det sig att det inte är något särskilt konstigt som pågår när vi kommer lite längre (numera tror vi väl till exempel att liv är något som har en god chans att uppstå bara förutsättningarna är någorlunda goda). Den neutrala hållningen är väl snarare "kanske"?
Vad får vi för svar när vi frågar en språkmodell (som inte har någon kropp) hur den upplever det att inte ha några ben? Vi får ett syntetiserat svar som delvis bygger på hur andra människor som har en kropp, men inte några ben, berättat att de upplever det blandat med en mängd andra upplevelser och tankar om ämnet som andra människor haft och som finns nedtecknade för en modell att göra analys av och representera i sin "projektion" av verkligheten. Tillsammans med vikter som representerar dramatiska, syntaktiska och rent logiska regler som går att härleda ur den text som modellen är tränad på kan den ge ett svar som en människa bedömer är i linje med hur en människa skulle kunna svara.
Men är det verkligen diskvalificerande (om det nu är så (chatgpt verkar inte göra det längre i alla fall))? Man skulle väl kunna föreställa sig ett barn (eller en berusad person) också sväva iväg om man frågar om något abstrakt? Man kommer förstås använda de intryck och metaforer man har tillgång till, och för modellerna är det ju bara text än så länge.
Människor med olika typer av sensoriska begränsningar (medfödda eller något som tillkommit senare i livet) har inte lägre poäng på intelligenstest än andra och de har ofta betydligt högre förmågor än gemene man på de sinnen som de har kvar. Detta är mänsklig intelligens i et nötskal, förmågan att anpassa sig.
Det här var mer ett svar på att man kanske inte exakt kan överföra ett tillstånd till annan hårdvara. Det jag var ute efter var att även om en ai visar sig ha egentheter och starka/svaga sidor kanske den inte sticker ut så mycket i en stor grupp människor (som ju alla förutsätts vara intelligenta)? Mytomaner har ju till exempel också en talang för att hitta på, så det kan ju inte riktigt anses diskvalificerande.
Du begår ett logiskt felslut i din härledning. Bortfall av några sinnen hos en människa gör inte människan mindre intelligent eftersom själva definitionen av intelligens är bland annat att klara av anpassning under sådana förhållanden, vilket vi har visat sker i stor omfattning. Du försöker att visa att en språkmodell, utan sinnen, kan vara intelligent eftersom att en människa med bortfall av något sinne kan vara det.
Nja, jag menar mera att det inte är oproblematiskt att påstå att mänskliga sinnen är kritiska. Uppenbarligen går det att klara sig utan vissa av dem, så varför inte alla? En modell kanske också kan anpassa sig genom att fokusera på de sinnen den har (text).
En språkmodell är begränsad till de data den tränats på och de algoritmer som styr dess processer. Den saknar förmågan att på egen hand söka ny information eller anpassa sig till nya miljöer på samma sätt som människor kan. Visst kan den söka information inom samtalets kontext, men den informationen är inte en del av modellen och således inte tillgänglig i framtida invokeringar av modellen. Modellen har inget medvetande. Den föds med information och kan framkalla fakta genom att tolka text till ny text.
Just förmågan till självmedvetenhet och subjektiv erfarenhet anser jag är en avgörande aspekt hos mänsklig intelligens och något som är helt frånvarande i de AI-modeller vi har sett hittills. Därför är det inte rättvist eller korrekt att jämföra intelligensen hos en person som anpassar sig till en sensorisk förlust med en AI som opererar utan sinnen.
Ett problem är väl att vi inte riktigt har någon definition av intelligens/tänkande eller vad det nu är vi talar om? Det är förstås praktiskt att kunna införliva ny kunskap på djupet, men är det verkligen kritiskt? Kanske klarar man sig långt med förkunskap och arbetsminne? En del saker är väl också mest implementationsdetaljer och annat, som medvetande, är ju besvärligt nog utan att blanda in ai. Egentligen kan man väl som sagt inte vara säker på att grannen är medveten (även om det verkar vara en fungerande hypotes)?