29 % ser alltså AI som ett hot. Svårt att förstå vad hotet skulle vara men folk är väl rädda för förändring!?
Tänk lite som att klyva en atom, du kan göra bomber eller kärnkraftverk...
Lite så om du har AGI så kan den användas till bra eller dåliga saker!
Men om den blir helt självständig och inte endast följer instruktioner från människor utan får för sig att göra egna saker...
eller kanske väljer effektivaste lösningen på ett problem, vilket skulle kunna inkludera mindre människor = mindre problem.. ja du fattar kanske.. det kan bli problem. Speciellt om en AGI börjar uppgradera sig själv mjukvara/hårdvara.... det kan ju bli det bästa som hänt sedan skivat bröd, eller så blir det mindre bra.... Problematiken är ju också att en 'AGI' kanske kan fatta miljontals beslut i sekunden... och kan ställa till väldigt mycket iaf i teorin.. eller om fel personer bakom spakarna.
Det största problemet är nog att vi vet inte vad en AGI kan/vill/kommer göra... det är som att ha en superhacker som kan lära sig nya saker på nolltid. Sedan kan det som sagt bli mindre bra om någon galen diktator eller något får tag på teknologin.
AGI/Singularity är inte samma som det som finns nu LLM's (Large Languade Models).