Nja, det händer redan:
”AI, Artificiell intelligens, kan i dag klona en persons röst utan problem. Tidigare i år sa Microsoft att det räcker med ett tre sekunder långt ljudklipp med en persons röst för att skapa en närmast identisk röstkopia, med ett program som heter VALL-E.
I USA har det hänt att äldre fått samtal från barnbarn som sagt sig behöva hjälp med pengar. I själva verket var det kriminella som låg bakom samtalen där de med hjälp av AI klonat barnbarnens röster.
AI-roboten analyserar rytm och ton och skapar kopian utifrån en databas med röster.”
”Hur pass bra är tekniken?
– Den är tillräckligt bra för att den som blir kontaktad inte kan särskilja från en äkta person, från den man förväntar sig skulle ringa.
Just nu är programvaran ofta fortfarande ganska komplicerad och dyr, men det kommer inte dröja länge innan den blir billigare och mer lätt att använda, menar han.
– Om ett par tre år är allt hundra gånger snabbare, hundra gånger billigare och hundra gånger enklare att använda sig av för kriminella. Det är då vi ser den fulla effekten, säger Jan Olsson.”
”Deep fake blir vanligare
Ett fenomen inom AI som riskerar att bedrägerierna ökar ytterligare är deep fake, som kopierar både röst och rörlig bild.
– Det finns i dag redan perfekta program som skapar detta och alla som vill vilseleda kommer använda sig av det, säger Jan Olsson.
”Det kan ske genom ett samtal via facetime. På skärmen står det namnet på exempelvis syskon eller en vän. När man svarar kan både rösten och ansiktet vara kopia av personen man tror sig prata med.
– Då fattar du ju inte misstanke om att det är en robot. Det som återstår då är att man måste vara uppmärksam.
Problemet med deep fake är oroväckande, menar Jan Olsson. Förhoppningen är nu att marknaden ska ta ansvar.
– Det vi hoppas på är att till exempel telefonoperatör tar detta på allvar och bygger in funktioner som kan stoppa den här typen av samtal.”
Hur fasiken ska äldre människor värja sig mot sånt här och då är detta bara början. Scary shit, AI kan göra mer skada än nytta känns det som..