En av de tveklöst största trenderna inom teknikutveckling just nu är förekomsten av funktioner drivna av artificiell intelligens och maskininlärning. Teknik som fattar egna beslut har lett till oro och EU tillsatte därför en utredning i december 2018. Målet med utredningen var att fastslå riktlinjer för hur AI-system ska hanteras i medlemsländerna, riktlinjer som nu publiceras.

Riktlinjerna handlar inte om hur en självmedveten AI ska förhindras från att vända sig mot sina organiska skapare, som är vanligt inom science fiction. Riktlinjerna är istället återhållsamt fokuserade på hur system för artificiella intelligenser ska kunna granskas. Systemens pålitlighet ska också kunna säkerställas när de används i allt från konsumentprodukter till sjukvård och utbildning.

De artificiella intelligenserna ska enligt riktlinjerna också utvecklas för att vara opartiska. Det innebär exempelvis att ett AI-system som används inom sjukvården inte ska tillåtas att göra skillnad på hudfärg och etnicitet. De ska inte heller tillåtas att ignorera en mänsklig doktors instruktioner, och beslut den fattar ska förklaras för patienten innan den agerar.

Robustness and safety: Trustworthy AI requires algorithms to be secure, reliable and robust enough to deal with errors or inconsistencies during all life cycle phases of AI systems.

Människors möjlighet att granska och få insikt i artificiella intelligensers agerande löper som en röd tråd genom riktlinjerna. Spårbarhet är en annan central faktor och medborgare i EU:s medlemsländer ska alltid ha kontroll över data som används av dessa AI-system. Systemen får inte använda denna data för att på något sätt diskriminera mot medborgaren informationen berör.

En annan del i direktiven berör pålitligheten i AI-system som ska vara självgående. Algoritmerna som utgör ett AI-system ska vara så pass pålitliga och säkra att de ska kunna hantera fel som uppstår under samtliga steg av dess AI-process. Detta är av särskild vikt i de fall där artificiell intelligens ska användas för exempelvis sjukvård och statliga funktioner.

EU-kommissionens utredning följer ett år där artificiell intelligens har varit ett hett debatterat ämne. Google Duplex, ett system där en AI-assistent autonomt sköter bokningar över telefon åt sin mänskliga klient, sparkade igång diskussioner om AI-system. Mer specifikt vad de bör få göra utan att presentera sig som just ett AI-system, och vem som bär ansvaret för de beslut som en sådan AI fattar.

EU-kommissionen ska sjösätta ett pilotprogram för utveckling av AI enligt riktlinjerna och företag och organisationer kan nu anmäla intresse för att delta i pilotprogrammet som en del av European AI Alliance. I början av 2020 ska återkopplingen från pilotprogrammet utvärderas och EU-kommissionen kommer då föreslå nästa steg i programmet.

Klicka här för att läsa EU:s pressmeddelande om riktlinjerna

Ethics guidelines for trustworthy AI

Following the publication of the draft ethics guidelines in December 2018 to which more than 500 comments were received, the independent expert group presents today their ethics guidelines for trustworthy artificial intelligence.

Trustworthy AI should respect all applicable laws and regulations, as well as a series of requirements; specific assessment lists aim to help verify the application of each of the key requirements:

  • Human agency and oversight: AI systems should enable equitable societies by supporting human agency and fundamental rights, and not decrease, limit or misguide human autonomy.

  • Robustness and safety: Trustworthy AI requires algorithms to be secure, reliable and robust enough to deal with errors or inconsistencies during all life cycle phases of AI systems.

  • Privacy and data governance: Citizens should have full control over their own data, while data concerning them will not be used to harm or discriminate against them.

  • Transparency: The traceability of AI systems should be ensured.

  • Diversity, non-discrimination and fairness: AI systems should consider the whole range of human abilities, skills and requirements, and ensure accessibility.

  • Societal and environmental well-being: AI systems should be used to enhance positive social change and enhance sustainability and ecological responsibility.

  • Accountability: Mechanisms should be put in place to ensure responsibility and accountability for AI systems and their outcomes.

In summer 2019, the Commission will launch a pilot phase involving a wide range of stakeholders. Already today, companies, public administrations and organisations can sign up to the European AI Alliance and receive a notification when the pilot starts.

Following the pilot phase, in early 2020, the AI expert group will review the assessment lists for the key requirements, building on the feedback received. Building on this review, the Commission will evaluate the outcome and propose any next steps.

Klicka här för att komma till pressmeddelandet och ladda ned de etiska riktlinjerna i sin helhet

Visa mer

Läs mer om AI: