Skip to main content
Shaping Europe’s digital future
Report / Study | Publikation

Etiska riktlinjer för tillförlitlig AI

Den 8 april 2019 lade högnivåexpertgruppen för artificiell intelligens fram etiska riktlinjer för tillförlitlig AI. Detta följde på offentliggörandet av det första utkastet till riktlinjer i december 2018, om vilket mer än 500 synpunkter inkom genom ett öppet samråd.

Enligt riktlinjerna bör tillförlitlig AI vara

(1) laglig – respektera alla tillämpliga lagar och andra författningar

(2) etik – respekt för etiska principer och värderingar

(3) robust – båda ur ett tekniskt perspektiv samtidigt som hänsyn tas till den sociala miljön

Ladda ner riktlinjerna på följande språk:

BG | CS | DE | DA | EL | EN | ES | OCH | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL | SV

Riktlinjerna innehåller 7 nyckelkrav som AI-system bör uppfylla för att anses vara tillförlitliga. De särskilda bedömningslistorna är tänkta som verktyg för att kontrollera om de centrala kraven uppfylls:

  • Mänsklig medverkan och uppsikt: AI-system bör stärka människors egenmakt och göra det möjligt för dem att fatta välgrundade beslut och främja deras grundläggande rättigheter. Samtidigt måste lämpliga tillsynsmekanismer säkerställas, vilket kan uppnås genom strategier för human-in-the-loop, human-on-the-loop och human-in-command.
  • Teknisk robusthet och säkerhet: AI-system måste vara motståndskraftiga och säkra. De måste vara säkra, säkerställa en fallplan om något går fel, samt vara exakta, tillförlitliga och reproducerbara. Detta är det enda sättet att säkerställa att även oavsiktlig skada kan minimeras och förebyggas.
  • Integritet och dataförvaltning: utöver att säkerställa full respekt för integritet och dataskydd måste adekvata dataförvaltningsmekanismer också säkerställas, med beaktande av uppgifternas kvalitet och integritet, och säkerställa legitimerad tillgång till uppgifter.
  • Öppenhet: affärsmodellerna för data, system och AI bör vara transparenta. Spårbarhetsmekanismer kan bidra till att uppnå detta. Dessutom bör AI-system och deras beslut förklaras på ett sätt som är anpassat till den berörda parten. Människor måste vara medvetna om att de interagerar med ett AI-system och måste informeras om systemets kapacitet och begränsningar.
  • Mångfald, icke-diskriminering och rättvisa: Orättvis partiskhet måste undvikas, eftersom den skulle kunna få många negativa konsekvenser, från marginalisering av utsatta grupper till förvärrad fördomar och diskriminering. För att främja mångfald bör AI-system vara tillgängliga för alla, oavsett funktionsnedsättning, och involvera berörda parter under hela deras livscykel.
  • Samhällets och miljöns välbefinnande: AI-system bör gynna alla människor, även framtida generationer. Det måste därför säkerställas att de är hållbara och miljövänliga. Dessutom bör de ta hänsyn till miljön, inbegripet andra levande varelser, och deras sociala och samhälleliga konsekvenser bör noga övervägas. 
  • Ansvarsskyldighet: Det bör införas mekanismer för att säkerställa ansvar och ansvarsskyldighet för AI-system och resultaten av deras processer. Granskningsbarhet, som gör det möjligt att bedöma algoritmer, data och utformningsprocesser, spelar en viktig roll i detta, särskilt i kritiska tillämpningar. Dessutom bör tillräcklig tillgång till rättslig prövning säkerställas.

AI-expertgruppen har också utarbetat ett dokument som utvecklar en definition av artificiell intelligens som används i riktlinjerna.

Ladda ner definitionen av AI på ditt språk nedan:

BG | CS | DE | DA | EL | EN | ES | OCH | FI | FR | HR | HU | IT | LT | LV | MT | NL | PL | PT | RO | SK | SL | SV

 

Pilotprocess

Dokumentet innehåller också en bedömningslista som fungerar som de viktigaste kraven och ger vägledning för hur de ska genomföras i praktiken. Från och med den 26 juni genomgick denna bedömningslista en pilotprocess till vilken alla berörda parter uppmanades att testa bedömningslistan och ge praktisk återkoppling om hur den kan förbättras.

Återkoppling mottogs via olika spår:

  • En öppen undersökning eller ”kvantitativ analys” skickas till alla som registrerat sig i pilotförsöket.
  • Ingående intervjuer med ett antal representativa organisationer för att samla in mer detaljerad återkoppling från olika sektorer. 
  • Kontinuerlig möjlighet att ladda upp återkoppling och bästa praxis genom den europeiska AI-alliansen

Pilotfasen avslutades den 1 december 2019

På grundval av den återkoppling som mottagits lade AI-expertgruppen fram den slutliga bedömningslistan för tillförlitlig AI (ALTAI) i juli 2020. Altai är ett praktiskt verktyg som omvandlar de etiska riktlinjerna till en tillgänglig och dynamisk checklista (självbedömning). Checklistan kan användas av utvecklare och spridare av AI som vill genomföra nyckelkraven i praktiken. Denna nya förteckning finns tillgänglig som prototyp för webbverktyg och i pdf-format.