AI - eller kunstig intelligens – defineres gjerne som datasystemer som lærer av tidligere erfaringer ved tolkning av data. Det sies at AI har potensial til å transformere samfunnet, effektivisere prosesser og støtte beslutningsprosesser.
Regulering av AI er nødvendig for å ivareta personvern og respekt for grunnleggende rettigheter.
Risikobasert tilnærming
AI-forordningen følger en risikobasert tilnærming, som innebærer at desto større risiko den aktuelle AI-aktiviteten representerer, desto strengere krav er det til virksomheten som utfører aktiviteten.
Forordningen definerer fire risikonivåer:
- Uakseptabel risiko: Systemer som bryter med grunnleggende verdier, for eksempel bruk av manipulative teknikker eller sosiale poengsystemer = forbudt.
- Høy risiko: Systemer som enten er en del av sikkerhetskomponenter i regulerte produkter eller brukes i kritiske samfunnsområder = strenge krav til dokumentasjon, transparens og iverksatte sikkerhetsmekanismer.
- Begrenset risiko: Dette omfatter systemer som ikke er høyrisiko = åpenhets- eller transparenskrav.
- Minimal eller ingen risiko: Systemer som faller utenfor de tre foregående kategoriene = Ikke transparenskrav.
Innovasjon og open source
EU har som mål å bidra til innovasjon og utvikling innenfor AI-sektoren.
Regelverket vil ikke pålegge samme sikkerhetskrav til programvare som har åpen kildekode / open-source.
Videre foreslås det å legge til rette for regulatoriske sandkasser, altså utviklingsprogrammer der AI-utviklere får bistand til utvikling og testing av AI-systemer.
I tillegg ønsker EU å opprette et AI-kontor som skal gi råd, veiledning og bidra til samarbeid mellom AI-aktører innen EU.
Forordningen vil håndheves gjennom et samspill av AI-kontoret og nasjonale tilsynsmyndigheter.