Historisk EU-regulering av kunstig intelligens (AI)

Europakommisjonen ønsker at Europa skal sette en global standard for bruk av kunstig intelligens, og presenterer verdens første rettslige rammeverk for å regulere teknologien. Kommisjonen benytter en risikobasert tilnærming, og graderer AI-systemer fra uakseptabel risiko (forbudt) til minimal risiko (omfattes ikke av de nye reglene). Kommisjonen er konkret når det gjelder AI-systemer for biometrisk identifisering, som ansiktsgjenkjenning, hvor de foreslår at det i prinsippet skal være forbudt, men at det kan gis unntak i spesielle tilfeller. Et nytt EU-organ skal få oppgaven med å overvåke oppfølgingen av regelverket. Behandlingen av forslaget i EU-institusjonene kan bli komplisert, Europaparlamentet har signalisert et ønske om en strengere regulering, mens i Rådet etterspør flere medlemsland et fleksibelt rammeverk.

«Med disse skelsættende regler går EU i spidsen for udviklingen af nye globale normer for at sikre, at alle kan have tillid til kunstig intelligens. Ved at fastsætte standarder kan vi bane vejen for etisk teknologi på verdensplan og samtidig sikre, at EU forbliver konkurrencedygtig. Vores regler skal være fremtidssikrede og innovationsvenlige, og de skal kun gribe ind, hvor det er strengt nødvendigt: Dvs. når der er tale om EU-borgernes sikkerhed og grundlæggende rettigheder», uttaler visepresident Margrethe Vestager i Kommisjonens pressemelding.

Forslaget til en europeisk regulering av kunstig intelligens ble presentert 21. april, gjennom en meddelelse og et forordningsforslag som innfører en rettslig ramme for AI, og en ny koordinert plan om AI som oppdaterer den forrige planen fra 2018. I planen beskriver Kommisjonen de politiske endringer og investeringer medlemslandene må gjennomføre for å utvikle det som kalles en «menneskesentreret, bærekraftig, sikker, inklusiv og pålitelig kunstig intelligens». For å regulere AI-systemer foreslår Kommisjonen en risikobasert tilnærming med fire risikonivåer:

  • Uakseptabel risiko. Kommisjonen vil forby AI-systemer som utgjør en klar trussel mot menneskers sikkerhet, eksistensgrunnlag og rettigheter. Dette omfatter systemer som manipulerer menneskers atferd for å omgå brukernes frie vilje. Som eksempel nevnes leker med innebygde taleassistenter som oppmuntrer mindreårige til farlig adferd. Kommisjonen vil også forby systemer som gjør det mulig for myndigheter å innføre sosiale poengsystemer (social scoring).
  • Høy risiko. Tilskrives AI-systemer som opererer innenfor kritisk infrastruktur (for eksempel transport), utdanning, produktsikkerhetskomponenter, kredittvurderinger og ansettelsesprosesser. Viktige private og offentlige tjenester, rettshåndhevelse, migrasjon, asyl og grensekontroll, samt rettspleie og demokratiske prosesser, faller også inn under denne kategorien. AI-systemer med høy risiko vil bli underlagt strenge forpliktelser før de slipper ut på markedet. AI-systemer for biometrisk fjernidentifisering (som ansiktsgjenkjenning) plasserer Kommisjonen i kategorien for høy risiko, og de vil bli omfattet av strenge krav. Bruk av slike systemer på offentlige plasser til rettshåndhevelsesformål foreslås i prinsippet forbudt, men det kan gis unntak ved særlige tilfeller (kidnapping, terrorhandlinger, alvorlig kriminalitet) som krever godkjenning av et rettslig eller uavhengig organ.
  • Begrenset risiko. Dette er AI-systemer med spesielle åpenhetskrav. Ved bruk av for eksempel «chatbots», skal brukere bli gjort oppmerksomme på at de interagerer med en maskin, så de kan treffe en informert beslutning om de skal fortsette eller avslutte.
  • Minimal risiko. De aller fleste AI-systemer som brukes i EU hører under denne kategorien, for eksempel AI-støttede videospill og spamfiltre, og disse omfattes ikke av det nye regelverket. Tilbydere av slike AI-systemer kan frivillig velge å benytte kravene til pålitelig kunstig intelligens og tilslutte seg frivillige adferdskodekser.

Kommisjonen foreslår at nasjonale markedskontrollmyndigheter skal overvåke de nye reglene, og at det opprettes et europeisk organ for kunstig intelligens (European Artificial Intelligence Board) for å fremme gjennomføringen og utviklingen av AI-standarder. AI-rådet skal bestå av representanter fra de nasjonale tilsynsmyndighetene, det europeiske datatilsynet (European Data Protection Supervisor) og Kommisjonen, og skal utstede anbefalinger til Kommisjonen om høyrisiko AI-systemer og andre elementer som er relevant for å implementere det nye regelverket. AI-rådet skal også fungere som et kompetansesenter som nasjonale tilsynsmyndigheter kan konsultere.

Kommisjonen la også frem et forordningsforslag om nye og tilpassede sikkerhetsregler for maskiner, som skal erstatte dagens maskindirektiv. Mens AI-forordningen omfatter sikkerhetsrisikoene ved AI-system, skal den nye maskinforordningen sørge for en sikker integrering av AI-systemer i maskinene.

«Policymakers, industry and activists are likely to fight over many parts of the bill», skriver Politico, og peker på at de særskilte unntakene for å benytte biometriske AI-systemer vil vekke debatt, og at bransjen vil forsøke å påvirke hvilke AI-systemer som skal plasseres i Kommisjonens liste for ‘høy risiko’. Det er ventet at Europaparlamentet vil presse på for en hardere regulering, og flere representanter har signalisert et ønske om et fullstendig forbud mot overvåking ved bruk av ansiktsgjenkjenningsteknologi, og en bedre beskyttelse av grunnleggende rettigheter. I Rådet har flere medlemsland (blant annet Sverige, Danmark og Finland) signalisert et ønske om et mer fleksibelt rammeverk.

«EU proposal for artificial intelligence law is weak on consumer protection», uttaler den europeiske forbrukerorganisasjonen BEUC, som ber Parlamentet og Rådet forbedre forslaget under behandlingen i EU-institusjonene. Bransjeorganisasjonen Digital Europe støtter Kommisjonens risikobaserte tilnærming, men mener det nye regelverket ikke er tydelig eller ambisiøst nok «to drive Europe towards becoming a global AI hub». Interesseorganisasjonen Access Now ber Kommisjonen gå lenger for å beskytte grunnleggende rettigheter: «A number of measures introduced raise serious questions, and will require strengthening to ensure the protection of fundamental rights».

Kontaktinfo

Stortingsbiblioteket: bibl@stortinget.no
Ansvarlig: Jeannette Berseth


Sist oppdatert: 23.04.2021 09:54