IT-JUSS:
Ingen grunn til å vente på EU-reguleringer av kunstig intelligens
Mange håper EUs nye regulering av kunstig intelligens (AI), den såkalte AI Act, vil stanse skadelige AI-systemer. Men allerede i dag er bruk av AI gjennomregulert, og flere bør fokusere mer på eksisterende regler som styrer AI-bruken.
Det har ikke manglet på krav om regulering av AI de siste årene. I fjor skrev to forskere i en Aftenposten-kronikk at «risikoen for at kunstig intelligens utrydder menneskeheten bør være en global prioritet på lik linje med andre store samfunnsrisikoer, slik som pandemier og atomkrig.»
Mange har vist til EUs nye AI Act som et viktig grep for forsvarlig AI-utvikling. Det er også nylig lansert et forslag om direktiv for regulering av erstatningsansvar for AI. Men er dette virkelig svarene vi skal gi når folk spør om hvordan faren for kunstig intelligens umiddelbart skal håndteres?
For vår del oppfatter vi at AI Act er blitt «overhypet». Regelverket er i stor grad et produktansvarsregelverk, som setter søkelys på dokumentasjon av systemer og ulike former for kvalitetskrav for å fange opp problematiske aspekter ved AI-systemer. Dessuten er regelverket ingen løsning for problemene vi står overfor nå: AI Act skal gjøres til lov i flere etapper, og mange av de viktigste reglene kommer til anvendelse først i august 2026 og senere.
Kunstig intelligens opererer ikke i et lovtomt rom, og vi står selvfølgelig ikke på bar bakke i dag. For å sitere en jussprofessor som jobber med personvern, vil AI Act kun bli verdens nest viktigste regelverk for kunstig intelligens. Han siktet til EUs personvernforordning, GDPR, som den mest sentrale reguleringsmekanismen.
Alt av data som kan knyttes til en bestemt fysisk person vil i utgangspunktet være regulert av GDPR. Dermed vil bruk av personopplysninger i forbindelse med utvikling av ulike modeller nær sagt alltid være regulert. Virksomheter må bl.a. ha hjemmel for å bruke opplysningene, registrerte personer må få informasjon om bruken, og mange typer gjenbruk av personopplysninger vil være forbudt.
For vår del oppfatter vi at AI Act er blitt «overhypet».
Åndsverkloven vil beskytte opphavsrett, slik at blant annet rettigheter til å bruke tekst, bilde og lyd vil kunne hindre at slike data brukes til å trene opp ulike AI-modeller. Ulike former for «output», f.eks. produksjon av bilder som ligner på mennesker, kan også være såpass like eksisterende åndsverk at det vil være problematisk å utnytte materialet kommersielt.
Vi er naturligvis bekymret for at det kan lages ulike former for manipulerende informasjon, som kan forsterke polarisering, fordommer og mentale problemer. Dette kan likevel i stor grad motvirkes gjennom dagens lover. I mange tilfeller vil bruk av informasjon være regulert av markedsføringsloven. Ulike former for skadelige påvirkningsoperasjoner kan rammes av straffeloven.
AI kan også skape sikkerhetsproblemer, men dette er også i utgangspunktet fanget opp i ulike lover som sikrer informasjonssikkerhet: De fleste regler som styrer slik sikkerhet krever at det lages risikovurderinger og gjennomføres passende tiltak for å håndtere trusler – også AI-risiko.
AI Act kan sikkert være et passende virkemiddel for å motvirke enkelte AI-systemer som ikke er fullgodt regulert i dag. Mens vi venter på EU-reguleringen, kan det imidlertid være fornuftig å bruke dagens eksisterende regelverk og styrke de offentlige organene som skal slå ned på skadelige AI-konsekvenser allerede nå.