KOMMENTAR | Erik Stol Øyan

Kunstig intelligens er en trussel mot informasjonssikkerheten
I informasjonssikkerhet er det tre viktige universale prinsipper som må ivaretas for at vi kan si at sikkerheten er intakt: konfidensialitet, integritet, og tilgjengelighet.
Konfidensialitet handler om at kun de som skal ha tilgang til informasjonen har tilgang til den: hvem som helst skal ikke få tilgang til hva som helst. Tilgjengelighet betyr at du får tilgang til informasjonen når du trenger den. Integritet betyr at informasjonen er riktig, og at ingen har tuklet med den: du kan stole på det du leser.
Alle disse tre prinsippene må ivaretas for at informasjonssikkerheten skal være intakt. I det siste har det imidlertid vært flere tilfeller der informasjonsintegriteten trues av kunstig intelligens.
Kan vi ha tillit til kunstig intelligens?
«Finn forskning som understøtter endring av skolestruktur». Det kunne vært setningen som ble skrevet av Tromsø kommune da de brukte kunstig intelligens for å utarbeide en rapport i mars i år om ny barnehage- og skolestruktur. Problemet var bare at KI-motoren de brukte refererte til kilder som ikke eksisterte, deriblant en bok av en norsk forfatter som aldri hadde blitt skrevet. Tromsø kommune handlet i god tro, men saken viste at vi ikke kan stole på alt vi leser, selv ikke (eller kanskje spesielt ikke) det som er generert av kunstig intelligens.
Hendelsen med Tromsø kommune er ikke unik. I boken «Maskiner som tenker», viser Inga Strümke til en studie publisert i Nature i 2021, der kunstig intelligens ble trent til å oppdage COVID-19 i pasienters lunger. Det utviklerne av modellen ikke hadde regnet med, var at KI-modellen ikke bare så på bildet av lungene, det hensyntok også skrifttypen på radiologibildene. Dermed ble skrifttypen som det enkelte sykehus benyttet, en utilsiktet faktor som kunne avgjøre hvorvidt en pasient fikk en COVID-19-diagnose.
All kunstig intelligens er basert på en eller annen form for data. Da eksempelvis ChatGPT var nytt, kunne ikke modellen si noe om hendelser etter 2021 – om du spurte, beklaget den og informerte om at treningsdataene kun strakte seg frem til 2021. Som de fleste vet, er senere versjoner av ChatGPT koblet til internett, som muliggjør oppslag og sanntidssøk mot internett etter behov. Dette åpner også for påvirkning utenfra, noe det foreligger flere eksempler på.
Manipulasjon i det skjulte
I mars advarte forskere mot russisk desinformasjon i KI-modeller. Pravda-nettverket ble identifisert som en stor desinformasjonskampanje med base i Moskva, som spredde prorussiske fortellinger globalt, med mål om å forvrenge svarene ulike KI-modeller ga. Det Pravda-nettverket gjorde var å dele propaganda maskert som sanne nyheter: mer enn 3,6 millioner slike artikler ble publisert og fant veien inn i vestlige KI-modeller.
Nesten samtidig avslørte to NRK-journalister at ChatGPT brukte det statlige russiske nyhetsbyrået TASS som kildehenvisning da de brukte Grundig research-funksjonen. Ved første øyekast så rapportene proffe og velskrevne ut, men ved nærmere ettersyn fant journalistene flere problematiske kildehenvisninger.
Avsløringene rundt Pravda-nettverket og bruken av det statlige russiske nyhetsbyrået TASS som kilde i ChatGPT, illustrerer en alvorlig utfordring for kunstig intelligens: når desinformasjon systematisk mates inn i KI-modellenes datagrunnlag, står informasjonsintegriteten i fare. Det som kan fremstå som nøytrale og profesjonelle rapporter, kan i realiteten være skapt på grunnlag politisk propaganda. Ikke bare svekker dette tilliten til KI-verktøyene og modellene – det svekker også beslutningsgrunnlagene vi utarbeider ved å bruke disse verktøyene og modellene. Resultatet kan være at vi tar beslutninger på feilaktig grunnlag, der konsekvensen blir feilprioriteringer, økt sårbarhet og i verste fall samfunnsmessige skader.
Hva kan vi gjøre?
Selv om utviklingen gir grunn til bekymring, er det viktig at den ikke fører til passivitet. Det er flere tiltak både virksomheter og enkeltpersoner kan iverksette for å imøtekomme disse utfordringene på en sikker og effektiv måte. Virksomheter bør etablere retningslinjer for trygg bruk av kunstig intelligens, samtidig som de sørger for kvalitetssikring og kildekritikk ved bruk av KI-verktøy i analysearbeid og beslutningsprosesser. Det er også viktig å huske på at KI-verktøy er et støtteverktøy, ikke nødvendigvis en fasit.
Å være kildekritisk bør ikke være forbeholdt journalister og forskere, det bør være en del av alles digitale dømmekraft.
For den enkelte er det viktig å være bevisst på at ikke alt som står hverken på internett eller noe annet sted nødvendigvis er sant, selv om det presenteres på en tilsynelatende profesjonell måte. Å være kildekritisk bør ikke være forbeholdt journalister og forskere, det bør være en del av alles digitale dømmekraft.
Skal vi bevare tilliten til informasjonen vi omgir oss med, må både virksomheter og enkeltpersoner ta et aktivt ansvar i møtet med en teknologi som hverken vet hva som er sant eller hva som er viktig.