DEBATT | Kent Agerlund, Twoday

SKREMSEL: Mange bedrifters bekymringer over AI baserer seg på skremselshistorier, skriver Kent Agerlund.

Med sunn fornuft er det ingen grunn til å frykte Copilot

Bruken av generativ AI er ikke usikker – det krever bare sunn fornuft.

Publisert Sist oppdatert

Det er ingen tvil om at AI-bølgen, som har skylt inn over samfunnet, fortsetter. Men hvor AI-hypen tidligere var drevet av befolkningen som tok i bruk ChatGPT og lignende generative AI-tjenester, er det nå i stor grad bedrifter som ser på hvordan de kan integrere AI i organisasjonen.

I Twoday opplever vi at norske bedrifter i økende grad setter av ressurser til å finne de rette bruksområdene – og mange er klare til å legge ut på sin AI-reise. Dessverre opplever jeg også at flere organisasjoner setter AI-utrullingen på pause fordi de har bekymringer rundt datasikkerhet. For meg som til daglig jobber innen IT-sikkerhet er det musikk for mine ører at bedrifter tar datasikkerhet på alvor. For det er heller ingen tvil om at mengden cyberangrep mot norske organisasjoner bare vil øke fremover.

Ulven kommer

Problemet er bare at de fleste av bedriftenes bekymringer baserer seg på skremselshistorier fra «en som kjenner en...» eller nyheter i mediene. For eksempel har jeg ivrig fulgt med på historier i de nordiske mediene om at ulike offentlige organisasjoner anbefaler bedrifter å unngå Microsofts AI-løsning, Copilot.

Flere av de kritiske historiene er hovedsakelig basert på en rapport om datasikkerhet og Copilot fra det norske Datatilsynet. Men hvis man leser rapporten nøye, vil man se at den er god og informativ, samt at den konkluderer med: Bedrifters bruk av Microsoft Copilot gir ikke grunn til utfordringer med datasikkerhet – så lenge bedriftene har kontroll på sine data(sikkerhet).

Sagt på en annen måte: Hvis en bedrift ikke overholder god dataskikk, GDPR-lovgivning og lignende reguleringer, vil ikke Copilot som løsning kunne overholde det heller. For det spesielle med tjenester som Copilot er at løsningen blir bedre og mer effektiv ved å automatisk samle inn brukbare data fra bedriften. Og der oppstår problemet hvis bedriftene generelt ikke har kontroll på sine egne data og compliance.

Uønsket feilinformasjon

Flere negative mediehistorier om datasikkerhet og Copilot fremhever også en rapport fra den nederlandske sammenslutningen av utdanningsinstitusjoner, SURF. Rapporten er etter min mening svært godt gjennomarbeidet, og jeg kan kun anbefale andre å lese den. Den tar opp fallgruvene for datasikkerheten i Copilot.

I tillegg til å påpeke at bedriften allerede må overholde datalovgivningen, forklarer den nederlandske rapporten at Copilot-brukere kan bli utsatt for feilinformasjon, fordi AI-tjenesten kan generere ukorrekte opplysninger. Hvis du har benyttet en generativ AI-tjeneste, har du sikkert opplevd at resultater og informasjon kan være feilaktige eller at bildene ser merkelige ut. Her «hallusinerer» AI-løsningen. Men hallusinasjonen, og dermed feilinformasjonen, kommer fra dårlige data – og hvis vi ser på dette i en Copilot-kontekst, vil det ofte være basert på feilaktige data fra bedriften selv. 

Utdann brukerne dine og få orden på datasikkerheten

Basert på de to rapportene anerkjenner jeg at det kan være noen utfordringer med bruken av Copilot. Men kun hvis bedriftene på forhånd vender det blinde øye til datasikkerhet og feilaktige data.

I tillegg vil jeg på det sterkeste anbefale at bedrifter som kaster seg ut på AI-reisen, implementerer et sett med spilleregler for ansattes bruk av AI.

Jeg vil derfor oppfordre alle bedrifter – uansett om dere vurderer å bruke generative AI-løsninger eller ikke – til å sørge for at dere alltid har kontroll på datasikkerheten og kvaliteten på dataene deres. I tillegg vil jeg på det sterkeste anbefale at bedrifter som kaster seg ut på AI-reisen, implementerer et sett med spilleregler for ansattes bruk av AI. Og sist, men ikke minst, er det nødvendig med opplæring av ansatte i bruken av AI, slik at de både blir bedre til å bruke AI, men spesielt fordi de får innsikt i hvordan de kan oppdage feilinformasjon fra den generative AI-en.

Kort sagt: Hvis bedrifter får orden på datasikkerheten og krydrer bruken av AI med litt sunn fornuft, er det absolutt ingen grunn til å frykte Copilot.