DEBATT | Kristoffer Brandt, AWS

Er det trygt å bruke DeepSeek?
Hva betyr det for datasikkerheten at stadig flere bruker åpne modeller for kunstig intelligens som DeepSeek? Det hersker ingen tvil om at teknologien er synonym med enorme muligheter. Men hva med personvernet, eventuell misbruk og regulering av innholdet?
Som daglig leder i Amazon Web Services ser jeg at bekymringene er reelle. Hva når sensitive data behandles av en KI-modell? Kan informasjon havne i feil hender? Mange er av naturlige årsaker tilbakeholdne. For er det en ting som er sikkert, så er det at trygg bruk krever strenge tiltak.
Bruk av åpne modeller krever en gjennomtenkt sikkerhetsstrategi. Data må beskyttes både under lagring og overføring. I tillegg er en sikker nettverksinfrastruktur og overvåkingsmekanisme nødvendig for å tidlig oppdage eventuelle avvik.
Ikke minst må det settes opp tydelige retningslinjer for hvordan KI-modeller skal brukes. Alt fra oppæring av ansatte, bevisstgjøring om risiko og det å etablere klare rutiner for avviksrapportering. En sterk sikkerhetskultur er avgjørende.

Mine AWS-kollegaer Satveer Khurpa, Adewale Akinfaderin og Antonio Rodriguez publisere nylig et blogginnlegg om hvordan trygg implementering kan gjennomføres. I dette tilfellet via Amazon Bedrock. En plattform som lar brukere kryptere lagret data, styre tilgang og overvåke bruken. Med en sikker nettverksinfrastruktur og overvåkningstjenester kan bruken overvåkes i sanntid og sikre samsvar med internasjonale sikkerhetsstandarder som GDPR, ISO, SOC og HIPAA.
Sikkerhetsbarrierer
I innlegget beskriver de blant annet viktigheten av å sette opp sikkerhetsbarrierer fra start av. Hvilket innebærer å filtrere uønsket innhold, sørge for tydelige retningslinjer for tilgangsstyring og jevnlig evaluere modellen for sårbarheter. I tillegg må hele infrastrukturen, fra selve modellen til dataene som behandles og miljøet den kjøres i, beskyttes. Ikke minst er det viktig å etablere mekanismer for kontinuerlig overvåking og oppdatering av sikkerhetstiltak ettersom trusselbildet hele tiden utvikler seg.
Når vi bruker avanserte modeller for kunstig intelligens har vi også et ansvar for å forstå hvordan de faktisk fungerer.
Så hva er svaret på spørsmålet om DeepSeek R1 kan brukes trygt?
Svaret er ja, så lenge de riktige sikkerhetstiltakene er på plass ved å følge beste praksis for sikkerhet reduseres farene for misbruk og datalekkasjer betraktelig.
I det nevnte blogginnlegget nevnes Amazon Bedrock Guardrails som et konkret eksempel på teknologi som inkluderer streng tilgangskontroll, nettverksbeskyttelse og innholdsfiltrering. Den type tiltak i kombinasjon med et ansvarlig rammeverk for generell bruk av kunstig intelligens gjør at bedrifter kan bruke kraftige språkmodeller uten å frykte at data havner i feil hender.
Når vi bruker avanserte modeller for kunstig intelligens har vi også et ansvar for å forstå hvordan de faktisk fungerer, hva som er begrensningene og mulige fallgruver. Derfor må de rette spørsmålene stilles for at teknologien skal tjene oss – og ikke omvendt.