UTFORDRINGER: Kunstig intelligens vil skape store utfordringer på sikkerhetsfronten i 2024, spår Simula Consulting. (Foto: Getty Images/Istock)
– Kunstig intelligens vil trigge store investeringer innen sikkerhet og personvern
Simula Consulting er et av landets fremste miljøer innen praktisk bruk av kunstig intelligens (AI). Nå varsler de vekst innen AI-skapte sikkerhetsbehov.
Direktør for Simula Consulting, Holger Hussmann spår at behovet for datasikkerhet vil eksplodere i 2024, og at AI kommer til å få skylden.
Han mener også at juridiske utfordringer knyttet til personvern og
opphavsrett vil by på store utfordringer det kommende året.
– Neste år vil vi for alvor merke konsekvensene av
AI-bølgen. Samlet sett vil kunstig intelligens berike og utvikle samfunnet, men
medaljens bakside ligger innen et sterkt økende sikkerhetsbehov, sier Hussmann.
Spår dobling
– Jeg vil ikke bli overrasket dersom sikkerhetsrelaterte
kostnader som følge av AI vil dobles i løpet av ett til to år. Det vil trigge
store investeringer og en fremvekst av nye type tjenester og en rekke bedriftsetableringer,
sier han.
Hussmann advarer mot å ta lett på sikkerhetsutfordringene
som skapes av økt bruk av kunstig intelligens innen en rekke områder – både i
offentlig og privat sektor.
– Dersom vi ikke møter de nye trusselbehovene, vil vi heller
ikke kunne ta ut det store potensialet som ligger i å ta i bruk kunstig
intelligens på bred basis. Derfor er det ingen vei utenom. På mange måter blir
sikkerhetsinvesteringene en utgift til inntekts ervervelse, sier Hussmann.
Trusselbildet
I 2024 er det mange områder knyttet til AI-bølgen som ifølge
Simula Consulting vil føre til økte sikkerhetsbehov. Herunder kommer det også
de store behovene for å unngå å trå juridisk feil innen personvern og
opphavsrett.
Om utfordringene Hussmann peker på, sier han:
– Dette er et øyeblikksbilde, basert på hva vi ser akkurat
nå. Det eneste som er sikkert, er at vi vil måtte forholde oss til et
trusselbilde og utfordringer som fortløpende vil endre seg, avslutter Hussmann.
Slik vil AI utfordre samfunnet:
Deepfake
Realistiske forfalskninger av lyd, video og bilder.
Økende bruk av deep learning-algoritmer vil føre til mer
realistiske og overbevisende deepfake-videoer og lydopptak, som kan brukes til
å utføre angrep som utpressing eller desinformasjon.
Automatiserte og sofistikert datakriminalitet i forskjellige
former
Angripere kan utnytte AI for å automatisere skanning og
identifikasjon av sårbarheter i systemer og programvare, noe som kan resultere
i hyppigere og mer målrettede angrep.
Malware: AI brukes til å generere skadevare som er svært
utfordrende å oppdage, noe som gjør det lettere for angripere å infiltrere
målsystemer og unngå oppdagelse.
AI-drevet angrep på autonome kjøretøy og IoT-enheter:
Autonome kjøretøy og IoT- enheter blir en del av hverdagen, kan AI brukes til å
hacke og kontrollere dem, noe som kan føre til farlige situasjoner på veiene
eller datalekkasjer fra enhetene.
AI-støttet sosial manipulasjon: Angripere kan bruke AI til å
analysere og forutsi menneskelig atferd på sosiale medier, og deretter lage
målrettede kampanjer for desinformasjon, politisk påvirkning og spredning av
falske nyheter.
Juridiske utfordringer
Lovverk for AI er vanskelig å få på plass fordi teknologien
går så raskt – for øyeblikket går teknologien veldig mye raskere enn jussen.
Det er mange fallgruver knyttet til opphavsrett og
personvern for fremoverlente bedrifter som er raske til å ta i bruk AI.
Derfor vil det være nyttig å etablere retningslinjer i
samråd med eksperter for bruk av AI i bedriften som for eksempel bør ta hensyn
til personopplysninger, kildekritikk og kvalitetssikring.
Samtidig bør man legge til rette for god opplæring og bruk
av AI-verktøy i bedrifter, for å unngå å opptre uaktsomt.