DEBATT: Utviklingen av kunstig intelligens lar cyberkriminelle kreve løsepenger for virtuelle kidnappinger
Kunstig intelligens blir i økende grad tatt i bruk av kriminelle.
Cyberkriminelle utnytter fremveksten av kunstig intelligens og maskinlæring til å skape deepfake-stemmer for å manipulere identiteter, utføre virtuell kidnapping og kreve løsepenger. Dette er trusler vi i Norge må være forberedt på å møte.
Med fremveksten av ny teknologi som kunstig intelligens (AI) og maskinlæring (ML), har vi sett mange positive endringer i livene våre. Men som med ethvert kraftig verktøy, er det også en mørk side.
Cyberkriminelle har funnet måter å utnytte AI og ML til egen vinning, og vi har sett økende misbruk av teknologien i deres angreps- og svindelmetoder.
Amerikanske FBI har nylig advart om at cyberkriminelle har begynt å manipulere bilder og videoer ved hjelp av såkalt deepfake-teknologi for å kreve løsepenger.
Dette har vist seg å være en lønnsom metode for disse kriminelle. Bare i 2022 sto svindel basert på falske identiteter for nesten 30 milliarder kroner i tap bare i USA.
Cyberkriminelle har fått tilgang til en rekke nye verktøy takket være utviklingen innen generativ AI, blant annet innen deepfake-stemmer, som kan skapes ved hjelp av selv begrenset tilgang til biometriske data fra aktuelle ofre sine profiler i sosiale medier.
AI-verktøy som ElevenLabs og VoiceLab tillater brukere å lage stemmer som høres svært autentiske ut. Selv om norsk språk for øyeblikket ikke støttes av disse verktøyene, er det bare et spørsmål om tid før også våre biometriske stemmer kan bli kopiert og misbrukt.
En uhyggelig hendelse som illustrerer denne trusselen, er historien om Jennifer DeStefano i USA. Hun ble ringt opp av en svindler som hevdet å ha kidnappet hennes 15-årige datter. Han truet med vold og krevde at Jennifer betalte løsepenger for å få datteren sin tilbake igjen. I bakgrunnen kunne hun høre en stemme som hørtes ut som datterens, men det hele viste seg å være en svindel - et eksempel på hvordan denne teknologien blir misbrukt.
Vi har også sett mange tilfeller der lignende teknologi har blitt brukt til å lure bekymrede familiemedlemmer til å betale for fiktive kriser. Cyberkriminelle utnytter det faktum at mennesker i pressede situasjoner er mer sannsynlig å handle irrasjonelt og emosjonelt.
Dette åpner for mer sofistikerte former for svindel, som SIM-jacking, hvor angriperen tar over offerets mobilnummer for å omdirigere all kommunikasjon til en enhet de kontrollerer. Disse angrepene er vanligvis godt forberedt. Ofrene kan være tilfeldige, men utøvelsen av svindelen er nøye planlagt.
Svindlerne utvikler en troverdig historie og bruker trusler og manipulasjon for å påvirke offerets følelser. De bruker avansert teknologi som ChatGPT, deepfake-video og -stemmer generert fra offerets sosiale media-profiler. Utvekslingen av informasjon om "lønnsomme ofre" på det mørke nettet gjør det enda enklere for cyberkriminelle å gjenta sine angrep.
Med AI-teknologi som utvikler seg raskt og blir mer tilgjengelig, kan vi forvente en økning i denne typen cyberangrep. Det som kanskje er mest skremmende er at disse angrepene innebærer et sofistikert nivå som langt overstiger det mange av dagens cybersikkerhetsløsninger er i stand til å håndtere.
Men det er også her vi kan finne løsninger. Med økt datainnsamling fra disse hendelsene, kan vi forbedre sikkerhetsanalysene våre og utvikle mer effektive sensorer for å oppdage og motvirke disse truslene tidlig.
Dette er vår virkelighet i dag, og det er viktig at vi alle er bevisste på de risikoene vi står overfor og tar grep for å beskytte oss selv og våre nærmeste mot disse truslene. Vi må fortsette å utdanne oss selv og andre, og støtte forskning og utvikling av bedre sikkerhetsverktøy. Dette er et løpende arbeid hvor vi alle bør være vårt ansvar bevisst for å være en del av løsningen.
Hele rapporten kan du lese her: Virtual Kidnapping - How AI Voice Cloning Tools and ChatGPT are Being Used to Aid Cybercrime and Extortion Scams.