DEBATT | Hans-Petter Nygård-Hansen

BELYSER PROBLEMET: Tromsø-saken viser at AI kan servere feilaktig innhold med største selvfølgelighet. Slike verktøy kan til og med brukes til å manipulere oss med desinformasjon – godt pakket inn i et språk som høres troverdig ut, skriver Hans-Petter Nygård-Hansen.

Tillit i en tid med kunstig intelligens og polarisering

For kort tid siden fikk Tromsø kommune en pinlig vekker: ChatGPT ble brukt til å skrive et beslutningsgrunnlag om ny skolestruktur, og dokumentet endte opp med fiktive kilder.

Publisert

AI-problemene i Tromsø er et skremmende eksempel på hva som står på spill når vi omfavner kunstig intelligens uten å forstå begrensningene. Når selv offentlige utredninger kan inneholde oppdiktet «forskning» utfordres vår tillit til informasjonen rundt oss.

Med største selvfølgelighet

Dagens store språkmodeller kan produsere tekst som virker både overbevisende og presis. Men som Tromsø-saken viser, kan AI også servere feilaktig innhold med største selvfølgelighet. Slike verktøy kan til og med brukes til å manipulere oss med desinformasjon – godt pakket inn i et språk som høres troverdig ut. Faren oppstår når vi behandler alt det en algoritme produserer som fakta. Uten kritisk sans og menneskelig kvalitetssikring risikerer vi å basere beslutninger på fabrikkert «kunnskap».

Dette skjer altså samtidig som vi lever i en verden preget av økt polarisering. Sosiale medier og ekkokamre har allerede gjort det vanskeligere å skille fakta fra løgn, og følelser fra innsikt. Med utbredelsen av kunstig intelligens vil disse trendene bli kraftig forsterket. Deepfake-videoer og falske nyheter kan lages på sekunder, og grensene mellom hva som er ekte og oppdiktet viskes ut. Resultatet er en befolkning som ikke vet hva den skal tro på. Hva vil skje med oss når verken teknologien eller avsenderne av informasjon lenger kan stoles på?

Det eneste vi står igjen med er tilliten mellom oss. Det vil bli vårt viktigste verktøy fremover. Når alt annet er usikkert, blir den mellommenneskelige tilliten selve fundamentet for å bevare samfunnets stabilitet og demokratiske verdier. Tillit bygges over tid gjennom åpenhet, ærlighet og konsekvent etisk oppførsel. Tilliten er limet i samfunnet vårt – en usynlig kontrakt mellom medarbeidere og ledere, politikere og enkeltindivider. Hendelser som «AI-blemmen» i Tromsø spiser opp litt av denne tilliten. Det har vi ikke råd til.

Transparens og ansvarlighet

For ledere - offentlige som private - betyr dette at rollen deres må fornyes i møte med kunstig intelligens og desinformasjon. Ja, teknologien vil utfordre oss – men den kan også være et nyttig verktøy hvis vi bruker den riktig. Her må ledere gå foran med et godt eksempel. De må være åpne om bruk av AI, innrømme feil når de skjer, og stå fast på prinsippene om transparens og ansvarlighet. Tillit er noe man gjør seg fortjent til, ikke noe man kan vedta eller kjøpe. I en tid der algoritmer kan lyve svært så overbevisende på et øyeblikk, trenger vi ledere som verdsetter sannhet høyere enn tempo, og etikk høyere enn gevinst.

Min oppfordring til norske ledere er at vi må ta tillit på dypeste alvor. Uten tillit hjelper det fint lite med nye verktøy, uansett hvor avanserte de er. Når vi ikke lenger kan stole på det vi ser, leser eller hører, må vi kunne stole på hverandre. Det er vårt ansvar – og den eneste måten vi kan sikre at teknologisk fremgang faktisk fører samfunnet fremover, og da i tråd med våre demokratiske verdier.