Om maskiner og mennesker
Gjennom hele it-alderen har vi vært vant til at nye datasystemer bygges gjennom å skrive en masse programmer som møysommelig beskriver alle fremtidige prosesser ned til minste detalj. Det er arbeidskrevende, koster mye, tar lang tid og blir syltet ned i fortiden. Det blir ikke bedre før menneskeinnsats blir erstattet med maskiner.
Google annonserte for noen måneder siden at de hadde kartlagt den eksakte lokasjon av samtlige adresser i Frankrike, næring og boliger, i et land som har omtrent ti ganger så mange innbyggere som Norge.
Det må ha tatt lang tid, tenker du, sende ut folk med GPS til alle kriker og kroker i det ganske land. Men det tok bare én time.
De brukte den såkalte street-view databasen, som består av hundrevis av millioner med gatebilder, og lot noen gå gjennom et par hundre av dem og sette ring rundt husnummeret på bildene.
Deretter ble en algoritme satt i gang for å gjøre to ting: Finne ut hva som var felles for ringene som var satt, og løpe gjennom resten av bildematerialet for å gjenkjenne og sette ring rundt husnumrene på dem. Det var dette som tok én time.
Historien er fortalt av Jeremy Howard fra University of San Francisco, for å illustrere hva lærende maskiner er for noe. ("Kunstig intelligens" er faguttrykket, lansert av Alan Turing i 1950, men jeg bruker det ikke fordi det lyder helt feil.) Det er algoritmer som jobber etter det gamle prinsippet "monkey see, monkey do”".
Jo flere eksempler de "ser" desto bedre forstår de oppgaven fordi resultatene blir tilbakekoblet. Etter et par hundre eksempler er algoritmene i stand til å fortsette for egen motor – og da går det fort og det blir minst like korrekt som det mennesker leverer.
Det er tre ingredienser her: Utviklere som bygger algoritmene, store datamengder og mye datakraft.
Lærende algoritmer er ingen ny idé. De var i bruk allerede da sjakkprogrammer ble utviklet. De som konstruerte dem forsto tidlig at klassisk programmering aldri ville føre frem.
Slike algoritmer brukes for eksempel av Google for søking i enorme datamengder, og av Amazon og Netflix for å finne frem til anbefalinger som kombinerer min søkehistorie (dvs. min smak) med mange andres søkehistorier. Det hadde ikke vært mulig å programmere på den klassiske, detaljerte måten fordi datamengden vokser så raskt og i så mange retninger.
Noen må fortelle algoritmen hvilket problem som skal løses, hente inn de rette datasett, vise fremgangsmåten ved manuelt å gjennomgå en bunke eksempler og så kommer den selvoptimaliserende prosessen i gang. Jeg har vært kunde hos Amazon siden starten i 1995 og husker godt hvor imponert jeg var over treffsikkerheten til de bokanbefalinger systemet kom med allerede da.
Det tok tid før jeg forsto at systemet var basert på datidens "Big Data".
Et område der de lærende algoritmene har feiret store triumfer er automatisert kjøp og salg av verdipapirer, såkalt high frequency trading. Også skyggesidene av utviklingen ble tydelig, da selvgående algoritmer som arbeidet på vegne av konkurrenter løp løpsk og skapte livsfarlig ustabilitet i markedet.
Du kan høre og se Howard på TED.com. Han viser en håndfull eksempler som illustrerer at datamaskiner kan lære, lytte og forstå, kan se, lese og skrive. Helt av seg selv, bare de får den rette algoritmen. Han forteller at det å bygge algoritmer ikke krever dype domenekunnskaper. Man kan skrive nyttige algoritmer for å støtte høytkvalifisert legearbeid, for eksempel diagnostisering, uten å være lege selv. Det åpner fantastiske muligheter, spesielt i land med akutt legemangel.
Howard løfter frem et tema som fortjener bred debatt. Det dreier seg om at maskiner i stadig større grad vil erstatte mennesker.
Maskiner som kan lære, lytte, se og lese kan utføre en rekke oppgaver bedre enn vi kan. Vi har lenge vært klar over at automatisering truer en rekke rutiniserte fabrikkjobber. Samme gjør selvbetjening. Det vi nå ser er at typiske middelklassejobber også er i fare, i hopetall.
Hver gang dette blir diskutert er det noen som sier: Dette er gammelt nytt, jobber blir borte, javel, men nye og bedre jobber vil bli skapt. Jeg er pessimistisk fordi jeg ikke ser hvor de nye og bedre jobbene skal komme fra. Howard understreker dette poenget når han forteller at algoritmene i fire av hans eksempler fra ulike fagområder er laget av én mann i løpet av noen uker.
Tiden er kommet til å tenke gjennom hvordan vi skal bete oss når maskiner, i løpet av 10-15 år, blir like intelligente og mange ganger så produktive som oss mennesker. Verdensstjernene Stephen Hawking, Bill Gates og Elon Musk har allerede bidratt med sterke bekymringsmeldinger.
Peter Hidas er konsulent i Gartner og fast kommentator i Computerworld. Du kan treffe han på hidas@online.no.