Nyhet
30.10.2012

Kan en maskin være kreativ?

Mandag 5.november kommer direktøren for Sony Labs Paris, Luc Steels, for å holde foredrag på Studentsenteret. Han vil fortelle om roboter som utvikler sitt eget språk, og diskutere hva dette sier om menneskers språkutvikling og muligheten for kunstig intelligens.

 

Kronikk av professor Jan Arne Telle, i anledning besøk og foredrag av Luc Steel.

Publisert først 30.10.12 i "På Høyden" (nyheter.uib.no).

 

Fagfeltet kunstig intelligens har gjennomgått mye siden Alan Turing (1912-1954) i en banebrytende artikkel i 1950 spurte 'Kan maskiner tenke?'. For å besvare dette spørsmålet foreslo Turing en adferdstest, som senere ble gitt hans navn. Turing-testen sier at dersom en maskin i skriftlig dialog oppfører seg til forveksling lik et menneske så bør vi vedgå at maskinen kan tenke. En dommer i Turing-testen kan stille en hvilken som helst serie med spørsmål for så å avgjøre om han mener svarene kommer fra et menneske eller en maskin. På 1960-tallet laget MIT-professoren Joseph Weizenbaum programmet Eliza som illuderte svarene en psykoterapeut ville gitt en pasient. Hvis pasienten for eksempel skrev 'Min mor hater meg' kunne Eliza svare 'Hvorfor tror du at din mor hater deg?'. Eliza hadde en viss suksess og ifølge Weizenbaum ville noen av brukerne etter en slik samtale knapt la seg overbevise om at Eliza ikke var et menneske. De følte at de hadde hatt en nyttig samtale og ba om mere tid med Eliza. Eliza var kun et 200-linjers LISP-liknende program som lette etter nøkkelord og  omformet brukerens siste utsagn på en forutbestemt måte som vanligvis produserte grammatikalsk korrekte svar men ikke så mye mer enn det. Dermed skulle det ikke mye til før Eliza ga meningsløse svar, og det er interessant at noen brukere tviholdt på at de kommuniserte med en psykoterapeut. Det viser seg at brukere sjelden lar seg lure av programmer som Eliza dersom de blir fortalt at de kommuniserer med en gjennomsnittlig person, for da er ikke konteksten begrenset.

Turing-testen har sine motstandere, blant annet filosofen John Searle som i 1980 foreslo tanke-eksperimentet 'The Chinese Room'. Her argumenterer Searle for at en maskin aldri vil kunne tenke, uansett om den består Turing-testen, idet den kun slavisk manipulerer symboler og prinsipiellt sett alltid slår opp sine svar i tabeller, i likhet med Eliza. Et motargument fra kompleksitetsteorien er at en maskin som består Turing-testen må besvare spørsmål i sanntid, og at algoritmene som ligger bak derfor må være mye mer sofistikerte enn oppslag i tabeller, ja kanskje så sofistikert at de ikke finnes, jamfør det berømte P vs NP problemet, eller at de isåfall bærer i seg kimen til intelligens.

Ingen maskin, intet program, har bestått Turing-testen, men årlig deles det ut en pris til den maskin som fremviser den mest menneskeliknende oppførsel i en dialog hvor dommeren er fri til å føre samtalen inn på et hvilket som helst tema. Det er dette kravet om generell kompetanse som gjør at maskinene ikke klarer å etterlikne oss, ikke et krav om spesialferdighet innen et begrenset  felt. For ikke lenge siden ville de fleste vedgå at den beste sjakkspilleren i verden, maskin eller ei, måtte være intelligent, ja faktisk helt usedvanlig intelligent. Og vi nordmenn er naturlig nok meget stolt av det oppsiktsvekkende faktum at den beste sjakkspilleren idag, maskiner unntatt, er en ung mann fra vår egen værbitte kant av kloden. Men det er over15 år siden sjakkspillende maskiner først slo de beste menneskene, og i takt med dette har vi endret vårt syn på maskinsjakk og intelligens. En sjakkmaskin kan idag søke seg gjennom flere hundre millioner trekk i sekundet og algoritmen bak dens spill likner for mye på Eliza's tabell-oppslag til at det vil falle oss inn å kalle dens oppførsel intelligent.

Dersom en maskin skal få betegnelsen tenkende, eller intelligent, virker det naturlig å kreve en viss generell kompetanse, slik Turing-testen gjør. De maskinene vi har skapt i et par mannsaldre siden Turing har langt overgått vår forventning på omtrent alle andre områder enn nettopp dette med generell kompetanse. For å løse en konkret problemstilling sammenfatter vi vår egen forståelse av problemet i noen regler og koder disse inn i et program, men når problemet er generell kompetanse så fungerer tydeligvis ikke denne strategien. Kanskje må vi begynne i en annen ende? Et norsk ordtak sier at 'bare bok gjør ingen klok', så kanskje vi bør skape en maskin som kan utvikle seg, slik mennesket har gjort i millioner av år, og la denne maskinen være en robot som kan bevege seg og dermed lære seg praktisk kunnskap. Og kanskje vi ikke skal la roboten være alene men la den kommunisere med andre roboter.

Ved Sony Labs i Paris gjør Luc Steels eksperimenter med roboter som utvikler sitt eget språk. En gruppe på 20 roboter plasseres først en etter en foran et speil. De begynner å utforske positurene de kan lage ved å bruke kroppen sin. Hver gang de gjør en ny handling oppretter de et nytt ord for å betegne handlingen. For eksempel kan roboten navngi handlingen det er å la den høyre armen peke rett ut til siden. Hver robot skaper sin egen unike ordbok for sine egne handlinger. Når robotene begynner å samhandle skjer det spennende ting. En robot velger et ord fra ordboken sin og ber en annen robot om å utføre handlingen som tilsvarer det ordet. Sannsynligvis vil ikke den andre roboten ha noen anelse og velger som en gjetning en av sine egne handlinger. Hvis gjetningen er riktig vil den første roboten bekrefte dette, og hvis ikke vil den vise den korrekte handling. Den andre roboten kan ha gitt handlingen et eget navn og vil ikke forlate sitt valg, men oppdaterer ordboken for å inkludere den første robotens ord. I de følgende interaksjoner vil robotene vekte sine ord i henhold til hvor vellykket deres kommunikasjon har vært, med nedgradering for ord der samspillet mislyktes. Etter en uke med gruppesamspill mellom robotene vil et felles språk ha en tendens til å oppstå. Ved kontinuerlig oppdatering og læring, har robotene utviklet sitt eget språk som de forstår seg imellom.Dersom maskiner skal utfordre oss mennesker som intelligente vesener med generell kompetanse må det tenkes nytt. Det nye ved forskningen til Luc Steels og hans medarbeidere ved Sony Labs i Paris er at selv om språket til robotene likner på vårt eget språk, så er det et språk forskerne ikke forstår! Forskerne, som satt igang eksperimentet, må selv samhandle med robotene, og først da vil de lære å forstå språket. Dette kan være begynnelsen på en utvikling som forandrer vårt samkvem med datamaskiner i en retning som kan se skremmende ut for den uinnvidde. Mandag 5.november gies det ved Studentsenteret i Bergen en anledning til å høre på de som er i forkant av denne utviklingen.

 

STUDENTSENTERET, EGGET, Kl. 18:00 - 20:00, Mandag 5. oktotober.

Les mer om arrangementet her: https://www.uib.no/matnat/gjesteforelesning/2012/10/luc-steels-and-terje-lohndal-can-machines-be-creative-enough-to-invent-their-own-language