Alan Turing. For en fascinerende mann.
Hans nylige Hollywood-initierte comeback til rampelyset, glitrende fremstilt av Benedict Cumberbatch, skaper oppmerksomhet. Et ungt mattegeni. Livreddende kodeløser under andre verdenskrig. Den moderne computerens far. Det er mange gode grunner til å beundre Turing. Det gir oss også en god mulighet til å kikke på en av hans mer merkverdige ideer.
Selve «The Imitation Game». Turing-testen.
Dette tankeeksperimentet stammer fra den ekte Turing sin tekst fra 1950 ved navn Computing Machinery and Intelligence.
Den grunnleggende ideen her, er at en avhører sitter med et tastatur og en monitor, og kommuniserer med to deltakere som han ikke selv ser. Disse deltakerne sitter på hvert sitt lukkede rom. Men det viktige her er, at bare en av deltakerne er et menneske. Den andre deltakeren er en maskin. Og det interessante her, er: Kan maskinen programmeres på en slik måte at avhøreren ikke kan finne ut hvilken av deltakerne som er mennesket? Kan maskiner tenke?
Turing foreslår dette andre spørsmålet som erstatning for det første. Så hvis spørsmålet er ja på det første, burde det samme gjelde for det siste. Det er litt usikkert hva Turing selv mener svaret er, men det virker åpenbart at han går en lang vei i å mene at maskinen faktisk tenker.
Sounds good, eh? Dessverre. Ikke helt. Turing sine evner som matematiker overgår hans ferdigheter som filosof. For dette involverer en rekke filosofiske spørsmål.
Jeg har tidligere kritisert Turing-testen med kinesiske rom og tilsvarende godterier her, men la oss nå velge en annen tilnærming.
For et annet sted sier Turing at spørsmålet om hvorvidt en maskin kan tenke, er «for meningsløst til å fortjene diskusjon». Det interessante, mener han, er om en maskin kan passere Turing-testen. Altså om en maskin kan imitere menneskets tankeevne så godt, at den like godt kan passere for å ha den selv.
Du lukter kanskje noe muffens allerede? I såfall gjør du det med god grunn, og vi aner at ikke Turing lenger her er på sin egen hjemmebane.
Hvorfor? Vel, se for deg at jeg har en bit med pyritt (svovelkis) og en bit med ekte gull. De er ganske like, ikke sant? Uten for mye trening, kunne du nok lett forveksla dem.
Se nå for deg at noen spør deg om pyritt virkelig er gull. La oss videre forestille oss at du svarer: «Det spørsmålet er for meningsløst til å fortjene diskusjon. Det interessante her, er ikke om pyritt virkelig er gull, men om vi kan få pyritt til å fremstå som gull.»
Vent. Er ikke dette bare å unngå spørsmålet? Om pyritt virkelig er gull, eller om vi kan få pyritt til å bli forvekslet med gull, er bare to forskjellige spørsmål, uansett hvordan man vrir og vender på det. Så hvorfor er spørsmålet «kan maskiner tenke?» mer meningsløst enn «er pyritt virkelig gull?»
Forskjellen mellom et menneske som tenker, og en maskin som imiterer tenkning, er at mennesket virkelig har en iboende evne til å tenke, mens maskinens «tenkning» er fullstendig avledet. En forlenget arm fra den menneskelige intelligensen som programmerte der i utgangspunktet. En funksjon vi har påført maskinen. Computeren, overlatt til seg selv, har derfor ingen evne til å tenke eller konversere, like lite som metallbitene som utgjør klokka på hånda di, virkelig kan fortelle deg tida. Mer om det her.
Det finnes ingen måte du kan krysse denne overgangen på, uten å samtidig bare bytte spørsmålet over på noen annet, like lite som du kan få pyritt til å virkelig bli gull ved å få pyrittbiten til å fremstå likt.
Derfor argumenterer Saul Kripke for at det ikke eksisterer noen observatør-uavhengig fakta om hvilket program en computer kjører, eller selv hva som er gyldig som en computer i utgangspunktet.
Men videre kan du kanskje si at Turing-testen må være gyldig, siden en slik metode kanskje er eneste måte vi kan benytte naturvitenskapelige metoder til å fortelle oss hva tenkning er. Dette er hva E. A. Burtt kaller for tankefeilen av å «mak[ing] a metaphysics out of [one’s] method…«. Nemlig å tvinge virkeligheten til å passe til ens egen metode, snarere enn å tilpasse ens egne metoder til å samsvare med virkeligheten. Ethvert slikt argument virker til å falle av samme grunner som jeg har forsøkt å legge frem i denne lengre teksten.
Motargumentet du kanskje heller ønsker å fremme, er at kanskje maskinen ikke virkelig tenker, men det gjør ikke mennesket heller. Du ønsker kanskje å påstå at mennesket bare følger en type fastsatte regler. En type algoritmer, lignende computerens, men at på samme måte som vi har programmert inn funksjonene til computeren, har biologiske prosesser programmert inn våre funksjoner.
Jeg skal gjerne innrømme at det er en catchy analogi, og ganske populær i våre IT-dager. Men fremdeles ikke en særlig troverdig en. Ikke la deg lure hvis noen innbiller deg at det er en vitenskapelig konklusjon, fordi det er fremdeles en filosofisk påstand. Og vi har sett på uavhengige grunner i rekkene her og her til å være skeptiske til slik filosofi, og den vil uansett føre til en kjip konklusjon: Nemlig at ingen av tankene vi tenker er til å stole på i utgangspunktet, fordi det finnes ingen «utenfor-algoritmisk» måte å vurdere om de samsvarer med virkelig sannhet på, inkludert tankene som førte oss inn på dette argumentet. Self-defeating.
Hvis du føler deg forplikta til dogmatikken i en mer materialistisk filosofi, føler du deg kanskje presset til å finne en måte hvor dette må fungere på. Men resten av oss trenger med andre ord ikke å være redde for tenkende maskiner med det første. :)
Det som er litt søtt, er at den ekte Turing faktisk har presentert et forsvar mot såkalte «teologiske innvendinger» i originalteksten sin. Siden jeg ikke helt skjønner hvilke teologer Turing har pratet med (dyr har jo faktisk sjel), og siden innvendingen hans egentlig ikke inneholder noe annet argument enn «men hvis Gud er allmektig, kan jo dette være mulig» , ser jeg liten grunn til å adressere den.
Turing. Geni på noen områder – mindre sofistikert på andre. Det kan skje med de beste av oss.
Glimrende. Og ikke pyritt.
Denne bloggen ser ut til å fortjene å bli utforsket.
Takk for det, Peter! :)
Tror poenget til Turing er (overført til din analogi):
Om pyritt, i alle praktiske henseender oppfører seg identisk med gull, så, for alle praktiske henseender, who cares om det er forskjellig?
Ok, så kan man kanskje likevel si at det er ontologisk forskjellig. Men siden de i praksis er like (dette må dog være garantert, og ikke kun spekulert) kan man likevel forholde seg til det som om det var identisk. En pragmatisk fremgangsmåte mao. Det er kanskje ikke så dumt som det høres ut, fordi, som du såvidt er inne på: Hvordan vet du at andre mennesker faktisk tenker (på samme måte som det faktum at du selv tenker)? Det gjør man ikke, men man kan anta det det, og i alle praktiske henseender så har det ikke så mye å si, fordi resultatet, det du observerer fra andre mennesker, er oppførselen dems. Turing legger derfor frem et pragmatisk og behavioristisk argument for AI, som burde resonnere med en del psykologer innenfor den behavioristiske skolen innen psykologien i det minste.
At biologien har «programmert» inn hva vi skal tenke, på samme måte som vi kan programmere en datamaskin til å kjøre et script, baserer seg på en naiv forståelse av biologien, evt. en overtro på DNAets vidunder (som bl.a. Sam Harris dessverre ser ut til å fremme). Poenget er at menneskehjernen er plastisk og tar til seg informasjon om omverdenen, for så å endre seg selv (eller nevronkonfigurasjonene om du vil). Det AI i stor grad fokuserer på er å lage autonome selvlærende maskiner, som kan ta til seg kunnskap om omgivelsene, og på en måte «omprogrammere» seg selv i sanntid. Det er vesentlig mer sammenlignbart med hva vi gjør som mennesker, enn en fremstilling av at sinnet er et «dna hardcodet script».
Du har et skarpt øye. :)
Jeg er enig med deg at Turing sin tilnærming nok er mer pragmatisk. Som jeg hinter til i posten, er det vanskelig å bli helt klok på hvor langt han selv vil gå med denne testen. Men da igjen synes jeg det representerer en del av nøkkelproblemet med moderniteten, nemlig at innholdet i ordet «sannhet» nærmest er byttet ut med «praktisk nytte».
Et annet problem er at mange i etterkant har brukt Turing-testen til en rekke dodgy formål, fra å etablere sterk AI til funksjonalistiske tilnærminger til menneskesinnet – altså at det er mønsteret av prosessene i seg selv som gir opphavet til dette mysteriet vi kaller et «sinn» – en ganske tvilsom hypotese av en rekke grunner.
For å si det som en skolastiker, så er det ganske stor forskjell på organismer med immanent evne til intensjonalitet, og maskiner med intensjonalitet påført eksternt.
Behaviorismen er for lengst et mørkt kapittel innen sinnsfilosofien. Jeg kjenner ikke helt til dens nåtidige plassen i psykologien, men ville regna med at den var ganske avskrevet der også. Å forstå mennesket gjennom mer input – output, har jo mye forklaringsstyrke, men utelater gjerne alt det mest vesentlige.
Men et par spm:
1: Hva mener du med at «menneskehjernen er plastisk»?
2. Er det ikke fremdeles en relevant forskjell i hvordan mennesket er «kreativt» og hvordan en «selvlærende» maskin kan sies å være «kreativt»? Jeg diskuterte dette med en professor i informatikk for en stund sida, og han virket til å være enig.
Jeg tror Turing tenker som så, og vil dithen at: Siden vi forholder oss til mennesker tenkning gjennom deres ytre, så kan vi forholde oss maskiners «tenkning» gjennom deres ytre. Hvis de i alle tilfeller oppfører seg så likt at man ikke klarer å skille dem, så kan man forholde seg til dem på samme måte. Han ville sikkert dratt det så langt som å si at ipso facto (i og for seg) har vi da skapt «intelligens».
1. At hjernen er i stadig forandring. «Neuroplasticity refers to changes in neural pathways and synapses due to changes in behavior, environment, neural processes, thinking, and emotions – as well as to changes resulting from bodily injury» https://en.wikipedia.org/wiki/Neuroplasticity
2. Det spørs på hvordan man definerer «kreativt». Man kan tenke at menneskets kreativitet er et resultat av at vi tar tidligere input, og kombinerer det på nye måter, til å skape noe nytt (dvs. den filosofiske posisjonen at du egentlig ikke kan klare å tenke på noe som ikke er «noe du har sanset», eller en «kombinasjon av noe du har sanset»). I så fall så kan en maskin sies å være kreativ, i den forstand at den også kan ta input, og kombinere det på nye og uante måter, for å skape noe nytt (gi en output) som kanskje ikke før har eksistert (i inputen, eller i verden for øvrig).
Ja, det er ulempen med å ikke forholde seg til en filosofi som holder seg for å være «sophisticated common sense» (thomisme). Når man starter med den typen empirisk skeptisisme, blir det vanskelig å besvare noen spørsmål på en tilfredsstillende måte, fra eksistensen av andre personer til eksistensen av den ytre verden i det hele tatt. :)
1. Ja, var noe slikt jeg håpet på. Der er vi selvfølgelig enige. :)
2. All kunnskap starter i sansene, som Aristoteles selv sier. Jeg må tenke mer på dette, men noe sier meg at distinksjonen på disse typene «kreativitet» vil ligge i graden av intensjonalitet eller lovstyring i den instrumentelle prosessen, på en måte som representerer skillet mellom immanent og eksternt påført intensjonalitet. Slik jeg forstår «selvlærende AI», er det snakk om noe slikt som at den kjører samme repetitive prosessen, og automatisk (1) utelater deler, (2) inkluderer deler, eller (3) fokuserer på bestemte deler, for hver ny iterasjon? Slik at den i en forstand kan sies å effektivisere seg selv? :)
Vet ikke om det er noen altomfattende empirisk skeptisisme akkurat, men en behavioristisk tilnærming er det i det minste. Tilnærmingen behøver ikke nødvendigvis være en sinnsfilosofi som ‘logisk behaviorisme’ f.eks. Den tar det jo litt vel langt; i å si at sinnet (som en mental tilstand, og som tanker) faktisk ikke eksisterer, om det ikke kommer til uttrykk gjennom oppførsel. En slik påstand virker som en naiv forståelse av hva tanker faktisk er og hvordan de oppfører seg. (Man kan jo f.eks. gjerne gå lenge å kverne på tanker, før tankene får noe utspring i handling, og kanskje gjør de aldri det engang, eller bare via eller som en del av andre tanker.) De logiske behavioristene ville sikkert landet på en annen filosofi om de hadde tatt https://www.coursera.org/learn/synapses f.eks.
1. Huzzah! :)
2. Ja, det er ikke så veldig langt ifra sannheten om de fleste selvlærende AI’er i bruk i dag. De brukes jo gjerne til industrielle formål, hvor man har et ønske om en veldig spesifikk og effektiv output.
En vanlig ‘selvlærende AI’ er for eksempel et såkalt «nevralt nettverk» som er blitt ganske vanlig å bruke innen AI. Her er en enkel god visualisering av den simpleste formen av et slikt nettverk: https://www.youtube.com/watch?v=gcK_5x2KsLA
Slik det fungerer er at du har mange små uavhengige deler (kalt «nevroner» typisk, oppkalt etter det de prøver å etterligne), som er koblet sammen i en viss masse, som hver og en følger en enkel oppskrift: Hvis du (et nevron) får mye signal fra noen nevroner, og du overskrider en bestemt sammenlagt signal-terskelverdi, så send et eget signal ut til en mengde «andre» nevroner (basert på en viss vektlegging). Det kan faktisk være noe overlapp, slik at det kan forekomme signal-løkker mellom enkelte nevroner, men signalet vil ikke nødvendigvis gå i en evig løkke, fordi man også er avhengig av signal fra andre nevroner for å overskride terskelverdien. Så er det en inputkilde som er koblet til noen av nevronene og sender signaler inn til massen av nevroner gjennom dem. Etterhvert som inputkilden sender inn flere og flere signaler, eksempelvis tusenvis av bilder med ansikter, så vil det nevrale nettverket trenes opp til å lære å gjenkjenne hvilke mønstre som utgjør et ansikt. (Det gjør den i praksis gjennom at hvert enkelt nevron justerer vektene til sine utgående nevroner.) Deretter kan du sende inn et bilde til nettverket, og så vil det outputte om det fant et ansikt eller ei, basert på mønsteret det har lært under treningen. Det er ikke så uvanlig å bruke sånne metoder til ansiktsgjenkjenning osv. (Facebook finner jo ofte ansikter/personer i bildene dine, når du skal tagge folk f.eks.).
Likevel, når det benyttes til eks. ansiktsgjenkjenning på Facebook og lignende, snakker vi om en prosess fra A til Å Vi snakker da ikke om en (til en hver tid, etter ‘unnfangelsen’) autonom (selvgående, og selvstyrende) prosess, slik man kan finne i roboter. I avanserte AI-roboter derimot har man lagt inn en evig løkke, som gjør at roboten aldri stopper med å utforsker verden rundt seg, tilpasse sitt nevrale nettverk til omgivelsene, og tester ut forskjellige handlinger, for å finne ut hvilke som kan gi de bestemte belønningene den leter etter. Noen ganger kan den f.eks. legge inn en regel (dvs. det interne nevrale nettverket tilpasser seg) om at når den finner ost, så gjør plukk den opp, fordi det av erfaringen vil gi en viss belønning. I dette tilfellet har det nevrale nettverket ‘nevroner’ koblet til steder som effektuerer en robot-handling (en output). Men om roboten merker at den opplevde belønningen forsvinner eller avtar, så kan det være roboten legger inn en regel om at når den finner ost, så bare ignorer den (men plukk opp og sjekk av og til, bare i tilfellet). Om den opplevde belønningen senere øker igjen, så kan det være roboten legger inn den gamle regelen igjen. Det hele kan så gjenta seg til det kjedsommelige. Roboten plukker opp ost i en periode, får belønning, men så avtar belønningen etterhvert, så roboten slutter å plukke opp ost for en periode, men så merker den belønningen stiger igjen, og så plukker roboten opp ost igjen for en periode (og da er vi tilbake til starten av scenariet).
Dette er såklart avhengig av en innprogrammert belønningsmekanisme. Se gjerne den nylige filmen «Ex Machina» som omhandler en utvidet versjon av Turing-testen, og (såvidt) nevner utfordringen med å lage en god belønningsmekanisme (om jeg ikke husker helt feil). Man kan være uenig i premissene for scenariet den hypotetiserer, men filmen er likevel veldig bra laget, og får en til å tenke «hva hvis», så den anbefales uansett.
På det mer filosofiske plan:
Kanskje er ikke en slik belønningsmekanisme så ulikt det vi selv har, i form av våre naturlige basale behov?
Behovene/følelsene våre styrer gjerne tankene våre. Kanskje gjør de det alltid, i en eller annen forstand? Det vil jeg kanskje påstå. Følgelig er kanskje en iboende (immanent) intensjonalitet et resultat av våre iboende behov?
Hvis det, så kanskje en iboende belønningsmekanisme i en robot kan gi oppgavet til en iboende intensjonalitet (dvs. at det den leter etter i omgivelsene blir rettet mot et spesifikt formål). Roboten søker dermed å få belønningen som den iboende belønningsmekanismen har bestemt er aktuell til et gitt tidspunkt (eks: «du får en straff om du ikke plukker opp noe som ligner ost hver fjerde time, og en belønning hvis du gjør det»).
Til slutt bør det nevnes at de fleste roboter og AI implementasjoner så langt har lidt av at de er meget spesifikke/snevre i sin anvendelse. Enten fordi det industrielle formålet er å gjøre en spesifikk oppgave, eller fordi man ønsker å innsnevre kompleksiteten for at det ikke skal bli alt for maskinressurskrevende. Men «den hellige gral» til AI forskning er å lage en «generell» AI, som kan lære seg så og si hva som helst. Det bl.a. Google gjør på dette området er ganske «mind-blowing» to say the least: http://www.proton4.com/artificial-intelligence/google-ai-now-self-learning/
Se spesielt i videoen på dette tidspunktet:
Her har AI’en tilsynelatende konsekvent «rettet seg mot» å utnytte en bestemt strategi den har oppdaget. Merk at det er ingen som har programmert AI’en med denne strategien innabords, ei heller sagt til AI’en at denne strategien eksisterer.
Nå tror jeg at jeg har sagt mer en mer en nok i én skarve kommentar. Nå kjenner jeg at jeg må gå å legge meg. :-)
Spennende lesning! Som matematiker-/informatikerstudent synes jeg spesielt Turing-testen er spennende. Også lærerikt å lese dialogen mellom deg og Magne her.
Spørsmål: (Kommer etter hvert…) Kan ikke så mye om det, så jeg er ydmyk på at jeg kan ta feil. Men er egentlig Turing-testen veldefinert? Sånn praktisk, liksom. Jeg har i hvert fall et par ganger sett en artikkel der noen påstår de har en robot (chatbot, typisk) bestå Turing-testen. Men så har det jo såklart vist seg at de ikke har det, men de har bare klart å komme med gode/varierte svar på brukerdefinerte spørsmål.
Hva er egentlig en tilstrekkelig test? Hvis maskina skal framstå som et menneske, er det rimelig mange ting å teste for. Slik jeg ser det, har da den ovennevnte testen vært ganske snever i å definere hva et menneske «ser ut» som. Veit du noe om dette/har du noen tanker? Forøvrig tror jeg også at hoppet fra å framstå som tenkende til å faktisk være tenkende er umulig å dekke for en maskin, men det er fortsatt utrolig kult hva de får til med AI nå, og blir spennende å se framover.
Hei Vegard,
Kult at du lar deg høre fra her.
Ja, Magne er en veldig glup type, som det er mye læring i å samtale med. Jeg tror det samme om deg. Blant alle temaene jeg har tatt opp med ham, er det definitivt dette vi spriker mest på – om distinksjonen mellom hva det vil si (1) for et menneske å være intelligent og (2) for en maskin å være intelligent. Ser nå at jeg gikk glipp av all teksten under videoen i siste innlegget, men han får heller si fra om han ønsker en videre dialog på dette. :)
Om Turing-testen er veldefinert? Tja, godt spørsmål. Du kan jo lese hva Turing skrev opprinnelig i hans første tekst om testen:
http://www.loebner.net/Prizef/TuringArticle.html
Som sagt. Turing anser ikke spørsmålet «kan datamaskiner tenke?» som et som godt nok definert, nettopp fordi han ønsker seg en proposisjon som kan testes, og foreslår derfor imitasjonsleken som en erstatning for det opprinnelige spørsmålet. Han skriver: «Are there imaginable digital computers which would do well in the imitation game?»
Testen i seg selv er vel veldefinert nok: «Will the interrogator decide wrongly as often when the game is played like this (…)»
Altså. Hvis utspørrer ikke kan skjelne mellom menneske og datamaskin på noen statistisk signifikant måte, som hvis utspørrer tipper riktig f.eks. på 48 av 100 ganger, så lykkes Turing-testen.
Den store variabelen blir vel imidlertid identiteten til utspørrer. Vi kan se for oss at der hvor en vanlig sivil knapt vil tippe datamaskinen riktig på ca. 50% av forsøkene, og derfor la maskinen bestå Turing-testen, kan man tenke seg at en erfaren dataingeniør, eller etterforsker for den saks skyld, kunne ha besvart riktig f.eks. på 90% av tilfeller.
Så fra mitt perspektiv er det vel forutsetningene for selve utspørreren som gir grunnlag for usikkerhetsmarginen i selve testen her.
Men uansett, er jo poenget med denne teksten at selv om Turing-testen lar seg passere perfekt med hvem-som-helst, når-som-helst, hvor-som-helst, gir dette nada informasjon om hvorvidt «datamaskiner kan tenke» i noen som helst meningsfull forstand. :)
Oi, haha, posten dukka opp på Facebook, så trodde den var ny.
Takk for det! Hyggelig! Og takk for godt svar! Viktig det du sier i siste setning, testen sier faktisk ikke noe meningsfylt om datamaskiner kan tenke.
Når jeg ikke har tid til å skrive nye innlegg, hender det at jeg legger ut noen eldre. De er jo tross alt fortsatt relevante. Jeg er ganske fæl sånn. :)