Vetenskap

Alphagos segrar milstolpe för utvecklingen av artificiell intelligens

Foto: Lee Jin-man

Att programmet Alphago besegrar Go-världsmästaren Lee Sedol är en avgörande milstolpe på vägen mot datorer som kan lära och tänka som en människa.

– Jag är inte säker på att jag representerar hela mänskligheten, men jag tror att jag gör det.

Det sa koreanen Lee Sedol, världsmästare i det urgamla asiatiska spelet Go, inför matcherna mot dataprogrammet Alphago som pågår denna vecka.

I torsdags förlorade han den andra av fem matcher efter att både han och Alphago förbrukat sina två timmar av speltid och gått in på övertid.

– Jag antar att jag förlorade eftersom jag inte kunde hitta några svagheter i programmet, konstaterade Lee Sedol på presskonferensen efteråt.

På lördagen vann Alphago även den tredje matchen, så nu är det klart. Människan förlorade mot maskinen. Nu finns ett program som besegrat världens bästa spelares i Go, förmodligen det mest komplexa spel människan någonsin utvecklat, tio år tidigare än vad de flesta experter hade trott var möjligt.

På söndagen lyckades Lee Sedol till slut besegra maskinen i en match som tog över fem timmar. Men på tisdagen gick segern åter till Alphago, som därmed vann med 4–1 i matcher.

– Det är nästan 20 år sedan datorn Deep Blue slog Garry Kasparov i schack. Sedan dess har Go varit som den heliga graalen för artificiell intelligens, sa Demis Hassabis vid vetenskapskonferensen AAAS i Washington DC i februari.

Han är grundare av företaget Google Deepmind som skapat Alphago. Redan i januari blev det offentligt att Alphago hade slagit europamästaren Fan Hui, och därmed blivit det första program någonsin som besegrat en professionell Go-spelare. Men Lee Sedol spelar på en helt annan nivå än Fan Hui. I Asien är han närmast en superstjärna, som tillhört den absoluta Go-eliten i ett decennium.

– Lee Sedol är en innovatör. I hans partier kommer han ofta med helt nya drag som sedan blir standardsekvenser. Jag tror att han kommer att skrivas in i historien som en av de största spelarna någonsin. Det finns högst en handfull andra som kan mäta sig med honom, säger Daniel Jensen, ordförande i svenska Go-förbundet.

Spelet Go uppstod i Kina för mer än 3 000 år sedan. Det spelas med vita och svarta stenar på ett bräde med 19 gånger 19 linjer, och målet är att omringa motståndarens stenar och hägna in en så stor del av spelbrädet som möjligt. Spelet har några få enkla regler, men variationerna är nästan oändliga. Antalet möjliga kombinationer av stenar på brädet är en etta med 170 nollor efter, eller fler än alla atomer i hela universum.

– Go är mer än bara ett spel i Asien. Det har också en andlig dimension. Konfucius skrev att det är en av de fyra konster som en sann lärd måste behärska, tillsammans med kalligrafi, poesi och konst, säger Demis Hassabis.

Det finns fler än 2.000 professionella Go-spelare. Japan, Kina och Sydkorea har speciella skolor där barn lär sig spela Go i stället för att gå i vanlig skola.

Skillnaden mellan Alphago och datorn Deep Blue, som besegrade Garry Kasparov i schack 1997, är enorm. I schack finns det i genomsnitt 20 olika drag en spelare kan göra varje omgång. I Go finns det ungefär 200 möjligheter, alltså 10 gånger fler, vid varje drag. Det är därför omöjligt att bygga en dator som räknar ut alla möjliga drag som kan utföras. Demis Hassabis, som själv var världens näst högst rankade unga schackspelare när han var 13, menar att Go handlar mer om intuition än uträkningar, och om mönsterigenkänning och de undermedvetna processer som vår hjärna är så bra på att hantera.

– Om du frågar Go-spelare varför de gjorde ett visst drag säger de ibland bara att draget kändes rätt. En schackspelare kan alltid förklara exakt vilka beräkningar som låg bakom, säger han.

Alphago måste alltså välja drag med något som påminner om mänsklig intuition. För att uppnå det har programmet fått lära sig att spela Go själv, på ett sätt som liknar hur människor lär sig nya saker. Det är ytterligare en enorm skillnad mot schackdatorn Deep Blue, som inte kan något annat än att spela just schack, inte ens mycket enklare spel. Systemen bakom Alphago kan lära sig att spela nästan vilket spel som helst.

Demis Hassabis kallar företaget Google Deepmind för ett Apolloprogram för artificiell intelligens. Jämförelsen med Apolloprogrammet, som tog människan till månen, syntes också i hans meddelande på Twitter efter den första matchen i onsdags: "Alphago vann!!!! Vi landade på månen. Så stolt över hela teamet!! Respekt också till den fantastiska Lee Sedol."

Men det egentliga målet är mycket större än att skapa en dator som är bättre än vi på att spela Go.

– Vi har en mission, i två steg. Först ska vi lösa intelligensen. När vi väl gjort det ska vi lösa världens alla andra problem. Steg två kommer att följa automatiskt på steg ett, säger Demis Hassabis.

En verkligt intelligent maskin tar in information om omgivningen och lär sig att förstå och hantera den, och kan avgöra vilka beslut den ska fatta och vad den ska göra för att nå sina mål. Det kan också hantera oväntade situationer utan att sluta fungera.

Många som forskar om artificiell intelligens och intelligenta maskiner bygger robotar, men Demis Hassabis har valt en annan väg.

– Robotar är oerhört tidskrävande och dyra på hårdvarusidan. Vi använder istället spel för att testa våra system, och ser dem som virtuella robotar, säger han.

Spel, både datorspel och brädspel, är den perfekta plattformen för att utveckla och testa artificiell intelligens, menar Demis Hassabis.

– Det finns nästan obegränsat med data att träna på, och eftersom de flesta spel ger poäng på något sätt är det mycket enkelt för oss att mäta exakt hur programmet utvecklas och blir bättre, säger han.

Ett av de tidigaste testerna gjorde han och hans medarbetare med det gamla klassiska datorspelet Space Invaders från slutet av 1970-talet. Programmet fick prova sig fram och försöka spela utan instruktioner, ungefär som barn ofta gör när de lär sig nya datorspel.

Först klarade programmet inte att skjuta ned ett enda rymdskepp.

– Men det fick träna i fred över natten, och på morgonen spelade det spelet bättre än någon människa någonsin har spelat Space Invaders, säger Demis Hassabis.

Att lära systemet att spela Go var en mycket större utmaning. Utvecklarna på Google Deepmind laddade hem alla referat av Go-matcher som finns på nätet, några 100 000 stycken. Programmet fick först lära sig att härma de mänskliga spelarna genom att förutsäga vilket nästa drag skulle bli.

Alphago spelade mot sig själv 30 miljoner gånger, och blev allt bättre på att välja drag. Sedan fick en annan del av programmet lära sig att avgöra vilken av spelarna som leder.

Programmet övade själv i några månader. Sedan fick det spela mot de bästa Go-program som redan finns på marknaden - program som slår de flesta amatörer, men aldrig har besegrat någon professionell Go-spelare. Alphago tränade också genom att spela mot äldre versioner av sig själv. Så fick programmet möta europamästaren Fan Hui, och nu världsmästaren Lee Sedol.

Eftersom programmet ständigt övar blir det också hela tiden bättre.

– Nu är poker det enda spelet som datorerna inte kan slå oss i. Där är det möjligheten att bluffa som sätter käppar i hjulet, säger Daniel Jensen.

Foto: DN

Fakta. Matcherna

Fem matcher i Go mellan Google Deepminds program Alphago och världmästaren Lee Sedol hålls på Four Seasons Hotel i Seoul i Sydkorea. De startar klockan 05.00 svensk tid. Alla fem matcher kommer att spelas oavsett hur det går.

1. Onsdag 9 mars. Alphago vann, efter en i början jämn match.

2. Torsdag 10 mars. Alphago vann, efter att båda spelarna spelat på övertid.

3. Lördag 12 mars. Alphago vann.

4. Söndag 13 mars. Lee Sedol vann.

5. Tisdag 15 mars. Alphago vann (4–1 totalt).