Google är ett företag med många divisioner under dess bälte, och Deepmind är ett av dessa. Företaget utvecklar den artificiella intelligensen Alphago som bland annat lyckats bräcka den mänskliga världsmästaren i brädspelet Go. Tidigare i år lyckades den även med bedriften att besegra två toppspelare i datorspelet Starcraft II.

starcraft2.jpg

Alphastar som det gröna Zerg-laget vinner en match mot den mänskliga Terran-motståndaren.

Den imponerande bedriften utfördes dock via ett applikationsgränssnitt (API) som lät Alphago utföra musklick med mekanisk precision över utvalda banor och endast med rasen Protoss. Detta gav Alphago ett orättvist övertag över det mänskliga motståndet, och inte en helt realistisk bild över en Starcraft II-spelares skicklighet.

Deepmind meddelar att systemet, som nu kallas Alphastar, kan besegra nästan 100 procent av mänskliga spelare i Starcraft II, med samma fysiska gränssnitt dessutom. Bedriften beskrivs i en vetenskaplig rapport i publikationen Nature.

Nu spelar Alphastar enligt samma förutsättningar som mänskliga spelare, det vill säga över Battle.net, på samtliga kartor och spelets tre raser Zerg, Protoss och Terran. Efter en serie onlinematcher rankade Alphastar högre än 99,8 procent av det mänskliga motståndet, och vann titeln Grandmaster för samtliga tre raser.

I ett blogginlägg beskriver upphovsmännen bakom Alphastar hur bedriften åstadkommits. Fundamentalt bygger den på något som kallas förstärkt inlärning (eng. reinforced learning), där systemet spelar miljontals matcher och drar lärdomar från samtliga omgångar. Med lärdomarna i åtanke beräknar AI:n vilka drag som är mest troliga, och vilka motdrag som mest sannolikt leder till vinst.

Ett liknande system tillämpades under de tidigare försöken med Alphago-varianten i Starcraft, men den nya bedriften bygger på ett mer komplext system med flera lager av neurala nätverk som bearbetar inlärda strategier med en trädsökningsprincip som kallas Monte Carlo-metoden.

Enligt Gary Kasparov, den forne världsmästaren i schack, särskiljer sig Alphastar från tidigare AI-system på så sätt att systemet genererar egen kunskap. Detta till skillnad från tidigare varianter som genererar kunskap på förhand vilken sedan tillämpas under matcher.

Alphastar lär sig genom en process där två AI-system kallade "main agents" spelar för att vinna mot allt motstånd, medan diverse stödsystem kallade "exploiter agents" hjälper huvudsystemen genom att exponera deras misstag. Genom att upprepa denna process miljontals gånger för samtliga raser och banor har Alphastar undan för undan lärt sig hur den ska undvika de vanligaste misstagen i olika scenarion.

I’ve found AlphaStar’s gameplay incredibly impressive – the system is very skilled at assessing its strategic position, and knows exactly when to engage or disengage with its opponent. And while AlphaStar has excellent and precise control, it doesn’t feel superhuman – certainly not on a level that a human couldn’t theoretically achieve. Overall, it feels very fair – like it is playing a ‘real’ game of StarCraft

Deepminds blogginlägg innehåller även uttalanden från professionella Starcraft II-spelare, vilka lyfter fram att Alphastar imponerar utan att kännas övermänskligt bra. Dess spelstil uppges också visa prov på att det finns mycket att lära för mänskliga spelare gällande strategiska möjligheter i Starcraft II.

Läs mer om Google Deepmind: