Nachrichten / Spiele

Ein genauerer Blick auf DeepMind, die Google-KI, die StarCraft 2 antreibt

31 Mai 2020 Diese Funktion wurde ursprünglich im Januar 2019 veröffentlicht.

Man kann davon ausgehen, dass sich die KI-Technologie von DeepMind bereits bewährt hat.

Im Jahr 2016 beobachtete das berühmte Computerlabor, wie eines seiner Programme für künstliche Intelligenz das Undenkbare tat und eine Go-Partie gegen den damaligen Weltmeister – und Menschen – Lee Sedol gewann. Die Beherrschung des alten chinesischen Brettspiels war nur ein Beispiel für das maschinelle Lernen, mit dem DeepMind hoffentlich letztendlich Branchen wie Wissenschaft, Gesundheitswesen und Energie revolutionieren kann.

Für die nächste Etappe dieser Reise hat DeepMind seine Aufmerksamkeit auf StarCraft II gerichtet. Das sieben Jahre alte RTS mag immer noch eine eSports-Sensation sein, aber es ist kein offensichtlicher Fortschritt gegenüber Go. Schließlich – und ich entschuldige mich bei Blizzard – gilt das 2500 Jahre alte abstrakte Strategiespiel als der Gipfel des Spiels Design, strategische Tiefe und elegante Komplexität. Aber das Besondere an Go – und dem anderen großartigen KI-Sparringspartner Schach – ist, dass es präzise geordnet und eng strukturiert ist. Trotz der entmutigenden Kombinationen möglicher Züge, die diese Spiele bieten, wird ihre Tiefe nicht unbedingt durch Breite ergänzt.

Ein Multiplayer-RTS hingegen ist etwas chaotischer. Top-Profispieler von StarCraft II können über 800 sinnvolle Maus- und Tastaturaktionen pro Minute ausführen. Es ist ein dynamisches, unberechenbares Strategiespiel, das mit der Geschwindigkeit einer Bullet-Hölle gespielt wird und in dem unzählige Interaktionssysteme in einem verwirrenden Durcheinander drängeln. StarCraft II verlangt von seinen Spielern, mit Unsicherheiten umzugehen und sich nuancierte räumliche Umgebungen zurechtzufinden. Das alles ist eine ziemliche Herausforderung für eine KI.

Vignette YouTube

Aus diesem Grund hat DeepMind ein KI-Programm namens AlphaStar entwickelt, mit einem Lebensziel: den kompetitiven Multiplayer-Modus von StarCraft II zu meistern. Tatsächlich gab es bereits Einzelkämpfe mit einigen der besten Spieler der Welt.

Deshalb befinde ich mich in einem Ad-hoc-Fernsehstudio, das in der britischen Google-Zentrale eingerichtet wurde. In den letzten Wochen hat DeepMind – das zum Google-Mutterunternehmen Alphabet gehört – AlphaStar in den Kampf gegen die geschätzten Team Liquid-Profis Dario „TLO“ Wünsch und Grzegorz „MaNa“ Komincz geschickt. Jetzt ist das Unternehmen bereit, die aufgezeichneten Spiele zu teilen, und Kommentatoren, die die Spiele noch nie zuvor gesehen haben, wurden angeworben, um Energie zu liefern. Es entsteht eine sehr flüssige Szene.

Was sie enthüllen werden, scheint wichtig zu sein. Es geht nicht nur um KI gegen zwei E-Sport-Teamkollegen. AlphaStar stellt die Vorstellung von Geschicklichkeit im Gaming in Frage. Die Auswirkungen könnten die Art und Weise verändern, wie menschliche Profispieler spielen, wie zukünftige Titel entwickelt werden und natürlich, wie KI die menschlichen Fähigkeiten auf der ganzen Welt erweitert.

DeepMind begann damit, einen künstlichen StarCraft II-Spieler zu bauen, der keinerlei Ahnung von den Spielregeln oder -strategien hatte. Aber er schaltete weiter ein, schaute sich eine halbe Million menschliche StarCraft-Spiele an und lernte ständig dazu. AlphaStar hat nachgeahmt, experimentiert, gescheitert und gelernt. Dies ist der kombinierte Prozess aus Deep Learning und Reinforcement Learning, der den Kern des Angebots von DeepMind bildet.

Bis zur BlizzCon 2018 Anfang November hatte AlphaStar die Regeln von RTS verstanden und einige grundlegende makrobasierte Strategien gemeistert. Am 10. Dezember besiegte die KI den erfolgreichsten menschlichen StarCraft-Spieler von Team DeepMind, nachdem sie viele Matches gegen verschiedene Versionen ihrer selbst bestritten hatte. Es war Zeit, ein höheres Level zu erreichen.

Neun Tage später flog Team Liquid-Manager TLO nach Großbritannien. Als professioneller StarCraft II-Spieler hat er gegen alle verschiedenen Rassen im Spiel angetreten, gilt aber als äußerst fähiger Zerg-Spieler. AlphaStar hatte sich jedoch auf Protoss vs. Protoss konzentriert, um das Lernen konsistent zu halten. Ein reines Protos-Match gegen TLO wäre daher ein perfekter, sanfter erster Test, bei dem DeepMinds Agent gegen einen Experten außerhalb seiner Komfortzone antritt.

Fahrerlose Autos: So bringt Codemasters der KI das Fahren bei

Als der Stream beginnt, besiegt AlphaStar TLO im ersten Spiel mit einem eher unkonventionellen Spielstil – er weigert sich, eine Choke-Rampe abzuwehren, ein bewährter Ansatz angesichts der gewählten Karte. Von Anfang an hat die KI die Führung über die Menschen übernommen und scheint sich nicht allzu sehr darum zu kümmern, im Takt der Konvention zu tanzen. Trotz aller Theorien, von denen StarCraft-Spieler besessen sind, macht AlphaStar die Dinge bereits anders.

Vignette YouTube

Der DeepMind-Agent sollte jedoch möglichst menschlich sein. Es gibt Grenzen, wie schnell er interagieren kann, und Zugeständnisse, um sicherzustellen, dass sein Ansatz nicht dazu führt, dass abstrakte Spiele unspielbar werden. Tatsächlich hat TLO in seinem ersten Aufeinandertreffen mehr „Aktionen pro Minute“ durchgeführt als AlphaStar, was beweist, dass es wenig Grund zu der Annahme gibt, dass ein unfairer Geschwindigkeitsvorteil vorherrscht.

"Ich bin mit viel Selbstvertrauen in dieses Match gestartet", sagte TLO mit einem verwirrten Lächeln über seine Niederlage. Als nächstes sagt der Team Liquid-Spieler, er habe aus der Erfahrung gelernt und fühle sich bereit, AlphaStar in zukünftigen Spielen zu schlagen.

Doch es kommt etwas anders. Mit jeder Runde ändert AlphaStar seine Strategie. KI ist immer unerbittlich, immer effizient – ​​aber niemals vorhersehbar. TLO wird mit 5:0 geschlagen.

DeepMind hielt sich offensichtlich nicht zurück. AlphaStar vereint tatsächlich fünf verschiedene Wirkstoffe – so etwas wie eine Ansammlung verschiedener Versionen seiner selbst. Darüber hinaus sagt DeepMind, dass AlphaStar rund 200 Jahre lang Gaming gespielt hat, eine Tatsache, mit der TLO sichtlich getröstet hat. Tatsächlich ist es jedoch eher mit menschlichem Lernen vergleichbar, als Sie vielleicht denken.

Diese 200 Jahre umfassen alles jede Version von AlphaStar hat gelernt, sich selbst zu spielen. Ebenso erbt ein StarCraft II-Spieler, der 500 Stunden Spielspaß hinter sich hat, auch das kollektive Wissen der Spieler, die vor ihm kamen, und derjenigen, mit denen er gekämpft hat. Wir sind alle mehr als unsere eigene Erfahrung; Hunderte weitere Jahre.

In jedem Fall war es an der Zeit, die Herausforderung anzunehmen. MaNa ist sowohl ein Talent als auch ein selbstbewusster Spieler, der sich auf Protoss konzentriert. Sicherlich würde AlphaStar jetzt seinesgleichen finden?

Nach fünf Niederlagen in Folge gegen AlphaStar scheint MaNa zu gleichen Teilen verärgert, begeistert und fasziniert zu sein. Wie TLO war er offensichtlich überrascht. Während sich AlphaStar buchstabengetreu an die Spielregeln hält, hält es sich einfach nicht an die etablierten Spielstrategien, die die StarCraft II-Spieler gemeinsam entwickelt haben.

Echtzeit-Chat: le beste RTS-Spiele auf dem PC

MaNa erhält zumindest eine Rettung für sich selbst und die Öffentlichkeit, wenn es um den E-Sport und vielleicht auch um die Menschheit im Allgemeinen geht. DeepMind veranstaltet ein Live-Spiel im Studio, sendet alles und alles. Und es scheint das erste Spiel gegen einen Profi zu sein, bei dem die KI von DeepMind daran gehindert wurde, die Kamera des Spielers zu verwenden. AlphaStar sieht das Spiel nicht als solches, war aber bereits in der Lage, einen gesamten Spielbereich zu erfassen, anstatt ihn aus der Kameraansicht zu erleben.

Diesmal gewinnt MaNa und ist sichtlich überaus erleichtert.

Bei ausgeschalteten Kameras herrscht im temporären Studio von DeepMind ein kollektives Gefühl der Erleuchtung. AlphaStar hat vielleicht seinen letzten Kampf verloren, aber ein Endstand von 11:1 zugunsten der KI sorgte für Beben. Und professionelle Gamer sind optimistisch und nachdenklich.

TLO erzählt uns, dass MaNa einmal eine Taktik übernommen hat, die er bei AlphaStar gesehen hat, und sie in realen Spielen eingesetzt hat. Wenn AlphaStar seinen Spielstil weiterhin auf unvorhersehbare Weise ändern kann, können Menschen möglicherweise neue Herangehensweisen erlernen, so wie die KI durch die Beobachtung von Menschen lernt. Wir können beobachten, dass im kompetitiven E-Sport disruptive neue Spieltheorien auftauchen, die ursprünglich nicht von biologischen Organismen entwickelt wurden.

Unterdessen diskutiert das DeepMind-Team mit Begeisterung die Auswirkungen hochqualifizierter KI-Spieler auf die Spieleentwicklung. Sie hoffen vielleicht, dass ihre Technologie die globalen Lieferketten, die Katastrophenhilfe und die Arbeit von medizinischem Fachpersonal verbessert, aber vorerst spielt die Vorstellung einer künstlichen Intelligenz im menschlichen Maßstab auf allen Seiten eine Rolle. Was könnte AlphaStar für Gaming-Tests bedeuten? Könnten seine Fähigkeiten nicht nur die Designvalidität eines bestimmten Spiels beurteilen, sondern auch den kreativen Prozess vorantreiben? Könnte es der KI gelingen, perfekt ausgewogene Spiele ohne menschliches Eingreifen zu entwickeln?

Umzug: Cannon präsentiert die besten Strategiespiele für den PC

Vielleicht denkt TLO. Aber er weist darauf hin, dass ein perfekt ausbalanciertes Spiel möglicherweise nicht zwangsläufig ein gutes Spiel ist. Es waren schließlich winzige Unzulänglichkeiten in der Ausgewogenheit, die es StarCraft II-Spielern ermöglichten, eine so dichte Bibliothek an Spieltheorien rund um ihr geliebtes RTS aufzubauen. Daraus ergibt sich die Fähigkeit zu individuellem Gespür und dramatischen Schicksalsschlägen.

KI macht uns vielleicht schon besser, aber das bedeutet nicht, dass Perfektion perfekt für Spiele ist.

Bewerte diesen Artikel