1.000-mal schneller als DeepStack: Neue Poker-KI AlphaHoldem aus China
Die Poker-KI AlphaHoldem soll deutlich schneller sein als die Programme der ersten Generation (Quelle:pixabay.com/geralt)Chinesischen Wissenschaftlern soll es gelungen sein, ein neues Programm für Künstliche Intelligenz (KI) zu entwickeln, das Profi-Poker-Spielern beim No-Limit Texas Hold’em mindestens ebenbürtig sein soll.
Dies teilte die staatliche Nachrichtenagentur Xinhua [Seite auf Englisch] in dieser Woche mit. Die KI AlphaHoldem sei dabei deutlich schneller als die Poker-KI der ersten Generation, DeepStack und Libratus.
Poker-KI: AlphaHoldem vs. DeepStack
Laut den Forschern des Instituts für Automatisierung der Chinesischen Akademie der Wissenschaften (CAS) handele es sich bei AlphaHoldem um eine „geistesgegenwärtige“ und „schnell lernende“ KI.
Das Programm könne sich mit professionellen menschlichen Spielern beim No-Limit Texas Hold’em Poker auf höchstem Niveau messen.
Auch Deng Xijun, chinesischer Botschafter beim Verband Südostasiatischer Nationen ASEAN, teilte die Nachricht der Wissenschaftler via Twitter:
Chinese scientists have newly developed AlphaHoldem, an #AI program, that is on par with professional human players in heads-up no-limit Texas hold’em poker. With 3 days of self-training, AplhaHoldem can equal 4 sophisticated human players in a 10,000-hand two-player competition. pic.twitter.com/aVNAHtkEIk
— Ambassador Deng Xijun (@China2ASEAN) December 13, 2021
Den Forschern zufolge habe AlphaHoldem ein dreitägiges Selbsttraining absolviert. Danach habe das Programm in 10.000 Hände umfassenden Heads Ups (also Eins-gegen-Eins-Wettbewerben) mit vier erfahrenen Spielern mitgehalten.
Gegen die 2016 erstmals öffentlich vorgestellte Poker-KI DeepStack habe sich AlphaHoldem in einem Wettbewerb mit 100.000 Händen durchsetzen können. Mit drei bis vier Millisekunden pro Aktion sei das chinesische Programm rund 1.000-mal schneller als sein Kontrahent.
Deep Learning bei Poker-KI
Während DeepStack ebenso wie die US-Poker-KI Libratus im Wesentlichen auf einem Algorithmus namens Counterfactual Regret Minimization (CFR) basierten, so die chinesischen Forscher, sei bei AlphaHoldem ein neues Framework zum Tragen gekommen. Hierbei seien Deep-Learning-Elemente in einen neuen Selbstspiel-Algorithmus integriert worden.
Deep-Learning-Modelle sind in der Lage, sich von sich aus weiterzuentwickeln und so dazu zu lernen. Hierfür werden große Datensätze mithilfe neuronaler Netze analysiert. Das System verknüpft dabei immer wieder Erlerntes mit neuen Informationen, ohne dass der Mensch in die Entscheidungsprozesse eingebunden ist. Deep Learning von Künstlicher Intelligenz kommt unter anderem in den Bereichen Gesichts- und Spracherkennung zum Einsatz.
Während des Trainings benötige AlphaHoldem nur noch die Rechenleistung von acht GPUs. Dies mache die chinesische KI neben DeepStack, das 13.000 Grafikprozessoren für vergleichbare Aufgaben benötige, zu einem Ultraleichtgewicht.
Poker als KI-Herausforderung
Bereits seit langem arbeiten Forscher mit Spielen, um KIs zu entwickeln und verbessern. Zunächst widmete sich die Wissenschaft erfolgreich Strategiespielen wie Schach und später auch dem deutlich komplexeren Go.
Poker in seiner Texas Hold’em-Variante bringt aufgrund logischer Unabwägbarkeiten wie der Möglichkeit des Bluffs weitere Herausforderungen mit sich. So müssen die Programme nicht nur aufgrund von Berechnungen und Wahrscheinlichkeiten, sondern auch urmenschlicher Eigenschaften wie Intuition entscheiden.
Die AlphaHoldem-Verantwortlichen erklären hierzu:
Weitere Details zur neuen Poker-KI AlphaHoldem sollen laut Pressemitteilung im Rahmen der AAAI-22- Konferenz zu Künstlicher Intelligenz im kanadischen Vancouver im kommenden Februar mitgeteilt werden.