La IA de Google derrota por primera vez a dos campeones de eSports

A través del programa AlphaStar, DeepMind desarrolló una red profunda de aprendizaje neuronal entrenada directamente a través de datos en bruto de StarCraft II

IA Google derrota campeones eSports
Para entrenar a su IA, se utilizaron datos en bruto de la interfaz de StarCraft II a través de dos técnicas conocidas como aprendizaje supervisado y aprendizaje reforzado
Techbit 25/01/2019 11:36 Agencias Actualizada 11:36

#Gamers

La herramienta de Inteligencia Artificial (IA) desarrollada por DeepMind, compañía filial de Google, ha logrado derrotar por primera vez a dos campeones de deportes electrónicos o eSports, tras aprender a jugar al videojuego StarCraft II.

A través de un programa denominado AlphaStar, DeepMind ha desarrollado una red profunda de aprendizaje neuronal entrenada directamente a través de datos en bruto de StarCraft II, como ha explicado la compañía de Google en un comunicado.

En una serie de pruebas que tuvieron lugar el pasado 19 de diciembre, AlphaStar logró vencer al jugador polaco Grzegorz 'MaNa' Komincz y su compañero, el alemán Dario 'TLO' Wünsch, ambos miembros del equipo profesional Team Liquid. Esta partida tuvo lugar en un mapa competitivo del juego y sin restricciones de reglas.

La saga de videojuegos StarCraft, de estrategia en tiempo real y desarrollada por Blizzard, era considerada por DeepMind como un "gran desafío" debido a la complejidad del juego, a su mecánica y a la amplitud de los mapas, lo que complica entrenar a sistemas automáticos para resultar competitivos.

Para entrenar a su IA, DeepMind ha utiliza datos en bruto de la interfaz de StarCraft II a través de dos técnicas conocidas como aprendizaje supervisado y aprendizaje reforzado. La red neuronal convierte las unidades del juego y utiliza un núcleo de memoria LSTM que proporciona soporte para aprendizaje a largo plazo.

Un algoritmo de aprendizaje múltiple que se ha empleado inicialmente para entrenar la red neuronal de AlphaStar a través del aprendizaje supervisado, con el que aprende de jugadores humanos de otros videojuegos de Blizzard y de su sistema de economía 'macro' y de recursos 'micro'. Con estas técnicas, ha derrotado el 95% de ocasiones a la dificultad 'elite' de los juegos del estudio.

Posteriormente, los investigadores sometieron a AlphaStar a un proceso de aprendizaje reforzado, para el que se creó una liga continua de StarCraft II con jugadores reales compitiendo, que creaba un mapa global con las estrategias escogidas por las personas.

Posteriormente, AlphaStar analizaba el porcentaje de éxito de cada estrategia y sus posible tácticas de contraataque. Con la liga de StarCraft, AlphaStar ha acumulado una experiencia de más de 200 años de juego real, sumada durante 14 días.

El sistema de Google consiguió vencer a los profesionales 'MaNa' y 'TLO', algo que sucede por primera ocasión con jugadores de eSports según DeepMind, y además con un resultado de 5-0. Para ello aprovechó una mayor media de acciones por minuto, de decenas de miles frente a cientos, y se sobrepuso a limitaciones del algoritmo como un retraso de 350 milisegundos entre observación y acción.

Las pruebas actuales de DeepMind con StarCraft II no son las primeras de la IA de Google con videojuegos, que ya juega a otros títulos como Atari, Mario y Dota 2, y, desde el pasado verano, también a Quake III en el modo 'Captura la bandera'.
 

Comentarios