MuZero, la herramienta de Inteligencia Artificial (IA) desarrollada por DeepMind, compañía filial de Google, es capaz de aprender a jugar ajedrez, shogi y el «ajedrez chino» (‘Go’), así como a 57 diferentes juegos de Atari sin conocer previamente las normas.
La IA combina un árbol de búsqueda con un modelo aprendido y logra un «rendimiento sobrehumano» en una serie de juegos sin conocer su dinámica anteriormente.
Los investigadores han afirmado que MuZero logra allanar el camino para aprender métodos en una gran cantidad de dominios del mundo real, particularmente aquellos que carecen de un simulador que comunique normas o dinámicas del entorno.
«Los algoritmos de planificación han logrado éxitos notables en IA. Sin embargo, todos estos algoritmos se basan en el conocimiento de la dinámica del entorno, como las normas del juego o un simulador preciso», han señalado los investigadores en un
informe.
«El aprendizaje basado en modelos tiene como objetivo abordar este problema aprendiendo primero un modelo sobre la dinámica del entorno y luego planificando con respecto al modelo anterior», añaden.
El sistema recibe anotaciones, como imágenes de una tabla de ‘Go’ o una pantalla de Atari, y las transforma en un estado oculto, que se actualiza mediante un proceso que recibe el anterior estado y una hipotética próxima acción.
En cada paso el modelo predice la política, la función de valor y la recompensa inmediata, es decir, el movimiento de la jugada, el ganador y los puntos obtenidos en cada movimiento.