DeepMind , la inteligencia artificial de Google , ha conseguido que su versión más reciente aprenda por sí misma a dominar el Go (tablero de origen chino), el ajedrez tradicional, el shogi (el clásico ajedrez japonés) y otros juegos de mesa sin ayuda humana . En marzo pasado, esta IA ya había sorprendido al ser capaz de recordar y utilizar lo aprendido en nuevas tareas.
AlpaGo Zero ha vencido por 28-0 a Stockfish, el mejor programa de ajedrez
El nuevo sistema AlpaGo Zero es capaz de entrenarse a sí misma para desarrollar habilidades "sobrehumanas" en menos de un día con tan solo conocer las reglas . Es decir, sin juegos de ejemplo o referencias . En unas horas, le ganó a a su predecesor, AlphaGo, en el Go por 100 victorias a 0 en octubre pasado. En el ajedrez , cuatro horas fueron suficientes para vencer a Stockfish , uno de los motores de ajedrez más potentes del mundo, por 28-0 . En shogi , tuvo suficiente con dos horas de entrenamiento. **También ha jugado StarCraft II .
No obstante, la AI no es aún verdaderamente independiente, ya que ser la mejor en todos los juegos de mesa es tan solo parte de su entrenamiento**, de acuerdo con el nuevo paper publicado por la compañía sobre AlphaGo Zero. El ajedrez y el Shogi fueron pruebas relativamente fáciles, ya que que son más simples que el Go.
DeepMind busca aplicar estas técnicas de aprendizaje a muchos otros ámbitos y este es un avance tremendo para hacia una IA capaz de realizar cualquier tarea con tan solo las instrucciones mínimas. Aún hay un largo camino por recorrer , un día es bien tiempo para los juegos de mesa, pero aún es demasiado lento para situaciones en las que necesita adaptarse en el acto .
En el futuro, podría utilizarse para los robots o autos autónomos que requieren aprender a navegar en entornos desconocidos sin contar con material de capacitación provisto previamente. Lo que podemos esperar a corto plazo es ver más avances no solo en juegos de mesa .
https://hipertextual.com/2017/10/alphago-zero-deepmind-google