Table of Contents
¿Sabes qué es AlphaGo Zero?
En una entrada anterior del blog hablábamos sobre la inteligencia artificial, las redes neuronales y el machine learning, y el gran avance que están suponiendo en el mundo de la programación. Con motivo del estreno del documental sobre AlphaGo en Netflix, hoy os contamos cómo ha evolucionado este campo de la programación utilizando el Deep Learning.
Deep Blue: el origen de todo
Pero primero vamos a remontarnos a Filadelfia, en 1997. La idea de que un ordenador podía competir con una persona en un juego de mesa llevaba en el aire desde finales de los años 80, pero fue este año cuando se organizó la partida que lo cambiaría todo. El programa en cuestión, y que fue llamado Deep Blue, había sido desarrollado por IBM. El juego elegido fue el ajedrez, y el jugador, el campeón mundial desde 1985: Garri Kasparov. El evento tuvo lugar rodeado de una gran expectación a nivel mundial, y el resultado fue muy reñido y no carente de polémicas. Deeper Blue, versión mejorada de la original, ganó a Kasparov en la sexta partida.
En el año 2016, la historia volvió a repetirse. La inteligencia artificial AlphaGo, desarrollada por Google DeepMind, se enfrentó al número uno en la clasificación mundial del juego de mesa Go, Lee Sedol. Esta vez el evento fue celebrado en Seúl, Corea del Sur, donde el Go se considera como el juego nacional, una práctica digna casi de veneración. Se jugaron 5 partidas, de las cuales Lee Sedol ganó únicamente la cuarta. Más allá del golpe que esto supuso para el orgullo coreano, también tiene implicaciones muy importantes para el futuro de la programación.
Ajedrez y Go
Para comprender el avance que ha experimentado este campo en los 19 años desde Deep Blue hasta AlphaGo, tenemos que conocer las bases de los juegos a los cuales fueron programadas estas dos Inteligencias Artificiales. El ajedrez es un juego más conocido en Occidente y sus reglas nos son más familiares: Dos jugadores enfrentan sus 16 piezas con diferente movilidad sobre un tablero 8×8. El objetivo es hacer jaque mate al rey del adversario y evitar que se lo hagan al propio. Esto requiere utilizar el movimiento de cada ficha adecuadamente, bien para abrir huecos en la defensa del adversario, bien para proteger a nuestro rey, para lo cual se necesita una gran capacidad de estrategia y anticipación.
Debido a su origen chino, el Go tradicionalmente es practicado sobre todo en países asiáticos. Se juega sobre una cuadrícula de 19×19 con fichas redondas, y su objetivo es controlar la mayor parte de esta cuadrícula. Para ello, cada jugador coloca sus fichas, en las intersecciones hasta que rodea un área con ellas. Por crear un paralelismo con el ajedrez, en un momento determinado, éste ofrece una media de 37 movimientos posibles. En comparación, el Go tiene una media de 150-250 movimientos posibles por turno, y un movimiento puede afectar a otro que se produzca 100 turnos más tarde. Esto implica que el Go es un juego de estrategia más a largo plazo que el ajedrez.
La evolución de Alphago y machine learning
Desde Deep Blue, se ha conseguido que varias inteligencias artificiales sean competentes en multitud de juegos diferentes. Sin embargo, las características del Go hacían imposible enseñárselo a uno de estos programas. Hasta el emocionante momento en el que nos encontramos, en el cual la investigación y desarrollo en algoritmos, redes neuronales y machine learning lo han hecho posible. Si Deep Blue era capaz de calcular 200 millones de posibles movimientos por segundo, AlphaGo tiene capacidad para hacer cálculos de miles de millones de posibilidades por segundo, además de su capacidad para «intuir» cuáles de entre esos millones pueden ser las mejores jugadas.
Pero lo verdaderamente fascinante de estas nuevas tecnologías es que a través del Deep Learning, se centran en el proceso de aprendizaje de la propia máquina. Las nuevas tecnología intentan emular la capacidad humana de aprender, y en Google DeepMind parecen ir por muy buen camino. La nueva versión de AlphaGo, AlphaGo Zero, es 100 veces más potente tan sólo un par de años más tarde de la creación de la original. Solo necesita acceso a una base de datos con unas miles de jugadas, y su tecnología de redes neuronales y árbol de decisiones le permite dominar el juego del ajedrez tras pasar unas pocas horas jugando.
Un futuro interesante
Después de que otros jugadores de Go hayan afirmado que jugar contra AlphaGo es como jugar contra otra persona, y de que su uso como método de entrenamiento para jugadores profesionales esté elevando su nivel hasta nuevas cotas, sólo nos queda esperar a ver dónde nos lleva esta nueva forma de crear programas cada vez más inteligentes. Seguro que como en este caso que os hemos contado, podemos aprender muchas cosas, quizá incluso sobre nosotros mismos… ¿no es genial? poder crear programas que aprendan de nosotros y a su vez nos ayuden a aprender todavía más.
Todavía hay muchas incógnitas que resolver durante los próximos años. Por ejemplo: ¿hasta que punto es posible perfeccionar el aprendizaje de las máquinas en otros ámbitos distintos? ¿Podríamos llegar a ver un futuro en el que las maquinas sean capaces de realizar intervenciones médicas complejas por si solas sin la necesidad de contar con un médico humano? Todas estas preguntas y otras muchas no tendrán respuesta hasta dentro de un tiempo pero, mientras tanto, nosotros podemos intentar aprender todo lo posible.
En nuestra academia nos encanta la tecnología y el aprendizaje, así que creemos que será una aventura apasionante y queremos estar preparados para el futuro. Para ello formamos a los científicos del mañana enseñándoles programación de videojuegos y robótica desde que son bien pequeños. Si la evolución en la inteligencia artificial nos ha llevado de Deep Blue a AlphaGo Zero en unos 20 años, ¡imagina qué podrán conseguir ellos en otro par de décadas!
Venid a Ready y descubridlo.