Científicos británicos han diseñado una red neuronal artificial capaz de aprender a dominar diversos videojuegos sin haber sido previamente programada para ello, según un estudio que publica la revista Nature.
La compañía Deep Mind, adquirida por Google en enero de 2014 , ha combinado técnicas de aprendizaje informático ya conocidas con mecanismos inspirados en la biología para lograr que su «agente artificial» aprenda a jugar a 49 videojuegos clásicos del computador Atari 2600.
El sistema es capaz de descubrir el objetivo del juego y dominar sus controles sin contar con más información que las imágenes que aparecen en pantalla y la puntuación. Gracias a sus mecanismos de adaptación y aprendizaje, la máquina actúa a un nivel comparable al de un humano profesional de los videojuegos.
Los autores del sistema subrayan que la aplicación de la inteligencia artificial a los videojuegos no es más que una demostración de la potencia de su algoritmo, cuyo uso se puede generalizar a otro tipo de entornos e industrias.
Demis Hassabis, uno de los creadores, explicó en una rueda de prensa por vía telefónica que su red neuronal es un artefacto de naturaleza distinta a otras máquinas como el conocido Deep Blue de IBM, la computadora que en 1996 derrotó por primera vez a un campeón del mundo de ajedrez -en aquel momento el ruso Gary Kaspárov-.
«La diferencia es que las habilidades de Deep Blue estaban programadas de antemano. Un equipo de ingenieros y maestros del ajedrez volcaron todo su conocimiento en un algoritmo que se ejecutaba con éxito sin aprender nada«, relató Hassabis. Desde entonces IBM ha desarrollado Watson, una supercomputadora con la capacidad de realizar combinaciones nuevas a partir de datos previos, como recetas de cocina .
Comentarios