Ciudad de México.- Hasta ahora, el método que habían empleado los ingenieros computacionales era el aprendizaje por refuerzo, basado en el estímulo y la recompensa pero que, según los investigadores, “es limitado en situaciones complejas y su aplicación se limita a los entornos controlables”.
Para los seres humanos es fácil aprender a controlar un videojuego. La experiencia anterior con la máquina o en la propia vida sirve de ayuda para superar pantallas. ¿Pero un ordenador puede hacer lo mismo? Demis Hassabis y su equipo de investigadores en Inteligencia Artificial de la empresa Deep Mind, de Google, se propusieron el reto de crear un algoritmo que permitiera a una computadora aprender por sí sola, sin apenas información previa.
La novedad que aportan los investigadores de Deep Mind es la combinación de este tipo de aprendizaje con una red neuronal artificial a imagen y semejanza de las biológicas. El resultado, publicado en la revista Nature, es un algortimo denominado deep Q-network (DQN) surgido a partir de un aprendizaje por refuerzo ‘profundo’.
El estudio muestra que este agente artificial ha aprendido por sí mismo a jugar a 49 videojuegos clásicos de la videoconsola Atari 2600, entre los que se encuentran Pacman (el popular comecocos) o Space Invaders, partiendo de información sobre los píxeles y el número de acciones posibles en cada juego.
La máquina superó las puntuaciones de sus predecesoras en 43 de los 49 videojuegos. Pero sus logros no se quedan ahí, según los autores: “Su rendimiento se puede comparar con el de un probador profesional humano de videojuegos. Logró más del 75% de la puntuación humana en más de la mitad de los juegos”.
El método destacó en actividades de índole muy variada, desde los juegos de boxeo a los de carreras de coches en 3D, “lo que demuestra que utilizando la misma arquitectura, la máquina puede aprender a optimizar estrategias en diferentes ambientes”.
Fuente: Revista Nature
Fuente: InsurgentePress