Publicidad

Síguenos en nuestras redes sociales:

Publicidad

Google sabe cómo vencerte en el Atari

El algoritmo deep Q-network fue capaz de superar a un humano en 43 juegos clásicos de la consola; la capacidad del programa para aprender de sus errores puede aplicarse en vehículos sin conductor.
jue 26 febrero 2015 10:54 AM
Atari mejorará el juego Centipede para que pueda ser usado sin problemas en dispositivos móviles. (Foto tomada de atari.com)
centipede juego atari (Foto: tomada de atari.com)

Google ha descubierto la manera de vencerte en Atari. La compañía desarrolló un programa informático que puede jugar -y ganar- los videojuegos de la era Atari allá por los ochenta.

Gracias a un algoritmo que Google bautizó como “deep Q-network”, una computadora fue capaz de alcanzar el nivel de pericia o destreza humana en más de dos docenas de juegos de la consola Atari, que van desde videojuegos de acción de desplazamiento lateral y disparos verticales como ‘River Raid’ a videojuegos de carreras de autos en 3D como ‘Enduro’.

Los investigadores de Google describieron el logro en un artículo publicado en la revista Nature esta semana.

Google dio a la computadora el nivel básico para comprender cómo jugar el juego: la máquina fue capaz de "ver" los píxeles en la pantalla; se le dijo qué acciones realizaban los botones virtuales; y se le dijo la puntuación.

Lo que es llamativo respecto al programa es que las computadoras no deberían ser buenas para los videojuegos. Los seres humanos pueden aprovechar las experiencias de la vida real cuando realizan tareas del juego, tales como conducir un coche o disparar un arma. Las computadoras normalmente sólo entienden de bits y bytes.

Pero el nuevo programa de Google jugó igual de bien, si no mejor, que un jugador profesional humano en 29 de los 49 videojuegos que probó. En 43 de los 49 juegos, Google dijo que el algoritmo deep-Q network superó los algoritmos de aprendizaje automático existentes.

Publicidad

En algunos juegos, la computadora de Google fue capaz de aprender estrategias que ayudaban a maximizar su puntuación. Por ejemplo, después de jugar 600 veces el videojuego de romper ladrillos Breakout, deep-Q network aprendió a abrir un túnel a través de los ladrillos para que la pelota rebotara en la parte trasera de la pared para destrozar los ladrillos desde atrás, y no desde el frente.

Google afirma que su algoritmo fue diseñado para imitar el aprendizaje humano que tiene lugar en una parte del cerebro llamada hipocampo, que nos ayuda a aprender de la experiencia reciente. Deep-Q network fue diseñado para aprender por qué perdió una partida de un videojuego y mejorar su juego en función de su desempeño pasado.

Esta impresionante hazaña recuerda a la computadora ajedrecista Deep Blue de IBM y a Watson, el ordenador que venció a los mejores jugadores de Jeopardy! del mundo. Pero a diferencia de estos dos ejemplos, que fueron diseñados para vencer en un juego específico, deep-Q network fue construido para aprender a jugar cualquier tipo de juego.

Por eso Google tiene ambiciones más grandes para las capacidades de aprendizaje automático de deep-Q network. Si queremos que los robots anticipen nuestras necesidades y que los coches se conduzcan solos , las computadoras tendrán que mejorar su capacidad de aprender por sí mismas.

¿Quieres enterarte de lo más reciente de la tecnología?
Entrevistas, noticias y reseñas sobre los últimos gadgets e innovaciones.

¡Falta un paso! Ve a tu email y confirma tu suscripción (recuerda revisar también en spam)

Ha ocurrido un error, por favor inténtalo más tarde.

Publicidad