Aterrador e impresionante, son las palabras con las que se puede describir el reciente avance de la inteligencia artificial que desarrolla Google. Por primera vez, un sistema de aprendizaje automático logró obtener conocimientos por medio de un método de simple observación e imitación.
PUBLICIDAD
¿Por qué es aterrador y sorprendente esto? Pues cambia por completo la forma en la que vemos a la inteligencia artificial. Hasta antes de este método, que publica el equipo de Google DeepMind en la revista Nature Communications, las formas en las que se entrenaba una inteligencia artificial eran muy distintas.
Tradicionalmente, las IA se han entrenado para realizar tareas específicas mediante la repetición de esa tarea una y otra vez. Por ejemplo, una inteligencia artificial que se utiliza para jugar al ajedrez se entrenaría jugando miles de partidas de ajedrez contra sí misma o contra otros jugadores. Con el tiempo, la IA aprende a jugar al ajedrez mejor y mejor.
Este enfoque tiene algunas limitaciones. En primer lugar, requiere una gran cantidad de datos para entrenar la IA. En segundo lugar, puede ser difícil generalizar lo que la IA ha aprendido a nuevas situaciones.
Ahora, con este nuevo método que Google muestra al mundo, ya no se necesita la introducción de miles o millones de datos para poder entrenar a una IA. Al mecanismo de aprendizaje automático solo le basta con verte ejecutando una tarea para poder hacerla él mismo.
Así lo muestra el gigante de Mountain View en una simulación 3D. La IA pudo sortear obstáculos y realizar tareas, que nunca había hecho, con solo ver las acciones que hizo un guía; bien sea un humano u otro mecanismo digital, reseñó La Vanguardia.
Asimismo, una vez que hizo esa tarea, le quedó impregnado el conocimiento en su base de datos. El agente de IA recuerda todos los patrones que realiza, de manera que no será necesario hacer repetitiva una acción para que la pueda interiorizar.
PUBLICIDAD
“Antes de nuestro trabajo, los métodos más avanzados necesitaban una gran cantidad de ensayos para aprender un nuevo comportamiento. Con nuestro método, el agente puede aprender un nuevo comportamiento a tiempo real sólo mirando”, dijo Edward Hughes, ingeniero de Google DeepMind y uno de los autores del trabajo, en una entrevista con La Vanguardia.
“Si este tipo de técnica se escala y transfiere a robots reales, querría decir que un humano podría enseñar a un robot una nueva habilidad sobre la marcha, de modo local y manteniendo la privacidad”, destacó el científico de Google DeepMind.