En un entorno simulado en 3D, el sistema fue capaz de reconocer al avatar de la persona que se movía por el escenario, imitarle y luego reproducir su camino sin haber sido entrenado previamente en esta tarea.
Los autores del estudio aseguran que sería el primer ejemplo de «transmisión cultural» a una IA.
En nuestro día a día copiamos comportamientos del resto de personas: desde construir una manualidad que hemos visto en un video en las redes sociales a seguir al guía en una visita en un museo.
A veces, también somos ‘prescriptores’ de acciones: cuando enseñamos a un amigo el funcionamiento de la impresora de su casa o mostramos la forma en la que nos tiramos de cabeza nos convertimos en una suerte de ‘maestros’.
Y esto de la imitación es algo que hacemos desde que nacemos: los bebés copian movimientos o sonidos de sus padres, incluso aunque hayan visto esos gestos apenas un par de veces.
Este conjunto de códigos acaba formando una cultura colectiva que se lega generación tras generación.
Sin embargo, aprender para las máquinas es algo más complejo: hasta ahora, a las inteligencias artificiales se las entrena ‘alimentándolas’ de miles y miles de ejemplos de la acción que queremos que realicen.
Por ejemplo, si deseamos que un sistema aprenda a distinguir entre animales, se le proporcionarán miles de archivos con diferentes especies hasta que sepa reconocer a cada ser vivo al nivel que buscamos.
O si queremos que busque un diagnóstico, se le proporcionarán centenares de síntomas de distintas patologías que coincidan con las enfermedades que queremos detectar.
Google acaba de dar un paso más allá: su inteligencia artificial es capaz de, en un entorno simulado en 3D, buscar el referente humano, su ‘maestro’, imitarle y después recordar la pauta para aplicarla.
Es decir, aprender en tiempo real sin haber tenido contacto previo con su maestro y sin estar ‘alimentado’ por otros posibles ejemplos.
Aprender socialmente.
Edward Hughes y sus colegas de DeepMind (compañía puntera de inteligencia artificial que pertenece a Alphabet, la matriz de Google) crearon un colorido entorno en 3D llamado GoalCycle3D para probar su experimento.
Como si de un videojuego de carreras se tratara, en él había dos jugadores: por un lado, la IA, que nunca había sido entrenada con anterioridad en esa tarea; y, por otro, el avatar controlado por un humano en tiempo real.
La disposición recuerda a cuando una persona se bate contra una máquina en este tipo de juegos, si bien el humano, que suele ser el más torpe en estos casos, se convertía en el maestro, enseñándole la forma en la que tenía que discurrir por el camino e ir tocando en un orden concreto los puntos de control que se encontraba a su paso.
Tras unos minutos de aprendizaje, la IA era capaz de guiarse en este entorno por sí misma de igual manera que lo habría hecho el avatar controlado por un humano, navegando incluso sorteando numerosos obstáculos.
Según detallan los autores, este sistema «sienta las bases para interacciones más estrechas entre los campos de la IA y la psicología evolutiva cultural».
Los profesionales de IA pueden inspirarse en el aprendizaje social humano para construir agentes con una mayor «humanidad» que se adapten a sus contrapartes humanas en el momento, «preservando la privacidad», sugieren los autores, ya que podrían aprender de su forma de actuar pero sin necesidad de saber más datos de la persona.
Además, los agentes de IA de aprendizaje social podrían proporcionar una nueva herramienta de modelado para los científicos que estudian el desarrollo de capacidades culturales en los humanos.
Fuente: Nature