Un objeto con apariencia de cuchillo puede no ser un cuchillo verdadero. Pero el tacto puede confirmarnos que lo es si su filo lo notamos duro y afilado.
Un sonido como el del fuego puede deberse a otra fuente. Pero percibir el olor del humo nos confirma que algo se está quemando.
Existe una sinergia entre nuestros sentidos, gracias a la cual podemos entender muchas más cosas que si solo atendiésemos a los sentidos por separado.
Esto resulta especialmente útil cuando las señales que llegan a nuestros sentidos son sutiles.
El resultado colectivo de las aportaciones de estos sensores biológicos que poseemos puede ser mayor que la mera suma de sus contribuciones individuales.
En cambio, los robots convencionales tienden a seguir una estrategia menos sinérgica.
Ahora, el equipo de Saptarshi Das y Muhtasim Ul Karim Sadaf, de la Universidad Estatal de Pensilvania en Estados Unidos, se ha inspirado en el modo biológico de integrar los sentidos para aplicarlo a la inteligencia artificial y desarrollar la primera neurona artificial multisensorial integrada.
Los robots toman decisiones en función del entorno y circunstancias en que se encuentran, pero sus sensores no suelen comunicarse entre sí.
Una decisión que tenga en cuenta la información de cada sentido puede tomarse mediante una unidad de procesamiento central, pero eso resta eficiencia al sistema.
Por ejemplo, un carro puede tener un sensor que busque obstáculos y otro que detecte la oscuridad para modular la intensidad de los faros.
Cada uno de estos sensores transmite información a una unidad central que ordena al auto frenar o ajustar los faros.
Este proceso consume más energía.
Permitir que los sensores se comuniquen directamente entre sí puede resultar más eficiente en términos de energía y de velocidad.
En un bosque oscuro, dependemos más del oído que de la vista, pero no tomamos decisiones basándonos en un solo sentido.
Nuestras decisiones se basan en la integración de lo que vemos, oímos, tocamos o percibimos con los otros sentidos.
Los sentidos evolucionaron juntos en la biología, pero en cambio han evolucionado por separado en la inteligencia artificial.
En el nuevo estudio, Das y sus colegas se propusieron hallar el mejor modo de combinar sensores para emular en un sistema de inteligencia artificial el modo en que los sentidos trabajan en un ser vivo complejo y más concretamente en el cerebro humano.
Los investigadores fabricaron su neurona multisensorial conectando un sensor táctil a un fototransistor basado en una monocapa de disulfuro de molibdeno, un compuesto que presenta características eléctricas y ópticas únicas, útiles para detectar la luz y además permitir funcionar a un transistor.
Esto permite integrar señales visuales y táctiles en el sensor.
El sensor genera picos eléctricos que recuerdan a las señales generadas por las neuronas cuando procesan información.
Para emular la entrada de datos del sentido del tacto, el sensor se vale del efecto triboeléctrico, en el que dos capas se deslizan una contra otra para producir electricidad.
Esto permite que el estímulo táctil se codifique en impulsos eléctricos.
Para emular la entrada de datos del sentido de la vista, los investigadores hacen que se proyecte luz en el fototransistor monocapa de disulfuro de molibdeno, un transistor capaz de recordar los estímulos visuales como cuando una persona recuerda la distribución general de una habitación a oscuras después de que un destello rápido la ilumine entera.
Un sistema de neuronas artificiales multisensoriales podría mejorar la eficiencia de la tecnología de sensores en general, y allanar el camino para usos más eficientes de la inteligencia artificial.
Como resultado, los robots, incluyendo drones y vehículos autoconducidos podrían circular por su entorno de un modo más inteligente y además empleando menos energía.
Fuente: Nature Communications