En el campo cada vez más activo de la “computación afectiva”, se están desarrollando robots y computadores para analizar expresiones faciales, interpretar nuestras emociones y responder en función de ello.
Entre las aplicaciones están, por ejemplo, monitorizar la salud mental y el bienestar de una persona, medir el interés de un estudiante en el aula, ayudar a diagnosticar señales de ciertas enfermedades, y desarrollar compañeros robots que nos ayuden.
Uno de los desafíos, sin embargo, es que los humanos expresamos las emociones de forma bastante diferente, dependiendo de muchos factores.
Las diferencias generales pueden apreciarse entre culturas, géneros y grupos de edad.
Pero otras diferencias aún son más finas: la hora del día, cuánto hemos dormido, o incluso nuestro nivel de familiaridad con la persona con quien conversamos llevan a sutiles variaciones en la forma en que nos expresamos.
Los cerebros humanos cazan de forma instintiva estas desviaciones, pero a las máquinas les cuesta mucho.
Se desarrollaron hace pocos años técnicas de aprendizaje automático profundo para ayudar a captar estas sutilezas, pero todavía no son tan precisas o tan adaptables entre diferentes poblaciones como podrían llegar a serlo.
El equipo de Oggi Rudovic, Michael Feffer y Rosalind Picard, del Instituto Tecnológico de Massachusetts (MIT) en Cambridge, Estados Unidos, ha desarrollado un modelo de aprendizaje automático que supera a los sistemas tradicionales en la detección de estas pequeñas variaciones de expresión facial, logrando evaluar mejor el estado de ánimo en humanos mientras se le adiestra con miles de imágenes de rostros.
Reviews are immensely supportive to this supplement than any other pharmaceutical products that are evident with viagra best prices side effects. Taking this drug in high quantity causes severe health troubles like, fainting, chest cialis properien pain, heart attack, tiredness, etc. These areas are referred to as nodes and they maintain a steady electrical pulse that allows the heart to cheap tadalafil no prescription increase its activity. Who stands to profit? Pharmaceutical companies and insurance companies from urologists and gynecologists than from sex therapist. sale of sildenafil tablets appalachianmagazine.com Además, usando algunos datos más para entrenarlo, el modelo puede adaptarse para que analice a un grupo de personas completamente nuevo, con la misma eficacia.
Los modelos de computación afectiva tradicionales usan el concepto de “una misma talla para todo el mundo”.
Se adiestran sobre un grupo de imágenes que muestran varias expresiones faciales, optimizando rasgos (como la forma en que un labio se mueve cuando el sujeto sonríe) y cartografiando esas optimizaciones de rasgos generales a lo largo de todo un grupo de nuevas imágenes.
Los autores del nuevo estudio, en cambio, combinan una técnica llamada MoE (“mixture of experts”, “mezcla de expertos”) con técnicas de personalización del modelo, que en los experimentos realizados ayudaron a extraer datos de expresión facial más finos, con resultados mucho mejores en la detección de las emociones que los alcanzados mediante otros sistemas.
Hasta donde saben los investigadores, es la primera vez que estas dos clases de técnicas han sido combinadas para la computación afectiva.
Rudovic y sus colegas han logrado, en definitiva, un modelo de aprendizaje automático que acerca los computadores a interpretar nuestras emociones de un modo muy similar a como lo hacemos de forma natural los humanos.
El modelo capta mejor las variaciones sutiles de la expresión facial y gracias a ello mide mejor los estados de ánimo.
Fuente: Noticias de la Ciencia