INTELIGENCIA ARTIFICIAL ENTRENADA PARA ENTENDER CÓMO SE SIENTE UN HUMANO

Inteligencia artificial entrenada para entender cómo se siente un humano

Comparta este Artículo en:

¿Podría una computadora, de un vistazo, distinguir entre una imagen alegre y una deprimente?

¿Podría distinguir, en unos pocos milisegundos, una comedia romántica de una película de terror?

Sí, y también su cerebro, según una investigación publicada por neurocientíficos de la Universidad de Colorado Boulder.

“La tecnología de aprendizaje automático se está volviendo realmente buena para reconocer el contenido de las imágenes, de descifrar qué tipo de objeto es”, dijo el autor principal, Tor Wager, quien trabajó en el estudio mientras era profesor de psicología y neurociencia en CU Boulder.

“Queríamos preguntar: ¿podría hacer lo mismo con las emociones? La respuesta es sí”.

Parte de la innovación del aprendizaje automático, parte del estudio de imágenes del cerebro humano, el documento, publicado en la revista Science Advances, marca un importante paso adelante en la aplicación de “redes neuronales”, sistemas informáticos modelados a partir del cerebro humano, para el estudio de emoción.

También arroja una nueva luz diferente sobre cómo y dónde se representan las imágenes en el cerebro humano, lo que sugiere que lo que vemos, aunque sea brevemente, podría tener un mayor y más rápido impacto en nuestras emociones de lo que podríamos asumir.

“Muchas personas suponen que los humanos evalúan su entorno de cierta manera y las emociones se derivan de sistemas cerebrales específicos, ancestralmente más antiguos como el sistema límbico”, dijo el autor principal Philip Kragel, investigador asociado postdoctoral en el Instituto de Ciencia Cognitiva.

“Descubrimos que la corteza visual en sí misma también juega un papel importante en el procesamiento y la percepción de la emoción”.

Para el estudio, Kragel comenzó con una red neuronal existente, llamada AlexNet, que permite a las computadoras reconocer objetos.

Utilizando investigaciones previas que identificaron respuestas emocionales estereotipadas a imágenes, actualizó la red para predecir cómo se sentiría una persona cuando ve una imagen determinada.

Luego “mostró” a la nueva red, denominada EmoNet, 25,000 imágenes que van desde fotos eróticas hasta escenas de la naturaleza y le pidió que las clasificara en 20 categorías, tales como deseo, deseo sexual, horror, asombro y sorpresa.

EmoNet podría categorizar con precisión y consistencia 11 de los tipos de emociones.

Pero fue mejor en reconocer unos que otros.

Por ejemplo, identificó fotos que evocan ansias o deseo sexual con más del 95 por ciento de precisión.

Pero fue más difícil con emociones más matizadas como confusión, asombro y sorpresa.

Incluso un color simple provocó la predicción de una emoción: cuando EmoNet vio una pantalla en negro, registró ansiedad.

Rojo evoca ansia. Los cachorros evocan diversión.

The pill levitra viagra valsonindia.com will not work and get you erections only by grabbing the pill. Scientific studies can very rarely find any concrete proof that any food would http://valsonindia.com/portfolio-items/airtex-yarn/?lang=eu cheap cialis serve that much purpose in stimulating libido. You need to consume one Shilajit ES capsule daily two times with cialis prices valsonindia.com water or milk helps to increase sperm count to help impregnate your lady and parent a kid. This helps fight with the PDE5 enzyme which would normally degrade viagra online cGMP.

Si había dos de ellos, escogía el romance.

EmoNet también fue capaz de calificar de manera confiable la intensidad de las imágenes, identificando no solo la emoción que podría provocar sino lo fuerte que podría ser.

Cuando los investigadores mostraron breves clips de películas a EmoNet y le pidieron que los clasificara como comedias románticas, películas de acción o películas de terror, acertó las tres cuartas partes del tiempo.

Para probar y refinar aún más EmoNet, los investigadores luego trajeron 18 sujetos humanos.

Cuando una máquina de resonancia magnética funcional (fMRI) midió su actividad cerebral, se les mostraron flashes de 4 segundos de 112 imágenes.

EmoNet vio las mismas imágenes, sirviendo esencialmente como el tema 19.

Cuando se comparó la actividad en la red neuronal con la de los cerebros de los sujetos, los patrones coincidieron.

“Encontramos una correspondencia entre los patrones de actividad cerebral en el lóbulo occipital y las unidades en EmoNet que codifican emociones específicas.

Esto significa que EmoNet aprendió a representar las emociones de una manera biológicamente plausible, a pesar de que no lo entrenamos explícitamente para hacerlo. entonces “, dijo Kragel.

La imagen del cerebro en sí también arrojó algunos hallazgos sorprendentes.

Incluso una imagen breve y básica, un objeto o una cara, podría encender la actividad relacionada con las emociones en la corteza visual del cerebro.

Y diferentes tipos de emociones iluminaban diferentes regiones.

“Esto muestra que las emociones no son solo complementos que suceden más tarde en diferentes áreas del cerebro”, dijo Wager, ahora profesor en el Dartmouth College.

“Nuestros cerebros los están reconociendo, categorizando y respondiendo desde el principio”.

En última instancia, dicen los investigadores, las redes neuronales como EmoNet podrían usarse en tecnologías para ayudar a las personas a descartar digitalmente imágenes negativas o encontrar imágenes positivas.

También podría aplicarse para mejorar las interacciones humano-computadora y ayudar a avanzar en la investigación de las emociones.

“Lo que ves y tu entorno puede marcar una gran diferencia en tu vida emocional”.

Fuente: Noticias de la Ciencia

Leave a Reply

Your email address will not be published. Required fields are marked *