Las compañías tecnológicas y de entretenimiento apuestan por la tecnología de reconocimiento facial y Disney quiere liderarlas.
Está utilizando técnicas de aprendizaje profundo para realizar un seguimiento de las expresiones faciales de una audiencia al ver una película con el fin de evaluar sus reacciones emocionales a la misma.
Llamado “factorised variational autoencoders” (FVAEs), el nuevo algoritmo es tan preciso que es capaz de predecir cómo un miembro de la audiencia va a reaccionar con el resto de la película después de analizar sus expresiones faciales por sólo 10 minutos.
Los FVAEs reconocen una serie de expresiones faciales de la audiencia tales como sonrisas y risas.
A continuación, hacen conexiones entre los espectadores para ver si una película está recibiendo ciertas reacciones deseadas en el lugar y momento adecuado.
Básicamente, si usted se está riendo cuando se supone que deba reír o si está bostezando en su lugar.
“Los FVAEs eran capaces de aprender conceptos: como sonreír y reír por su cuenta,” dijo Zhiwei Deng, un Ph.D. estudiante en la Universidad Simon Fraser (que sirvió como asociado de laboratorio en Disney Research).
“Lo que es más, fue capaz de mostrar cómo las expresiones faciales se correlacionan con escenas de humor.”
Other useful physiotherapy techniques include postural taping and education on common teenage behaviors, so that teens are alerted to age-related pitfalls and are better prepared mentally for good driving. best buy on viagra In Latin http://www.learningworksca.org/about/sponsors/ buy generic viagra “cholecyst” means gallbladder, “ectomy” means removal. The sizes of the breast vary from person to person. purchase generic viagra The most prevalent facet impact is itching and dandruff by drying out the scalp. buy viagra sample El equipo de investigación de Disney utiliza un teatro de 400 asientos equipado con cuatro cámaras infrarrojas para filmar la audiencia durante 150 proyecciones de nueve películas como “El libro de la selva”, “Big Hero 6”, “Star Wars: The Force Awakens” y ” Zootopia”.
El resultado fue un conjunto de datos de 16 millones de puntos de referencia faciales para 3.179 miembros de la audiencia que se alimentó a la red neuronal.
Codificadores variacionales como los FVAEs funcionan mediante la traducción automática de estos puntos datos en una serie de números que representan características específicas, qué tanto una cara está sonriendo, el ancho de los ojos abiertos, etc …
Estos números están conectados a otros bits de datos a través de metadatos, permitiendo que el sistema evalúe cómo la audiencia está reaccionando a una película.
Con el entrenamiento adecuado, el sistema es capaz de predecir la expresión de un rostro en varios puntos de la película, después de unos pocos minutos.
“Comprender el comportamiento humano es fundamental para el desarrollo de sistemas de inteligencia artificial que exhiban una mayor inteligencia conductual y social”, dijo Yisong Yue, de Caltech, que colaboró con Disney en el desarrollo del software de aprendizaje profundo.
“Por ejemplo, el desarrollo de sistemas de inteligencia artificial para ayudar en la vigilancia y cuidado de los ancianos se basa en ser capaz de recoger las señales de su lenguaje corporal.
Después de todo, la gente no siempre explícitamente dice si están descontentos o tienen algún problema”.
Fuente: Mashable