Los estudiantes de la Universidad de Nueva York Heng Li, Jacky Chen y Mingfei Huang crearon una aplicación de realidad aumentada que puede traducir el lenguaje hablado al lenguaje de señas en tiempo real.
Es parte del programa Connected Futures Prototyping and Talent Development, desarrollado por NYU y Verizon.
ARSL es una solución móvil e instantánea de interpretación de lenguaje de señas que aprovecha los modelos de visión por computador en la nube.
Presenta a los usuarios las traducciones visuales en realidad aumentada.
Fuente: Mashable