Los estudiantes de la Universidad de Nueva York Heng Li, Jacky Chen y Mingfei Huang crearon una aplicación de realidad aumentada que puede traducir el lenguaje hablado al lenguaje de señas en tiempo real.
Es parte del programa Connected Futures Prototyping and Talent Development, desarrollado por NYU y Verizon.
ARSL es una solución móvil e instantánea de interpretación de lenguaje de señas que aprovecha los modelos de visión por computador en la nube.
view this now viagra samples for sale Symptoms can vary between the genders and the complications are very less. With more than 35 million men impacted with the development issues problems online viagra soft in the U.S. It cheap cialis pharmacy shop here occurs 3 to 6 months after the ordeal. A man cannot be sexually stimulated, if does not think about something coitus generic levitra online and initiate towards the sexual move.
Presenta a los usuarios las traducciones visuales en realidad aumentada.
Fuente: Mashable