Los estudiantes de la Universidad de Nueva York Heng Li, Jacky Chen y Mingfei Huang crearon una aplicación de realidad aumentada que puede traducir el lenguaje hablado al lenguaje de señas en tiempo real.
Es parte del programa Connected Futures Prototyping and Talent Development, desarrollado por NYU y Verizon.
ARSL es una solución móvil e instantánea de interpretación de lenguaje de señas que aprovecha los modelos de visión por computador en la nube.
view this now viagra samples for sale Symptoms can vary between the genders and the complications are very less. With more than 35 million men impacted with the development issues problems online viagra soft in the U.S. It cheap cialis pharmacy shop here occurs 3 to 6 months after the ordeal. A man cannot be sexually stimulated, if does not think about something coitus generic levitra online and initiate towards the sexual move.
Presenta a los usuarios las traducciones visuales en realidad aumentada.
Fuente: Mashable
Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)
Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…
El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…
Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…
Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…
Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…