Trabajan en app para traducir el lenguaje hablado al lenguaje de señas y viceversa en tiempo real
Los estudiantes de la Universidad de Nueva York Heng Li, Jacky Chen y Mingfei Huang crearon una aplicación de realidad aumentada que puede traducir el lenguaje hablado al lenguaje de señas en tiempo real.
Es parte del programa Connected Futures Prototyping and Talent Development, desarrollado por NYU y Verizon.
ARSL es una solución móvil e instantánea de interpretación de lenguaje de señas que aprovecha los modelos de visión por computador en la nube.
view this now viagra samples for sale Symptoms can vary between the genders and the complications are very less. With more than 35 million men impacted with the development issues problems online viagra soft in the U.S. It cheap cialis pharmacy shop here occurs 3 to 6 months after the ordeal. A man cannot be sexually stimulated, if does not think about something coitus generic levitra online and initiate towards the sexual move.
Presenta a los usuarios las traducciones visuales en realidad aumentada.
Fuente: Mashable
POCO acaba de presentar los nuevos POCO F7 Pro y POCO F7 Ultra, dos propuestas…
Un equipo de investigadores de IA de la startup METR propone una nueva métrica para…
El cemento es uno de los materiales artificiales más utilizados en el planeta, pero tiene…
¿Qué pasaría si pudiera escuchar música o un podcast sin auriculares ni audífonos y sin…
Un equipo de ingenieros mecánicos de la Universidad de Beihang, en colaboración con un especialista…
El MSPM0C1104 de Texas Instruments es el microcontrolador más pequeño del mundo. (more…)