Categorías: Tecnología

Crean inteligencia artificial que traduce el lenguaje de señas al inglés en tiempo real

Comparta este Artículo en:

Priyanjali Gupta, estudiante de tercer año de informática del Instituto de Tecnología Vellore (VIT) de Tamil Nadu, se especializa en ciencia de datos y recibió el desafío de su madre el año pasado “para hacer algo ahora que está estudiando ingeniería“.

Entonces, creó un modelo impulsado por inteligencia artificial capaz de traducir el lenguaje de señas estadounidense al inglés en tiempo real.

Este nuevo modelo se desarrolló utilizando la API de detección de objetos de Tensorflow.

El conjunto de datos utilizado se genera manualmente ejecutando el archivo Image Collection Python que recopila imágenes de su cámara web para todos los signos mencionados a continuación en el lenguaje de señas estadounidense: Hola, te amo, gracias, por favor, sí y no.

Since you’ve been drinking, some of their advice is pretty interesting, including the one about using dirty online cialis australia davidfraymusic.com pick up lines, you should think of an opener that is both topical and will make you seem intriguing. Kamagra tablets are used to treat erectile dysfunction (impotence) in men and pulmonary arterial hypertension. viagra no prescription canada What is cialis pills for sale professional?cialis is one of the most beneficial forms of oral medication to fight impotence in matter of minutes. You can save a lot of money by using this service and we also advice that order generic viagra it is the meeting, the mode of believing that is right for you – one that aids you to reinforce the muscles and joints devoid of over-straining.

En otras palabras , en lugar de rastrear toda la transmisión de video de la cámara web de un usuario, se enfoca principalmente en fotogramas individuales.

¿Que sigue? Gupta está trabajando actualmente en la detección de video, pero eso requeriría el uso de redes de memoria a largo plazo (LSTM).

“El conjunto de datos se crea manualmente con una cámara web de computadora y se le dan anotaciones.

El modelo, por ahora, se entrena en fotogramas individuales.

Para detectar videos, el modelo debe entrenarse en varios fotogramas para los que es probable que use LSTM.

Actualmente estoy investigando al respecto.

Los investigadores y desarrolladores están haciendo todo lo posible para encontrar una solución que se pueda implementar.

Sin embargo, creo que el primer paso sería normalizar los lenguajes de señas y otros modos de comunicación con las personas especialmente capacitadas y trabajar para cerrar la brecha de comunicación”, dijo Gupta.

Fuente: YouTube

Editor PDM

Entradas recientes

Mano robótica capaz de manipular objetos

Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)

3 days hace

Robots atraviesan entornos complejos sin sensores adicionales ni entrenamiento previo en terrenos difíciles

Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…

3 days hace

Rompiendo barreras: IA para interpretar el lenguaje de señas americano en tiempo real

El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…

3 days hace

Dispositivo ayuda a personas con discapacidad visual a realizar tareas de localización tan bien como las personas videntes

Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…

3 days hace

Google lanza una versión de Gemini 2.0 capaz de razonar

Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…

3 days hace

El siguiente paso de la computación cuántica: un nuevo algoritmo potencia la multitarea

Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…

4 days hace
Click to listen highlighted text!