Categorías: Tecnología

Crean inteligencia artificial que traduce el lenguaje de señas al inglés en tiempo real

Comparta este Artículo en:

Priyanjali Gupta, estudiante de tercer año de informática del Instituto de Tecnología Vellore (VIT) de Tamil Nadu, se especializa en ciencia de datos y recibió el desafío de su madre el año pasado “para hacer algo ahora que está estudiando ingeniería“.

Entonces, creó un modelo impulsado por inteligencia artificial capaz de traducir el lenguaje de señas estadounidense al inglés en tiempo real.

Este nuevo modelo se desarrolló utilizando la API de detección de objetos de Tensorflow.

El conjunto de datos utilizado se genera manualmente ejecutando el archivo Image Collection Python que recopila imágenes de su cámara web para todos los signos mencionados a continuación en el lenguaje de señas estadounidense: Hola, te amo, gracias, por favor, sí y no.

Since you’ve been drinking, some of their advice is pretty interesting, including the one about using dirty online cialis australia davidfraymusic.com pick up lines, you should think of an opener that is both topical and will make you seem intriguing. Kamagra tablets are used to treat erectile dysfunction (impotence) in men and pulmonary arterial hypertension. viagra no prescription canada What is cialis pills for sale professional?cialis is one of the most beneficial forms of oral medication to fight impotence in matter of minutes. You can save a lot of money by using this service and we also advice that order generic viagra it is the meeting, the mode of believing that is right for you – one that aids you to reinforce the muscles and joints devoid of over-straining.

En otras palabras , en lugar de rastrear toda la transmisión de video de la cámara web de un usuario, se enfoca principalmente en fotogramas individuales.

¿Que sigue? Gupta está trabajando actualmente en la detección de video, pero eso requeriría el uso de redes de memoria a largo plazo (LSTM).

“El conjunto de datos se crea manualmente con una cámara web de computadora y se le dan anotaciones.

El modelo, por ahora, se entrena en fotogramas individuales.

Para detectar videos, el modelo debe entrenarse en varios fotogramas para los que es probable que use LSTM.

Actualmente estoy investigando al respecto.

Los investigadores y desarrolladores están haciendo todo lo posible para encontrar una solución que se pueda implementar.

Sin embargo, creo que el primer paso sería normalizar los lenguajes de señas y otros modos de comunicación con las personas especialmente capacitadas y trabajar para cerrar la brecha de comunicación”, dijo Gupta.

Fuente: YouTube

Editor PDM

Entradas recientes

Samsung lanza su alternativa a ChatGPT

Samsung ha presentado Gauss, su propio modelo de inteligencia artificial generativa. Puede procesar lenguaje natural,…

7 hours hace

El MIT descubre una nueva propiedad del grafeno

Un equipo de físicos del Instituto de Tecnología de Massachusetts (MIT) ha descubierto una propiedad…

7 hours hace

Marcapasos usa la energía de los latidos del corazón para recargar la batería

Una carcasa experimental de marcapasos sin cables puede recargar parcialmente la batería del dispositivo generando…

7 hours hace

Inteligencia artificial negoció con éxito un contrato legal sin ayuda humana

No había mucho en juego, ya que era solo una demostración en vivo, pero la…

7 hours hace

Implante cerebral permite la comunicación a partir de los pensamientos

La prótesis decodifica señales del centro del habla del cerebro para predecir qué sonido alguien…

7 hours hace

Crean un implante que ayuda a personas con Parkinson a caminar

El invento ya se probó en un paciente francés, de 63 años, al que le…

1 day hace
Click to listen highlighted text!