CREAN INTELIGENCIA ARTIFICIAL QUE TRADUCE EL LENGUAJE DE SEÑAS AL INGLÉS EN TIEMPO REAL

Crean inteligencia artificial que traduce el lenguaje de señas al inglés en tiempo real

Comparta este Artículo en:

Priyanjali Gupta, estudiante de tercer año de informática del Instituto de Tecnología Vellore (VIT) de Tamil Nadu, se especializa en ciencia de datos y recibió el desafío de su madre el año pasado “para hacer algo ahora que está estudiando ingeniería“.

Entonces, creó un modelo impulsado por inteligencia artificial capaz de traducir el lenguaje de señas estadounidense al inglés en tiempo real.

Este nuevo modelo se desarrolló utilizando la API de detección de objetos de Tensorflow.

El conjunto de datos utilizado se genera manualmente ejecutando el archivo Image Collection Python que recopila imágenes de su cámara web para todos los signos mencionados a continuación en el lenguaje de señas estadounidense: Hola, te amo, gracias, por favor, sí y no.

Since you’ve been drinking, some of their advice is pretty interesting, including the one about using dirty online cialis australia davidfraymusic.com pick up lines, you should think of an opener that is both topical and will make you seem intriguing. Kamagra tablets are used to treat erectile dysfunction (impotence) in men and pulmonary arterial hypertension. viagra no prescription canada What is cialis pills for sale professional?cialis is one of the most beneficial forms of oral medication to fight impotence in matter of minutes. You can save a lot of money by using this service and we also advice that order generic viagra it is the meeting, the mode of believing that is right for you – one that aids you to reinforce the muscles and joints devoid of over-straining.

En otras palabras , en lugar de rastrear toda la transmisión de video de la cámara web de un usuario, se enfoca principalmente en fotogramas individuales.

¿Que sigue? Gupta está trabajando actualmente en la detección de video, pero eso requeriría el uso de redes de memoria a largo plazo (LSTM).

“El conjunto de datos se crea manualmente con una cámara web de computadora y se le dan anotaciones.

El modelo, por ahora, se entrena en fotogramas individuales.

Para detectar videos, el modelo debe entrenarse en varios fotogramas para los que es probable que use LSTM.

Actualmente estoy investigando al respecto.

Los investigadores y desarrolladores están haciendo todo lo posible para encontrar una solución que se pueda implementar.

Sin embargo, creo que el primer paso sería normalizar los lenguajes de señas y otros modos de comunicación con las personas especialmente capacitadas y trabajar para cerrar la brecha de comunicación”, dijo Gupta.

Fuente: YouTube

Leave a Reply

Your email address will not be published. Required fields are marked *