Categorías: Tecnología

Herramienta con IA crea interfaces sencillas para realidad virtual y aumentada

Comparta este Artículo en:

Un artículo presenta EgoTouch, una herramienta que utiliza inteligencia artificial para controlar interfaces AR/VR tocando la piel con un dedo.

El equipo quería diseñar un control que proporcionara retroalimentación táctil utilizando solo los sensores que vienen con un casco AR/VR estándar.

OmniTouch, un método anterior desarrollado por Chris Harrison, profesor asociado en el HCII y director del Future Interfaces Group, estuvo cerca.

Pero ese método requería una cámara especial, tosca y con detección de profundidad.

Vimal Mollyn, un estudiante de doctorado asesorado por Harrison, tuvo la idea de utilizar un algoritmo de aprendizaje automático para entrenar a las cámaras normales para que reconocieran el tacto.

“Prueba a tomar tu dedo y observa lo que sucede cuando tocas tu piel con él.

Notarás que hay sombras y deformaciones cutáneas locales que solo ocurren cuando tocas la piel”, dijo Mollyn.

“Si podemos verlas, entonces podemos entrenar un modelo de aprendizaje automático para que haga lo mismo, y eso es básicamente lo que hicimos”.

Mollyn recopiló los datos para EgoTouch utilizando un sensor táctil personalizado que se colocó a lo largo de la parte inferior del dedo índice y la palma.

El sensor recopiló datos sobre diferentes tipos de toque con diferentes fuerzas mientras permanecía invisible para la cámara.

Luego, el modelo aprendió a correlacionar las características visuales de las sombras y las deformidades de la piel con el tacto y la fuerza sin anotaciones humanas.

El equipo amplió su recopilación de datos de entrenamiento para incluir a 15 usuarios con diferentes tonos de piel y densidades de cabello y recopiló horas de datos en muchas situaciones, actividades y condiciones de iluminación.

EgoTouch puede detectar el tacto con más del 96% de precisión y tiene una tasa de falsos positivos de alrededor del 5%.

Reconoce la presión hacia abajo, el levantamiento y el arrastre.

El modelo también puede clasificar si un toque fue suave o fuerte con una precisión del 98%.

“Eso puede ser realmente útil para tener una función de clic derecho en la piel”, dijo Mollyn.

Detectar variaciones en el tacto podría permitir a los desarrolladores imitar los gestos de la pantalla táctil en la piel.

Por ejemplo, un teléfono inteligente puede reconocer el desplazamiento hacia arriba o hacia abajo en una página, el zoom, el deslizamiento hacia la derecha o la pulsación y el mantenimiento de un icono.

Para traducir esto a una interfaz basada en la piel, la cámara debe reconocer las diferencias sutiles entre el tipo de toque y la fuerza del mismo.

Las precisiones fueron aproximadamente las mismas en diversos tonos de piel y densidades de vello, y en diferentes áreas de la mano y el antebrazo, como la parte delantera del brazo, la parte trasera del brazo, la palma y el dorso de la mano.

El sistema no funcionó bien en áreas óseas como los nudillos.

Probablemente se deba a que no había tanta deformación de la piel en esas áreas“, dijo Mollyn.

“Como diseñador de interfaz de usuario, lo que puede hacer es evitar colocar elementos en esas regiones”.

Mollyn está explorando formas de utilizar cámaras de visión nocturna e iluminación nocturna para permitir que el sistema EgoTouch funcione en la oscuridad.

También está colaborando con investigadores para extender este método de detección táctil a superficies distintas a la piel.

“Por primera vez, tenemos un sistema que simplemente utiliza una cámara que ya está en todos los cascos.

Nuestros modelos no requieren calibración y funcionan desde el primer momento“, dijo Mollyn.

“Ahora podemos basarnos en trabajos anteriores sobre interfaces sobre la piel y hacerlas realidad”.

Fuente: ACM

 

Editor PDM

Entradas recientes

Creando una inteligencia artificial justa y precisa

Dos de las cualidades más difíciles de equilibrar en el mundo del aprendizaje automático son…

34 minutes hace

El Capitán, clasificado como el supercomputador más potente del mundo

Se ha evaluado en 1,742 exaflops, o 1,742 trillones de cálculos por segundo. (more…)

36 minutes hace

Fibras de alfombra pueden detener el agrietamiento del concreto

Ingenieros de Australia han encontrado una forma de fabricar concreto más resistente a las grietas…

37 minutes hace

Entrenamiento virtual utiliza IA para enseñar a los robots a atravesar terrenos del mundo real

Un equipo de ingenieros y especialistas en robótica del MIT CSAIL, el Instituto de IA…

38 minutes hace

Robots adquieren visión sobrehumana mediante señales de radio

En la carrera por desarrollar sistemas de percepción robustos para robots, un desafío persistente ha…

1 day hace

Robot con IA aprende a actuar al nivel de un médico humano viendo videos de cirugías

Investigadores de la Universidad Johns Hopkins y Stanford entrenaron un brazo robótico con inteligencia artificial…

1 day hace
Click to listen highlighted text!