Categorías: Tecnología

Google permitirá controlar su teléfono Android con su rostro

Comparta este Artículo en:

Google hace uso de la cámara frontal del smartphone para reconocer gestos que se pueden asociar a diferentes acciones.

Project Gameface es una tecnología que es capaz de permitir a un usuario controlar aplicaciones en Android únicamente utilizando la cara.

Se trata de una función de accesibilidad similar a la que presentó Apple y que llegará con iOS 18.

Google describe Project Gameface como “un ‘ratón’ que permite a las personas controlar el cursor de un computador mediante el movimiento de la cabeza y los gestos faciales”.

Por ejemplo, el usuario puede abrir la boca para mover el cursor o levantar las cejas para hacer clic y arrastrar cualquier elemento.

Para ello, Google hace uso de la cámara frontal integrada en el propio dispositivo, que es capaz de reconocer los gestos del rostro del usuario y asociar cada gesto con una acción concreta, por ejemplo, sonreír para hacer clic.

Project Gameface, además, permite personalizar a medida la intensidad o la velocidad del gesto.

De este modo, el usuario puede hacer que únicamente haga la acción si la sonrisa es más pronunciada, o si levanta las cejas de forma más rápida o lenta, etc.

Google, que lleva un tiempo trabajando en este proyecto, está implementando este sistema en Android a través de una API de MediaPipe, que ofrece soluciones de inteligencia artificial y aprendizaje automático relacionadas con la detección del rostro, de puntos de referencia y más, y que es capaz de reconocer más de 52 gestos faciales.

Por el momento, Project Gameface de Google se encuentra disponible en Github para que los desarrolladores puedan implementarla de forma sencilla en sus aplicaciones.

Estamos abriendo la fuente de más código para Project Gameface para ayudar a los desarrolladores a crear aplicaciones de Android para hacer que todos los dispositivos Android sean más accesibles.

A través de la cámara del dispositivo, [Project Gameface] rastrea perfectamente las expresiones faciales y los movimientos de la cabeza, traduciéndolos en un control intuitivo y personalizado.

Si bien no es exactamente la misma tecnología que la de Google, Apple tampoco ha perdido la oportunidad de presentar una nueva función en iOS con la que los usuarios podrán controlar el sistema, así como algunas aplicaciones, usando únicamente la mirada.

Esta característica de accesibilidad llegará con iOS 18 e iPadOS 18, y hace uso de la cámara frontal, tal y como ha confirmado la compañía.

“Con Eye Tracking, los usuarios pueden navegar a través de los elementos de una aplicación y usar Permanencia para activar cada elemento, accediendo a funciones adicionales como botones físicos, deslizamientos y otros gestos únicamente con los ojos”, aseguran.

Fuente: Google

Editor PDM

Entradas recientes

Mano robótica capaz de manipular objetos

Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)

15 hours hace

Robots atraviesan entornos complejos sin sensores adicionales ni entrenamiento previo en terrenos difíciles

Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…

15 hours hace

Rompiendo barreras: IA para interpretar el lenguaje de señas americano en tiempo real

El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…

15 hours hace

Dispositivo ayuda a personas con discapacidad visual a realizar tareas de localización tan bien como las personas videntes

Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…

15 hours hace

Google lanza una versión de Gemini 2.0 capaz de razonar

Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…

15 hours hace

El siguiente paso de la computación cuántica: un nuevo algoritmo potencia la multitarea

Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…

2 days hace
Click to listen highlighted text!