Google hace uso de la cámara frontal del smartphone para reconocer gestos que se pueden asociar a diferentes acciones.
Project Gameface es una tecnología que es capaz de permitir a un usuario controlar aplicaciones en Android únicamente utilizando la cara.
Se trata de una función de accesibilidad similar a la que presentó Apple y que llegará con iOS 18.
Google describe Project Gameface como “un ‘ratón’ que permite a las personas controlar el cursor de un computador mediante el movimiento de la cabeza y los gestos faciales”.
Por ejemplo, el usuario puede abrir la boca para mover el cursor o levantar las cejas para hacer clic y arrastrar cualquier elemento.
Para ello, Google hace uso de la cámara frontal integrada en el propio dispositivo, que es capaz de reconocer los gestos del rostro del usuario y asociar cada gesto con una acción concreta, por ejemplo, sonreír para hacer clic.
Project Gameface, además, permite personalizar a medida la intensidad o la velocidad del gesto.
De este modo, el usuario puede hacer que únicamente haga la acción si la sonrisa es más pronunciada, o si levanta las cejas de forma más rápida o lenta, etc.
Google, que lleva un tiempo trabajando en este proyecto, está implementando este sistema en Android a través de una API de MediaPipe, que ofrece soluciones de inteligencia artificial y aprendizaje automático relacionadas con la detección del rostro, de puntos de referencia y más, y que es capaz de reconocer más de 52 gestos faciales.
Por el momento, Project Gameface de Google se encuentra disponible en Github para que los desarrolladores puedan implementarla de forma sencilla en sus aplicaciones.
“Estamos abriendo la fuente de más código para Project Gameface para ayudar a los desarrolladores a crear aplicaciones de Android para hacer que todos los dispositivos Android sean más accesibles.
A través de la cámara del dispositivo, [Project Gameface] rastrea perfectamente las expresiones faciales y los movimientos de la cabeza, traduciéndolos en un control intuitivo y personalizado.“
Si bien no es exactamente la misma tecnología que la de Google, Apple tampoco ha perdido la oportunidad de presentar una nueva función en iOS con la que los usuarios podrán controlar el sistema, así como algunas aplicaciones, usando únicamente la mirada.
Esta característica de accesibilidad llegará con iOS 18 e iPadOS 18, y hace uso de la cámara frontal, tal y como ha confirmado la compañía.
“Con Eye Tracking, los usuarios pueden navegar a través de los elementos de una aplicación y usar Permanencia para activar cada elemento, accediendo a funciones adicionales como botones físicos, deslizamientos y otros gestos únicamente con los ojos”, aseguran.
Fuente: Google
Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)
Especialistas en robótica de la Universidad de Leeds y el University College de Londres han…
El lenguaje de señas es un medio de comunicación sofisticado y vital para las personas…
Según un nuevo estudio dirigido por el Imperial College, una tecnología de navegación que utiliza…
Gemini 2.0 Flash Thinking Experimental es una nueva versión de la IA de Google que…
Las computadoras cuánticas difieren fundamentalmente de las clásicas. En lugar de utilizar bits (0 y…