Categorías: Tecnología

Google permitirá controlar su teléfono Android con su rostro

Comparta este Artículo en:

Google hace uso de la cámara frontal del smartphone para reconocer gestos que se pueden asociar a diferentes acciones.

Project Gameface es una tecnología que es capaz de permitir a un usuario controlar aplicaciones en Android únicamente utilizando la cara.

Se trata de una función de accesibilidad similar a la que presentó Apple y que llegará con iOS 18.

Google describe Project Gameface como “un ‘ratón’ que permite a las personas controlar el cursor de un computador mediante el movimiento de la cabeza y los gestos faciales”.

Por ejemplo, el usuario puede abrir la boca para mover el cursor o levantar las cejas para hacer clic y arrastrar cualquier elemento.

Para ello, Google hace uso de la cámara frontal integrada en el propio dispositivo, que es capaz de reconocer los gestos del rostro del usuario y asociar cada gesto con una acción concreta, por ejemplo, sonreír para hacer clic.

Project Gameface, además, permite personalizar a medida la intensidad o la velocidad del gesto.

De este modo, el usuario puede hacer que únicamente haga la acción si la sonrisa es más pronunciada, o si levanta las cejas de forma más rápida o lenta, etc.

Google, que lleva un tiempo trabajando en este proyecto, está implementando este sistema en Android a través de una API de MediaPipe, que ofrece soluciones de inteligencia artificial y aprendizaje automático relacionadas con la detección del rostro, de puntos de referencia y más, y que es capaz de reconocer más de 52 gestos faciales.

Por el momento, Project Gameface de Google se encuentra disponible en Github para que los desarrolladores puedan implementarla de forma sencilla en sus aplicaciones.

Estamos abriendo la fuente de más código para Project Gameface para ayudar a los desarrolladores a crear aplicaciones de Android para hacer que todos los dispositivos Android sean más accesibles.

A través de la cámara del dispositivo, [Project Gameface] rastrea perfectamente las expresiones faciales y los movimientos de la cabeza, traduciéndolos en un control intuitivo y personalizado.

Si bien no es exactamente la misma tecnología que la de Google, Apple tampoco ha perdido la oportunidad de presentar una nueva función en iOS con la que los usuarios podrán controlar el sistema, así como algunas aplicaciones, usando únicamente la mirada.

Esta característica de accesibilidad llegará con iOS 18 e iPadOS 18, y hace uso de la cámara frontal, tal y como ha confirmado la compañía.

“Con Eye Tracking, los usuarios pueden navegar a través de los elementos de una aplicación y usar Permanencia para activar cada elemento, accediendo a funciones adicionales como botones físicos, deslizamientos y otros gestos únicamente con los ojos”, aseguran.

Fuente: Google

Editor PDM

Entradas recientes

Crean generador de imágenes con IA para Commodore 64

Nick Bild ha creado un generador de imágenes con inteligencia artificial programado para Commodore 64.…

18 mins hace

El mapa 3D más detallado de nuestro cerebro: 1,4 petabytes por milímetro cúbico

El mapa 3D más detallado, un alucinante diagrama de cableado de una parte del cerebro…

19 mins hace

Robot de asistencia para microcirugía de Sony puede incluso coser granos de maíz

Sony fabrica televisores, consolas de juegos, computadoras portátiles y más, pero ¿cuántos sabían que la…

21 mins hace

Inventan detector de sarcasmo, el que hubiera usado Sheldon Cooper

¿Quién no ha deseado alguna vez tener un detector de sarcasmo? O, como mínimo, un…

22 mins hace

Demuestran cómo construir un motor warp que viaje cerca a la velocidad de la luz

El ingenio, basado en el conocido motor de Alcubierre, puede construirse con la física conocida…

1 day hace

Convierten grasa de pollo en dispositivos de almacenamiento de energía

Un nuevo método transforma grasa de pollo en electrodos de carbono para supercondensadores que almacenan…

1 day hace
Click to listen highlighted text!