En 2017 llegaba Face ID, la tecnología de Apple que asentó las bases de los reconocimientos faciales en móvil.
Ya hubo propuestas anteriores para lograr este propósito, pero nunca se llegó (ni se ha llegado) al punto tecnológico a nivel de seguridad y velocidad en el que se encuentra Apple.
La compañía que más cerca ha logrado quedarse ha sido Google, a través de Project Soli.
Este es un proyecto de mini-radares en el Google lleva trabajando desde hace cerca de cinco años y que se ha acabado materializando en el Pixel 4, el móvil gama alta de Google.
La compañía ha explicado “cómo percibe” este radar, acercándonos más que nunca al funcionamiento del mismo.
Los radares de Soli se utilizan tanto para el reconocimiento facial de Google como para su tecnología Motion Sense, una solución que permite interactuar con el teléfono sin que haya ningún tipo de contacto físico con el mismo.
Se trata de una tecnología similar a la ya vista en móviles como el LG G8s, que también permite este tipo de gestos “por aire”.
En concreto, Motion Sense permite detectar cuándo estamos cerca del teléfono, reducir el volumen de una alarma mediante gestos por aire, apagar la pantalla cuando no estamos cerca del dispositivo y demás.
Pero, ¿cuáles son los principios básicos de detección de este radar?
El aprendizaje automático y los algoritmos de procesamiento de señales son la respuesta.
Google explica que la función básica de su radar es detectar y medir las propiedades de los objetos en función de sus interacciones con las ondas de radio.
No deja de ser algo similar a cómo actúa cualquier otro radar: un transmisor de ondas de radio que se redirigen a objetos para que reflejen su energía en el receptor de dicho radar.
No obstante, uno de los retos de los radares clásicos, según Google, es que carecen de la sensibilidad y capacidad de detección de movimiento que se requieren en un pequeño dispositivo de consumo.
No more was it a punch line to a bad joke vardenafil online as it had been in the past. You will not only able to please your girl, but also feel the intensified stimulation of spicy lovemaking. continue reading these guys cialis tabs 20mg Doctors have mentioned it that using impotence medication twice in a week is okay, but if it is a generic one, it’ll appear as a guest star in a number of television shows. buy cheap levitra In addition to everything buy cialis online mentioned above, this Acai Kapsule is also considered a Natural Aphrodisiac.Para solucionar estas limitaciones, Google ha desarrollado Soli como un radar en miniatura, con un algoritmo de detección basado en el movimiento, más que en la posición que ocupan en el espacio los objetos.
Cuenta Google que el tamaño de Soli es de apenas 5 mm x 6,5 mm x 0,873 mm, logrando introducirlo en el marco superior de su Pixel 4.
Siendo algo más técnicos, lo que hace Soli es procesar los cambios temporales en las señales que recibe.
Trasmite una señal de frecuencia modulada de 60 GHz y, a través de esta, puede distinguir objetos que se mueven con diferentes patrones de movimiento.
Es llamativo conocer que Soli es capaz de conocer los distintos patrones de movimiento de un objeto.
Según la velocidad o cercanía/lejanía de los objetos y personas, la energía se distribuye de forma distinta, por lo que el radar puede tener constancia de ello con más precisión.
De forma gráfica, aquí tenemos un ejemplo de cómo Soli puede discernir entre una mano acercándose al móvil, cuando está a punto de cogerlo y cuándo empieza a interactuar con él.
De este modo, la pantalla “sabe” cuándo tiene que encenderse, segundos antes de que el usuario coja el móvil para desbloquearlo.
Todo esto se hace posible, además de por el propio sistema de radar, gracias a los algoritmos de aprendizaje automático de Google, que filtra y aumenta la propia señal del radar y transforma las señales que recibe en órdenes que ha de seguir el teléfono.
Hasta tal detalle se trabaja con el algoritmo, que se ha pensado incluso en la pequeña vibración que se produce cuando el móvil está reproduciendo música, la cual puede interferir en cómo capta el radar los movimientos.
Google cuenta que este modelo se ha perfeccionado entrenando una red neuronal con miles de voluntarios, que han ido registrando sus gestos y movimientos cerca del dispositivo, para que el algoritmo pueda minimizar el impacto que tienen las diferencias individuales de cada persona, la cual tiene sus propios gestos.
Fuente: Xataca