Reconstruyen imágenes en 3D a partir de reflejos oculares

Reconstruyen imágenes en 3D a partir de reflejos oculares

Comparta este Artículo en:

Un equipo de la Universidad de Maryland está tratando de hacer realidad algunas de las herramientas de mejora más increíbles de CSI.

Hay un dicho que dice que los ojos son la ventana al alma de una persona, pero según un equipo de investigadores de la Universidad de Maryland, los ojos podrían ser un espejo, proporcionando suficientes datos para reconstruir exactamente lo que una persona estaba mirando en un video, como un modelo 3D interactivo.

Muchos factores hicieron de CSI, y sus derivados, una franquicia popular, pero lo que atrajo a muchos espectadores, semana tras semana, fue la tecnología de punta que los investigadores de la escena del crimen tenían a su disposición.

Un cuadro de video granulado y de baja resolución capturado en medio de la noche por una cámara de seguridad podría mejorarse repetidamente hasta que revelara las fibras individuales en la camisa de un sospechoso.

La mayoría de las herramientas utilizadas para resolver crímenes en el programa solo existen en la imaginación de los escritores, pero los investigadores están logrando avances impresionantes en lo que respecta a la cantidad de datos que se pueden extraer de unos pocos cuadros de video.

Aprovechando la investigación previa sobre la tecnología de campo de radiación neuronal (NeRF), donde las escenas u objetos complejos se pueden recrear completamente en 3D utilizando solo un conjunto parcial de imágenes 2D capturadas en varios ángulos, y el hecho de que la forma de la córnea del ojo es más o menos lo mismo para todos los adultos sanos, los investigadores de la Universidad de Maryland pudieron generar recreaciones en 3D de escenas simples basadas en imágenes extraídas de los reflejos de los ojos.

Sin embargo, no espere que los resultados se utilicen para resolver ningún crimen.

Este enfoque presenta algunos desafíos únicos.

Para empezar, la recreación de modelos 3D a partir de imágenes 2D generalmente comienza con material fuente de alta calidad, como un video capturado con la cámara digital de un teléfono inteligente moderno.

Aquí, los reflejos se extraen de una porción diminuta de baja resolución de cada cuadro y se superponen sobre las texturas complejas del iris del ojo, que también varía en color de una persona a otra, lo que requiere un extenso procesamiento posterior para limpiar las imágenes.

Para complicar aún más este enfoque, está el hecho de que la serie de imágenes 2D que se utilizan para crear la reconstrucción se originan todas en la misma ubicación, con solo ligeras variaciones introducidas a medida que el ojo del sujeto mira a su alrededor.

Si alguna vez ha intentado generar un modelo 3D de un objeto o una habitación con la cámara de un teléfono inteligente y una aplicación, sabe que debe moverse y grabarlo desde todos los lados y ángulos para obtener resultados óptimos. Pero esa no es una opción aquí.

Como resultado, los modelos 3D generados con esta nueva técnica tienen una resolución muy baja y pocos detalles.

Todavía se pueden identificar objetos como un perro de peluche o un Kirby de color rosa brillante, como hicieron los investigadores, pero estos resultados también se lograron utilizando condiciones óptimas: escenas muy básicas, iluminación muy deliberada e imágenes de fuente de alta resolución.

Cuando los investigadores intentaron aplicar su enfoque a las imágenes que no fueron responsables de capturar, pero aún así se crearon utilizando condiciones de iluminación ideales, como un clip de Miley Cyrus de su video musical Wrecking Ball procedente de YouTube, es imposible discernir lo que estás estamos mirando en el modelo 3D resultante.

La mancha vaga es probablemente un agujero en una cubierta blanca a través de la cual miraba la lente de la cámara para lograr el aspecto específico de esta toma.

Por fascinante que sea esta investigación, pasará un tiempo antes de que se convierta en una herramienta que tenga aplicaciones prácticas.

Fuente: New Atlas

Leave a Reply

Your email address will not be published. Required fields are marked *