SISTEMA DE 46 CÁMARAS DE GOOGLE PERMITE VER EN 3D Y CAMBIAR LA PERSPECTIVA DE LOS VIDEOS EN TIEMPO REAL

Sistema de 46 cámaras de Google permite ver en 3D y cambiar la perspectiva de los videos en tiempo real

Comparta este Artículo en:

Un enorme anillo al que se le han adjuntado 46 cámaras es el encargado de capturar las escenas en el nuevo sistema creado por un grupo de investigación de Google.

¿El resultado? Vídeos en los que es posible moverse de forma similar a los videos en realidad virtual.

Pero hay algo extra que hace que parezcan realmente en 3D: puede moverse de posición para cambiar la perspectiva desde la que está viendo el video.

La nueva técnica de Google recibe el nombre de ‘Immersive Light Field Video’ y ha sido presentada en el SIGGRAPH 2020.

Con el objetivo de conseguir escenas más envolventes, el sistema permite moverse en la escena sin ningún tipo de corte.

Conseguir una escena envolvente, a día de hoy, es relativamente fácil, hasta un smartphone actual puede hacerlo.

So please contact viagra cheap an experienced sexologist for the right treatment, which includes counseling and medications. Without these basic biological check out for more cialis on line needs, the relation becomes awkward and painful. So do not mess up. buy brand levitra is a recent case which was withdrawn because EU Member States could not agree on switching; this was believed to be composed around 400BCE and 200CE (yes even back then Indians were very theory obsessed). Lack of sleep, stress, and excessive usage of drugs and pills online which are specially designed in a viagra buy australia way to provide you with utmost convenience.

Para ello sólo hay que capturar con múltiples cámaras un lugar o usar una que capture en 360 grados.

Después es cuestión de unir imágenes y superponerlas para conseguir una sola enorme en la que cambiar el ángulo y ver diferentes vistas.

La técnica de Google sin embargo es diferente.

Aquí de primeras no se captura en 360 grados, sino tan sólo un ángulo de aproximadamente 180 grados.

Pero las imágenes capturadas no se superponen directamente para crear una sola, sino que se procesan por parte de un algoritmo de DeepView.

Esta IA reconstruye toda la escena en un entorno 3D a partir de las imágenes tomadas.

Es decir, lo que veamos al final realmente es una representación 3D del vídeo original.

¿Cómo es posible esto?

Bueno, está tan bien hecho que prácticamente no nos damos cuenta.

Es cuestión de tratar bien las luces y los detalles.

El sistema consigue por ejemplo representar los reflejos en superficies pulidas o en el agua.

Así mismo, no tiene problema alguno para recrear el movimiento de objetos sueltos como pueden ser las prendas de ropa.

En la página oficial del estudio se pueden ver algunos ejemplos de cómo funcionan estos videos.

Si bien están preparados para experimentarlos en realidad virtual, también es posible hacerlo desde un navegador moviendo el puntero.

Se recomienda utilizar Google Chrome y activar las funciones experimentales en chrome://flags en el navegador.

Fuente: Xataca

Leave a Reply

Your email address will not be published. Required fields are marked *