Seamos realistas, las primitivas de gráficos neuronales, parametrizadas por redes neuronales totalmente conectadas, suelen ser muy costosas de entrenar y evaluar.
Este costo se puede reducir con una codificación de entrada nueva y versátil que permite el uso de una red más pequeña sin sacrificar la calidad, lo que reduce significativamente la cantidad de operaciones de punto flotante y de acceso a la memoria.
Todo lo que se requiere es una pequeña red neuronal aumentada por una tabla hash de resolución múltiple de vectores de características entrenables cuyos valores se optimizan a través del descenso de gradiente estocástico.
Esta estructura de resolución múltiple permite que la red elimine la ambigüedad de las colisiones de hash, lo que crea una arquitectura simple que es fácil de paralelizar en las GPU modernas.
El paralelismo se aprovecha mediante la implementación de todo el sistema utilizando núcleos NVIDIA CUDA totalmente fusionados con un enfoque en minimizar el ancho de banda desperdiciado y las operaciones informáticas.
Los investigadores podrán lograr una aceleración combinada de varios órdenes de magnitud, lo que permitirá el entrenamiento de primitivos de gráficos neuronales de alta calidad casi al instante y la renderización en decenas de milisegundos a una resolución de 1920 × 1080.
Fuente: GitHub
Los materiales magnéticos son esenciales para nuestra tecnología, desde discos duros hasta microchips. (more…)
Un equipo de investigación dirigido por la QUT ha desarrollado una película ultradelgada y flexible…
Un equipo dirigido por el profesor Jang Kyung-In del Departamento de Robótica e Ingeniería Mecatrónica…
Científicos de Corea del Sur han desarrollado enjambres de pequeños robots magnéticos que trabajan juntos…
El Instituto de Surrey para la Inteligencia Artificial Centrada en las Personas (PAI) de la…
RT-G es un robot avanzado diseñado para escenarios de confrontación. (more…)