Seamos realistas, las primitivas de gráficos neuronales, parametrizadas por redes neuronales totalmente conectadas, suelen ser muy costosas de entrenar y evaluar.
Este costo se puede reducir con una codificación de entrada nueva y versátil que permite el uso de una red más pequeña sin sacrificar la calidad, lo que reduce significativamente la cantidad de operaciones de punto flotante y de acceso a la memoria.
Todo lo que se requiere es una pequeña red neuronal aumentada por una tabla hash de resolución múltiple de vectores de características entrenables cuyos valores se optimizan a través del descenso de gradiente estocástico.
Esta estructura de resolución múltiple permite que la red elimine la ambigüedad de las colisiones de hash, lo que crea una arquitectura simple que es fácil de paralelizar en las GPU modernas.
El paralelismo se aprovecha mediante la implementación de todo el sistema utilizando núcleos NVIDIA CUDA totalmente fusionados con un enfoque en minimizar el ancho de banda desperdiciado y las operaciones informáticas.
Los investigadores podrán lograr una aceleración combinada de varios órdenes de magnitud, lo que permitirá el entrenamiento de primitivos de gráficos neuronales de alta calidad casi al instante y la renderización en decenas de milisegundos a una resolución de 1920 × 1080.
Fuente: GitHub
Actualmente fluye electricidad libre de carbono a la red que abastece a los centros de…
Un nuevo material desarrollado por académicos chinos logra la invisibilidad. (more…)
Científicos lituanos descubrieron una manera de reducir el costo de la producción de biodiésel añadiendo…
El tacto es un sentido fundamental, y tocar lo que nos rodea y percibir sensaciones…
La Universidad de Hong Kong asegura que el nuevo material es resistente a la corrosión…
La interacción entre vista y oído, y una capacidad técnica asombrosa para captar sonidos ultradébiles…