Categorías: Tecnología

Inteligencia artificial generativa a otro nivel

Comparta este Artículo en:

Stable Diffusion se ha convertido en uno de los motores de IA generativa más espectaculares a la hora de crear imágenes, pero si por sí solo ya había demostrado una capacidad asombrosa, hace unos días apareció una nueva tecnología que permite complementarlo y llevarlo a otro nivel. ¿Su nombre? ControlNet.

Todo partió de un estudio reciente en el que se presentaba una nueva estructura de red neuronal llamada Controlnet.

El objetivo era “controlar los grandes modelos de difusión preentrenados para que admitan condiciones de entrada adicionales“.

O lo que es lo mismo: modificar la salida de Stable Diffusion para que se ajuste a ciertas condiciones de control o modelos.

Eso da más versatilidad que nunca a esta plataforma, como están descubriendo los usuarios que están probando (y alucinando con) esta nueva tendencia.

Esta tecnología se utiliza aplicando los llamados “modelos preentrenados” a Stable Diffusion, algo que explican en el repositorio del proyecto.

Hay ya varios modelos disponibles como Canny Edge, que detecta bordes, Open POSE, que detecta poses generando un “esqueleto” de la imagen original, o User Scribble, que permite dibujar un garabato y que se genere una imagen basada en él.

Al aplicar Stable Diffusion sobre cualquier prompt con la imagen y el modelo establecido, se obtienen variantes mucho más potentes para las creaciones.

Hay quien ya ha calificado de modelos como el “Scribble” como una bendición para quienes usaban este tipo de sistema para crear sus imágenes.

Ya existían soluciones similares integradas en StableDiffusion 2.5 como img2img, pero esto lleva esta opción a un nivel alucinante.

Esta puede ser la base para crear pequeñas animaciones en las que se combinan el uso de ControlNet y estos modelos de forma muy efectiva.

Todo esto puede ser instalado y usado en local gracias a proyectos como Automatic1111, sobre todo si tenemos un PC con una gráfica potente (se recomiendan 12 GB de memoria gráfica), pero es posible usar estos modelos igualmente con configuraciones más modestas.

Si Stable Diffusion ya ofrecía buenos resultados, este tipo de “extensión” hace que esta plataforma se convierta en una opción aún más potente para asistir cualquier trabajo o proyecto creativo.

El ritmo al que evolucionan estos proyectos es frenético, y aunque ciertamente los resultados pueden tener defectos, las herramientas son espectaculares.

Fuente: ControlNet

Editor PDM

Entradas recientes

En China patrulla un nuevo robot policía

RT-G es un robot avanzado diseñado para escenarios de confrontación. (more…)

4 minutes hace

Técnica reduce el sesgo en los modelos de IA y al mismo tiempo preserva o mejora la precisión

Los modelos de aprendizaje automático pueden fallar cuando intentan hacer predicciones para individuos que estaban…

5 minutes hace

Curso de humanidades en universidad norteamericana utilizará un libro de texto generado por IA

La IA ha llegado a un mercado que estaba maduro para la disrupción: los libros…

6 minutes hace

IA resuelve problemas complejos de ingeniería más rápido que las supercomputadoras

Modelar cómo se deforman los automóviles en un choque, cómo responden las naves espaciales a…

7 minutes hace

Diseñan celdas que generan electricidad a oscuras

Investigadores chinos han afirmado que su unidad generó una producción de electricidad estable durante 160…

8 minutes hace

Mano robótica capaz de manipular objetos

Recientemente, Sanctuary AI presentó su mano robótica que ahora es capaz de manipular objetos. (more…)

3 days hace
Click to listen highlighted text!