Categorías: Tecnología

Inteligencia artificial generativa a otro nivel

Comparta este Artículo en:

Stable Diffusion se ha convertido en uno de los motores de IA generativa más espectaculares a la hora de crear imágenes, pero si por sí solo ya había demostrado una capacidad asombrosa, hace unos días apareció una nueva tecnología que permite complementarlo y llevarlo a otro nivel. ¿Su nombre? ControlNet.

Todo partió de un estudio reciente en el que se presentaba una nueva estructura de red neuronal llamada Controlnet.

El objetivo era “controlar los grandes modelos de difusión preentrenados para que admitan condiciones de entrada adicionales“.

O lo que es lo mismo: modificar la salida de Stable Diffusion para que se ajuste a ciertas condiciones de control o modelos.

Eso da más versatilidad que nunca a esta plataforma, como están descubriendo los usuarios que están probando (y alucinando con) esta nueva tendencia.

Esta tecnología se utiliza aplicando los llamados “modelos preentrenados” a Stable Diffusion, algo que explican en el repositorio del proyecto.

Hay ya varios modelos disponibles como Canny Edge, que detecta bordes, Open POSE, que detecta poses generando un “esqueleto” de la imagen original, o User Scribble, que permite dibujar un garabato y que se genere una imagen basada en él.

Al aplicar Stable Diffusion sobre cualquier prompt con la imagen y el modelo establecido, se obtienen variantes mucho más potentes para las creaciones.

Hay quien ya ha calificado de modelos como el “Scribble” como una bendición para quienes usaban este tipo de sistema para crear sus imágenes.

Ya existían soluciones similares integradas en StableDiffusion 2.5 como img2img, pero esto lleva esta opción a un nivel alucinante.

Esta puede ser la base para crear pequeñas animaciones en las que se combinan el uso de ControlNet y estos modelos de forma muy efectiva.

Todo esto puede ser instalado y usado en local gracias a proyectos como Automatic1111, sobre todo si tenemos un PC con una gráfica potente (se recomiendan 12 GB de memoria gráfica), pero es posible usar estos modelos igualmente con configuraciones más modestas.

Si Stable Diffusion ya ofrecía buenos resultados, este tipo de “extensión” hace que esta plataforma se convierta en una opción aún más potente para asistir cualquier trabajo o proyecto creativo.

El ritmo al que evolucionan estos proyectos es frenético, y aunque ciertamente los resultados pueden tener defectos, las herramientas son espectaculares.

Fuente: ControlNet

Editor PDM

Entradas recientes

Crean genoma con más del 50% de ADN sintético

Biólogos han producido una cepa de levadura cuyo genoma está compuesto en más de un…

4 days hace

Fabrican motor de cohete impreso en 3D

Antes de que el ser humano pisara la Luna, ya había ingenieros tratando de resolver…

4 days hace

Compañía de bebidas nombra a robot con inteligencia artificial como CEO

La empresa polaca de bebidas Dictador anunció que había designado a un robot llamado Mika…

4 days hace

Inteligencia artificial capaz de mapear icebergs 10.000 veces más rápido que los humanos

Investigadores de la Universidad de Leeds han introducido una red neuronal que puede trazar con…

4 days hace

Nuevo récord de eficiencia en energía solar

La empresa china LONGi ha batido el récord de eficiencia de una célula fotovoltaica con…

4 days hace

Samsung lanza su alternativa a ChatGPT

Samsung ha presentado Gauss, su propio modelo de inteligencia artificial generativa. Puede procesar lenguaje natural,…

5 days hace
Click to listen highlighted text!