Stable Diffusion ControlNet: cree imágenes realistas en segundos

Stable Diffusion ControlNet: cree imágenes realistas en segundos

Modelo de Stable Diffusion ControlNet que permite gestionar la composición y la pose de las imágenes generadas replicándolas a partir de una imagen de referencia.

Los usuarios experimentados de Stable Diffusion comprenden lo difícil que es generar la composición exacta que uno desea. Las fotografías son un tanto aleatorias. Sólo puedes jugar al juego de los números: Crea un gran número de imágenes y elige tu favorita.

Este post te enseñará a construir imágenes realistas utilizando Stable Diffusion ControlNet.

Ve al grano 🤓 👇
  1. ¿Qué es Stable Diffusion ControlNet?
  2. Cree imágenes con Stable Diffusion ControlNet
  3. Conclusión

¿Qué es Stable Diffusion ControlNet?

ControlNet Stable Diffusion le ofrece un control detallado sin precedentes sobre las imágenes que genera. ControlNet añade un nivel adicional de control al permitir a los usuarios introducir información adicional en el modelo, como indicaciones de texto o elementos visuales. Los datos suministrados pueden alterar la estructura, el aspecto y el contenido de la imagen resultante. Este modelo se basa en Stable Diffusion, un modelo de difusión utilizado para crear fotografías de alta calidad.

Cree imágenes con Stable Diffusion ControlNet

  • ControlNet Stable Diffusion tiene varias ventajas sobre otros algoritmos de generación de imágenes de IA. Ofrece a los usuarios un control sin precedentes sobre la imagen resultante. Esto se debe a que ControlNet emplea una serie de estrategias para comprender la relación entre los datos de entrada y la imagen de salida prevista.
  • ControlNet es extremadamente estable. Esto significa que es menos probable que produzca imágenes poco nítidas o distorsionadas.
  • ControlNet es extremadamente rápido, lo que significa que puedes generar gráficos muy rápidamente.
ControlNet Stable Diffusion

Hay una gran variedad de modelos en ControlNet, como Canny Edge, Hough, HED, Scribble, Interactive Scribbles, Fake Scribble, Human Pose, Segmentation, Depth y Normal Maps. Vamos a probar uno por uno con imágenes e indicaciones únicas.

Para crear imágenes en estos modelos, sólo tienes que subir una imagen que quieras recrear y añadir un prompt debajo de la imagen subida.

Modelo Canny Edge ControlNet

Cuando se utiliza el modelo Canny Edge ControlNet, sólo la pose del perro permanece invariable en los resultados finales, mientras que el entorno, el tiempo, el color y la hora cambian constantemente.

Prompt: "lindo perro"
ControlNet Stable Diffusion

Otros modelos de ControlNet también crean imágenes del mismo modo. Veamos el ejemplo con avisos.

Modelo de Stable Diffusion M-LSD Lines ControlNet

Este modelo de líneas M-LSD utiliza la detección simple de líneas rectas M-LSD para crear imágenes.

Prompt: "Edificio"
ControlNet Stable Diffusion

Límite HED Modelo ControlNet

Este modelo utiliza el límite suave HED, preservará muchos detalles en las imágenes de entrada para crear imágenes sorprendentes.

Prompt: "pintura al óleo de un apuesto anciano, obra maestra"
ControlNet Stable Diffusion

Scribbles Maps Modelo ControlNet

En este modelo, tienes que dibujar un garabato de un globo aerostático y cargarlo como imagen de entrada para obtener imágenes de salida impresionantes.

Prompt: "Globo aerostático"
ControlNet Stable Diffusion

Garabatos interactivos ControlNet Modelo Stable Diffusion

Con el modelo Garabatos interactivos, puedes utilizar la opción "Abrir lienzo de dibujo" para dibujar tu propia creación y cargarla como imagen de entrada. Y puedes ajustar la anchura y la altura del lienzo.

Prompt: "perro en una habitación"
ControlNet Stable Diffusion

Garabatos falsos Modelo ControlNet

Al usar este garabato falso, puedes simplemente cargar la imagen de entrada en lugar de dibujar garabatos. Este script utiliza exactamente el mismo modelo basado en garabatos, pero utiliza un algoritmo simple para sintetizar garabatos a partir de imágenes de entrada.

Prompt: "bolsa"
ControlNet Stable Diffusion

Pose humana Modelo ControlNet

Este modelo Human Pose ControlNet manipula directamente el esqueleto de la pose. Necesitas introducir una imagen, y entonces detectará la pose por ti.

Prompt: "Chef en la cocina"
ControlNet Stable Diffusion

Segmentación semántica Modelo ControlNet

Con el modelo de segmentación semántica, puede dibujar directamente las segmentaciones. Tienes que introducir una imagen y, a continuación, un modelo llamado Uniformer detectará las segmentaciones por ti.

Prompt: "Río"
ControlNet Stable Diffusion

Control de profundidad Modelo ControlNet

ControlNet recibe el mapa de profundidad completo de 512×512, en lugar de la profundidad de 64×64.  El modelo ControlNet de profundidad utiliza mapas de profundidad de 64×64. Esto significa que la ControlNet conservará más detalles en el mapa de profundidad.

Prompt: "Conferencia del soldado de asalto"
ControlNet Stable Diffusion

Mapa normal Modelo ControlNet

Este modelo utiliza un mapa de normales para encontrar cuántas áreas hay en el fondo con una normal de identidad respecto al espectador. Ajusta el "umbral normal de fondo" para hacerte una idea.

Prompt: "Lindo juguete"
ControlNet Stable Diffusion

Modo sin confirmación

Puedes obtener algunos resultados realmente interesantes ajustando los parámetros, como se ve a continuación: Lea también Interfaz web de Stable Diffusion: Una guía completa

ControlNet Stable Diffusion

Conclusión

En general, ControlNet es una herramienta potente que permite a los usuarios de Stable Diffusion tener un control total sobre el aspecto y la composición de sus imágenes generadas. ControlNet es una excelente opción si desea generar imágenes realistas y detalladas con Stable Diffusion.

Si quieres conocer otros artículos parecidos a Stable Diffusion ControlNet: cree imágenes realistas en segundos puedes visitar la categoría IA Art.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Tu valoración: Útil

Subir