ComfyUI: Inpaint every model | Stable Diffusion | German | English Subtitles

Sdílet
Vložit
  • čas přidán 3. 08. 2024
  • Dive into the world of inpainting! In this video, I'll show you how to turn any Stable Diffusion 1.5 model into an impressive inpainting model. Join me as I guide you through a straightforward setup.
    Important Links:
    ComfyUI: github.com/comfyanonymous/Com...
    ComfyUI Essentials: github.com/cubiq/ComfyUI_esse...
    Pastebin Workflow: NA
    Installed Custom Nodes:
    TinyTerra: github.com/TinyTerra/ComfyUI_...
    Impact Pack: github.com/ltdrdata/ComfyUI-I...
    Manager: github.com/ltdrdata/ComfyUI-M...
    Quality of Life: github.com/omar92/ComfyUI-Qua...
    Derfuu: github.com/Derfuu/Derfuu_Comf...
    WAS Node Suite: github.com/WASasquatch/was-no...
    Stability AI: github.com/Stability-AI/stabi...
    Auxiliary Preprocessors: github.com/Fannovel16/comfyui...
    CLIPSeg: github.com/biegert/ComfyUI-CL...
    Davemane42's Custom Node: github.com/Davemane42/ComfyUI...
    BilboX's ComfyUI Custom Nodes: github.com/syllebra/bilbox-co...
    ComfyUI-Fans: github.com/uarefans/ComfyUI-Fans
    One Button Prompt: github.com/AIrjen/OneButtonPr...
    Codeformer: github.com/mav-rik/facerestor...
    Failfast: github.com/failfa-st/failfast...
    IPAdapter plus: github.com/cubiq/ComfyUI_IPAd...
    ComfyUI-post-processing-nodes: github.com/EllangoK/ComfyUI-p...
    ComfyUI-FaceSwap: github.com/imb101/ComfyUI-Fac...
    OpenPose Editor: github.com/space-nuko/ComfyUI...
    Comfyroll: github.com/RockOfFire/ComfyUI...
    NNLatent Upscale: github.com/Ttl/ComfyUi_NNLate...
    ComfyUI Advanced Controlnet: github.com/Kosinkadink/ComfyU...
    ComfyUI Essentials: github.com/cubiq/ComfyUI_esse...
    Buy me a coffee: www.buymeacoffee.com/alatentp...
    Twitter: / a_latent_place
    Instagram: / a_latent_place
    Discord: / discord
    0:00 Intro
    0:19 Basic Workflow
    4:22 The Inpainting
    9:45 Hints
  • Věda a technologie

Komentáře • 37

  • @Babbelmus
    @Babbelmus Před 3 měsíci +1

    Jetzt muss man auch einfach mal abonnieren. Immerhin bald alle Videos gesehen. Super Arbeit und sehr hilfreich für einen noob wie mich. Danke dir!

  • @m4rcLs
    @m4rcLs Před 5 měsíci

    Echt gutes Video. Dachte nicht, dass es so einfach ist mit Models zu inpainten, die kein eigenes Inpainting Model bereitstellen :)👍

  • @TheBigLou13
    @TheBigLou13 Před 7 měsíci

    Sehr hilfreiche und interessante Tutorial-Reihe!

  • @M4Pxls
    @M4Pxls Před 7 měsíci +1

    Interesting approach, thanks for sharing ;)

  • @pk.9436
    @pk.9436 Před 7 měsíci +1

    schönes tutorial danke daür 💪

  • @christianholl7924
    @christianholl7924 Před 7 měsíci

    Bin da auch zufällig in den ComfyUI examples drauf gestoßen. Ganz praktischer Workflow!
    Es gibt aber ja natürlich immer noch das Inpaint Controlnet Modell. Mit dem Inpaint-Controlmodel gehts auch ohne spezial-Modell. Soll mal nicht unerwähnt bleiben ;-)

    • @bobbyboe
      @bobbyboe Před 7 měsíci

      da wär mal eine Gegenübersrtellung interessant. Auch in Bezug auf SDXL

  • @testales
    @testales Před 6 měsíci +1

    Sehr nützlich, nun weiß ich, warum Outpainting in ComfyUI bei mir nie richtig funktioniert hat und Inpainting nur halb. ;-)

  • @Nojlink
    @Nojlink Před 7 měsíci

    Toll, wieder super Tutorial .... ich liebe deine videos zur Comfy,.. ich frage mich immer, wie weisst du das alles ? Bei dir sieht alles so einfach aus, wenn ich was bei Comfy ausprobieren möchte, läuft gar nichts...:-)))

    • @ALatentPlace
      @ALatentPlace  Před 7 měsíci

      Oh, keine Sorge. Das wirkt in Videos so, weil ich vorher natürlich auch für mich sehr viel Lernzeit investiere. Und mit der Zeit kennt man halt das ein oder andere, vergisst aber auch schnell wieder Dinge. :D Immer dran denken, die Evolution hatte nur eine Fähigkeit: Fehler machen. Und am Ende sind Katzen dabei raus gekommen, das ist doch was!
      Danke, freut mich sehr das es Dir gefällt. :)

  • @___x__x_r___xa__x_____f______
    @___x__x_r___xa__x_____f______ Před 7 měsíci +1

    Really nice. For an SDXL pipeline would one just add the sd15 inpainting model plus a downsize upscale node to adjust for lower resolution? Then upscale after the inpainting?

    • @cyril1111
      @cyril1111 Před 7 měsíci

      yes, wondering the same. Can we do the same with XL ?

    • @ALatentPlace
      @ALatentPlace  Před 7 měsíci +2

      It is possible with SDXL, but a bit dirty. You need to download the SDXL Inpainting Unet and use the Unet Loader instead of the Checkpoint loader. This will throw a warning in the console, but is still working.

  • @christianblinde
    @christianblinde Před 7 měsíci

    Wieder mal sehr hilfreich. Ich würde mir noch mehr zum Thema inpainting / outpainting wünschen. Insbesondere wie man am besten ein In-Outp. bei sehr großen Ausgangsbildern hinbekommt. Sagen wir ich habe ein Foto von einer tollen Landschaft und da ist ein kleines Auto im Weg, welches ich entfernen möchte. Dann muss ja eigentlich nur Inpainting auf einen sehr kleinen Bereich durchgeführt werden und dieses Stück dann zurück in das hochauflösende Quellbild eingebaut werden. Bekommt man das mit Comfy hin? gleiches spiel wenn ich ein Bild ein wenig an der Seite erweitern möchte aber nicht das ganze Bild durch den Sampler schicken will, weil der mit der Auflösung "überfordert" ist.

    • @TheDocPixel
      @TheDocPixel Před 7 měsíci

      Photoshop, Krita oder deine Fotobearbeitungs Software ist besser für sowas. Weniger als ein Sekunde

    • @ALatentPlace
      @ALatentPlace  Před 7 měsíci +2

      Das geht auch mit ComfyUI. Outpainting habe ich jetzt noch nicht für so einen Fall ausprobiert, theoretisch geht es aber. Für das Inpainting zum Entfernen von Elementen im Bild musst Du den Ausschnitt croppen, dort maskieren, ersetzen lassen und später wieder mit einem Image Composite in das alte Bild einfügen. Falls der maskierte Bereich trotzdem noch zu groß ist kann man überlegen, die PatchModelAddDownscale in das Model einzufügen. Damit ist es SD 1.5 auch möglich, größere Bereich gut generieren zu können. Ich überlege mal, ob ich ein Video dazu mache.

  • @ooiirraa
    @ooiirraa Před 6 měsíci

    Thank you, wow!!! very helpful! Even without german easy to understand 😂❤❤ i wonder if a model on civit ai does have an inpainting version, will this version be better or exactly the same? Another question, it should upload 4 models to vram, right? How much does it take? Do they all stay in vram to the end?

    • @ALatentPlace
      @ALatentPlace  Před 6 měsíci +1

      Thanks for the feedback. :) The model merging is done in RAM, the final merged result will then go into the VRAM.

    • @ooiirraa
      @ooiirraa Před 6 měsíci

      @@ALatentPlace if a model on civit ai does have an inpainting version, will this version be better or exactly the same? May I now delete all the inpainting models from my disk and always use this thing instead? They take a lot of space.

    • @ALatentPlace
      @ALatentPlace  Před 6 měsíci +1

      @@ooiirraa I cannot tell how the models are trained by their creators on CivitAI, so I would prefer to go with them instead of creating it on the fly. I would only use the merging when no model is available. And yeah, I feel your pain, also my SSD is exploding. :D

  • @bobbyboe
    @bobbyboe Před 7 měsíci

    danke! sehr hilfreich. Geht das mit SDXL nicht? weil du explizit erwähntest dass es mit 1.5er Models geht.

    • @ALatentPlace
      @ALatentPlace  Před 7 měsíci +1

      Das Video behandelt nur 1.5er. Es geht im Prinzip schon mit SDXL, ist aber etwas dreckig. Dafür musst Du das SDXL Inpainting Unet Model laden und in den Unet Loader packen. Das verursacht eine Warnung beim Mergen, funktioniert vom Prinzip her allerdings. Ich persönlich finde aber auch, dass Inpainting in SDXL nicht gut gelöst wurde.

    • @bobbyboe
      @bobbyboe Před 6 měsíci

      ah, interessant, danke für die Info.

  • @lila-und-lenny
    @lila-und-lenny Před 6 měsíci

    Super Infos ich beschäftige mich seit einigen tagen damit und bekomme es einfach nicht hin das meine AMD RX480 Grafikkarte benutzt wird. Habe mir auf CZcams einige Videos dazu angesehen aber waren nicht wirklich hilfreich....Hat jemand einen Tip?

  • @ooiirraa
    @ooiirraa Před 6 měsíci

    Also how to make kSampler display the unfinished image during the generation?

    • @ALatentPlace
      @ALatentPlace  Před 6 měsíci +2

      This is an option in the ComfyUI Manager. There you can set the Preview Method (dropdown on the left side).

  • @ChroshTheWay
    @ChroshTheWay Před 7 měsíci

    Würde eine Lora das ergebnis hier verbessern oder ist es für inpaint egal?

    • @ALatentPlace
      @ALatentPlace  Před 7 měsíci

      Also die Qualität der Ergebnisse im Video würde ich dem mangelhaften Prompting zuschreiben. :D Mit etwas mehr Liebe dort wird das Ergebnis dann auch schöner. LoRAs kann man natürlich verwenden, die werden dann aber nur auf den maskierten Bereich angewendet.

  • @user-tm4fl8un1e
    @user-tm4fl8un1e Před 6 měsíci

    Danke für die Anleitung, sie ist wirklich gut. Ich frage mich, ob es eine Möglichkeit gibt, Ihr eigenes Papapan-Bild anstelle der Schreibaufforderung zu verwenden, wenn Sie den Kopf des Papageis mit der Katze austauschen. Können wir ein Referenzbild verwenden.

    • @ALatentPlace
      @ALatentPlace  Před 6 měsíci +1

      So etwas kann man sehr gut mit dem IPAdapter und Attention masking erreichen.

  • @gameplayfirst6548
    @gameplayfirst6548 Před 5 měsíci

    Für SDXL gibt es keinen solchen einfachen Weg ein Inpainting-Model selbst zu erstellen nehme ich an? Zumindest hat es mit der beschriebenen Methode bei mir nicht funktioniert.

    • @ALatentPlace
      @ALatentPlace  Před 5 měsíci

      Doch, das geht auch. Dafür brauchst Du das SDXL Inpainting Model, musst es allerdings in den Unet Loader packen, anstelle von einem Checkpoint Loader.

  • @Varos.
    @Varos. Před 5 měsíci

    Bilder werden immer schlechter wenn man sie mehrmals hintereinander Inpainted.
    Zum Beispiel. Man fügt ein Tattoo am linken Arm hinzu, Dann ein anderes Tatoo am rechten Arm. Ändert die Augenfarbe und danach die Haarfarbe und so weiter. mit jedem Schritt mehr durch das Inpainting wird das Gesamtbild zusehend schlechter und schlechter. (Bereiche welche nie durch Inpainting betroffen waren sind davon natürlich auch betroffen)
    Wie kann man das umgehen?

    • @ALatentPlace
      @ALatentPlace  Před 5 měsíci

      Das liegt daran, dass die Bilder dennoch immer wieder durch die VAE Komprimierung geschickt werden (müssen). Umgehen kannst Du das, indem Du am Ende der Kette noch ein Composite Image Masked anwendest, und die Bereich des Inpaintings mit derselben Maske wieder auf das Original Bild anwendest.

  • @TheSoliver84
    @TheSoliver84 Před 7 měsíci

    Warum wirde meine Frage gelöscht?

    • @ALatentPlace
      @ALatentPlace  Před 7 měsíci +1

      Also ich habe nichts gelöscht und in "Überprüfung ausstehend" ist auch nichts. Enthielt sie eine URL? Manchmal entfernt YT selbstständig Kommentare, das Problem hatte ich schon mal mit einem Discord Link.