Stable Diffusion - Embedding

Sdílet
Vložit
  • čas přidán 8. 01. 2023
  • Telegram ➜ t.me/win10tweaker
    Boosty (эксклюзив) ➜ boosty.to/xpuct
    🔥 Deliberate: huggingface.co/XpucT/Delibera...
    🔥 Reliberate: huggingface.co/XpucT/Relibera...
    🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
    Плейлист Stable Diffusion: • Stable Diffusion
    #StableDiffusion #Embedding #Hypernetwork
  • Věda a technologie

Komentáře • 268

  • @tsentsura9279
    @tsentsura9279 Před rokem +53

    Христ, спасибо за работу! Вы первый встреченный на просторах Ютуба человек, который не просто показывает куда тыкать, а поясняет ЗАЧЕМ, и как это работает изнутри. Мне, как человеку, слабо дружащим с инструментами разработки, но желающим понять что и как работает, очень помогла информация из ваших видео. Поясняйте и дальше, очень ждем

    • @XpucT
      @XpucT  Před rokem +12

      Поэтому и снимаю. Спасибо за тёплые слова 👏

  • @anton-pavlov
    @anton-pavlov Před rokem +4

    Как всегда, отличное видео с ворохом объяснений!) Спасибо за полезную информацию!

  • @Aleksandr-Nikolaev
    @Aleksandr-Nikolaev Před rokem +16

    Больше, больше роликов про Stable Diffusion, главное не сбавлять темп.
    Спасибо тебе Хачатур за проделанную работа, просмотр твоих роликов очень экономит время.

    • @aearone
      @aearone Před rokem

      +++, лучший на данный момент контент по SD на русском языке. Я очень рад, что наткнулся на канал Хачатура)

    • @Aleksandr-Nikolaev
      @Aleksandr-Nikolaev Před rokem +1

      @@aearone не только по SD. Здесь есть уникальный контент.
      Раньше когда ролики выходили раз в полгода, это было прямо эпохальное событие, так как несло очень, очень практичное значение.
      Я даже не думал что Хачатур подсядет на нейронки, лично для меня это было приятным сюрпризом.

  • @MegaBigBright
    @MegaBigBright Před rokem +26

    Блин какой ты крутой чувак ) Спасибо тебе большое ) Лучше чем все англоязычные туториалы по СД, что я видел.

  • @scraymi
    @scraymi Před rokem +8

    Привет, я не успеваю "прожевать" предыдущий ролик, а тут еще вкусняшка =)

  • @gdanvolski2818
    @gdanvolski2818 Před rokem +6

    Хачатур как всегда лучше всех вникает в суть вопроса. Лайки, лайки, лайки мужики!

  • @muzzlex3610
    @muzzlex3610 Před rokem +2

    ну наконец то, появился человек, который подробно объясняет тренировку текстовой инверсии 🥳

  • @charlytutors
    @charlytutors Před rokem +28

    Ну наконец-то! Очень ждал =) Потому что по сути, мне не интересно обучать на себе, а вот свои стили туда закинуть и сделать вариации - как раз самое то =) Большая благодарность за это видео!
    Вопрос - если пробовал Remix в Midjourney, как делать такое же в SD? =) Когда берем одну картинку, например железного человека, вторую картинку - кукурузы и оно смешивается и дает результат в виде нового концепта =)

    • @rawon504
      @rawon504 Před rokem +3

      присоединяюсь к просьбе)

    • @kapitonchik
      @kapitonchik Před rokem +3

      +1 было бы здорово понять как сделать такую историю в SD

    • @t0rango
      @t0rango Před rokem

      "железного человека AND кукуруза" в промпте, не?

    • @charlytutors
      @charlytutors Před rokem

      @@t0rango ну я ж не то имею ввиду... идея не в промте. а в смешивании картинок... промт дает не тот результат. Видимо вы не пробовали Midjourney фичу =)

    • @t0rango
      @t0rango Před rokem +1

      @@charlytutors ясно. Да, фичу в MD не пробовал.

  • @slavazemlyanik1189
    @slavazemlyanik1189 Před rokem +2

    Спасибо!
    Побольше про тренировки, пожалуйста!

  • @alexrengised6072
    @alexrengised6072 Před rokem +1

    спасибо за проделанную работу!

  • @user-kh1fr5xn4t
    @user-kh1fr5xn4t Před rokem +2

    Христ - добрейшей души человек! Столько инфы, успевай только переваривать. И все это за лайк и колокольчик) Точно, бессеребреник какой-то. Некоторые только за промт стараются содрать от 20к и выше😮

  • @nikocgi886
    @nikocgi886 Před rokem +5

    Приветствую, очень благодарен за ваши видео по SD. Посмотрел Train, дополнение к нему, это видео и x/y plot. Появилось больше понимания. Хотелось бы узнать от вас нюансы по трейну на мультяшных и аниме моделях. Тренировал хайпер нетворк под задачу : есть лицо анимешное, нарисованное знакомым художником - хотел получать арты с этим лицом (понимаю что анимешные лица очень похожи но у этой есть свои особенности) в результате выдаёт не плохие результаты близкого шота лица с разных ракурсов если промпт простой и минимум уточнений даже особенности зубов передаёт( персонаж вампир). Но стоит ввести full body или промпты с позами и прочие промпты с костюмами окружением и тд. то начинает генерить лютую дичь времён первых нейронок))) Тренировал на Anything 3 по вашему видео, может быть к такой задаче нужен особенный подход ? Буду рад ответу, спасибо)))

  • @escesc5315
    @escesc5315 Před 5 měsíci +1

    Спасибо большое за труд!

  • @Cryunreal
    @Cryunreal Před rokem +4

    21:40 - кот сделал прыг

  • @HAPKOMAHFACE
    @HAPKOMAHFACE Před rokem +3

    Крутяк!
    Ну и как же hypernetwork вывести на главную страницу из настроек?)

  • @stanislavniy8064
    @stanislavniy8064 Před rokem +2

    Круть! Спасибо вам!

  • @filatovweb
    @filatovweb Před rokem +3

    Как всегда шикарно! Очень жду каждое ваше видео

  • @muhitdin5590
    @muhitdin5590 Před 9 měsíci

    Хачатур, недавно открыл твой канал, подача огонь🔥

  • @user-ul3ll3oy2y
    @user-ul3ll3oy2y Před rokem

    ЧУМОВОЕ видео! Спасибо большое! Наконец-то, диск разгружу)

  • @user-mn1wv7fg4o
    @user-mn1wv7fg4o Před 3 měsíci +1

    Вы - великолепны не только как профессионал, но и как крутейший педагог. Чувствую себя подобием SD при его создании - встроенная система рухнула, какие то отрывочные знания улетели в блендер, где все перемешивается. Сама же личность тихо молится в углу об избежании окончательного распада и надеется, что позже, по мере изучения материала, создастся что то новое, логично упорядоченное. Но это пока на уровне надежды. Понимаю, что ничего не знаю, не понимаю, но очень стараюсь. Поглядим однако что далее у нас...

  • @ManSpider2021
    @ManSpider2021 Před rokem +2

    Спасибо огромное!

  • @serpotapov
    @serpotapov Před rokem +3

    Мощь!

  • @BoringType
    @BoringType Před rokem +1

    Большое спасибо!

  • @olgs788
    @olgs788 Před rokem +3

    Спасибо 🥂 +1 000 000 подписчиков вам 💪

  • @2si361
    @2si361 Před rokem +2

    Вы работаете быстро, рассказываете увлеченно и интересно! Мне ооочень нравится. Огромный молодец!

  • @sleepeverydayitsgreattoliv4214

    Нужно больше технической информации 🎉😎🙏

  • @leoniddzhabiev
    @leoniddzhabiev Před rokem +2

    Хорошо!Ну прям очень хорошо

  • @sector5577
    @sector5577 Před rokem +1

    Ежже красавчег!

  • @vasogagnidze3325
    @vasogagnidze3325 Před rokem +1

    фига еще один видос, лайк

  • @whatevsimbulletproof
    @whatevsimbulletproof Před rokem +1

    Офигенно. Пили ещё

  • @user-mopVas74
    @user-mopVas74 Před rokem +2

    Спасибо тебе большое .

  • @yerysh
    @yerysh Před rokem +1

    крутой чувак ) Спасибо тебе большое )

  • @avr_stm_pro2955
    @avr_stm_pro2955 Před rokem +4

    Как всегда заебок 👍

    • @XpucT
      @XpucT  Před rokem +2

      Как всегда красавчик ☝
      Жду Твой заебок под каждым видео, уже традиционно =))

  • @deodamustv6649
    @deodamustv6649 Před rokem +2

    Спасибо, Хачатур!

  • @fakeaccount1180
    @fakeaccount1180 Před rokem +6

    А возможно ли генерировать своего персонажа в разных позах и ситуациях?

  • @5hem
    @5hem Před rokem +17

    В видео затронут был такой момент, что модели не понимают промты, если их не обучили им. Хотелось бы узнать, есть ли способ выпотрошить из файла модели информацию, какие промты она понимает

    • @WillFalcon
      @WillFalcon Před rokem +1

      Прикинь, сколько текста влезает в 4-5 гигов информации, а именно столько средний эндпойнт вмещает. Проще методом тыка.

  • @mikhail5402
    @mikhail5402 Před rokem +1

    Здоров👋, спасибо, отличный видос, наконец избавлюсь от тонны моделей, заготовлю свои какие нужно по 70 кило и красота 🤝

  • @borgeborg
    @borgeborg Před rokem +3

    Крутой автор! Прям хочется лично пожать руку за такой труд!) Вопрос: как можно осуществить такой сценарий? "есть 10 разных промптов, на их основе сделать 10 разных картинок каждого описания и всё это поставить в очередь, а самому пойти часик погулять"

    • @XpucT
      @XpucT  Před rokem +1

      Есть отличный ответ на это:
      czcams.com/video/fTitCZUdRSI/video.html

    • @silentage6310
      @silentage6310 Před rokem +1

      я так закидываю несколько сотен запросов и оставляю на сутки :)

  • @AlexBond_007
    @AlexBond_007 Před rokem +1

    Все проверил, все работает! Стиль прекрасно передает. Делал по другим гайдам ничего не получалось, потому что мало токенов давал или же их не указывал, и Learning rate не правильный ставил. Убил часа 4 на генерации и все было впустую, а тут 10 минут и готовый результат!!! Спасибо за видео!

    • @XpucT
      @XpucT  Před rokem

      Спасибо, что поделился 🙏

  • @vepiangaming6660
    @vepiangaming6660 Před rokem +2

    по поводу 75 токенов, писать можно и больше. Есть теория чанков, по которой 76 токен (1й во 2 чанке) будет иметь приоритет равный первому токену первого чанка.

  • @PhantoMNN
    @PhantoMNN Před rokem +5

    Приветствую! Которую ночь не сплю из-за этих видосов, пока все не попробую никак не могу оторваться ))
    Я тут накидал несколько вопросов не по этому видео, а общих. Возможно, что-то пригодится для будущих роликов и наверняка это будет интересно и другим.
    1. Тренируется ли нейросеть на локальном ПК, когда ей пользуешься или ее навыки остаются на том же уровне независимо от кол-ва циклов работы?
    2. Совершенствуется ли Hypernetwork при её многократном использовании? Субъективно, результаты с каждом разом улучшаются...
    3. Как именно работает Restore Face и в каких случаях имеет смысл ее включать?
    4. Принципиальная разница между оболочками Invoke AI и Automatic111, что лучше?
    5. Насколько и как влияет выбранный размер картинки при генерации изображений? Что делать, если необходимо максимально высокое качество (выше 2000 px), а все модели почти тренятся на 512 px?
    6. Если трейн прогонял на одной модели (к примеру, Dreamlikediffusion), а потом захотел использовать Hypernetwork на другой, например Protogen x5.8 Rebuilt (с учетом той же версии SD в базе обеих моделей) можно так делать или надо тренировать под каждую модель отдельно и заново?
    и очередное огромное спасибо за то, что ты делаешь, пока во всем рунете более подробной, четкой и максимально полезной информации по SD я не встречал!

    • @XpucT
      @XpucT  Před rokem +4

      1. На самом деле не важно, на каком ПК была тренировка. Результаты всегда будут отличаться в пределах погрешности.
      2. Увы, но нет. Однако, за 1 сеанс он делает всё лучше и лучше. Это да, это Вам не кажется =)
      3. Только для лиц крупным планом. В остальном помогает VAE. Если не помогает, включаем Restore face.
      4. Automatic1111 лучше потому что там больше. Как бы InvokeAI ни старалась быть дружелюбной, всё равно отстаёт по возможностям.
      5. highrex увы не поможет, только upscale. Подробнее про него в видео расскажу.
      6. Результат несомненно лучше будет, если Hypernetwork использовать именно на той модели, на которой она тренировалась.

    • @ManSpider2021
      @ManSpider2021 Před rokem

      У меня гиперсетки на левых моделях не работают. Только на той, на которой учил.

  • @vexrek3037
    @vexrek3037 Před rokem +1

    Спасибо!!!

  • @georgiy0077
    @georgiy0077 Před rokem

    👍Как всегда отличный видос.Но есть 1 вопрос, когда обычные смертные смогут скачать вашу сборку со всеми настройками,норм цветами интерфейса и дополнениями?

  • @Oritey
    @Oritey Před rokem +1

    Лучший!

  • @sergant985
    @sergant985 Před rokem

    Да, будь же здоров! Учи нас уму разуму в этой сложной среде.

  • @AntonBalazh
    @AntonBalazh Před rokem +17

    Спасибо! Можно предложить тему к одному из след. видео? Как делать шаржи, карикатуры в том числе и на основе натренированных hypernetworks? Чтобы сохранялась узнаваемость черт даже в утрированном или мультяшном виде. Спсб.

    • @AntonBalazh
      @AntonBalazh Před rokem +1

      От себя добавлю, что в X/Y plot в Hypernet str. играюсь настройками больше единицы (т.е. в пределах 1 - 1.4), это приближает к нужному эффекту, но на бОльших значениях появляются неприемлемые деформации. Отмечу, что в Settings - Hypernetworks Strength больше "1" выставить нельзя. Есть ли другие способы? Спсб.

  • @MrCoffeemill
    @MrCoffeemill Před rokem +2

    Спасибо, круто! два вопросика возникли:
    1е - я правильно понял, что
    Эмбейдинг это в одно ключевое слово вписывается группа слов, но еще и с примером что они должны означать конкретно, а не из всего что знает сеть по этим ключевикам, но не больше чем сеть знает уже. т.е. обучить стилю можно, но только тому что уже в базе.
    Гиперсеть, это типа фильтра в инстограм, но в место цвета - признаки человека, и чем лучше объяснить/обучить, тем более похож будет результат, но в самой сети данного стиля/персонажа нет, она результат окрашивает в признаки даже которых нет в сети.
    Дримбут вписывает тренеруемые данные уже в сам ckpt, меняя весь объем данных с разной степенью воздействия и уже генерит в выдачу с учетом новых данных добавленных к ее "знаниям"?
    2й вопрос у меня вытек =) из первого, это как можно совмещать разные стили? Допустив можно слить 3-4 ckpt, данные будут не добавлены, а именно смешаны, что повлияет на результат, но можно будет генерить .. ну .. новый актер 2023 года обнимает новую актрису 2023 года которых не было известно ранее. Можно "до обучить" в ckpt несколько новых "концептов" (как они названы в дримбут), и выдавать смесь этих данных, тех же актеров или стилей новых в дизайне. А гиперсети? К ckpt добавить 1н слой гиперсети, а два? Или двух людей, или их смесь, или среднее из двух стилей которых нет в ckpt? В ckpt можно смешивать (:1.2),(:0.8),(:0.5), а сетками есть возможность?
    Спасибо за видео!

    • @XpucT
      @XpucT  Před rokem +3

      1. Правильно понял. И следующий абзац и Dreambooth, всё верно.
      2. Для этого есть Checkpoint merger, про него будет отдельно 👍

  • @Igrom_Gamedev
    @Igrom_Gamedev Před rokem +3

    Ждем еще видосы ) Кстати мне заходят по часу видосики, даже жалко людей, которые жалуются на то, что долго. Надо еще постараться поискать ,чтобы так информативно было.

    • @XpucT
      @XpucT  Před rokem

      Согласен =)

    • @Igrom_Gamedev
      @Igrom_Gamedev Před rokem +2

      я только после твоих гайдов начал понимать как с этими нейронками общаться. Надеюсь дойдут у тебя руки и до InvokeAI, по ней тоже кисло на русском )

  • @yiu_ai
    @yiu_ai Před rokem +3

    Низкий поклон за видео!
    Возникла пара вопросов: можно ли использовать несколько embedding одновременно? А также хранить файлы embedding в одной папке, чтобы быстро переключаться между стилями? Или каждый раз вынимать из папки, где вы правой кнопкой мыши перетаскивали файл?
    Кстати, а можно ли применять embedding в img2img? Загрузил я, к примеру, фотку 512×768 пикселей и применил к ней embedding.
    Спасибо за ваши ролики😋

    • @XpucT
      @XpucT  Před rokem

      Можно в папке Embeddings хранить сколько угодно файлов.pt
      Если в prompt используется имя какого-либо, то его Embedding будет использован при генерации.
      Вынимать и класть Embedding можно в реальном времени, не перезапуская сервер.
      ОДНАКО, если файл.pt именно пересоздать внутри Stable Diffusion, нажимая на Create Embedding, то Stable Diffusion не увидит подмены. Именно по этой причине говорю, что нужно вынимать файл, нажимать Generate, потом снова класть обратно файл.
      Если файлы готовые, рабочие, трогать их не нужно, валяются себе и прекрасно.
      Если в папку Embedding положить Embedding, например, _cinematic.pt_ и прописать в prompt это:
      _a car, cinematic effect, high quality_
      То генерация будет заменять слово cinematic на то, что сидит в Embedding.
      Если файл _cinematic.pt_ убрать в реальном времени из папки и снова воспроизвести тот же prompt, то он будет учитывать строго сам prompt и это можно проверить, смотря в самый низ отчёта. То есть так мы точно увидим, что система работает, как и написано в документации в реальном времени. Он как бы "отслеживает" наличие файла. ОДНАКО, повторюсь, если мы перебьём файл _cinematic.pt_ создав новый на вкладке Train, то Stable Diffusion будет не просто считать, что не было подмены, он ещё и юзать будет то, что у него в памяти (то, что было до замены новым).

  • @user-zc5hw3jp5q
    @user-zc5hw3jp5q Před 4 měsíci +1

    Thx!

  • @user-zz3yh1ko6y
    @user-zz3yh1ko6y Před rokem +2

    Мужик, это МАГИЯ! Ты мой кумир. Буду лайкать все твои видео и вообще, я хочу от тебя ребенка!!! ))

  • @wayperz
    @wayperz Před rokem +13

    может сделаете рубрику , картинки от зрителей? которые вы сможете создать близко к оригиналу? будет занимательно посмотреть что и как вы делаете что бы добиться результата

  • @Dmitry_Max
    @Dmitry_Max Před rokem +1

    Благодарю

  • @user-te7cz3wk2v
    @user-te7cz3wk2v Před rokem +1

    Спасибо

  • @user-vp9bw8ku1k
    @user-vp9bw8ku1k Před rokem +1

    Здорово. А есть аналог remix mode из midjourney? Просто из одной картинки композицию захватить, а из другой стиль

  • @joker__joker_why_so_seriou2520

    🔥🔥🔥🔥🔥🔥🔥

  • @enotbert
    @enotbert Před rokem

    Привет, спасибо за видосы. Очень емко и доходчиво.
    Вопрос про эмбеддинг. Есть задача, заэмбеддидь конкретный стиль изображений, что бы совсем любой промт в итоге выдавался в этом стиле.
    Сейчас может быть будет несколько сумбурно, прошу понять.
    Я хочу что бы СД генерировал чистый flat vector без градиентов, с хорошими осознанными формами и в разных под-стилях внутри этого стиля.
    Моя проблема в том, что "внутри" flat vector есть куча очень сильно отличающихся подстилей. А главное, что любая иллюстрация это очень сильная стилизация привычных объектов реального мира. Условно говоря холодильник не прямоугольной формы, а трапеция и т.д. Когда я собрал набор картинок который бы включал в себя хотя бы 1 изображение в интересующих меня стилях, получилось 24 картинки. Я затрейнил эмбеддинг, но получилась чушь. Если не задавать промт точно описывающи одну из картинок, результат мягко говоря плохой.
    В связи с этим вопрос, имеет ли смысл пытаться упихать все что мне нужно в один эмбеддинг или разумнее отступиться и создать под каждую уникальную реализацию стиля свой эмбеддинг?

  • @user-nj3dn1or9q
    @user-nj3dn1or9q Před rokem +6

    Хоть я половину слов и не понимаю, но слушать интересно) На днях 2 часа искал Фотошоп крякнутый на 32 бита. Смотрю подписанный Христ, все работает идеально)

    • @XpucT
      @XpucT  Před rokem

      Ты можешь спросить, Я уточню в комментах любой аспект.

    • @user-nj3dn1or9q
      @user-nj3dn1or9q Před rokem

      @@XpucT Я обязательно учту и как будут появляться вопросы буду спрашивать. Но я и так с каждым видио узнаю много нового. Заинтересовала тема с Гугл Колабом, буду разбираться.

  • @Jacob-ut4hc
    @Jacob-ut4hc Před rokem +4

    Видео супер, конечно хотим еще! Было бы интересно узнать про мердж моделей, safetensors, pruned и как самому их создавать (обрезать чужие для экономии места)

  • @user-nc4oh2pz5w
    @user-nc4oh2pz5w Před rokem +2

    Пожалуйста прокомментируйте: когда учишь селфи модель на своем стиле, то при добавлении разных весов в одну модель в какой то момент они начинаются смешиваться( Если добавлять в одни и те же веса много объектов, начиная с 2ого, иногда 3его объекта они начинаются смешиваться

  • @TovSpaskin
    @TovSpaskin Před rokem +3

    А можно ли хохлому или гжель через embedding сделать? И, например, на одежду наносить потом?

  • @foton5033
    @foton5033 Před rokem +2

    Очередной раз красавчик! Спасибо тебе

  • @CAMKATIC
    @CAMKATIC Před rokem +2

    спасибо тебе за такое познавательное видео, теперь я понял что этот ИИ это не просто генератор бесполезных картинок, ведь если разобраться то эта штука может расчитать все что угодно , только подставляй ей примеры учи и проси результат

  • @Serhii_Hrechka
    @Serhii_Hrechka Před rokem +1

    😭хр...во, что Вы только на Boosty, а Patreon под запретом, очень хотел подписку оформить, так как посмотрел, что там не просто годный контент, а о....ый🤩🤯

    • @XpucT
      @XpucT  Před rokem

      Я не могу завести аккаунт на Patreon ┐('~`;)┌

    • @Serhii_Hrechka
      @Serhii_Hrechka Před rokem

      @@XpucT я знаю 😢, а я не могу пользоваться такими сервисами как boosty 🤬

  • @evgeniiatarasova9898
    @evgeniiatarasova9898 Před rokem +1

    Спасибо за отличное объяснение! Подписка, лайк, звоночек! Жаль лайк только 1 ставить можно(

  • @duckduckov4362
    @duckduckov4362 Před rokem +1

    OH MY GOOOOOOOOOOD! 😆 невероятная круть. мы прям бахаем СТИЛЬ. Киберпанк, гта5, что угодно
    Я не понял, мы можем надёргать картинок из интернета в нужном стиле или нам нужны сгенерированные нейросетью изображения?
    Train an embedding or Hypernetwork; you must specify a directory with a set of 1:1 ratio images [wiki] уже яснее
    Для этого метода нужна видеокарта с 8гб+

  • @user-uu1sb8fl2v
    @user-uu1sb8fl2v Před rokem +1

    Спасибо за видео! Но есть вопрос, подскажите пожалуйста:
    Делаю embending на модели 1-5. Ввожу все токены указанные в видео. Беру за референс картинки в стиле Samdoesart.
    Но по итогу получается так, что embendig работает и повторяет стиль исходя только из токенов. На картинки в Стиле Samdoesart из папки, на которую ссылался, вообще не похоже.
    Что мог сделать не так? Буду благодарен за ответ)

    • @AlexBond_007
      @AlexBond_007 Před rokem +2

      Есть предположение что обучение ломают COMMANDLINE_ARGS --xformers или --no-half-vae в общем у меня было куча параметров и он вообще не обучался, а когда сделал на чистом запуске, то обучение заработало. Но это только предположение...

  • @No.057
    @No.057 Před rokem +2

    в каком файле ты прописал гиперсеть возле чекпоинтов?

  • @smartbynick1796
    @smartbynick1796 Před rokem +2

    Видео уходят в сторону завлечения зрителя с разными уже казалось стандартными "блогерскими уловками" в плане монтажа и подачи. И это круто.. Как офигенно обыграл прыжок кота под музыку, это было так просто и так круто. А видео, как всегда понятным языком) спасибо!

  • @user-fs6tl6og3j
    @user-fs6tl6og3j Před rokem +1

    Спасибо за видос ! Очень нужная информация!!

  • @pawwithclaws2360
    @pawwithclaws2360 Před rokem +1

    Здравствуйте, подскажите, пожалуйста, как через train сделать стиль рисования, к примеру, взять фото моего лица и в img2img перерисовать в стиль моего рисования, фото с моей отрисовкой могу скинуть

  • @legendaclub
    @legendaclub Před rokem +2

    Спасибо большое!🔥🔥🔥

  • @Vincentocavroni
    @Vincentocavroni Před rokem +2

    Хачатур здравствуй, можно ли перерисовать на свой стиль фото человека, сохранив узнаваемость оригинала, без обучения и тренировок? (И без sms и регистрации)

    • @XpucT
      @XpucT  Před rokem +1

      Можно. Это отдельное видео будет.

  • @Alexarhat2
    @Alexarhat2 Před rokem

    Привет! Большое спасибо за видео). Подскажи, пожалуйста, при создании Эмбеддинга, выставляя настройку "Number of vectors per token", какие еще символы кроме запятой считаются токеном? Например слово "gray-haired" будет считаться одним токеном или тремя? Или если у нас слово с апострофом "blizzard's"?

    • @XpucT
      @XpucT  Před rokem

      Привет 🖐
      Это можно посчитать в самом prompt справа вверху подсказка.

    • @Alexarhat2
      @Alexarhat2 Před rokem

      @@XpucT понял, спасибо!

  • @WillFalcon
    @WillFalcon Před rokem +4

    Бро, делай ,пожалуйста туторы FHD или HD (1920x1080) бо невыносимо без лупы этот синематик стайл смотреть на 16" ноутбука.

  • @krivdada
    @krivdada Před rokem +2

    Большое спасибо за все ролики, наиболее внятный материал по SD! Хочется еще поднять одну тему: SD умеет рисовать аниме, но оно не всегда нужно. Хочется натренировать свою модель с четким лайном и своей спецификой светотени, но при обучении стилю узнаваемости не получается, он передает чисто цвета и общие объекты. Может у таких иллюстраций есть другие методы обучения?

    • @XpucT
      @XpucT  Před rokem

      Посмотрите видео LoRA:
      czcams.com/video/A15M4cbUM5k/video.html

  • @user-ij5le6vo5v
    @user-ij5le6vo5v Před rokem +1

    У меня какая то ерунда получается на эмбендинге, может потому что видео карта 3000 серии или я хочу бОльшего результата от инструмента( но в результате картинки получаются какие то "психоделические" не смотря на то, что картинки примеры совсем другого характера и стиля. Очень жду видео по созданию модели, мне как художнику это важно и интересно!
    Спасибо за крутые обзоры!

  • @RaduFilmStudio
    @RaduFilmStudio Před rokem

    А есть ли возможность в последствии доучивать, к примеру вов торой раз на собачках, а после третий на кошечках и так далее?

  • @vnk5033
    @vnk5033 Před rokem +1

    Все таки щас соберусь и перепишу этот негатив промт
    Спасибо за видео! Лайк!

  • @michaelsoldatov2649
    @michaelsoldatov2649 Před rokem +2

    Ну щё - лайк, подписка, комментарий для продвижения - пилите контент, укажаемый! Ну а если серьёзно, очень информативно, мифо-уничтожительно, по делу. Разве что негатива хотелось бы поменьше - тема новая и сложная, ажиотаж вокруг неё большой (в узких круга), не удивительно, что люди пока не понимают толком, что к чему. Результат говорит сам за себя, кому надо тот поймёт и сам сделает выводы.

    • @XpucT
      @XpucT  Před rokem +2

      Негатива итак мало. Проверьте загуглить те вещи, о которых Я рассказываю.
      Сразу станет понятно 👍

  • @user-mq8zo8ry8k
    @user-mq8zo8ry8k Před rokem +1

    Я тут как тут))))

  • @user-kl5ze4tf2c
    @user-kl5ze4tf2c Před rokem +2

    За биточки на фоне отдельные спасибы)

  • @Nonamus0
    @Nonamus0 Před rokem +6

    Ура, новое видео по SD, приятный сюрприз) Про мировое сообщество анимешников посмеялся 😂
    Очень классно узнавать что-то новое, особенно когда так хорошо всё объясняют, надеюсь дождусь как нибудь и темы Dreambooth. Спасибо за видео! (И да, я не знаю кому надо покороче, я бы хоть 4 часа смотрел подобные видео хаха)

  • @areidj
    @areidj Před rokem +2

    супер!от души! лайк есть! Вопрос почему при 512-512 у вас получаются все равно качественные изображения, а у меня не очень? Что я делаю не так?

    • @XpucT
      @XpucT  Před rokem +2

      Всё от модели зависит и CFG Scale.
      Также не пропускайте видео. В одном из недавних рассказывал про VAE 👍

    • @areidj
      @areidj Před rokem +1

      @@XpucT вроде все посмотрел на бусти, наверно пропустил, буду пересматривать ! Вы лучший вообще! Обнял крепко !

  • @WillFalcon
    @WillFalcon Před rokem +1

    И, кстати EyeBalls - это два токена. Можно поставить расширение (extension) которое покажет сколько токенов на каждом слове.

    • @aleksandrshchepkin
      @aleksandrshchepkin Před rokem

      А как это расширение называется?

    • @WillFalcon
      @WillFalcon Před rokem +2

      @@aleksandrshchepkin embedding-inspector, показывет количество токенов на запросе, вес, айдишник и тп

    • @WillFalcon
      @WillFalcon Před rokem +2

      @@aleksandrshchepkin ещё есть расширение tokenizer , более компактно, раскрашивает промпт поделив на токены

  • @fishfugue
    @fishfugue Před rokem +2

    Добрый день. Будет ли обзор InvokeAI?

    • @XpucT
      @XpucT  Před rokem

      Приветствую 🖐
      Будет мини-отзыв.

  • @darda3335
    @darda3335 Před rokem

    А что будет если я создам несколько таких эмбендигов и подключу их, они все будут работать? Можно тренировать на другой модели не 1.5 а на делибери например?

    • @XpucT
      @XpucT  Před rokem +1

      Можно и это будет работать.
      И да, сейчас лучше делать на Deliberate.

  • @maxiimovv
    @maxiimovv Před rokem

    Я так понял "Number of vectors per token" надо выставлять тот который светился при первоначальном запросе - (25/75) т.е. в примере 25 ?
    Понял что если указать меньше, то обрежет промты. А вот чем опасно ставить число побольше, скажем навалить сразу 75?

  • @Xandr_Nekomata
    @Xandr_Nekomata Před rokem

    Привет, только пару дней у тебя на канале, и есть такой вопрос. Есть ли у тебя гайды по созданию видео AI из обычного видео ? Я гуглил какието Stable WarpFusion.. Даже развернул проект.. но все равно ничего не понимаю )))

    • @Xandr_Nekomata
      @Xandr_Nekomata Před rokem

      Хотя наверное надо сначала научиться просто фото переделывать)

    • @XpucT
      @XpucT  Před rokem

      Привет 🖐
      boosty.to/xpuct/posts/2e53c82b-c1dc-4baa-a0d1-6af0f41a7f41?share=post_link

  • @artistsergey
    @artistsergey Před rokem +3

    Спасибо! (Знания: Ваших 4 просмотренных ролика) ВОПРОС: Мне нужно получить уникальный художественный стиль на примере конкретного художника. Он включает в себя как бы всё. Это комиксы. 1. На основе какой модели делать тренировку? Той, что Вы здесь порекомендовали? 2. Если это целый стиль и включает в себя не токмо лица, сколько нужно для такой дрессировки картинок и токенов, что бы описать весь мир этого художника? Ведь тема может быть ковбойская и космическая. И еще я не могу понять с размерами картинок. Как их получать большого разрешения, хотя бы 1200 пик. ? Если задавать такой размер, то получается в лучшем случае винегрет и бред обкуренного стафилококка. И как тренировать, сразу задавать такое разрешение? Или это не наши методы? Спасибо за разъяснение!

    • @XpucT
      @XpucT  Před rokem +4

      Лучше делать тренировку на 1.5, да, потому что на её основе, как правило делаются другие модели. То есть Ваш Embedding будет с большей вероятностью совместим, если делать на 1.5. Если в художестве много элементов, то есть вообще смысл создать свою модель. Но это уже другая история. Для этого нужен Dreambooth, где от каждого изображения требуется подробное описание. Чтобы получать изображения на своих моделях в высоком разрешении, обучать нужно на высоком разрешении. Если на чужих, то просто Upscale. Никуда от этого не деться. Но сразу скажу, что оптимальнее всегда будет 512 x 512. Это разрешение выбрано неспроста. Именно на нём меньше всего встречаются неожиданные деформации.

    • @artistsergey
      @artistsergey Před rokem +1

      @@XpucT Безразмерное спасибо! А вы можете направить меня ссылкой в сторону Dreambooth или можно ожидать видео по раскрытию темы? Еще раз спасибо!

  • @user-lf9ee3cr5l
    @user-lf9ee3cr5l Před rokem +1

    Будет ли у нас выпуск для новой версии stable 2.4? Я установил её, а смотрю меню отличается и в настройках не вижу этих параметров, что у тебя на предыдущих и данном видео...

    • @XpucT
      @XpucT  Před rokem +1

      Открой второе видео в плейлисте.

  • @THORtik
    @THORtik Před rokem +1

    А попробуйте ввести не блонд, а, например, "с белыми волосами", или "волосами белого цвета", или более подробной формулировкой).

  • @interemx
    @interemx Před rokem +2

    лайк. жду обзор на раздел deforum

  • @user-fs6tl6og3j
    @user-fs6tl6og3j Před rokem +6

    Чем подробнее видео тем лучше ) мой интеллект гуманитария
    лучше воспринимает 😊

  • @silentage6310
    @silentage6310 Před rokem +2

    расскажи потом как установить SD 2.x. пробовал скачать и включить, но пишет что нужен какой то config.yml

  • @D1MAKRAT
    @D1MAKRAT Před 9 měsíci

    Спасибо большое, Хачатур!)
    55

  • @Dustin-trustinO12
    @Dustin-trustinO12 Před rokem

    А что если я хочу просто стиль волос потренировать, это точно также работает?

  • @drugoj
    @drugoj Před rokem +2

    Друзья, вопрос немного не в тему видео, но почему, при изменении размера вывода картинки с 512х512 на какой то другой, нейросеть начинает рисовать не одного персонажа а двух трех, а то и сразу шесть? ПРичем еще недавно вроде не было такой проблемы.

    • @XpucT
      @XpucT  Před rokem +1

      Попробуй удалить кэш, как показывалось в предыдущих видео.

    • @drugoj
      @drugoj Před rokem

      @@XpucT я видимо пропустил этот момент, надо пересмотреть еще раз все. Спасибо.

  • @HAPKOMAHFACE
    @HAPKOMAHFACE Před rokem +2

    Самый главный вопрос: как у тебя так быстро загружается модель с расширением safetensor. У меня минут по 5 грузится, а у тебя 3 секунды. ckpt где-то секунд 30 у меня.
    Это потому что у меня не SSD?

    • @XpucT
      @XpucT  Před rokem +1

      Да. У Меня SSD, M.2 NVME.

  • @VitVit312
    @VitVit312 Před rokem +2

    Спасибо за видос, определённо лучше тебя сейчас не делают понятными словами :)
    Жду с нетерпением новые с:
    Хотел один момент подметить, в промте когда лимит доходит до 75, то при увеличении запроса лимит продлевается ещё на 75 и так пока не надоест(по крайней мере я лимита не словил даже после десяти тысяч слов, возможно там приоритет как то перераспределяется если не указывать вручную, но это не точно)
    За один раз можно хоть сотню эмбедингов использовать и ты в любом случае впишешься в лимит, по сколько его нет скорее всего

    • @filatovweb
      @filatovweb Před rokem +1

      Он кажется от твоей видюхи зависит. В моей видео карте 12 гигов, у меня тоже лимита нету, а у друга слабая карта и у него лимит на 75, дальше ошибку выдает и видно что вся видео память забита снизу в окне информации. Хотя могу ошибаться