Stable Diffusion - X/Y Plot - ПОЛНЫЙ разбор всех возможностей
Vložit
- čas přidán 31. 05. 2024
- Форум: win10tweaker.ru/forum/topic/s...
Telegram: t.me/win10tweaker
Boosty: boosty.to/xpuct
00:00 Начало
00:43 Prompt matrix
04:24 Prompt from file or textbox
07:04 Var. seed, Var. strength
13:57 Коллаж из Steps и Scale
16:15 Prompt S/R
20:23 Prompt order
22:22 Sampler
23:49 Checkpoint name
24:52 Hypernetwork
30:00 Hypernet str.
🔥 Deliberate: deliberate.pro
🔥 Reliberate: huggingface.co/XpucT/Relibera...
🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
Stable Diffusion плейлист: • Stable Diffusion
#StableDiffusion #XYPlot #Art #Script - Věda a technologie
Очень интересно будет посмотреть про трейн генерации артов! А так же разнообразие ckpt стилей , и как грамотно ими пользоваться(может даже совмещенно с трейн)!
Обожаю спать под ваши видосы)
Из за болезни бессонница, а под ваше видео сплю отлично
Подробнее про Train очень нужно. Спасибо за видео.
Спасибо! Гайдов на русском очень мало, всё приходится выяснять какими-то обрывками, гуглом и чтением форумов. Буду лайкать жать колокольчик и всё такое каждое видео по стейблдифьюжн 😁
☝ Красавчик
Спасибо большое, очень сильно хочу более подробное видео о train
Спасибо! Ваш гайд очень помогает найти нужное изображение, создавая матрицу из нескольких вариантов промптов. Я так например при помощи функции Prompt S/R создал матрицу, которая отображала результаты с разными весами одного слова. Очень полезно и экономит время!
Привет! Сделай, пожалуйста, большой гайд на тему "обучения своей модели через google colab". Сколько шагов, сколько фото, какой семплер лучше, должны ли быть фото похожие или нет, на основе какой модели обучаться и т.д. и т.п. для максимального соответствия будущих генераций со своей моделью( например модель самого себя). И как потом эту модель скрещивать с другими, что бы добиться нормального усредненного результата.
Ребят апните пост, я думаю многим очень интересно погенерировать себя с максимальным сходством.
Я делал 25 фоток с разных ракурсов, но по сути с одним и тем же фоном и выражением лица. получилось неплохо, но хотелось бы еще лучше!
Женя прав, поставил лайк. А ещё он красивый, я правду говорю!😁
Обучить свою нейросеть под свои задачи это интересно. Зачем делать нейросеть, которая тебя будет генерировать не понятно. Создать улучшенную версию себя для фоточек в соц сетях?
@@---Nikita-- Если по сходству заморочиться. То себя в разных ситуациях и антуражах.
@@---Nikita-- Человек как то сделал фотки где он примерил себя в разных исторических отрезках, к примеру где убегал от мамонта, строил пирамиды и был с великим художниками. Как минимум здесь человек примеряет себя в разных ситуациях и в разной обстановке. Улучшенную версию себя можно сделать и без нейронных сетей
Огромное спасибо за видео и ценнейшую информацию !!! Очень жду видео про Train! И остальные фичи с нейронкой :)
Бесценная инфа! Спасибо :) Конечно лайк! Продолжение про Трэйн будет очень интересно посмотреть!
Да, про тренировку очень неплохо ещё посмотреть конечно. Спасибо за классные уроки !!!
Очень крутой ролик, практиковалась по нему. Более подробно действительно нигде не слышала.
Наконец то нашёл человека! А то одни кагтавые везде, слушать невозможно! Красавчик, всё чётко и доходчиво!
Охренеть! Каждый день охреневаю
Вернулся посмотреть начальные ролики😅
Сам не пользуюсь этим, но всегда очень интересно и приятно тебя слушать, спасибо, Хачатур
♥
Вы самый подробный и профессиональный разбор делаете, благодарю ставлю лайк!
Очень классные ролики, спасибо! Нужно продолжение про train, там ещё embedded какой-то непонятный
Спасибо! Теперь точно понятно! Жду еще всевозможной информации
Тренировать (фото) надо на разном фоне, разном освещении, дистанции...больше вариаций лучше (хороший пк), например модель "GTA5_Artwork_Diffusion" тренировали на иллюстрациях игры гта 5, автор модели указывает что использовать надо сэмпл DDIM, 7 шагов на 65 денойза и в промте обязательно надо указать: gtav style. Потому ребят внимательно читайте рекомендации к небольшим моделям. Я лично часто использую сэмпл DPM++ 2M, он дает текстуру масленой живописи (жирноту, куски, v2-1_768-nonema-pruned) : Emilia Clarke painted in impressionist style, brushstroke painting technique, palette knife painting,
Хорош!
Спасибо Христ. Узнал много нового, Эти таблицы реально помогают сравнивать результаты и ускоряют работу! Лучший как всегда!
Замечательная инфа, мне эти знания пригодятся. Большое спасибо!
Про тренировку очень интересно подробнее узнать! И в чем разница с тренировками на колабах (примеров коих много в ютубе) Спасибо.
Спасибо. Продолжайте пожалуйста . Очень познавательные видео.
Да афигеть, чувак ты нереально крут, так хорошо рассказать и показать, при этом не надоесть слушателю - это ПРОСТО АХ.....О!
Хачатур, спасибо! Отличная дикция. Всё очень доступно
Спасибо!
Разобрался со скриптами, и это БОЖЕСТВЕННО 🤩 Спасибо ещё раз большое ☺
Подписался, ждем еще больше информации по Stable Diffusion!
Красавчик! Жду каждого видео. Очень жду дополнительных видео по трейну!!!
Спасибо! Уже =)
Откройте самое новое видео на канале 🙏
фух, немного понятнее стал SD от а1111 :) а то столько всего, ничего не понятно, везде теряешься
Спасибо большое за эти бесценные видео!
26:33 хотим ! а если уже есть то спасибо , пойду смотреть :)
Красавчик! Спасибо за обучение)
Это сообщение написано нейросетью, чтобы люди подписывались на канал Хачатура и ставили лайк этому видео быстро и решительно!
Очень крутое видео, спасибо! Про Train интересно послушать!
я впервые в жизни воспользовалась терминалом на маке, в программировании полный ноль , из всего ютуба, только с вами за сутки установила stable diffusion и начала тренировать сеть, хотя до этого вообще не знала о таком приколе. спасибо огромное
а напрямую без заморочек нельзя на мак поставить?(
Очень интересно будет посмотреть про трейн генерации артов! А так же разнообразие ckpt стилей , и как грамотно ими пользоваться(может даже совмещенно с трейн)!
14
спасибо за данное видео, очень информативно!
можно видео про тренировку
спасибо за подробный видос! да, трэйн очень интересно, хочу ещё :D
Тут люди пишут, что нужен трейн по арту, полностью поддерживаю.
Хотелось бы сделать модель по эскизам (рисунок в линию), а потом генерировать новые эскизы идеи.
Не знаю правда, возможно такое или нет.
Спасибо за такие классные видео. Масса полезной информации.
Ещё немного времени, чтобы переварить, что есть в открытом доступе, и пойду к вам на бусти.
🤝
Очень ждём продолжения!!!
Спасибо за видео! Хотим про трейны, можно даже так не торопиться, кому нужно, тот сам ускорит видос ))
да, да, спасибо! очень нужные видосы
Я поломался, спасибо за очередное видео 👍👍
За искуственным интеллеком будущее , музыка шикарная
Спасибо за вашу работу!
🙏
Здоров, спасибо, лайк, теперь посмотрим👍
Спасибо за отличное видео. Про обучение было бы интересно узнать поподробнее, особенно про LORA, т.к. по обычному Dreambooth роликов уже очень много. По LORA практически ничего нет.
Благодарю!
как всегда ультимативный туториал, спасибо!
можно ли как-то скрафтить приблуду-скрипт с помощью которого можно было бы геренить хайрез имэджи в стейбле?
идея
1)стейбл генерит по запросу изображение 512x512 пикселей, нас допустим все устраивает,
2)и мы с помощью этого скрипта отправляем этот сид на генерацию поочередно 64 изображений по 512 пикселей каждая которая является как бы маленькой частью изначально сгенеренного сида изображения 512х512,
3)а потом эти как бы мазайки-части изображения автоматически сшиваются в один целостный хайрез имедж с разрешением 4096x4096!
было бы круто!
Взял на заметку 👍
Снимите пожалуйста еще один видос по обучению. Меня интересует вопрос обучения на каких то к примеру игровых спрайтах, например мечи, сундуки или что угодно, что бы потом можно было бы генерить совершенно новый арт, если это возможно :) Еще раз спасибо, очень интересные у вас видео по stable diff
Контент годнота! Было бы интересно сравнить с обучением в Dreambooth
Очень интересно! Интересно твое мнение о бунте на Artstation насчет всего этого.
Круто! Спасибо!
Во первых огромное спасибо за такие подробные видео, только благодаря тебе я быстро во всём разобрался! Очень бы хотелось увидеть гайд как используя своё фото совмещать его с моделями при этом не потеряв черты лица либо сохранить узнаваемость, либо как совмещать несколько фотографий, было бы очень классно если бы ты научил таким приёмам.
Спасибо большое, Хачатур!)
22
Ещё 20 минут и бегу домой. Уже хочу смотреть.
Спасибо за видео. Интересует можно ли с помощью x/y в img2img в batch сделать постепенное изменение denoising strength для анимации?
да рил очень полезно не все про х/у знал как делать
Хачатур спасибо большое за контент, Нет видоса на просторах как обучать модель для неживых обьектов, например : оружие, хардсьорфейс, енвира, все вокруг персонажей пляшут . Как правильно подбирать картинки, на чем лучше тренить, lora или hypernetwork, было б очень полезно. Подозреваю что и не только мне))
Спасибо за видео, очень все подробно и внятно!
Но Олесю слишком быстро показал, пришлось ставить паузу :)))
топ видос по SD. По правильному апскейлу еще бы послушать🙏
Привет! Спасибо за информацию! А почему изображение машин обрезаные получаются?
Христ привет, с прошедшими тебя праздниками. С огромным удовольствием учусь по твоим видео! Расскажи пожалуйста про трейн и как обучить нейронку!
🖐🎅
"seed" как я, гуманитарий понимаю, это семечко из которого растёт дерево, на каждой ветке которого расположен плод-картинка. Разные семена дают разные "деревья" -- "яблони", "груши", "сливы", "ананасы"... и плоды на них тоже будут разные, совершенно разные. Используя случайные семена-сиды мы получаем деревья разных сортов. А вот если мы блокируем seed руками и запускаем с него много раз генерацию, мы просим SD "вырасти нам 'дерево-яблоню', но другую". И по идее мы будем получать всегда "яблоки", но просто разных сортов. Да, эти яблоки могут быть "жёлтыми", "красными", "синими" или "квадратными", но это будут "яблоки".
Спасибо за информацию, надо будет протестить скрипты! Кстати, для себя понял, что проще обучать нейронку на Google Colab - это не слишком сложно, и результаты радуют, да и обучение занимает 30-40 минут времени. В настройках ставлю 1300 шагов на 15-20 картинок. Пробовал также через расширение Dreambooth для оболочки Automatic1111, но что-то не вышло. А вообще с интересом посмотрел бы, каким способом вы обучаете)
Спасибо оч клёвые уроки, понятный разбор скриптов. По трейну нужен еще урок, понятно по предыдущему видео как это делать, у меня получился очень похожий клон себя, но не понятно как это работает.
- папка с лог "кривыми" картинками это попытки сети создать что то по словам из пред процесса?
- какая информация хранится в файлах .pt?
- как использовать функцию embeddings (встраивание) ?
- Обязательно ли предварительно выбирать нужную сетку-модель в резделе чекпоинт, и можно ли натренировать на разных стеках?
- можно ли тренировать показывая где хорошо а где плохо?
Взял вопросы на заметку, всё это рассмотрю.
Привет, Хачатур! Почему не ведёшь личный телеграм с какими то постами из личной жизни? Мне был бы очень интересен твой блог)
Да, было бы очень интересно
Сначала ставлю лайк, потом смотрю :) 👍👍👍👍👍
☝ Вообще красавчик ☝
Да хотим про Trine
Хачатур, здравствуйте! Хотелось бы полный гайд посмотреть по тому как создавать "Train" и работе с "Hypernetwork", буду очень рад, если сделать!)
29:43 Ну Алеся топ получилась))
Давай про тренировку, тоже буду себя рисовать)
Привет. после многочисленных генераций, папка stable difusion стала слишком много весить. как почистить ? все генерации из папки outputs удалил
Спасибо за видео,Христ!А что у тебя за расширение стоит,которое корректирует ошибки на английском?
Это встроено в браузер.
Нажми правой кнопкой в поле ввода и там выбери пункт _Проверка правописания_ 👍
@@XpucT Спасибо!Удивительно,впервые об этом узнал 😁
еще вопрос можно ли сделать так подсунуть свою картинку, например какой то грубый блокинг основные формы желаемого объекта, и сказать добавь деталей и сделай класиво?
Да, это делается во вкладке inpaint
Будут видео по чату GPT? Тоже очень интересная тема !
+++за отдельный видос по тренировке на своих фотографиях, отдельно хотелось бы понять как вписывать лицо в большие композиции (сеть учится на обрезанных портретах, а потом генерирует в основном такие же крупные планы и никак не хочет рисовать окружение вокруг или во весь рост рисовать персонажей... пример: лес, домик, река и персонаж в средневековом костюме рядом, но со своим лицом... можно ли такого добиться?) заранее спасибо, вы делаете безумно интересный контент!
А вы попробуйте поиграть с запросом. Для этих целей я пишу в запросе "photo fits NamePerson from head to waist", где NamePerson - это название обученного нейронкой персонажа. И этот запрос срабатывает как правило на каждой 3-ей фотографии. Для указания более значимого приоритета вы также можете ставить такие скобки (), выглядит это так: (((photo fits NamePerson from head to waist)))
Чем больше скобок, тем больше приоритет этой конкретной части запроса.
Для фона вы можете попробовать написать такой запрос: magic background , где вместо magic добавляете то, что должно быть на заднем плане.
- - - - -
Скину вам один запрос для теста :)
Prompt: Photo of NamePerson guy, (((portrait))), fantasy, (((magic clothing style))), epic, backlight, contre-jour, intricate, elegant, highly detailed, professional photo, matte, sharp focus, charming style, hearth, hyperrealistic, 8k, volumetric lighting, octane render, 24mm, DSLR, high quality, 60 fps
Negative prompt: poor lighting, 3d, deformed, cripple, ugly, additional arms, additional legs, group of people, black and white photos
@@guziyk само собой это я делал в первую очередь, что только не писал вроде "full body" и т.д.-она выдает все время те же ракурсы, с которых тренировалась, просто чуть видоизмененные, какое бы соотношение сторон не ставил-все время только голова (иногда еще и обрезанная), максимум что меняет-воротник у одежды. В Negative Promt тоже все прописано, что без обрезки, без двух голов и т.п. Но стоит сделать картинку прямоугольной-нейронка пытается сразу же заполнить пространство второй головой этого же персонажа, а то и третьей...
И еще, как оказалось, если тренить на версии 1.5, то обновившись на 2.1 он эту модель почему-то не воспринимает, выбрав снова 1.5 -тут же подхватывает, а более новой-игнорирует ее и рисует просто абстрактные лица.
@@PhantoMNN странно... у меня ведь работает с такими запросами. На ум приходит мысль, что это может быть связано с обновленной версией, либо дело с обученными фотографиями (если на всех фото близкий ракурс). Я заметил такую особенность, что нейронка запоминает положение ракурса фото и потом его повторяет при генерации. Насчет прямоугольных картинок - это распространенная ситуация, когда добавляется второе лицо, думаю, здесь нужно спрашивать у сообщества SD, может быть уже нашли решение для этого вопроса
Хачатур, подскажите пожалуйста, насколько я понял СД он ведь опен сорс, верно?, т.е. програмисты имеют доступ к коду и могут доработать? Вот мне, да и думаю многим, не хватает чекбокса с привязкой ширины к длине, как например у Адоба. т.е. линкуешь их и при перетаскивании ползунков пропорции сохраняются. В идеале еще добавить поле с выбором Aspect Ratio 16x9, 9x16, 4x3, 1:1 и т.д. Я не разбираюсь, просто интересно это сложно осуществить?
Всё верно, Open Source. Сегодня выйдет видео про Embedding. Совсем скоро. А после него, будет про то, как сделать себе 16 x 9 и прочие.
подскажи а винду 11 можно юзать для программирования на си шарп? железо хорошее
Можно, но не надёжно.
Хачатур привет! Не собираешься ли ты случайно делать видос по openAI chat? Наверняка уже игрался с ним:)
;)
Кстати, про Train - а можно его натренировать делать интерьеры ? К примеру кухонные интерьеры ? Пробовал делать интерьеры, она делает что то общее, а вот чтобы прям детализированно ?
Для этого нужно искать отдельную модель. Специфичные вещи обычно можно найти только на huggingface.co
Привет! Огромнейшая благодарность за то что ты делаешь!!! Очень интересная и нужная информация. Инфоцыгане уже курсы продают по этой теме))
ХрисТ, даёшь Трейн!))
Хотим видос по Train!!!!!!!!))
Добрый день. Подскажите почему у меня в x/y/z plot нет в выпадающем окне hypernetwork
во вкладке Train, отсутствует вкладка "Preprocess images" Можно узнать, почему?
Спасибо! Очень познавательные видео.
P.S. Когда уроки будут по английскому для программистов? )
Привет, Антон 🖐
Делюсь инструкцией от Хачатура, как быстро выучить английский:
3 пост JailbreakVideo - Лучшее simp.ly/p/F6ZhFN
Попробуйте сэмплер DDIM тоже достойные результаты получаются при большем количестве шагов.
Осталось найти вертикальную черточку на клавиатуре.
Спасибо, не охваченной осталась только тема dreamboot на лицах и стилях, но тут смотря потянет ли железо. У меня на 12Гб, обучение потянул комп только с расширение дисков подкачки. ps надеюсь C# сторожилы канала не начнут собирать петицию на changeOrg о возврате направленности канала =)
Так можно ведь натренировать нейронку на лицах через Google Colab, а дальше выгрузить ckpt файл для Stable Diffusion)
@@guziyk ты конечно же прав, но! 1)место на гугл диск 2)ограниченное кол. подходов на бесплатную версию 3) ГУГЛ ВСЕ ОБО МНЕ БУДЕТ ЗНАТЬ!, сек, шапочку поправил 4) может не повезти с арендной видюхой 5) если хочешь экспериментов, звони ;-), т.е. если надо проверить лучше более точное обучение с меньшими шагами, или на оборот, или с дообучить и у тебя за одну попытку 12 версий по 5гб. На домашнем это легко и обучает по 10-15 мин под ключ. 6) я старорежимный и люблю возможность автономности =) 7) нужно попробовать разные возможности даюмые, давамые, даваемые, предоставляемые !
@@MrCoffeemill ахах, про шапочку - оценил)) Не вопрос, если тебе нужна автономность в работе, то на ютубе есть уже русскоязычное видео про обучение на Automatic1111 через расширение Dreambooth, только у меня что-то не получилось (возможно железо не потянуло). Насчет места на гугл диске - понимаю тебя, я для этих целей очищал диск от хлама, чтобы 5 Гб всегда было свободным, а как только дообучал нейронку, скачивал модель ckpt, удалял ее с гугл диска и мучал сервера гугла по новой)
Мне кажется, гугл о тебе знает больше тебя самого, если только ты не отшельник :D Кстати, насчет аренды видюхи - мне все время попадалась Tesla T4. А вообще, согласен, хорошо знать и такой метод обучения! Успехов)
Не знаю почему, но когда я прогнал через семплер, у меня лучше всего нарисовал DPM++ 2M Karras, возможно это связано с тем, что я чаще им пользуюсь.
А она можешь UI интерфейс генерировать, просто придумывать дизайн программы или сайта это тот ещё геморрой, мб можно чтобы нейронная сеть чё нибудь погенерила? Если она на подобное способна было бы неплохо видео на эту тему посмотреть.
Знаете, ради интереса я пробовал пару раз генерировать дизайн сайтов обычными запросами "prompt", но результаты были ужасные - получались шаблонные недодизайны. Мне кажется, здесь дело в особенностях веб-дизайна - нейросеть Stable Diffusion пока не способна понимать логику строения сайтов, так как она заточена под задачи "скрещивания" фоток из разных комбинаций фотографий. А вот с более простыми задачами, к примеру - создание логотипа, она уже справляется
Большое спасибо за все ваши инструкции. Появился плагин нейросети Стейбл Диффужн для Фотошопа (название видео на Ютубе Stable diffusion AI Photoshop Plugin Free and Open Source)
Если вам удобно будет по обстоятельствам, то сделайте, пожалуйста, удобную инструкцию установки и применения этого плагина на русском языке в связке с вашей версией WEBUI нейросети, чтобы не заморачиваться с пунктами установки и прописывания строк кода батника Аутоматика.
У меня нет таких вкладок как у автора. В моей версии 2.4.23 вкладки: Generate, Settings, Help & Community, What's new? Здесь есть: txt2img, img2img, Extras и т.д. Как включить такие же влкадки?
У Вас какая версия Stable Diffusion? Откуда брали?
@@XpucT у меня версия UI 2.4.23
@@allthebest4me так Я же снял после cmdr2 новое видео, где сказал всем переходить на нормальную от AUTOMATIC1111.
Ибо только его никто не может догнать по обновлениям.
Что делать если нейронка установилась но не запускается из за нехватки памяти видеокарты? Там в ошибке пишется что что то нужно установить. Но ничего не нашел.
Привет, помогите пожалуйста.
Пробую сделать как на 14:18 диапазон от 1 до 8 с шагом 0.25 в консоли выдает ошибку
ValueError: could not convert string to float: '1-8 (0.25)'
Думал может не работает из-за не целого шага, проверял 1-8 (2), такая же проблема
ValueError: could not convert string to float: '1-8 (2)'
Попробуйте заменить точки на запятые.
@@XpucT Если заменить "1-8 (0.25)" на "1-8 (0,25)" то программа интерпретирует как "1-8 (0" и выводит такую же ошибку.
ValueError: could not convert string to float: '1-8 (0'
Других значений в поле у меня нету
Полез в файлы чтобы разобраться как оно работает, оказалось что нужно ещё добавлять символ + Т.е. в моем случае правильно будет "1-8 (+0.25)"
я знаю что все любят сборки, но подскажите как можно отключить предустановленные настройки?
всё таки когда настройки запоминаются с прошлой сессии кажется более удобным, заранее благодарю 😅
Просто удалите файлы ui-config.json и config.json
@@XpucT спасибо большое 😊
кстати много очень видео смотрел кто кого то учит, и вы тот самый редкий учитель который быстро и понятно объясняет! Вас можно слушать вечно :)
у меня ни как не запускается. сделал все как надо. (в командной строке пишется "нажмите любую кнопку для продолжения" и все и ничего не происходит. Кто поможет?
Вопрос сугубо по теме X/Y Plot. Формула построения таблицы по CFG Scalе работает только с целыми числами. Например: 6,7,8,9. Или 6-9 (1). Но не работает с числами содержащими десятые и сотые!!! Мне очень важно, иногда прослеживается связь изменения положения пальчика с шагом CFG Scalе с шагом 0,1. Например, на формулу 5-6 (0,1) в консоли выдает ошибку, что не понимает значение 0,1. Пробовал запятую заменять точкой, ошибка. Пробовал в формуле расставлять пробелы и заменять запятые на точки, не работает. Формула 5, 5,1, 5,2, 5,3 - приводит к генерации изображения со CFG Scalе соответственно в очередности для CFG Scalе 5, снова 5, 1, снова 5, 2, опять 5 и 3 ))). Каким образом запустить таблицу X/Y Plot, чтобы учитывались шаги с точностью до сотых? Спасибо за Ваш просветительский труд. Обязательно подпишусь на буст, когда подтянусь по уровню.
Пропишите в CFG Scalе 5-6 (+0.1)
Как модели скаченные подгружать? Я не могу понять считывает только стандартную
Справа от моделей кнопка обновления списка моделей.
💯✌