Stable Diffusion - Train
Vložit
- čas přidán 23. 12. 2022
- Угадайка:
win10tweaker.ru/forum/topic/s...
Telegram: t.me/win10tweaker
Boosty (эксклюзив) ➜ boosty.to/xpuct
Где брать модели:
🔥 Deliberate: deliberate.pro
🔥 Reliberate: huggingface.co/XpucT/Relibera...
🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
Stable Diffusion плейлист: • Stable Diffusion
#StableDiffusion #Train #Art - Věda a technologie
На данный момент это видео является хорошей базой для понимания, однако, на данный момент мы полностью перешли на LoRA: czcams.com/video/A15M4cbUM5k/video.html
спасибо!
Благодарю за видео! Hypernetwork не могу найти кнопку, уже вроде все обновил и конфиги твои с бусти поставил, все равно там под кнопкой Generate у меня 5 иконок и одна кнопка (styles)
@@MAX.VERAGO под кнопкой generate средняя иконка show extra networks и слева при нажатии появится несколько вкладок. Вторая и есть hypernetworks.
Выдаёт ошибку при Preprocess, какие есть варианты решения ?
SD через Googl Colab (AUTOMATIC1111),
Путь к папке указываю на ноуте ( на Google Disk тоже указывал и тоже ошибка)
Ошибка выглядит вот так :
FileNotFoundError: [Errno 2] No such file or directory: '/content/gdrive/MyDrive/sd/stable-diffusion-webui/E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1'
а в полном виде вот так:
Error completing request
Arguments: ('task(b3e667en3wvtjil)', 'E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1', 'E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1\\trumpet1png', 1200, 512, 'ignore', False, False, False, False, 0.5, 0.2, False, 0.9, 0.15, 0.5, False, False, 384, 768, 4096, 409600, 'Maximize area', 0.1) {}
Traceback (most recent call last):
File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/call_queue.py", line 56, in f
res = list(func(*args, **kwargs))
File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/call_queue.py", line 37, in f
res = func(*args, **kwargs)
File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/textual_inversion/ui.py", line 19, in preprocess
modules.textual_inversion.preprocess.preprocess(*args)
File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/textual_inversion/preprocess.py", line 22, in preprocess
preprocess_work(process_src, process_dst, process_width, process_height, preprocess_txt_action, process_flip, process_split, process_caption, process_caption_deepbooru, split_threshold, overlap_ratio, process_focal_crop, process_focal_crop_face_weight, process_focal_crop_entropy_weight, process_focal_crop_edges_weight, process_focal_crop_debug, process_multicrop, process_multicrop_mindim, process_multicrop_maxdim, process_multicrop_minarea, process_multicrop_maxarea, process_multicrop_objective, process_multicrop_threshold)
File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/textual_inversion/preprocess.py", line 146, in preprocess_work
files = listfiles(src)
File "/content/gdrive/MyDrive/sd/stable-diffusion-webui/modules/textual_inversion/preprocess.py", line 34, in listfiles
return os.listdir(dirname)
FileNotFoundError: [Errno 2] No such file or directory: '/content/gdrive/MyDrive/sd/stable-diffusion-webui/E:\\STABLE DIFFUSION\\TRAIN\\Trumpet1'
Сломал stable diffusion, переустановил, час по новой надо галочки расставлять и все такое, сделал памятку)
5:48 модель
5:52 отключить HN
6:27 saves optimizer
21:09 все галочки Modules
22:46 название
23:04 overwrite на всякий случай
23:14 Create HN
23:26 Preprocess галочки не нужны для человека
31:06 Train Hypernetwork Learning rate 2e-5:800, 8e-6:1600, 5e-6
32:12 редактирование py.ui
37:02 max steps 3200-10000, количество фото 12-38
41:11 read parameters поставить галку
43:15 выбрать свой HN
43:35 папка с фото для обучения PNG
43:42 содержание файла custom
46:27 нажимаем Train
custom.txt
a photo of a [filewords]
a cropped photo of the [filewords]
the photo of a [filewords]
a photo of my [filewords]
a close-up photo of a [filewords]
a close up photo of a [filewords]
a bright photo of the [filewords]
a cropped photo of a [filewords]
a photo of the [filewords]
a good photo of the [filewords]
a photo of one [filewords]
a close-up photo of the [filewords]
a good photo of a [filewords]
legendary
святой
у меня тоже SD сломалась после тренирвки( Ты не понял из-за чего? И как ее переустановить? Просто снести всю папку и установить снова?
@@MrZuzlik я обычно так делаю, да. Удаляю папку и по новой) А ломается когда как профессионал начинаешь в настройках копаться, вписывать всякие аргументы в батник и т.д.)
23:34 указываем папки
2e-5:800,8e-6:1600,5e-6
Вот это да. Если ты продолжишь пилить такой годный контент по нейросетям, ты будешь самым крутым ютубером по теме, как минимум в РУ-сегменте. Мое почтение! Как же ты хорошо разобрался во всех деталях, во всех галочках. Круто что ты разбираешься сам во всем, а не тупо пересказываешь чужие туториалы. Короче ты крутой чувак.
Запретят в снг. Власти сказали что дипфейки и такие картинки противоречат партии
@@Ruinskiy лучше такую власть запретить.
@@Ruinskiy эм.. если я не ошибаюсь то нельзя такое делать без разрешения посторонних людей... Себя для личного пользования и друзей для их личного пользования вполне норм. Да и пока ты не меняешь лица на порноактерах думаю всем пофигу на эти дипфейки.
да, очень круто, а теперь по этому гайду, расскажи, что такое batch size, gradient accumulation steps, latent sampling methods =) Не получится, потому, что он половину всего упустил, много воды и сумбура, мало структуры, можно было бы сделать лаконично, по сценарию, с разбором важных вещей и без воды и без метаний то туда, то сюда. Мне, например, много вещей не понятно, от просмотра часового лайв монолога понятнее не стало. Прошу не расценивать меня как хейтера, просто отзыв человека, который на начальном этапе в разборе темы обучения нейронок, но немного понимает как работает обучение реальное. Исходить нужно всегда из задачи. прим. хочу обучить нейросеть на выдачу результатов в моем стиле. прим. Хочу ввести: Дуэйн джонсон на пляже играет в теннис в стиле 'мой_стиль'. Для этого нужно обучить нейросеть. Для начала нужно ознакомить с базовыми понятиями и терминами, объяснить что такое обучение гиперсети, как оно работает и т.д. (в кратце) дальше показать пример, есть вот обученная гиперсеть, заходим в текст2имг, пишем: Дуэйн джонсон на пляже играет в теннис в стиле 'мой_стиль' или Джеймс Кэмерон на марсе ездит на велосипеде в стиле 'мой_стиль'. Теперь приступим к обучению, хаходим во вкладку трэйн... далее все четко и по пунктам. Это так в моем представлении называется хороший гайд. А куча сумбура, пусть и с полезной информацией - это "крутой чувак", "вау", "ну ты шаришь", но никак не отличный гайд. Еще раз прошу прощения если слишком резко. Это я к тому, что не всегда восторженные возгласы толпы - показатель качественного обучения. Мб чувак не шарит в аннгглийском, пытался смотреть англ гайды нифига не понимая, а тут наткнулся на первое видео на русском и у него от этого факта восторг и хорошие отзывы, хотя он даже еще SD не установил.
Вроде бы видео сделаны просто и без монтажа, но при этом приятные и полезные. Спасибо!
Без монтажа снимают только профи которые знают тему от и до)) им подписота просто до задницы, их распирает, от инфы))
Хачатур, спасибо, что делитесь с нами результатами своих исследований!
Очень информативно, очень ёмко, максимально разжевано.
Честно говоря кайфую от подачи материала - приятный, хорошо поставленный голос, расслабляющий музон на фоне, капелька юмора, можно слушать часами :)
Многих спикеров приходилось слушать и хороших в том числе, но автор твердо обосновался на верхней строчке моего топа :)
❤❤❤
Мужик, ты просто ГЕНИЙ! Спасибо большое за твою работу! Колокольчик подписка однозначно) Ждем следующих видосов!
Вчера только посмотрел выпуск про скрипты и уж не надеялся, что так скоро выйдет видео по train и вот тебе Серёжа... Спасибо Хачатур!
Потрясающие видео, очень понятно и очень помогает освоить эту тему. Спасибо!
Спасибо за подробное видео. С радостью слежу за новыми выпусками)
Так это повод зайти в магазин, взять чаёк и печеньки. Вечер не пройдёт напрасно.
Спасибо за проделанную работу! 👍
Огромное спасибо!!!! Пару дней мучался. Все никак получалось, чтобы нейронка так похоже начала рисовать. Благодаря золотой пропорции в настройках , которые вы указали , все отлично получилось!
Ставлю лайк не глядя) Все просили и все получили) Спасибо!🙏
Хорош! Спасибо что делаешь мир лучше!
Большое спасибо за информацию, обязательно буду пробовать. Буду ждать следующие видео.
Крутой фотоальбом у тебя. Видео топ, про аи рассказываешь идеально!
Обалденное видео! Благодарю!!!! Так и знал, что опять всю ночь спать не буду :))
Спасибо за вашу работу!
Спасибо 👏 наверное за полгода первый ролик, который смотрел на Ютубе на нормальной скорости х1)) годнота👍 интересно как далеко шагнут нейросети лет через 5-10, может новые профессии появятся, промптеры по нейросетям, например))
Я тут в Германии уже серьёзно видел объявление "Ищем Промптера для GPT-3". :)
@@vadimkrs вот вот👍
Ждемс следующего видео!
Кот так прыгнул, я думал сейчас Хачатура опрокинет вместе со стулом😂
Супер, спасибо большое❤️
Христ, спасибо за шикарнейшие видосы! Вопрос: в видосе использовали модель f222_v1, вчера качнул и использую deliberate_v2, можно ли обучать на deliberate_v2. Это первый вопрос. Еще один: можно ли отдельно обучить руки (фоткаем руки) и лица (соответственно лицо крупным планом). Ну и финальный: проходят ли встречи в мск, с удовольствием бы встретился и посидел)
Эпичный прыжок кота :) Смотрю дальше, лайк уже поставил!
Боже, чувак спасибо. Ты и есть боженька, так что дважды спасибо
Вы в видео несколько раз упомянули (например на 19:55 ), что файлы с описанием не нужны если обучаете предмет, но нужны когда обучаете людей, но потом так и не используете их, говоря, что достаточно "a man" прописать и не указывать, чтобы итог был гибким и мог делать любую одежду и внешность. В итоге они нужны или совсем нет? :-) И какой разброс допуска внешности фотографий? Лицо анфас и чуть вбок это точно, очков или каких-то посторонних предметов быть не должно, свет и цвет должны быть нормальными и примерно одинаковыми везде (чтобы не было какой-нибудь фотки из клуба с красным неоном на лице), нужно как клоузап лицо так и несколько (1,2, сколько?) фотографий ниже груди, нужен разнообразный фон (или лучше везде сделать белый как на паспорт?). Дальше уже вопросы, нужно ли обязательно разную одежду? И можно ли? Должна ли быть одна и та же прическа или стрижка? Должен ли быть открыт или закрыт рот? Нужны ли фото в полный рост? Всё это поломает трейн или наборот разнообразит его? Было бы здорово точно так же как Вы всегда делаете математически рассчитать и сказать что именно должно входить в идеальный батч для обучения, допустим, из 20 фото: 10 анфас как на паспорт с одинаковой прической как база, 3 фото анфас по грудь для гибкости, 3 фото с чуть повернутой головой, 2 фото с другой прической, 2 фото с улыбкой с зубами, 1 фото пьяного и спящего уткнувшись в подушку. :-D Чтобы чётко понимать какая должна быть идеальная подборка, чтобы получилось качественно, не считая мелких дефектов о которых Вы упоминали наподобие родинки-второго кадыка и вмятинах на черепе. :-) Я просто тоже люблю не наобум делать, тем более что у меня карта слабая (1060 6гигов) и у меня цена ошибки при трейне это целая ночь потраченная впустую, а мб и ночь + половина дня. Как обычно, это не какое-то требование, а пожелание, чтобы раз и навсегда все (как минимум мои) вопросы по изображениям для трейна закрыть. Есть ещё вопрос трейна определённого предмета, например огнестрельного или холодного оружия, или инструмента по типу топора лесоруба. Там все такие же правила или нет? Здесь или на Бусти.
согласен с тобой, интересно было бы узнать ответы на эти вопросы. Как обучать нейросеть на другие предметы, например одежду, интерьер, экстерьер. Должен быть один и тот же человек под разными ракурсами сфотографированный в одной и той же одежде, либо можно использовать разных людей, но в одной и той же одежде?
Если сделаете видеоурок по тому, каким образом можно создавать концептуальные арты с одними и теми же персонажами в духе комиксов, это вообще взорвёт сеть, поскольку такого инструмента ждёт множество людей, которым хочется рассказывать свои истории, а учиться рисовать, осваивая новую профессию с нуля - уже практически нереально!
к сожалению, а может и к счастью) это пока не возможно.
во вкладке Train, отсутствует вкладка "Preprocess images" Можно узнать, почему?
Сначала подумал, что будет какой-то шляпный видос полный воды на целый час, но по факту очень хороший, подробный и полезный гайд, один из лучших наверное по stable diffusion и вдвойне приятнее, что он на родном языке :)
Автору точно респект
Жалко ПК слабый, но лучший сериал по Stable Diffusion продолжаю смотреть)
Блин так круто. Я обучал ( пытался обучать и получается ну мягко говоря не очень) а тут все по полкам разложили. Вы сударь ВСЕОТЕЦ !!!! Респект. Было бы круто посмотреть как можно сделать видео ( нарывался на ютубе что делают типа клипы даже)
Большое спасибо. Очень хотелось бы все же услышать как тренировать LORA. А еще о разнице между hypernetwork, VAE и обученными моделями формата ckpt.
В одном видео человек говорил что лору лучше не тренировать. оно того не стоит, но решать конечно же вам)
Благодарю за инфу по параметрам обучения! Особенно за 12 портретов! Мои опыты показали, что этого достаточно для создания персонажа. Можно продолжать обучение удачными образцами из её же выдачи. Могу только добавить, что пара фоток не совсем анфас(15-45 градусов поворота головы) в этих портретах будет очень полезна.
А можно ли при обучении добавлять в теги картинки конструкции типа "it is wooden" или "it is plastic"? И ещё - какие есть инструменты для массового добавления тегов? Мне ещё надо бы массовое извлечение в один файл, чтобы понимать в целом, какие конструкции она сама предпочитает использовать для пометок.
Угарные теги она она иногда выдаёт, надо сказать.
И euler - это Эйлер🙂
Огромное вам спасибо! Единственный канал с годным контентом по этой нейросетке! В дополнение к уже отснятым роликам, я безумно хотел бы чтоб вы сняли тутор по созданию анимации, по типу "нейросеть показала историю мира" где поочередно сменяются картинки плавно перетекая из одной в другую, начиная от динозавров заканчивая цивилизациями будущего.. Как делать подобные шедевры? Лично я всегда поражаюсь, когда вижу такие ролики, думаю куча народу как и я ждут подобный тутор от Вас!
Взял на заметку 👍
@@XpucT Подскажите пожалуйста, а возможен ли рендер на нескольких видеокартах одновременно? Например на майнинг ферме
@@user-hp5qh9gy2i не проверял ┐('~`;)┌
Спасибо за очередной видос по нейросетям, не смотря на то что все кажется разжованным, пока смог только генерить нечто похожее на себя, а как сделать из себя вот этого злодея как на заставке так и не понял, как только добавляю что то в запрос уже становлюсь не похож на себя )) И все еще хотелось бы подобное видео по арту, например игровые мечи, автоматы или танки.... что бы можно было сгенерировать нечто новое... Но в любом случае спасибо за труд, тут один раз тренировал сеть 2 часа и то устал ))
boosty.to/xpuct/posts/203b79e7-a98d-4b1f-a6d2-c80b52d904a7
Большое вам спасибо!!!
Привет, 👋
Как раз перед сном гляну =), будет круто, спасибо.
Ляяяя - мне нужно следующее видео!
Подскажите, пожалуйста, почему после Train не появляется Hipernetwork в меню: Script\ X/Y/Z plot ? Использую Google Colab. Может надо руками перенести созданные файлы?
Привет, потыкал дримбуф с твоей моделью работает хорошо, довели до ума наконец. Только одна проблемка. Нет туториалов нигде, каждый тыкает вслепую. Хачатур спасай интернет, ты нам нужен
Спасибо за контент. Делал подборку что посмотреть для начала внучке, что бы самому всё не обяснять)) По поводу Указания возраста. Хотя вариант не абсолютное решение, но с указанием возраста я тоже намучался)) Моё решение, использовать при указании только подсказку пола и возроста. Вместо woman или girl, двадцатилетняя она))) - (she_20yo) или ((cute_she_20yo)) и т.д. Как правило получается наиболее близко к желаймому. Правда иногда приходится усиливать скобками, поскольку давит остальная подсказка, как правило подтягивая к некому среднему возрасту. Чем сложнее подсказка или отрицательная подсказка, тем сильнее нужно напрпвить внимание сети на возраст модели скобками.
Да чтож такое, я лпять иду домой. А тут такая радость.
Сергей! Реально все круто!!!) НО! Блин! Понимаю, что трудно обо всем рассказать. Очень важно осмыслить результат того, что в итоге получается, а вы так быстро перепрыгиваете с одного на другое, что не успеваешь понять и осознать что из этого вышло). Хотя заметил все программисты такие)))
Хачатур привет
на 11-й минуте, где ты показываешь свои фотки, там тебя не узнать прям.
Как всегда ролик крутой, респект.
Низкий поклон тебе Боярин !
Всегда поражаюсь, насколько все умные чуваки не умеют объяснять и учить других. Просто показать как проставить галочки и запустить тренировку никак, надо миллион раз отвлекаться и перескакивать с темы на тему, вываливать кучу информации и прыгать от одного к другому. У меня не создаётся папка "аванес" (назовем ее так), вскакивает сообщение "Created: None" и я час гоняю видео, чтобы понять что сделала не так и так и не могу поймать ход мысли автора, который объясняет мне все на свете сейчас и из всей этой информации я никак не могу выкопать зерно истины))))
Не даром говорят: "Кратность - сестра таланта!"
Та же самая проблема, решили как убрать эту ошибку?
@@trappgwalla300тяжело не в тех случаях, когда автор все подробно объясняет, а в тех случаях, когда слушатель глупый, или не хочет подумать. Хачатур в комментариях написал для тех кто в танке что Created:none это норма. Да и тем более, неужели вам всем так лень посмотреть просто в папку, где должен лежать этот файл? Вы возможно удивитесь, но даже при этой надписи, он все равно создаётся, и трейн все равно будет идти. Просто делайте по инструкции от Хачатура, тыкайте то, что он тыкает, и не надо ни шага влево, ни шага вправо от того, что он делает, раз вы такие глупые. Эксперименты не для вас явно....
Согласен! Так - то, мужику в любом случае спасибо... Но из большинства роликов можно, как минимум, половину "воды" удалить, и они от этого только выиграют. Меня никогда не пугал размер материала, если всё по делу. Но тут оооочень часто просто ждёшь, когда же автор перейдёт к сути.
P. S. Но опять же, я без претензий. Как говорится... Дареному коню в зубы не смотрят. Просто мнение)
Проверено опытом: Если человек не умеет объяснить, значит он сам не до конца понимает тему. И подсознательно использует словоблудие, чтобы замылить пробелы собственного непонимания для себя и для слушателя.
Спасибо за полноценный гайд, очень помог, результаты кстати на самом деле выглядят лучше по сравнению с dreambooth
интересно очень!
Хотелось бы посмотреть ещё про твои настройки внутри всех вот этих файлов программы и про стили
круто , спасибо ,понравилось
У меня получилось, правда со второго раза :) пересматривала видео два раза, вникала и пошагово выполняла. Просто хотела поделиться и оставить комментарий в поддержку канала.
Applying xformers cross attention optimization после окончания обучения уже больше 5 часов, интерфейс не запускается. Тренировал через гугл colab. Когда оптимизирует и стоит ли вообще ждать? Вообще когда тренированая модель считается законченной и можно отрубать скрипт, перезапускать и начинать пользоваться натренированной моделью?
Лучший!
Благодарю!
Это надо же было так все запутать, кто захочет повторить хрен разберется :) Написал в prompt template - [filewords], а тренировал в папке без описаний, только с картинками
Респект за крутейший гайд!
Вопрос:
- Если я в очках, и хочу что бы я генерировался хорошо именно в моих очках... Датасет лучше готовить с фото где я исключительно в очках, или можно миксовать? или ваще лучше без очков?
Я пробую по разному, но это мои первые модельки, и пока всё хреново получается )))))
Так и не нашел где проверить или выключить Hypernetwork... Под кнопкой Generate нажал Shov extra а там во вкладке Hypernetworks: "Nothing here. Add some content to the following directories:
C:\stable-diffusion-portable-main\models\hypernetworks"
Вроде все скачал как было в видео. Куда дальше двигаться, как бороться? Спасибо за ответ :)
Было бы круто увидеть гайд на обучение для моделей на основе sd 2.1 х768)
Спасибо за труды!!! Я даже Win 10 Tweaker купил. )))
☝ Красавчик
Здравствуйте. А на train можно тренировать только людей, или подойдут фоны без персонажей в простом мультяшном стиле тоже? Как я понял, create hypernetwork - как раз для меня подходит, то есть Train во вкладке train не нужен?
Спасибо огромное
Большое спасибо за уроки! У меня вопрос, как мне при последующей генерации сохранить телосложение человека? Если на всех фото для тренировки есть только лицо но нет фигура, как нейросеть сможет ее определить? Стоит ли грузить в папку для тренировки фотографии в полный рост?
Гений нашего времени!
Как всегда потрясающе. Посмотрел три видео на одном дыхании. Жаль только нет времени пробовать. Даже послушал некоторые комментарии. В частности очень полезный от Denis Evdokimov . Правда жалею что не делал скриншоты. Что теперь делать пересматривать заново, но уже на первой скорости И походу ставить все галочки? Нет какой-то возможности повторить всё одним махом? Может какой-то экспорт настроек от метро - Хачатура, или кого-нибудь другого. Чтобы нигде не ошибиться и по 100 раз не переделывать, а просто вставить свои фотографии и нажать старт.
большое спасибо за вашу работу, комментарий в поддержку автора
Спасибо 🙏
Спасибо за видео! А как сохранить свои настройки train ? Каждый раз приходится ручками расставлять (при перезагрузке ui или перезапуске sd), сорри за глупый вопрос.
Здравствуйте, уважаемый Аванесян! Хотел выразить Вам огромную благодарность за Вашу инструкцию с подробной настройкой и акцентированием на всех важных мелочах! Мне по работе нужно было научиться обучать Stable Diffusion, я потратил более 8 часов на различные туториалы, как зарубежные так и на русском языке. Столько сил и нервов было убито в попытках заставить работать Dreambooth, её настройке и попытках разобраться во всём, столько переустановок SD и всё бестолку. У меня то выскакивала ошибка о недостаточной видеопамяти, то генерация начиналась, но была настолько медленной, что смысла не имела от слова совсем. Особенно если учесть, что последняя версия Dreambooth переработала интерфейс и доступыне параметры настроек, гайдов по которым ещё ни у кого нет. Да и не имеет смысла, так как на гитхабе жалуются что программа больше не работает на картах от 8 гб, даже с костылями по оптимизации (я пробовал всё). Я уже отчаялся и думал забить на всё, но тут случайно наткнулся на ваше видео... Вы дали ясность во многих моментах, которые я до этого не понимал, что оказывается всё намного проще чем я думал. Я сделал всё по вашей инструкции и о чудо, всё заработало! Генерация на 3200 шагов прошла за 30 минут, после чего никаких ошибок программа не выдала. Так как изображения я подготовил правильные и отредактировал по вашей рекомендации (убрал фон, отобрал правильные положения лица), итоговый результат потрясает! Это именно то, чего я хотел! По этому я хотел бы отблагодарить Вас донатом на Boosty. Спасибо ещё раз!
Спасибо большое! Это очень приятно ♥
Привет! У тебя судя по всему видеокарта 8 Гб?
@@umanskir.2 Именно так, 3060 ti
@@aearone спасибо за ответ. Думаю, с моей 1060 6 Gb, всё-таки лучше работать с колабом.)
так он же говорил не надо убирать фон. Или убирать? Или размыть? Я чето запутался уже
Здравствуйте. Спасибо за Ваши замечательные и полезные видео!
Подскажите пожалуйста где лежит получившаяся модель и как её использовать для генерации изображений?
23:06 Я заметил, что галка перезаписывает только .pt файл с самой гиперсетью, а прилагаемый к ней optim-файл (если он создан во время обучения) не перезаписывает. Если его не удалить вручную, то обучение новой гиперсети начнётся с шага, записанного в optim-файле.
А если я использую sd через google colab, в нем можно так же обучать свою модель? Если да, то как загрузить фотки? Через данный способ не получается 😒
как всегда круто
Хачатур, спасибо за видео. Супер информативно! Но есть вопрос. Не совсем понятно, как после тренировки генерить картинки с лицом натренированной модели. Может расскажешь нам, своим ученикам. Было бы круто!
Привет! Большое спасибо за видео. Есть такой вопрос. Видео было записано еще до релиза модели Deliberate, и hypernetwork тренирует на модели f222. Имеет ли смысл при создании hypernetwork сейчас использовать уже Deliberate?
Привет 🖐
На данный момент людей и персонажей лучше делать в LORA.
Посмотрите видео: czcams.com/play/PL05SB3rBbUsprkMgH3yDV12MuuIbO5KEq.html
Оно так и называется LoRA. На превью традиционно Я в роли Джокера.
@@XpucT спасибо!
Приветствую. Пользуюсь portable версией с Вашего канала. Два дня назад отлично получилось натренировать модель через hypernetwork по видео. Однако вчера хотел попробовать потренировать на другом человеке, но обнаружил, что из вкладки "Settings" пропали настройки hypernetwork и возможность его выбора. Также в script-> X/Y plot исчез пункт hypernetwork. С чем это может быть связано?
Перенесли, одна из мелких кнопок рядом с generate
Здравствуй!
Я понимаю, что моя просьба не имеет отношения к теме видео - но всё-же хотел попросить кое-о чём:
Я думаю было бы полезно снять видео про флаги у Enum'ов (аттрибут [Flags]), которое было бы в плейлисте с уроками по C#, так как я заметил что некоторые люди создают куча полей типа bool, когда можно элегентно обойтись одной переменной с этими самыми флагами!
Еще вопросик, если можно? Google Colab часто вылетает и прерывает тренировку молели, приходится все перезапускать. Можно ли дотренировать модель, например, с 4500 шагов, которые он успел сделать, до заявленных 10000 и закончить тренировку?
AssertionError: Training models with lowvram is not possible
можете посоветовать, пожалуйста? Что делать
Хачатур, привет.
Тестил OpenAi? Что думаешь по поводу него? Настолько ли прекрасен рай, как его рисуют? :)
Привет 🖐
Если Ты про ChatGPT, то на Boosty выкладывал. Посмотри. Ссылка под видео 👍
Я, пожалуй, побил рекорд по пересматриванию этого видео. По личным ощущениям. У меня один раз получилось сделать классный гипернетворк. Работающий на 1-ом из пяти картинок. Но с 7-ой наверное попытки.
Не могли бы вы рассказать про морфинг между между своими моделями в качестве видео. например из Светы в рыбу), через трансформацию форм. Если это возможно. Есть дополнение Deforum, но там очень тяжело контролировать данные и можно ли делать переходы между моделями. Спасибо!
повторно смотрю и хочу еще раз поблагодарить за видео) сначала делала на своем компе - не вывез😵💫 в гугл коллабе все получилось.
Скажите, пожалуйста, а у вас не было проблем с появлением hipernetwork в меню Scripts\ X/Y/Z plot после обучения? В папке на гугл диске результат убучения есть, но как подключить к обработке - не пойму!
Какая актуальная модель для обучения на данный момент? Deliberate 2.0 подходит?
Привет, хотел задать вопрос, как отредактировать твой Negative prompt по умолчанию? Просто мне нужны другие параметры, а постоянно менять при запуске не хочется
В папке файл stable-diffusion\ui-config.json> строка "txt2img/Negative prompt/value"
@@mikhail5402 благодарю
Доброго дня, Хачатур. Такой вопрос. Когда создаю hypernetwork и потом его выбираю в трейне, у него не отображается контрольная сумма.
Привет! Я опытным путем выяснил, что тренировать имеет смысл разными пачками кейвордов последовательно, чтобы отсеять и по форме, и по содержанию шум качественно
Блин, ссылку на артстейшн походу обрезало... Посмотри пожалуйста в комментариях на проверке =) Просто чтобы понимал, о чем я говорю. В общем =) Пишу еще раз, но без ссылки... Во-первых, большая благодарность за то, что записал такое подробное видео, а во-вторых - вопрос =) Если у меня есть 3D-модель, моя работа в полный рост, потом closeup и прочие. Как правильно тренить? Сразу кидать все ракурсы или отдельно - лицо, отдельно - туловище и отдельно - closeup глаз там, носа и так далее? Подскажи пожалуйста. Я сейчас кинул на 10 000 шагов и все ракурсы. посмотрю, что получается.. но мало ли =) на всякий спросил =) Хорошего дня и настроения!
После нажатия "create hypernetwork" там где у вас выскакивает created и путь у меня "none" в чем причина?
Хачатур, Добрый вечер!
подскажи можно как то stable diffusion удаленно на телефон запускать, но без стороннего сервиса их? на локальный адрес что бы можно было заходить не только с основного пк на котором запущена
Добрый 🖐
Пока не пробовал. Но запишу себе в заметки.
Дядюшка Хачатур понимаю что вопрос не в том место но все же стоит ждать обновлений в Win 10 Tweaker? будет что то новое в функционале?
Само собой. Постоянно обновляю.
Просто пока видео не снимал по нему. А так, загляни в историю версий ➜ win10tweaker.ru/changelog 👍
Возможно, вопрос к последующим видео. Как научить нейронку рисовать двух разных персонажей в одном изображении , не используя dreambooth ?
Круто! Запустил обучение. Находил гайд через дримбут, но получилось плохо. Поглядим, что будет в результате этого урока. Но судя по картинкам уже сейчас выходит намного круче )
Напиши о результатах 👍
@@XpucT результат офигенный! Я поражен насколько классно получается )
@@Igrom_Gamedev
Воооо, круто! Подписался
У меня что то ни так ставлю Read parameters (prompt, etc...) from txt2img tab when making previews он останавливается ровно на том СТЕП где нужно показать картинку ( Значение 100 - save an image to log directory every N steps, 0 to disable) на 99 он пишет что тренировка окончена.
Спасибо за прекрасный урок, я вот только не понял галочки Use BLIP for caption и Use deepbooru for caption обязательно ставить когда учишь на человеке?
Нет, не обязательно, но желательно на предпоследнюю (Blip for caption).
Однако, в созданных файлах txt нужно убрать всё лишнее из описания: татуировки, если будут, улыбки и прочее.
В идеале txt должен выглядеть так:
_a man with a beard and a black jacket is looking at the camera with a serious look on his face_
А на вкладке txt2img в prompt должно быть написано _a man_ и *не более* того.
@@XpucT Спасибо за ответ, как раз заоев в txt что он наопределял и слов там конечно, и азиатка и бородавки и кривые улыбки и еще черти че он там по наописывал)))) И еще момент видюха миним 8 гб для этого варианта тренинга нужна? Так как на 6 ть не запустилась.
@@user-mq8zo8ry8k на странице wiki от Aoutomatic1111 есть варианты выхода из положения для видеокарт с памятью ниже 8 ГБ.
Лучший вариант - это вписать аргумент в батник --medvram.
@@XpucT да вроде все сделал и xformers стоит и батник на медленную память прописан, Loru учил а этот вариант не проходит по памяти((( Народ отпишитесь кто смог на 6ти запустить и как?
Решил натренировать SD на своих фото и поискав в облаке за несколько лет, нашёл подходящих штук 10.
Было принято решение нащёлкать себя прямо здесь и сейчас. С футболками не заморачивался, поэтому сделал 30 фото топлес с разных ракурсов на однородном фоне...
Через пару часов на отчётных картинках (которые генерировала нейронка каждые 100 кадров) смотрел проно с собственным участием.. в перемешку со шкафами и табуретками. Не все, но штук 10 попалось.
И что интересно, в генерации txt2img выдавало неплохие результаты. Тот же джокер как на превью.
🤟
В последний версии hypernetwork вызывается через поле с Promtp-ами. А вы говорили о переобучении на основе старого фильтра hypernetwork, после обновления в ui так делать невозможно?
Уже нет.
Привет, немного не понял, они что с обновлением убрали из x/y plot пункт hypernetwork? И как теперь тестировать новую модель, которую я оттренил?)
Под кнопкой Generate средняя кнопка.
@@XpucT Спасибо!
Сижу как ребенок и жду полный разбор промтов диффузии.Вопросов на самом деле много по ней.
Как менять или генерить нужное освещение?Как заставить сгенерить только одного персонажа бегущего и смотрящего вправо(в профиль так сказать)Как поставить нужный объект по центру?
Я тут подсчитал примерно, если я поставил 3200 шагов то он у меня будет тренироваться примерно 17 часов. Можно ли ускорить процесс? Видеокарта у меня вроде не слабая GTX 1660 на 14 гб оперативной памяти 🤔