Stable Diffusion - LoRA
Vložit
- čas přidán 16. 03. 2023
- Portable LoRA ➜ github.com/serpotapov/Kohya_s...
► Boosty (эксклюзив) ➜ boosty.to/xpuct
► Telegram ➜ t.me/win10tweaker
► Discord ➜ / discord
🔥 Deliberate: deliberate.pro
🔥 Reliberate: huggingface.co/XpucT/Relibera...
🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
Плейлист Stable Diffusion: • Stable Diffusion
МОЯ ВЕРСИЯ Stable Diffusion: • Stable Diffusion Porta...
#StableDiffusion #LoRA #kohya_ss - Věda a technologie
*✓ НАИБОЛЕЕ АКТУАЛЬНАЯ ИНФОРМАЦИЯ ПО LORA СЕГОДНЯ В ЭТОМ ВИДЕО:*
boosty.to/lergeyseonov/posts/c29517db-ce64-4f3f-8144-8d70961e642e?share=post_link
спасибо, а всё же когда лучше использовать лору, эмбединг, гипернетворк или тренировку полноценной модели?
Ну, пора разводить девушек на 15-30 фото лица, а не эти ваши "нюдцы"
Thanks for taking the time, I'll eventually get through the whole thing, but at the moment, this has been a helpful perspective of what a LoRA is.
Абсолютное уважение за это видео. И за portable версию. Всё работает просто как часы, что для open source вообще и для экосистемы A1111 в особенности просто фантастика. Мало кто понимает, какой труд был проделан автором, чтобы все могли это поделать у себя дома.
Самое лучшее видео про обучение модели! Благодарю 🙏
Мега лайк! Спасибо большущее, за труды!
Просмотрел все видео на х2, голова кажется нагрелась и сейчас начну стрелять лазерами из глаз. Зарядился зарядом Хачатура. И кажется люди теперь медленно разговаривают. Но реально круто, инфа топ, спасибо! 🎉
Других смотрю на х2 - это видео и другие на х1 и уже голова начинает кипеть) настолько погруженный автор в тему и такой концентрат сока дает))
Видео записано для коренных москвичей. Чтобы успевали понимать что к чему. Уральцы, например, сами по себе разговаривают и понимают быстро, примерно в 2 раза быстрее, чем обычно подбешивают москвичей. Уральцам лучше смотреть на скорости х2
Огромнейшая благодарность за такой туториал. Всё получается на ура!)
Респект и уважуха! Спасибо за детальное описание! Очень круто! Это просто магия.
Вот и я добрался с работы до видосика!!! Ты как всегда Зажег!))))
Наконец-то дождались, инструкция по LoRA! Спасибо что прислушиваешься к просьбам подписчиков, это неоценимо)
Ахаха, обожаю эти вставки с дисторшном
контент как всегда невероятно полезный, спасибо!
Жаль нельзя два лайка поставить, спасибо за сборку и видео!
У кого не работает и ругается на [CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 8.00 GiB total capacity; 7.14 GiB already allocated; ] (как было у меня , видяха 1080 GTX) предлагаю сделать так:
1) протереть глаза и запускать трейн на вкладке Dreambooth LoRA =)
2) поставить Mixed/Saved precision : fp16/fp16,
3) optimizer на ADAMW,
4)лайк подписка Хачатуру
тоже на адам8 ошибку выдавало((( 1080Ti
такая же фигня на 1080ТI, поддерживаю на таких настройках работает
Ошибка на 3070 была. Теперь виснет на 0% на 1 шаге, если это типа такая скорость то тренировка 30 картинок будет буквально полгода длиться, не понимаю что не так настроено
@@orgax у меня вовсе даже тренить не начинает, пишет что не найден xformers.
это всё понятно, но он сказал, что будет всё говно и оно так и есть. тоже 1080ti
"...эпох, эпок - должно быть 1, иначе у вас будет ПОЛНЫЙ ЕПОК, если Вы выберете число больше..." 🤣спасибо за видео, на одном дыхании
Шикарно. Благодарю вас
Дождался LORA. Услышал все что хотел. Спасибо.
Прошло уже больше 8-ми месяцев с угроз блокировки ютуба, что ещё сильнее подтверждает слухи, что ютуб не блокируют, только потому что ждут выхода нового ролика от Хачатура 👍
Титанический труд, шикарный контент. Этот час пролетел на одном дыхании. Количество полезной информации прямо запредельное. Спасибо!!
Божественный видос! Спасибо большое! Очень интересно побежал фоткать себя и друзей) Очень информативно и на самом деле коротко) Я смотрел на 1.5 всё очень понятно от и до конца. Спасибо!
Наконец-то !!!! Только сейчас смотреть начинаю, надеюсь поможешь как всегда, спасибо !!!)
Tremendous video, I love the cut through the BS style. I learned a tremendous amount from this video and in general all your videos. I need to translate and subtitle them but that even gives me more in depth information as I have the transcript as well :) Cheers XpucT!
Half of the translation will be just curses and butthurt 😂😂
It's boring to live on earth without knowing Russian language.😆
Превью суперское 🔥🔥🔥
ура ура новое видео, вечер пройдет восхитительно 😘👍
Досмотрел. Кайф (со вставок - тащусь от души).
Для любителей «шоб с картинкою», типа меня, есть
2 способа (простой и совсем простой) добавить обложку для Lora:
1. Рядом с файлом, где находится тётя «Лора», кладете любую png картинку с таким же именем.
Пример: iloveYourmomyLora.png
2. Генерируете картинку, открываете вкладку с «Лорами» в UI. и наводите курсор на название «Лоры». Над ним появится надпись «replace preview”. Вот на нее и кликайте.
Других смотрю на х2 - это видео и другие на х1 и уже голова начинает кипеть) настолько погруженный автор в тему и такой концентрат сока дает))
Круто. Ждал ваш ролик по этой теме. Хотелось ясной-ясности, а то есть там всякие..☺️
Каждый раз, когда вижу новое видео Хачатура, радуюсь как ребёнок новому мультику)
Спасибо! учусь пользоваться SD по Вашим роликам, и только по Вашим рекомендациям! все четко и понятно, доходит быстро)))
Хачатур, большое спасибо! Есть что проверить и попробовать)))
Огнище!!! Хачатур и Сергей - мега спасибо! Лора - круть!
Для тех кто будет искать - куда кидать LoRA.json 7:30 минута. Мало-ли.
Так-то на видео виден путь. Но так будет полезней.
Спасибо за видеоуроки, пользуюсь SD очень давно, в том числе и Deliberate, но только недавно узнал, что у тебя есть канал, где я почерпнул много интересного, тк самоучка.
Кстати, по моему опыту обучения лоры (после твоего видео пробовал разные способы), наилучший результат выходит при хороших качественных фото 512x768.
И, если обучать с однотипных селфи, то кидать более 15-20 фото действительно будут лишним, но если обучать по разнообразным фото (разные прически, эмоции, одежда) + если у человека разные образы (например, фотомодель), то в этом случае допустимо и 35-40 фото, так даже результат будет лучше, наиболее близок к оригиналу. Но важно, чтобы выражения лица должны быть разные, плюс нейросеть копирует одежду, фигуру (что важно, если делаешь девушку) и разные причёски, что тоже потом даёт лучший результат.
Огромное спасибо! Лучший ролик по теме
Спасибо, за ролик, как всегда всё чётко и по делу в отличии от многих остальных блогеров! Очень жду роликов по коллабу, т.к лучше тебя никто не объяснит.))
Привет 🖐 Уже:
boosty.to/xpuct/posts/987f6426-909a-4066-8429-8fd4f377728e?share=post_link
Спасибо за видео! Ждал от тебя эту тему)
И по поводу имени японца (осторожно, японист в чате): если это именно японец и у него так и написано Kohya, то он будет по-русски записываться как «Коя». Там в чём фишка: буква h используется для показания долгого звука. По-японски транскрибироваться азбукой будет こうや, на транслите kouya, но по факту типа «кооя» с долгой о. Но суть в том, что в именах собственных приняли систему, где это длинное о будет удлиняться через h, как в междометии «oh». Но у нас по-русски при написании иногда удвоение опускают, а так Коя или Кооя будут одинаково правильными. А так обычно видят Х и говорят Кохя или Кохья без понимания этих нюансов. Решил об этом написать отдельно, раз ты поднял эту тему в видео. Очень ценю, что ты так внимательно к именам относишься!
☝ Красавчик
я его вообще костей называю) ему все равно а мне проще)
@@Reality-Games а Коля еще проще
Выучить кану быстрее, чем эти тупорылые правила транслитерации. Видимо сидели проффесора и за гранты думали, чтобы ещё такое напридумать чтобы наукообразнее выглядело
Просто- ОГОНЬ! Хачатур- это "делай как я". И это правильно. Молодца.
Спасибо, за "приветы")) Всё по делу👍
Спасибо огромное за portable Lora, а то с обычной установкой парился 2 часа, в итоге забил. А тут клик, клик и усе в ажуре. И как всегда крутая подача видео, для нормальных и тупых))). Живот болит от ржачки)) Все очень понятно, и результаты шикарные!!! Спасибо, от души!!
приветствую слушай я вот все делаю по видео ...загружаю светлую модель голубоглазую..а выходят китаянки темные ..что делаю не так подскажешь?..уже 3 раза тренировал..и 16 фото добавлял и 20 и 30))не пойму(((
@@K-A_Z_A-K_S_URALA та же история. уже несколько раз делаю и все бесполезно(
@@K-A_Z_A-K_S_URALA @ketrinkate попробуй прибавить влияние лоры на максимум и убавь CFG Scale,я убавил CFG Scale на минимум и только так максимальный результат
@@ketrinkateпопробуй прибавить влияние лоры на максимум и убавь CFG Scale,я убавил CFG Scale на минимум и только так максимальный результат
хорошо благодарю@@Sekeluhaa
Если кто не понял что за папка такая "samples", которую типа надо удалять - не указывайте входную папку и выходную в одно и то же место и никакие samples удалять не придется. Ошибка из за того что во входной папке должны быть только папки для обучения, у которых в имени задано количество шагов, а в имени папке samples нет никакой цифры, отсюда ошибка. Если выходная папка будет другой то и samples будет создаваться там и не будет мешать обучению.
Спасибо, начало хоть что-то делать, но теперь ошибку CUDA out of memory даёт, не знаю почему, видюха 8гб
@@SimonsCatSE для начала нужно оставить только изображения 512*512, только batch size=1 и взять невысокий network rank типа 32 или меньше и Alpha (они вроде тоже влияют на память)
@@alexp2179 спасибо, буду пробовать
Хачатура, спасибо за твои работы!
Лайвхак ребята - Если у вас выдает ошибку - это значит вы не успеваете удалить папку sample, ее надо моментально как появилось удалять, тогда всё работает!
огромное спасибо за ваше потраченное время👍👍👍
Спасибо за видео, я устанавливал руками все это раньше, вроде беспроблемно, был до 20 минуты вопрос установлен ли cudn для 30 и 40 серии, но молодцы добавили и это, снимаю шляпу)
Про BF16 не знал, использовал с FP16 на своей 4070ti
Данный способ был проще и быстрее для меня, чем прошлое ваше видео про Train
Спасибо что тратите время как разработчик и разбираете то, чем мы пользуемся, обычный человек никогда бы не разобрался в некоторых моментов.
Продолжайте дальше в том же духе! Для видео надо уже добавлять дисклеймер что любые перемотки вы совершаете на свой страх и риск, потому что каждая секунда видео на вес золота)
Ваша подача и сам контент на 200% окупает мою подписку на бусти
Всех благ, Хачатур!
Ну неплохой гайд. Только есть один момент вы пошли по долгому пути. Там ечть вкладка tool. В которой просто также вставляете папки, папку с проектом и каличество проходов. Нажимаете сгенерировать папки и вторая серая кнопка отправить папки. И он распределит и создвст все как нужно.
Вот это сейчас реально неожиданно было) не за горами анимация походу😅
shnorhakalutyan ahagain ognecir inch asem
maladec
Хачатур, большое спасибо тебе за твой НЕВЪЕБЕННЫЙ контент
И Cереге лютый респект за лору
Салют из Торонто
Про Эпоки зря так. Штука крайне полезная, и позволяет сравнить этапы обучения и выбрать наиболее удачный. (я обучал стилизованных персонажей. По достижению определенного количество шагов, трейн начинал становится хуже, и тут сильно помогла выборка разных эпох). Кроме того, это позволяет создавать некие точки сохранения, что в случае форс мажора можно будет начать именно с них, а не с нуля. Насчет размера, тут возможно уже претензия скорее не совсем актуальна, так как видео было сделано относительно давно, и модели обучаются на более высоком разрешении. Тут нужно уже смотреть на саму модель и информацию, на каком разрешении она обучалась. Но подъем до 640 уже разительно увеличивает качество последующих генераций. Ну и ещё, стоило уточнить почему (Папку нужно указывать где лежит папка с фотографиями) - это позволяет Лору обучить сразу на нескольких объектов. Т.е. по факту в один файл лора мы можем на обучении поместить, к примеру, сразу нескольких людей. Название же папки с фотографиями определяет тригерное слово обучаемого объекта.
Возможность дообучить модель тоже крайне полезная и нужна не только когда (вы дурак и прервали обучения).
Нужно к примеру, если вы делайте огромную модель, и используйте больше 100 изображений. Как если делайте определенный стиль или обучайте лору нескольким персонажам.
И если у вас трейн прошел не совсем удачно и какие то моменты она подтянула плохо. (имеет смысл собрать ещё материалов с более наглядным внешним видом тех частей объекта, что нейронка не совсем корректно поняла). Я так поступил с лорой персонажа, которая нейронка съела вместе с одеждой и стала считать что одежда часть её тела. Я закинул в неё три удачные генерации оголенные модели, но с её анатомией и пропорциями. И после такого дообучения, лора стала более гибкая в подборе одежде к необходимому персонажу.
Уважаемый юзер. А вы не скажете, где можно узнать, КАК продолжить обучать лору или модель, если пришлось трейнинг остановить? То есть я не знаю, какие файлы куда ставить, чтобы продолжить. Где-то есть инфа по этому поводу? (огромное спасибо, если ответите)
@@dianaorion2 Заходите в раздел "Parameters" и ищите раздел "LoRA network weights", там кнопка в виде файла будет. В открывшимся окне выбирайте последний сохраненный сейфтензер с лорой. По факту, таким образом можно дообучать даже скаченные с интернета чужие файлы LORA. Только важно, чтобы параметры Network Rank совпадали.
Если вы разрабатывали определённые стили, то можете пожалуйста поделиться своим опытом или дать ссылки на полезные руководства/справочники, так как сам хочу обучить модель конкретному стилю рисования. Буду очень вам благодарен.
Спасибо за качественный контент!
Хачатур, премного тебе благодарен
понятно, просто, качественно, смешно, классно. учиться довольно приятно благодаря тебе
Как всегда прекрасен!
Спасибо за проделанную работу! Смотрел видео от Оливио и других и вообще не вдуплил, как работает Лора. А тут прям в сердечко)
Хачатур, спасибо! Ты для меня новую вселенную открыл)) До этого я и в Миджорней баловался, зарегался в бета-тесте Леонардо, а тут оказывается эвона чо! Делиберейт + SD = потрясающая связка! Не смотря на то, что я актёр дубляжа, уже три дня сижу и генерирую, как дэбик картинку за картинкой и не могу остановиться. А теперь еще и Лариса подъехала (то бишь, Лора) Продолжай в том же духе, очень с юморком, грамотно и интересно рассказываешь, а главное - суть без воды. Суть от разраба, а не от неофитов.
тутор на час, все как мы любим))
Крутяк, как появится время попробую
Мастеру Хачатуру большое спасибо!
Подача шикарна, как и материал....Ты сделал мой день, настроение супер
проверил связку, хорошо работает спасибо
очень здорово , у тебя есть терпение для своей страсти 🫡
успех
Ну ты неимоверно крутой человечище! Особенно нравится подача и со знанием дела. Я сам тоже люблю закапываться в самые недра! Спасибо!
Привет, я так понимаю программа обновилась и этот гайд бпольше не актуален?)
Спасибо большое за видео !
Спасибо вам. Материал агнище
Премного благодарен! Отдельный респект за терпение и подробное разжёвывание для неспешных пацанов)
Вопрос: если тренировать на основе растений, нужно ли напротив этих 30 фотографий в текстовых файлах детально указывать, что на фото? Или СД сам разберет, где какой стебелек и листочек? Думаю, лучше спросить, чем делать большой, но, возможно, бесполезный кусок работы.
Спасибо было очень интересно !!!!
Спасибо большое, очень полезная информация для новичков!
Тоже мне разраб, не может написать приблуду для автоматического увеличиения размера камеры при повышении градуса пердакагорения, все руками крутит 🥴
Шикарны видос, спасибо! 🥳
Существует ли связь между количеством материала для тренировки LoRA и ее итоговым качеством?
более доступного, с такой подачей материала я еще не встречал, огромное пасибо за материалы)))
Лайк и респект, не глядя!)
"От эффекта ДаблЁбл никто не застрахован" просто вынесло
Бля лучший учитель
хотелось бы видеть для расширения собственного кругозора: 1) результаты работы ресторфейса 2) признаки перетренерованности нейросети
Очень крутые гайды и все же есть вопрос смотреть каждый часовой ролик в поисках конкретной части долго. Однако вот есть вопрос у меня есть модель которая была тренирована на основе другой модели и я нашел более крутую модель на которой хочу переучить текущую. Есть ли у вас где то гайд или ролик где эта тема затрагивается. Спасибо большое.
Шикарный мужчина, шикарно всё объясняет
Не, ну это 10 епоков из 10👍
Пожалуйста, подскажите, как сделать режим использования видеопамяти более щадящим?
Не хватает памяти, пишет. В видеокарте установлено 4Гб (понятно, что маловато)
RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:81] data. DefaultCPUAllocator: not enough memory: you tried to allocate 1638400 bytes...
Ну наконец-то новое видео!
Лучший, спасибо большое)
Такой вопрос, а если нужно обучить лору на длинных фото (512х768), то насколько испортиться результат если изменить размер в настройках? Или в таких случаях нужно расстягивать каждое изображения в граф. редакторе до размеров 512х512?
Если весь сет будет из 512x768 и в дальнейшем генерация будет точно в таком же 512x768, то смело пишем в LoRA 512x768 - это то исключение, которое допустимо. Спасибо за вопрос.
@@XpucT правильно же, что если лора обучена на 512х512 то при генерации артов 512х768 с использованием этой лоры, качество лоры будет не таким? или вообще лучше генерить без нее и потом в инпеинте подставлять?
Могла бы подписалась три раза. Я так хотела портативную Лору. Потому что все что в интернетах, это не для обычного обывателя. И когда я почти дозрела до установки всей этой страшной фигни, такая радость.
спасибо, долго ждал
Спасибо, просто топ.
Устанавливал строго по инструкции. В интерфейсе отсутствует вкладка "dreambooth Lora". Пробовал запустить training во вкладках "dreambooth" и "Lora" - процесс всегда прерывается ошибкой "returned non-zero exit status 1" . Перепробовал все способы и опции, указанные здесь в комментариях и на других форумах - ничего не помогло. Если кто знает решение - напишите, буду благодарен.
Так же фигня. Читал, что в память упирается, но у меня 3070 и в диспетчере не вижу, чтобы память вообще как-то расходовалась активно.
в "Pretrained model name or path" укажи свой путь к .safetensors (у меня при открытии папки с моделями .safetensors файлов небыло и я просто дописал его название) файлам, ибо у меня по умолчанию стояло вообще E:/... хотя у меня даже диска E нет. Надеюсь вам поможет
Закройте консоль SD. Она занимает память. Одновременно две консоли SD и лора не должны работать.
Нужно в параметрах Optimizer поставить на AdamW, и Mixed precision на fp16, это более щадящие настройки для компа (для более слабых видюх), мб ты еще что-то неправильно поставил, но у меня были эти ошибки
Пришел к блогеру за учением, а получил пиздюлей))) спасибо за видео!
Ты супер красавчик и мой кумир. Это так надо снимать видосы.
Хороший видос. Умный мужик. Подписался.
Ждём такой же подробный разбор как обучить чекпоинт
Огромное спасибо за видео! Очень подробно и понятно объясняется.
А как происходит обучение сеток на основе визуального стиля художника? Когда полностью рисуются персонажи и окружение в этом стиле? т.е. с лицами понятно - нашёл 15-30 лиц персонажа и будет этот персонаж, но есть же сетки на основе работ комиксистов, например, и там любые персонажи и любое окружение в этом стиле.
На карте 1060 6gb почему-то не хочет тренироваться - не хватает памяти. В конце видео вы сказали, что запишете видос про Коллаб для тренировки. Посмотрел все видео на канале - такого не было. Может хоть ссылку дадите на безглючный рабочий коллаб для тренировки?
спасибо ты лучший учитель)
Интересное дополнение, сначала я кропнул лицо или тело на исходных фотках дабы избавиться от лишних предметов, потом перевёл в формат 512,512 ,отключил бакетинг, все сеттинги как описано Хачатуром. Получилось неплохо, но потом в качестве эксперимента я настал их переводить в 512,512, а оставил в высоком разрешении и включил бакетинг, модель оказалась в разы лучше! По времени тренинга практически одинаково.
Подскажи пожалуйста, а в настройках менял разрешение или использовал конфиг файл от Хруста без изменений?
@@smiledurb В настройках у меня было стандартное 512 х 512. Я в последнее время вообще перешёл на lycoris, очень советую поэкспериментировать, там результаты порой получаются круче. Плюс я также заметил, что captioning, тоже играет немаловажную роль. И ещё, как и в случае нормальной лоры, если много картинок, то можно сократить колличество эпох.
Добрый день! Спасибо за видео! Не могли бы вы пройтись по теме ошибок, в частности как решить проблему с ошибкой нехватки памяти: allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF. Сколько ковырялся с этой ошибкой и лазил по форумам, заметил что возникает она и на слабых вилюхах и на RTX последних поколений и не важно какой объем памяти. Реально большая проблема. Буду очень признателен.
Как же нравится бомбёж, Бальзас на душу.
Спасибо 🙏🏻
у меня работало нормально , но потом стало почемуто ошибка "A matching Triton is not available, some optimizations will not be enabled.
Error caught was: No module named 'triton'" и время генерации на часы уходит
помогите плиз.
Короче, я выяснил в чем дело. Если запускать файл webui_Lora_only.cmd то тритон подключается и обучение сети идет быстро. если через вебуи.кмд - то время пипец какое большое и ошибка тритона.
Да, Хачатур этот момент не указал в видосе. Действительно разница огромная. Спасибо за то что написал в чём было дело
I watch you alote and I really dont understand what are you saying in Russia, but understand the process, i only watch the mouse haha ty bro
Same here, English subs would've been greatly appreciated
Ура! Новый видос!
стараюсь писать комменты под каждым просмотренным видео - не от болтливости и желания засветиться - знаю, что это помогает продвигать весь контент на Ютюбе, а это важно - такие БЕСПЛАТНЫЕ видео мега полезны, нужны и образовательны, весьма часто более ценны, чем за деньги у псевдокоучей и балаболов
Всем привет!! ну вроде бы все сделал как на видео ..после удаления папки sample вылетает prepare tokenizer и процесс останавливается...Кто знает подскажите что это))))))
какой же ты мощный тип) завидую)
Так, что тут у нас, господин Аванесян с новым стендапом!