Stable Diffusion - LoRA

Sdílet
Vložit
  • čas přidán 16. 03. 2023
  • Portable LoRA ➜ github.com/serpotapov/Kohya_s...
    ► Boosty (эксклюзив) ➜ boosty.to/xpuct
    ► Telegram ➜ t.me/win10tweaker
    ► Discord ➜ / discord
    🔥 Deliberate: deliberate.pro
    🔥 Reliberate: huggingface.co/XpucT/Relibera...
    🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
    Плейлист Stable Diffusion: • Stable Diffusion
    МОЯ ВЕРСИЯ Stable Diffusion: • Stable Diffusion Porta...
    #StableDiffusion #LoRA #kohya_ss
  • Věda a technologie

Komentáře • 1,1K

  • @XpucT
    @XpucT  Před 24 dny +4

    *✓ НАИБОЛЕЕ АКТУАЛЬНАЯ ИНФОРМАЦИЯ ПО LORA СЕГОДНЯ В ЭТОМ ВИДЕО:*
    boosty.to/lergeyseonov/posts/c29517db-ce64-4f3f-8144-8d70961e642e?share=post_link

    • @darkjudic
      @darkjudic Před 5 dny

      спасибо, а всё же когда лучше использовать лору, эмбединг, гипернетворк или тренировку полноценной модели?

  • @WarstarPr
    @WarstarPr Před rokem +105

    Ну, пора разводить девушек на 15-30 фото лица, а не эти ваши "нюдцы"

  • @Zenobeus
    @Zenobeus Před rokem +6

    Thanks for taking the time, I'll eventually get through the whole thing, but at the moment, this has been a helpful perspective of what a LoRA is.

  • @boi6514
    @boi6514 Před 10 měsíci +17

    Абсолютное уважение за это видео. И за portable версию. Всё работает просто как часы, что для open source вообще и для экосистемы A1111 в особенности просто фантастика. Мало кто понимает, какой труд был проделан автором, чтобы все могли это поделать у себя дома.

  • @defensez0ne
    @defensez0ne Před rokem +3

    Самое лучшее видео про обучение модели! Благодарю 🙏

  • @evgenys4942
    @evgenys4942 Před rokem +6

    Мега лайк! Спасибо большущее, за труды!

  • @nkoffski
    @nkoffski Před rokem +48

    Просмотрел все видео на х2, голова кажется нагрелась и сейчас начну стрелять лазерами из глаз. Зарядился зарядом Хачатура. И кажется люди теперь медленно разговаривают. Но реально круто, инфа топ, спасибо! 🎉

    • @user-gl3ou4jg3u
      @user-gl3ou4jg3u Před 6 měsíci +1

      Других смотрю на х2 - это видео и другие на х1 и уже голова начинает кипеть) настолько погруженный автор в тему и такой концентрат сока дает))

    • @fox082
      @fox082 Před 4 měsíci

      Видео записано для коренных москвичей. Чтобы успевали понимать что к чему. Уральцы, например, сами по себе разговаривают и понимают быстро, примерно в 2 раза быстрее, чем обычно подбешивают москвичей. Уральцам лучше смотреть на скорости х2

  • @IIaIIaI1Ia
    @IIaIIaI1Ia Před 4 měsíci +2

    Огромнейшая благодарность за такой туториал. Всё получается на ура!)

  • @protommo
    @protommo Před 11 měsíci +1

    Респект и уважуха! Спасибо за детальное описание! Очень круто! Это просто магия.

  • @Delorean_ARS
    @Delorean_ARS Před rokem +4

    Вот и я добрался с работы до видосика!!! Ты как всегда Зажег!))))

  • @aearone
    @aearone Před rokem +4

    Наконец-то дождались, инструкция по LoRA! Спасибо что прислушиваешься к просьбам подписчиков, это неоценимо)

  • @andypodvalic9245
    @andypodvalic9245 Před rokem +2

    Ахаха, обожаю эти вставки с дисторшном
    контент как всегда невероятно полезный, спасибо!

  • @emrita4827
    @emrita4827 Před rokem +12

    Жаль нельзя два лайка поставить, спасибо за сборку и видео!
    У кого не работает и ругается на [CUDA out of memory. Tried to allocate 20.00 MiB (GPU 0; 8.00 GiB total capacity; 7.14 GiB already allocated; ] (как было у меня , видяха 1080 GTX) предлагаю сделать так:
    1) протереть глаза и запускать трейн на вкладке Dreambooth LoRA =)
    2) поставить Mixed/Saved precision : fp16/fp16,
    3) optimizer на ADAMW,
    4)лайк подписка Хачатуру

    • @vicdun12.21
      @vicdun12.21 Před 11 měsíci +1

      тоже на адам8 ошибку выдавало((( 1080Ti

    • @user-kc2lk2ub7v
      @user-kc2lk2ub7v Před 8 měsíci +1

      такая же фигня на 1080ТI, поддерживаю на таких настройках работает

    • @orgax
      @orgax Před 7 měsíci

      Ошибка на 3070 была. Теперь виснет на 0% на 1 шаге, если это типа такая скорость то тренировка 30 картинок будет буквально полгода длиться, не понимаю что не так настроено

    • @joniharon511
      @joniharon511 Před 6 měsíci

      ​@@orgax у меня вовсе даже тренить не начинает, пишет что не найден xformers.

    • @Demonfrompripyat
      @Demonfrompripyat Před 3 měsíci

      это всё понятно, но он сказал, что будет всё говно и оно так и есть. тоже 1080ti

  • @grxxndxxm
    @grxxndxxm Před rokem +7

    "...эпох, эпок - должно быть 1, иначе у вас будет ПОЛНЫЙ ЕПОК, если Вы выберете число больше..." 🤣спасибо за видео, на одном дыхании

  • @vladimirvova
    @vladimirvova Před rokem +6

    Шикарно. Благодарю вас

  • @IceShtopor
    @IceShtopor Před rokem +2

    Дождался LORA. Услышал все что хотел. Спасибо.

  • @aartees11
    @aartees11 Před rokem +107

    Прошло уже больше 8-ми месяцев с угроз блокировки ютуба, что ещё сильнее подтверждает слухи, что ютуб не блокируют, только потому что ждут выхода нового ролика от Хачатура 👍

  • @MOLOKOmilk
    @MOLOKOmilk Před rokem +4

    Титанический труд, шикарный контент. Этот час пролетел на одном дыхании. Количество полезной информации прямо запредельное. Спасибо!!

  • @romzes96
    @romzes96 Před 11 měsíci +1

    Божественный видос! Спасибо большое! Очень интересно побежал фоткать себя и друзей) Очень информативно и на самом деле коротко) Я смотрел на 1.5 всё очень понятно от и до конца. Спасибо!

  • @user-oj4bb7ne3v
    @user-oj4bb7ne3v Před rokem +1

    Наконец-то !!!! Только сейчас смотреть начинаю, надеюсь поможешь как всегда, спасибо !!!)

  • @valthrudnir
    @valthrudnir Před rokem +15

    Tremendous video, I love the cut through the BS style. I learned a tremendous amount from this video and in general all your videos. I need to translate and subtitle them but that even gives me more in depth information as I have the transcript as well :) Cheers XpucT!

    • @muhitdin5590
      @muhitdin5590 Před 8 měsíci +1

      Half of the translation will be just curses and butthurt 😂😂

    • @VitalikMc5
      @VitalikMc5 Před 8 měsíci

      It's boring to live on earth without knowing Russian language.😆

  • @artkirius
    @artkirius Před rokem +4

    Превью суперское 🔥🔥🔥

  • @BredEbanyiTV
    @BredEbanyiTV Před rokem +2

    ура ура новое видео, вечер пройдет восхитительно 😘👍

  • @albertoflacoa
    @albertoflacoa Před rokem +33

    Досмотрел. Кайф (со вставок - тащусь от души).
    Для любителей «шоб с картинкою», типа меня, есть
    2 способа (простой и совсем простой) добавить обложку для Lora:
    1. Рядом с файлом, где находится тётя «Лора», кладете любую png картинку с таким же именем.
    Пример: iloveYourmomyLora.png
    2. Генерируете картинку, открываете вкладку с «Лорами» в UI. и наводите курсор на название «Лоры». Над ним появится надпись «replace preview”. Вот на нее и кликайте.

  • @user-gl3ou4jg3u
    @user-gl3ou4jg3u Před 6 měsíci

    Других смотрю на х2 - это видео и другие на х1 и уже голова начинает кипеть) настолько погруженный автор в тему и такой концентрат сока дает))

  • @albertoflacoa
    @albertoflacoa Před rokem +4

    Круто. Ждал ваш ролик по этой теме. Хотелось ясной-ясности, а то есть там всякие..☺️

  • @morzellen
    @morzellen Před rokem +6

    Каждый раз, когда вижу новое видео Хачатура, радуюсь как ребёнок новому мультику)

  • @inspector7099
    @inspector7099 Před rokem

    Спасибо! учусь пользоваться SD по Вашим роликам, и только по Вашим рекомендациям! все четко и понятно, доходит быстро)))

  • @user-it2zf6pd8d
    @user-it2zf6pd8d Před rokem +1

    Хачатур, большое спасибо! Есть что проверить и попробовать)))

  • @le6681
    @le6681 Před rokem +10

    Огнище!!! Хачатур и Сергей - мега спасибо! Лора - круть!

  • @niktosss666
    @niktosss666 Před rokem +11

    Для тех кто будет искать - куда кидать LoRA.json 7:30 минута. Мало-ли.
    Так-то на видео виден путь. Но так будет полезней.

  • @h8edgetv
    @h8edgetv Před rokem +1

    Спасибо за видеоуроки, пользуюсь SD очень давно, в том числе и Deliberate, но только недавно узнал, что у тебя есть канал, где я почерпнул много интересного, тк самоучка.
    Кстати, по моему опыту обучения лоры (после твоего видео пробовал разные способы), наилучший результат выходит при хороших качественных фото 512x768.
    И, если обучать с однотипных селфи, то кидать более 15-20 фото действительно будут лишним, но если обучать по разнообразным фото (разные прически, эмоции, одежда) + если у человека разные образы (например, фотомодель), то в этом случае допустимо и 35-40 фото, так даже результат будет лучше, наиболее близок к оригиналу. Но важно, чтобы выражения лица должны быть разные, плюс нейросеть копирует одежду, фигуру (что важно, если делаешь девушку) и разные причёски, что тоже потом даёт лучший результат.

  • @multogen
    @multogen Před rokem +1

    Огромное спасибо! Лучший ролик по теме

  • @user-qu4dz5of2l
    @user-qu4dz5of2l Před rokem +8

    Спасибо, за ролик, как всегда всё чётко и по делу в отличии от многих остальных блогеров! Очень жду роликов по коллабу, т.к лучше тебя никто не объяснит.))

    • @XpucT
      @XpucT  Před rokem

      Привет 🖐 Уже:
      boosty.to/xpuct/posts/987f6426-909a-4066-8429-8fd4f377728e?share=post_link

  • @roman.bulando
    @roman.bulando Před rokem +43

    Спасибо за видео! Ждал от тебя эту тему)
    И по поводу имени японца (осторожно, японист в чате): если это именно японец и у него так и написано Kohya, то он будет по-русски записываться как «Коя». Там в чём фишка: буква h используется для показания долгого звука. По-японски транскрибироваться азбукой будет こうや, на транслите kouya, но по факту типа «кооя» с долгой о. Но суть в том, что в именах собственных приняли систему, где это длинное о будет удлиняться через h, как в междометии «oh». Но у нас по-русски при написании иногда удвоение опускают, а так Коя или Кооя будут одинаково правильными. А так обычно видят Х и говорят Кохя или Кохья без понимания этих нюансов. Решил об этом написать отдельно, раз ты поднял эту тему в видео. Очень ценю, что ты так внимательно к именам относишься!

    • @XpucT
      @XpucT  Před rokem +13

      ☝ Красавчик

    • @Reality-Games
      @Reality-Games Před rokem +1

      я его вообще костей называю) ему все равно а мне проще)

    • @morskoyzmey
      @morskoyzmey Před 10 měsíci

      @@Reality-Games а Коля еще проще

    • @user-ss9ey9gh2v
      @user-ss9ey9gh2v Před 10 měsíci +1

      Выучить кану быстрее, чем эти тупорылые правила транслитерации. Видимо сидели проффесора и за гранты думали, чтобы ещё такое напридумать чтобы наукообразнее выглядело

  • @nevervhood
    @nevervhood Před rokem +2

    Просто- ОГОНЬ! Хачатур- это "делай как я". И это правильно. Молодца.

  • @user-jd2uw2iz5m
    @user-jd2uw2iz5m Před rokem

    Спасибо, за "приветы")) Всё по делу👍

  • @user-jc9wt2yr4b
    @user-jc9wt2yr4b Před rokem +119

    Спасибо огромное за portable Lora, а то с обычной установкой парился 2 часа, в итоге забил. А тут клик, клик и усе в ажуре. И как всегда крутая подача видео, для нормальных и тупых))). Живот болит от ржачки)) Все очень понятно, и результаты шикарные!!! Спасибо, от души!!

    • @K-A_Z_A-K_S_URALA
      @K-A_Z_A-K_S_URALA Před rokem +6

      приветствую слушай я вот все делаю по видео ...загружаю светлую модель голубоглазую..а выходят китаянки темные ..что делаю не так подскажешь?..уже 3 раза тренировал..и 16 фото добавлял и 20 и 30))не пойму(((

    • @ketrinkate
      @ketrinkate Před 8 měsíci +1

      @@K-A_Z_A-K_S_URALA та же история. уже несколько раз делаю и все бесполезно(

    • @Sekeluhaa
      @Sekeluhaa Před 3 měsíci

      @@K-A_Z_A-K_S_URALA ​ @ketrinkate попробуй прибавить влияние лоры на максимум и убавь CFG Scale,я убавил CFG Scale на минимум и только так максимальный результат

    • @Sekeluhaa
      @Sekeluhaa Před 3 měsíci

      ​@@ketrinkateпопробуй прибавить влияние лоры на максимум и убавь CFG Scale,я убавил CFG Scale на минимум и только так максимальный результат

    • @K-A_Z_A-K_S_URALA
      @K-A_Z_A-K_S_URALA Před 3 měsíci +1

      хорошо благодарю@@Sekeluhaa

  • @alexp2179
    @alexp2179 Před rokem +17

    Если кто не понял что за папка такая "samples", которую типа надо удалять - не указывайте входную папку и выходную в одно и то же место и никакие samples удалять не придется. Ошибка из за того что во входной папке должны быть только папки для обучения, у которых в имени задано количество шагов, а в имени папке samples нет никакой цифры, отсюда ошибка. Если выходная папка будет другой то и samples будет создаваться там и не будет мешать обучению.

    • @SimonsCatSE
      @SimonsCatSE Před 9 měsíci

      Спасибо, начало хоть что-то делать, но теперь ошибку CUDA out of memory даёт, не знаю почему, видюха 8гб

    • @alexp2179
      @alexp2179 Před 9 měsíci

      @@SimonsCatSE для начала нужно оставить только изображения 512*512, только batch size=1 и взять невысокий network rank типа 32 или меньше и Alpha (они вроде тоже влияют на память)

    • @SimonsCatSE
      @SimonsCatSE Před 9 měsíci

      @@alexp2179 спасибо, буду пробовать

  • @SergeyCG
    @SergeyCG Před rokem +2

    Хачатура, спасибо за твои работы!
    Лайвхак ребята - Если у вас выдает ошибку - это значит вы не успеваете удалить папку sample, ее надо моментально как появилось удалять, тогда всё работает!

  • @user-tm3bh7mm5x
    @user-tm3bh7mm5x Před 4 měsíci +1

    огромное спасибо за ваше потраченное время👍👍👍

  • @MrDoomsday
    @MrDoomsday Před rokem +7

    Спасибо за видео, я устанавливал руками все это раньше, вроде беспроблемно, был до 20 минуты вопрос установлен ли cudn для 30 и 40 серии, но молодцы добавили и это, снимаю шляпу)
    Про BF16 не знал, использовал с FP16 на своей 4070ti
    Данный способ был проще и быстрее для меня, чем прошлое ваше видео про Train
    Спасибо что тратите время как разработчик и разбираете то, чем мы пользуемся, обычный человек никогда бы не разобрался в некоторых моментов.
    Продолжайте дальше в том же духе! Для видео надо уже добавлять дисклеймер что любые перемотки вы совершаете на свой страх и риск, потому что каждая секунда видео на вес золота)
    Ваша подача и сам контент на 200% окупает мою подписку на бусти
    Всех благ, Хачатур!

  • @ne-sci
    @ne-sci Před rokem +4

    Ну неплохой гайд. Только есть один момент вы пошли по долгому пути. Там ечть вкладка tool. В которой просто также вставляете папки, папку с проектом и каличество проходов. Нажимаете сгенерировать папки и вторая серая кнопка отправить папки. И он распределит и создвст все как нужно.

  • @panbacchus9657
    @panbacchus9657 Před rokem +2

    Вот это сейчас реально неожиданно было) не за горами анимация походу😅

  • @armanpoghosyan3400
    @armanpoghosyan3400 Před 4 měsíci

    shnorhakalutyan ahagain ognecir inch asem
    maladec

  • @matthewr1926
    @matthewr1926 Před rokem +5

    Хачатур, большое спасибо тебе за твой НЕВЪЕБЕННЫЙ контент
    И Cереге лютый респект за лору
    Салют из Торонто

  • @user-zy9ov2vm8q
    @user-zy9ov2vm8q Před 6 měsíci +14

    Про Эпоки зря так. Штука крайне полезная, и позволяет сравнить этапы обучения и выбрать наиболее удачный. (я обучал стилизованных персонажей. По достижению определенного количество шагов, трейн начинал становится хуже, и тут сильно помогла выборка разных эпох). Кроме того, это позволяет создавать некие точки сохранения, что в случае форс мажора можно будет начать именно с них, а не с нуля. Насчет размера, тут возможно уже претензия скорее не совсем актуальна, так как видео было сделано относительно давно, и модели обучаются на более высоком разрешении. Тут нужно уже смотреть на саму модель и информацию, на каком разрешении она обучалась. Но подъем до 640 уже разительно увеличивает качество последующих генераций. Ну и ещё, стоило уточнить почему (Папку нужно указывать где лежит папка с фотографиями) - это позволяет Лору обучить сразу на нескольких объектов. Т.е. по факту в один файл лора мы можем на обучении поместить, к примеру, сразу нескольких людей. Название же папки с фотографиями определяет тригерное слово обучаемого объекта.
    Возможность дообучить модель тоже крайне полезная и нужна не только когда (вы дурак и прервали обучения).
    Нужно к примеру, если вы делайте огромную модель, и используйте больше 100 изображений. Как если делайте определенный стиль или обучайте лору нескольким персонажам.
    И если у вас трейн прошел не совсем удачно и какие то моменты она подтянула плохо. (имеет смысл собрать ещё материалов с более наглядным внешним видом тех частей объекта, что нейронка не совсем корректно поняла). Я так поступил с лорой персонажа, которая нейронка съела вместе с одеждой и стала считать что одежда часть её тела. Я закинул в неё три удачные генерации оголенные модели, но с её анатомией и пропорциями. И после такого дообучения, лора стала более гибкая в подборе одежде к необходимому персонажу.

    • @dianaorion2
      @dianaorion2 Před 3 měsíci

      Уважаемый юзер. А вы не скажете, где можно узнать, КАК продолжить обучать лору или модель, если пришлось трейнинг остановить? То есть я не знаю, какие файлы куда ставить, чтобы продолжить. Где-то есть инфа по этому поводу? (огромное спасибо, если ответите)

    • @user-zy9ov2vm8q
      @user-zy9ov2vm8q Před 3 měsíci

      @@dianaorion2 Заходите в раздел "Parameters" и ищите раздел "LoRA network weights", там кнопка в виде файла будет. В открывшимся окне выбирайте последний сохраненный сейфтензер с лорой. По факту, таким образом можно дообучать даже скаченные с интернета чужие файлы LORA. Только важно, чтобы параметры Network Rank совпадали.

    • @kail1672
      @kail1672 Před 21 dnem

      Если вы разрабатывали определённые стили, то можете пожалуйста поделиться своим опытом или дать ссылки на полезные руководства/справочники, так как сам хочу обучить модель конкретному стилю рисования. Буду очень вам благодарен.

  • @NikitaBirukovich
    @NikitaBirukovich Před rokem +1

    Спасибо за качественный контент!

  • @tomk-ot4ju
    @tomk-ot4ju Před 11 měsíci +1

    Хачатур, премного тебе благодарен
    понятно, просто, качественно, смешно, классно. учиться довольно приятно благодаря тебе

  • @user-id5vg2fp1s
    @user-id5vg2fp1s Před rokem +5

    Как всегда прекрасен!
    Спасибо за проделанную работу! Смотрел видео от Оливио и других и вообще не вдуплил, как работает Лора. А тут прям в сердечко)

  • @DedBruzon
    @DedBruzon Před rokem +3

    Хачатур, спасибо! Ты для меня новую вселенную открыл)) До этого я и в Миджорней баловался, зарегался в бета-тесте Леонардо, а тут оказывается эвона чо! Делиберейт + SD = потрясающая связка! Не смотря на то, что я актёр дубляжа, уже три дня сижу и генерирую, как дэбик картинку за картинкой и не могу остановиться. А теперь еще и Лариса подъехала (то бишь, Лора) Продолжай в том же духе, очень с юморком, грамотно и интересно рассказываешь, а главное - суть без воды. Суть от разраба, а не от неофитов.

  • @stas_lu
    @stas_lu Před rokem +1

    тутор на час, все как мы любим))

  • @ClipfilmRu1
    @ClipfilmRu1 Před rokem +1

    Крутяк, как появится время попробую

  • @user-tj6xm1rz4e
    @user-tj6xm1rz4e Před rokem +3

    Мастеру Хачатуру большое спасибо!

  • @user-tn5dq8yn6q
    @user-tn5dq8yn6q Před rokem +16

    Подача шикарна, как и материал....Ты сделал мой день, настроение супер

  • @luisferia5779
    @luisferia5779 Před rokem +1

    проверил связку, хорошо работает спасибо

  • @romanovru7080
    @romanovru7080 Před 7 měsíci

    очень здорово , у тебя есть терпение для своей страсти 🫡
    успех

  • @TheRomixERR
    @TheRomixERR Před rokem +3

    Ну ты неимоверно крутой человечище! Особенно нравится подача и со знанием дела. Я сам тоже люблю закапываться в самые недра! Спасибо!

  • @TimGood4
    @TimGood4 Před měsícem +3

    Привет, я так понимаю программа обновилась и этот гайд бпольше не актуален?)

  • @RomanBrickson
    @RomanBrickson Před rokem +1

    Спасибо большое за видео !

  • @user-il1ik4hs4x
    @user-il1ik4hs4x Před 6 měsíci

    Спасибо вам. Материал агнище

  • @mdleo80
    @mdleo80 Před rokem +4

    Премного благодарен! Отдельный респект за терпение и подробное разжёвывание для неспешных пацанов)

  • @ComplexTagret
    @ComplexTagret Před rokem +4

    Вопрос: если тренировать на основе растений, нужно ли напротив этих 30 фотографий в текстовых файлах детально указывать, что на фото? Или СД сам разберет, где какой стебелек и листочек? Думаю, лучше спросить, чем делать большой, но, возможно, бесполезный кусок работы.

  • @user-rw5gn6st7e
    @user-rw5gn6st7e Před rokem +1

    Спасибо было очень интересно !!!!

  • @escesc5315
    @escesc5315 Před 4 měsíci +1

    Спасибо большое, очень полезная информация для новичков!

  • @MrCoffeemill
    @MrCoffeemill Před rokem +3

    Тоже мне разраб, не может написать приблуду для автоматического увеличиения размера камеры при повышении градуса пердакагорения, все руками крутит 🥴
    Шикарны видос, спасибо! 🥳

  • @araders5852
    @araders5852 Před rokem +5

    Существует ли связь между количеством материала для тренировки LoRA и ее итоговым качеством?

  • @ShadowPulseVibes
    @ShadowPulseVibes Před rokem +2

    более доступного, с такой подачей материала я еще не встречал, огромное пасибо за материалы)))

  • @borgeborg
    @borgeborg Před rokem +2

    Лайк и респект, не глядя!)

  • @Araxiscool
    @Araxiscool Před 11 měsíci +3

    "От эффекта ДаблЁбл никто не застрахован" просто вынесло
    Бля лучший учитель

  • @user-lu1bd7hj6l
    @user-lu1bd7hj6l Před rokem +7

    хотелось бы видеть для расширения собственного кругозора: 1) результаты работы ресторфейса 2) признаки перетренерованности нейросети

  • @Dusterlog
    @Dusterlog Před 8 měsíci +1

    Очень крутые гайды и все же есть вопрос смотреть каждый часовой ролик в поисках конкретной части долго. Однако вот есть вопрос у меня есть модель которая была тренирована на основе другой модели и я нашел более крутую модель на которой хочу переучить текущую. Есть ли у вас где то гайд или ролик где эта тема затрагивается. Спасибо большое.

  • @user-wv8ww9zj4b
    @user-wv8ww9zj4b Před rokem

    Шикарный мужчина, шикарно всё объясняет

  • @neuromaker
    @neuromaker Před rokem +4

    Не, ну это 10 епоков из 10👍

  • @RelaxVolia
    @RelaxVolia Před rokem +3

    Пожалуйста, подскажите, как сделать режим использования видеопамяти более щадящим?
    Не хватает памяти, пишет. В видеокарте установлено 4Гб (понятно, что маловато)
    RuntimeError: [enforce fail at ..\c10\core\impl\alloc_cpu.cpp:81] data. DefaultCPUAllocator: not enough memory: you tried to allocate 1638400 bytes...

  • @yaroslavdmitriev3028
    @yaroslavdmitriev3028 Před rokem +1

    Ну наконец-то новое видео!

  • @user-sv4le7rz6e
    @user-sv4le7rz6e Před rokem +1

    Лучший, спасибо большое)

  • @avaro7655
    @avaro7655 Před rokem +25

    Такой вопрос, а если нужно обучить лору на длинных фото (512х768), то насколько испортиться результат если изменить размер в настройках? Или в таких случаях нужно расстягивать каждое изображения в граф. редакторе до размеров 512х512?

    • @XpucT
      @XpucT  Před rokem +35

      Если весь сет будет из 512x768 и в дальнейшем генерация будет точно в таком же 512x768, то смело пишем в LoRA 512x768 - это то исключение, которое допустимо. Спасибо за вопрос.

    • @EZHEVNKA
      @EZHEVNKA Před 9 měsíci

      @@XpucT правильно же, что если лора обучена на 512х512 то при генерации артов 512х768 с использованием этой лоры, качество лоры будет не таким? или вообще лучше генерить без нее и потом в инпеинте подставлять?

  • @user-cd6px4lm3m
    @user-cd6px4lm3m Před rokem +4

    Могла бы подписалась три раза. Я так хотела портативную Лору. Потому что все что в интернетах, это не для обычного обывателя. И когда я почти дозрела до установки всей этой страшной фигни, такая радость.

  • @5hem
    @5hem Před rokem +1

    спасибо, долго ждал

  • @DonSalgerd
    @DonSalgerd Před rokem +1

    Спасибо, просто топ.

  • @andrruta868
    @andrruta868 Před 7 měsíci +9

    Устанавливал строго по инструкции. В интерфейсе отсутствует вкладка "dreambooth Lora". Пробовал запустить training во вкладках "dreambooth" и "Lora" - процесс всегда прерывается ошибкой "returned non-zero exit status 1" . Перепробовал все способы и опции, указанные здесь в комментариях и на других форумах - ничего не помогло. Если кто знает решение - напишите, буду благодарен.

    • @titaniMOZG
      @titaniMOZG Před 4 měsíci

      Так же фигня. Читал, что в память упирается, но у меня 3070 и в диспетчере не вижу, чтобы память вообще как-то расходовалась активно.

    • @studiotrip9859
      @studiotrip9859 Před 3 měsíci

      в "Pretrained model name or path" укажи свой путь к .safetensors (у меня при открытии папки с моделями .safetensors файлов небыло и я просто дописал его название) файлам, ибо у меня по умолчанию стояло вообще E:/... хотя у меня даже диска E нет. Надеюсь вам поможет

    • @pgwglassmail707
      @pgwglassmail707 Před 2 měsíci

      Закройте консоль SD. Она занимает память. Одновременно две консоли SD и лора не должны работать.

    • @user-wl6ut6uy2c
      @user-wl6ut6uy2c Před měsícem

      Нужно в параметрах Optimizer поставить на AdamW, и Mixed precision на fp16, это более щадящие настройки для компа (для более слабых видюх), мб ты еще что-то неправильно поставил, но у меня были эти ошибки

  • @charleskraffty9034
    @charleskraffty9034 Před 4 měsíci +4

    Пришел к блогеру за учением, а получил пиздюлей))) спасибо за видео!

  • @Dmitry_Max
    @Dmitry_Max Před rokem +1

    Ты супер красавчик и мой кумир. Это так надо снимать видосы.

  • @senkodan
    @senkodan Před 3 měsíci +1

    Хороший видос. Умный мужик. Подписался.

  • @8Fynjy
    @8Fynjy Před rokem +9

    Ждём такой же подробный разбор как обучить чекпоинт

  • @dedhatab4423
    @dedhatab4423 Před rokem +6

    Огромное спасибо за видео! Очень подробно и понятно объясняется.
    А как происходит обучение сеток на основе визуального стиля художника? Когда полностью рисуются персонажи и окружение в этом стиле? т.е. с лицами понятно - нашёл 15-30 лиц персонажа и будет этот персонаж, но есть же сетки на основе работ комиксистов, например, и там любые персонажи и любое окружение в этом стиле.

  • @sergeys4949
    @sergeys4949 Před 8 měsíci

    На карте 1060 6gb почему-то не хочет тренироваться - не хватает памяти. В конце видео вы сказали, что запишете видос про Коллаб для тренировки. Посмотрел все видео на канале - такого не было. Может хоть ссылку дадите на безглючный рабочий коллаб для тренировки?

  • @makimakins4349
    @makimakins4349 Před rokem +1

    спасибо ты лучший учитель)

  • @trendgiver
    @trendgiver Před rokem +4

    Интересное дополнение, сначала я кропнул лицо или тело на исходных фотках дабы избавиться от лишних предметов, потом перевёл в формат 512,512 ,отключил бакетинг, все сеттинги как описано Хачатуром. Получилось неплохо, но потом в качестве эксперимента я настал их переводить в 512,512, а оставил в высоком разрешении и включил бакетинг, модель оказалась в разы лучше! По времени тренинга практически одинаково.

    • @smiledurb
      @smiledurb Před 10 měsíci

      Подскажи пожалуйста, а в настройках менял разрешение или использовал конфиг файл от Хруста без изменений?

    • @trendgiver
      @trendgiver Před 10 měsíci +1

      @@smiledurb В настройках у меня было стандартное 512 х 512. Я в последнее время вообще перешёл на lycoris, очень советую поэкспериментировать, там результаты порой получаются круче. Плюс я также заметил, что captioning, тоже играет немаловажную роль. И ещё, как и в случае нормальной лоры, если много картинок, то можно сократить колличество эпох.

  • @kinoman6469
    @kinoman6469 Před rokem +4

    Добрый день! Спасибо за видео! Не могли бы вы пройтись по теме ошибок, в частности как решить проблему с ошибкой нехватки памяти: allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF. Сколько ковырялся с этой ошибкой и лазил по форумам, заметил что возникает она и на слабых вилюхах и на RTX последних поколений и не важно какой объем памяти. Реально большая проблема. Буду очень признателен.

  • @BreadMur
    @BreadMur Před 5 měsíci +2

    Как же нравится бомбёж, Бальзас на душу.

  • @IIASDesignII
    @IIASDesignII Před rokem +1

    Спасибо 🙏🏻

  • @CosmoDzen
    @CosmoDzen Před 3 měsíci +3

    у меня работало нормально , но потом стало почемуто ошибка "A matching Triton is not available, some optimizations will not be enabled.
    Error caught was: No module named 'triton'" и время генерации на часы уходит
    помогите плиз.
    Короче, я выяснил в чем дело. Если запускать файл webui_Lora_only.cmd то тритон подключается и обучение сети идет быстро. если через вебуи.кмд - то время пипец какое большое и ошибка тритона.

    • @Kibermozgai
      @Kibermozgai Před 3 měsíci

      Да, Хачатур этот момент не указал в видосе. Действительно разница огромная. Спасибо за то что написал в чём было дело

  • @itzpaco5539
    @itzpaco5539 Před rokem +3

    I watch you alote and I really dont understand what are you saying in Russia, but understand the process, i only watch the mouse haha ty bro

    • @eyoo369
      @eyoo369 Před rokem

      Same here, English subs would've been greatly appreciated

  • @serpotapov
    @serpotapov Před rokem +1

    Ура! Новый видос!

  • @mariannabusz3878
    @mariannabusz3878 Před 2 dny +1

    стараюсь писать комменты под каждым просмотренным видео - не от болтливости и желания засветиться - знаю, что это помогает продвигать весь контент на Ютюбе, а это важно - такие БЕСПЛАТНЫЕ видео мега полезны, нужны и образовательны, весьма часто более ценны, чем за деньги у псевдокоучей и балаболов

  • @user-jn1wm1lf2v
    @user-jn1wm1lf2v Před rokem +3

    Всем привет!! ну вроде бы все сделал как на видео ..после удаления папки sample вылетает prepare tokenizer и процесс останавливается...Кто знает подскажите что это))))))

  • @deogloria420
    @deogloria420 Před rokem +1

    какой же ты мощный тип) завидую)

  • @NECRODEFLORATOR
    @NECRODEFLORATOR Před rokem +1

    Так, что тут у нас, господин Аванесян с новым стендапом!