Stable Diffusion - depthmap2mask - СТАВЬ
Vložit
- čas přidán 7. 06. 2024
- depthmap2mask ➜ github.com/Extraltodeus/depth...
Boosty (эксклюзив) ➜ boosty.to/xpuct
Telegram ➜ t.me/win10tweaker
► 00:00 Начало
► 00:42 Установка depthmap2mask
► 01:26 Знакомство с расширением
► 09:42 Правильные настройки
🔥 Deliberate: huggingface.co/XpucT/Delibera...
🔥 Reliberate: huggingface.co/XpucT/Relibera...
🔥 LowRA / Lit: huggingface.co/XpucT/Loras/tr...
Плейлист Stable Diffusion: • Stable Diffusion
#StableDiffusion #depthmap2mask #depthawareimg2imgmask - Věda a technologie
6:31 не обязательно ставить эту галочку, можно просто потом в inpaint uploade чекнуть радиобаттон inpaint not masked. Спасибо за видео Хачатур!
dpt_large выдает ошибку, случаем не знаете почему? Midas_v21_small и Midas_v21 (установился сам без проблем) работают отлично. dpt_large даже устанавливаться не хочет
проблему решил. Оказалось, в первый раз не дал dpt_large скачать до конца. было закачено 900 мб. Но когда удалил файл dpt_large из папки Midas, то dpt_large закачался по новой, весить, примерно, 1,3 гб
@@user-lu1bd7hj6l UnboundLocalError: local variable 'model' referenced before assignment Это выдавал?
@@user-lu1bd7hj6l Спасибо, помогло
@@evhent пожалуйста. нефига себе, оказывается не один с такой проблемой столкнулся. Думал что один такой
Как же приятно получать от тебя новые знания лучших практик) Спасибо огромное и пожалуйста продолжай
Спасибо большое за видос, просто отвал башки! Сам сижу в фотошопе с 2000г., дальше думаю не надо объяснять, такие же эмоции :)
Ни в одном мессенджере, ни в одной соцсети, ни на youtube я не ставил допуск уведомлений, но тут прям другая история. Включил уведомления, звук погромче, жду прям каждого видоса! Спасибо еще раз за информацию и труд!
☝ Красавчик
❤
Это просто взрыв😱Реально, я радуюсь каждому видео, учусь по Вашим урокам 👍🤟Вы крутой
19:20 Не сделал мокрое лицо только потому что маска не позволяет менять лицо с волосами. Было бы очень интересно посмотреть на результат, если удалить волосы из маски и оставить только лицо 🔥
Не сделает все равно, так как лицо ближе к камере, значит маска в этом месте самая "густая". Т.е система точно знает что "там я не трогаю".
За мокрым лицом отправляемся в instruct pix2pix
Генерация маски глубины само по себе уже очень хороший инструмент, особенно если изображения нужны для анимации. Спасибо за видео
Как маска это отличная штука!! Но если пытаться вытянуть из неё именно глубину, как объём в 3д, то это хрень. Точнее объём есть, но очень условный. Проверено :)
@@---Nikita-- В афтере?
@@drugoj в blender, через дисплейсмент
@@---Nikita-- скорее всего это связано с потерей информации о глубине при конвертации в оттенки серого. Закодировать детали 256-тью градациями глубины можно лишь в грубой форме. Карту глубин нужно сохранять в raw виде (fp16?, fp32? или uint32?)
@@---Nikita-- ну для блендера оно и нахуй не нужно ессесна. А в том же АЕ чутка движения картинке через дисплейсмент мап задать - то что надо для коротких переходов например или для небольших вставок. Да и динамического блюра по глубине иногда неплохо дать на фон за персонажем
Дааа, вынос мозга... Ну фантастика такая чёткая работа ИИ, за уроки как всегда низкий поклон и уважение за работу!!!
Знаем много лет! Подписался ) Спасибо огромное за работу, спасибо огромное за видео!!!
Братан огромное тебе спасибо за твои ролики! Ты реально все рассказал для успешной учебы этой нейронки.
очень круто! Благодарность автору за такой полезный динамичный контент👍👍
Уже пробую, спасибо за инфу!))
Все, подписался на Boosty. Просто кайф.
С такой скоростью ролики может делать только ИИ. Скайнет ближе чем мы думали 🙀
Хачатур, твой труд стал одним из немногих за которые от души хочется донатить.
Зарегался на Бусти, а там еще всякие полезности.
Благодарствую😌
😇
🙏
Спасибо, уже проверил как работает)) Мало-помалу и разберусь придёт время со всем)
Спасибо за видео! Успехов! пысы: твикер - пушка ❤
крутяк, сидел игрался, в итоге сделал свою фотку на пляже, оно мне натурально растрепало волосы, как будто пересушил на солнце, реально крышесносно, спасибо за интересную инфу, подписался. Которое видео не могу досмотреть, где-то в середине начинаешь играть с нейронкой и забываешь досмотреть до конца
Тоже плюсую за серые сценки, сильно добавляет юмора)
Отличное видео как всегда.
Скажу вам кое-что дополнительно. Я вернулся к этому видео спустя долгое время. Потому что то о чем вы в видео рассказали не сильно было нужно мне. Но. Я увидел в своей и смежных направлениях деятельности применение карты глубины. Ребята, это бомба в 3d. Ведь карта глубины может быть загружена в тот же блендер, на ее основе получается изменение высот на плоскости и после этого вы накладываете оригинальное изображение как текстуру материала и все у вас готова 3d сцена. Ну если вы конечно знаете как снимать камерой плоскость в ней. Плюсуем сюда нейронку, которая по голосу или тексту рисует анимацию губ, глаз, отклонение лица от изначального положения и все, у нас секвенция текстур и карт глубин. Поздравляю мы сделали видео с псевдотрехмеркой весьма достойного качества!
Можешь снять видео про обьяснение Upscale и как правильно его делать для улучшения качества картинки?
Хочу сделать вам спасибо за урок. Прям очень дошло) Но есть нюанс. В Вашей сборке и на прямой ссылке к сожалению depthmap2mask выдает ошибку "AttributeError: 'Block' object has no attribute 'drop_path'" . Я решил этому посопротевляться и даже поставил старую версию timm==0.6.7 и даже на всякий случай поставил на другой комп. Короче пока могу получать наслаждения только от вашего шикарного видео, примерно так как путешествовал когдато через товарища Синкевича. Если у Вас есть решение этой задачи, я буду весьма признателен)))
Приветствую! У меня такая же ошибка, причём выдаёт её на разных сборках StableDiffusion. Пока не знаю как решить эту проблему. А вы знаете, может быть уже нашли решение?
Ухххх! Что-ты делаешь со мной? Я и так охреневаю от того, что даже на стандартном функционале ST могу делать крутые вещи. А теперь ты мне просто башню снёс новым открытием!💥💥💥💥💥💥💥💥💥
Спасибо!
ошибку выдает: AttributeError: 'Block' object has no attribute 'drop_path' или TypeError: argument of type 'NoneType' is not iterable
И у меня
Хачатур, здравствуйте.
Настройки ставлю по вашим рекомендациям, нажимаю Генерацию, выдаёт такое сообщение:
TypeError: argument of type 'NoneType' is not iterable
Time taken: 5.80sTorch active/reserved: 2069/2082 MiB, Sys VRAM: 3501/8192 MiB (42.74%)
Подскажите, ЧТО не так?
Год прошел, а решения все нет. Скажи, ты знаешь в чем проблема? у меня такая же ошибка
Спасибо за видео. Очень познавательно.
Cпасибо за обзор!
С момента выхода вашего видео разработчик добавил дохелиард моделей в расширении.. И теперь нет просто "dpt_large"..( Подскажите, какую модель вы теперь используете?
Так круто было бы видео прогонять через это, буду пробовать! Спасибо
ваааа вот это пушка просто!!!!! благодарю очень очень!
Я посмотрел это видео и моя жизнь изменилась. Спасибо 😇 Есть пожелание каналу. Сделайте для своих подписчиков мини видео инструкцию по шагам в 1 мин. Чтобы можно было возвращаться на урок для оживления в памяти, быстро посмотреть и начать применять.
Спасибо Христ! Как всегда супер увлекательно!
Только ХрИст =)
@@serpotapov простите.
Чувствую скоро в интернете визуального вранья станет навалом, особенно новостного, и ведь даже кто разбирается не отличит.
🤓 я смеялась вслух от реалистичности фона. Никогда не поймёшь, что это не оригинальный, который был сфоткан 😯 👏👏👏 спасибо за урок
Просто великолепие какое-то! Огромная уважуха тебе! Разбери расширение Deforum, ради Христа)
Спасибо Хачатуру за открытие, это реально полный крыше снос🙀 Инструмент просто бомбический.
После первого просмотра данного ролика, меня охватило то же чувство о котором говорит уважаемый Хачатур на 15:42, с таким инструментом можно исполнять много разного креатива:) Большая благодарность автору видео и канала! Это лучший канал про все интересное))) Хачатур, большое уважение к тебе! Буду ждать новых серий)
👍 Спасибо. Ща попробую.
Очень здорово. То что ии понимает статичное плоское изображение в глубину - это нечто. Такими темпами, думаю что лет через 15-20, генерация картинок на основе текста логически перейдет в генерацию игр и кино на основе сценария. Это сносит крышу. Пришел домой и попросил сочинить тебе новый фильм по любимой книжке.
Какие 15 лет ))) жди 3-4 года
Это уже происходит. 3d художники уже пользуются картами глубин для оживления картинки.
Осталось только сервак для генерации купить за 10 лямов.
В результате книжки и фильмы обесценятся в том же направлении, в каком сейчас обесценены рисование и музыка,но мощнее в разы. Вплоть до исчезновения понятий "чтение" и "кино".
Возьму на заметку. Полезный инструмент.
Использовал этот инструмент не для замены фона, а для создания маски глубины у фото, чтобы в After Effects с помощью смещения сделать эффект 3D для статичного изображения.
Результат потрясающий.
Огромное спасибо за урок
в After Effects для эффекта 3D использовал плагин Volumax или через displacement map?
@@rusl131 displasement map
Благодарю за информацию
Похоже, вам с depthmap2mask пора номер снять)) Спасибо за ролик, очень полезно.
Зашёл просто поставить лайк.Учусь по твоим урокам на c#.Спасибо.
☝ Вот это Красавчик!
божественно, нет слов
Я нашёл тебя случайно сегодня. И это == найденному алмазу среди дерьма.Спасибо! очень ламповый канал! А твой курс по C# сдвинул меня с мертвой точки! СПАСИБО за то что ты есть!!!
Ты просто бог 😂 спасибо за видео
Еее, порция годноты =)
TypeError: argument of type 'NoneType' is not iterable Кто нибудь скиньте версию этого расширения, обновленная версия не фурычит с dpt large (((((((
Классно! Спасибо большое!
Подскажите, можно ли как-то вырезать человека и сделать пнг с прозрачным фоном?
Я в ахере! И это только начало! Круто жить в такое время)
Кажется я тоже "в ах*е" ))) Спасибо, полезная штука! Сегодня же протестирую. Я по твоим видосам уже столько шедевров нарисовал, что кажется пора удалять фотошоп)) И кстати, эти артефакты песочного цвета над плечами именно из-за того, что маска в этом месте размытая. Но уже понял, что это поправимо. Побежал изучать ))))
Просто ох**ть! Спасибо что делаете шикарный контент!
Очень круто, что вы показали возможности маски! Спасибо!
Кстати, хотел спросить, может вы знаете: когда стараюсь поменять фон на фотографии по вашему примеру, то у меня почему-то за передним объектом (лицом) появляются артефакты в виде дублирования объекта (когда словно на фотографию портрета добавили новый слой с лицом и слегка сместили его). И получается, что на фотографии около уха может появится часть этого же уха чуть сбоку. Тоже самое происходит, если я стараюсь поменять фон для какой-нибудь баночки - выходит так, словно за первой баночкой есть вторая, которая частично выглядывает. Не подскажете, в чем может быть причина и что поможет это исправить? К слову SD запускал с гугл коллаба, а то локально мой комп с depthmap2mask не справляется
Я прям ПОДПИСАЛСЯ даже)))
Снова очень круто. И снова хочется уточнить задачу на похожую тему. Стоит задача генерировать предметы на площади фоне. Входящее в комплект автоматика расширение ABG не устраивает, потому что оно очень плохо справляется с тенью (а сгенерировать в SD нормально освещенный предмет на ровном белом фоне без тени - практически неосуществимая задача). Вот это расширение может помочь, конечно, но как у него с автоматизацией и может ли оно сразу делать пнг с прозрачностью?
*Христ, помоги, пожалуйста, я уже всё перепробовал. Он почему то сзади меня дублирует такого же человека и как я, но на несколько пикселей больше и получается, что я перекрываю его.*
Через эту штуку так-то довольно удобно фотки под трейн подгонять
Пасиба, сам бы я хрен на неë наткнулся
Христ помоги) Всё сделал по описанию, выбрал скрипт depthmaph , выбрал dtp large, но когда нажимаю generate выдаёт "TypeError: argument of type 'NoneType' is not iterable" , как это исправить??
аналогично
ну вооот! та же фигня (TypeError: argument of type 'NoneType' is not iterable
Time taken: 6.5 sec.
A: 2.04 GB, R: 2.05 GB, Sys: 3.1/12 GB (26.1%)
тоже не работает
Тоже не работает
Закачай модель вручную
Потрясающе...
я нихуя не понимаю, но этот чувак точно знает что говорит. буду делать так же
Это нечто!!!
Приветствую.
Большое спасибо за передаваемые знания🤝
Если будет возможность и интерес, хотелось бы увидеть ролик - инструкцию к 3D_Photo_Inpainting (есть и на Hugging Face и в colab)
Спасибо!
О сколько нам открытий чудных готовит нейросетей дУуУуухХххХх🤐👾👾👾👾👾👾 Пасиб, сенсей, твой мат отменный ласкает и пленяет слУуУуууХххХ😘 следущая темище - поэзия в ИИ!😉
Маска с глубиной это интересно 🤔 Делал такие маски глубины в рендерах. Когда рендерил по пасам. Но тут прям волшебство. С готовой фотографии такое делать.
Приветствую Хачатур, не мог бы ты в одном из последующих видео объяснить логику работы построения depth map AI? В последнем Photoshop`e тоже есть фильтр 'Depth Blur', но вот понять что нужно подсовывать ему для получения идеального результата никак несображу. Из 2 почти одинаковых картинок в результате получается совершенно разная карта глубины.
Круто!
подскажи, какой плагин используешь при монтаже, чтобы увеличивать отдельные области видео, и остальные при этом затемнять?
Меня ждут интересные 20 минут) посмотрим
Привет, Христ) Поставил расширение, пишет ошибку UnboundLocalError: local variable 'model' referenced before assignment. Что он хочет от меня?
Что вы творите 😂 Приходится каждое ваше видео добавлять в закладки. Тоже недооценивала глубину. Д
Спасибо.
А можно ли этим плагином вытянуть из картинки заданную карту высот в градации чёрнобелого для последующей 3D гравировки на чпу? Или есть нечто другое?
Спасибо за очередную вкусняшку. Подскажите как изменить negative prompts при загрузке вашей portable версии. Нигде не могу найти.
Файл ui-config.json в корне Stable Diffusion 👍
Прикольная штука, интересно как бы это прикрутить к секвенции.
у меня есть такой вопрос, я довольно новичек во всем этом, а можно ли в automatic1111 добавить расширения например для chatGPT или dalle-2? я видел на hugging face во вкладке spaces как люди дают пользоваться своим пространством с разными нейросетями типо whisper, text to music, gpt и т.д. и везде интерфейс automatic1111, как они ставят их?
Если у нейросети есть публичный API, то прикрутить ее - нет проблем. Но у некоторых нейросетей нет публичного API в принципе (привет Midjorney).
Огромное спасибо! Сегодня буду баловаться)))
p.s. С файерфокса умер апахпахпахпах
Спасибо большое за ролки и проделанную работу и правда, невероятно полезно. А вот насчет "вы ханжа и вам здесь не рады" обидно(
Подскажите, как избавится от эффекта когда волосы четко прорисовались а потом резкий переход в блюр прям полосой (не плавно а прям линией)
Спасибо тебе
🤝
Если есть расширение CntrolNet, его функционалом можно генерить такую же карту глубины, или этот покруче будет?
Вопрос - а кто то пробовал генерировать при помощи Stable Diffusion интерьеры - к примеру кухни. Я пробую но они примерно однотипные получаются. Есть примеры интерьеров ?
это просто бомба - держитесь мои старые фото :)
Старые фото говоришь... ммм... Тебе зайдёт следующее видео, только тссс. ;)
это, просто, ...енно!!!
супер
неее, ну это бан ))) Очень круто!
Вроде что-то получилось после того как заменил «Самую Лучшую Модель» на sd-v1-5-inpainting, скрутил на минимум mask blur и masked padding, ну и чуть приподнял порог белого в фотошопе т.к. contrasts cut level на него почему-то не влияет. В общем, впечатления положительные, но не прям вах )
как понял работает это достаточно просто (либо озвучиваю и так очевидную вещь) .
в inpaint upload первая картинка видоизменяется также если бы мы видоизменили эту картинку в img2img , просто потом тупо накладывается область нашей маски.
Поэтому когда генерируется при повышенных Denoising strength, рисуется на заднем плане другой человек.
При небольшом Denoising strength рисуется картинка более похожая на нашу , поэтому волосы по краям уменьшатся, но и фон не сильно видоизменится на нашем фото.
Привет, спрошу не в тему, но вдруг ты и об этом сделаешь видео.
Mubert... Переводящий промпты в музыку. Есть на коллабе. Но нигде не вижу как его сделать "своим". Я так понял он на stable difussion работает. То если это так, будет очень круто его прикрутить на компе ну или к нему другие потроха нужны. Ну в общем есть ли возможность установить его на пк? Спасибо за труды.
а там как то модели поменялись, их стало гораздо больше, а dpt large не работает почему. Какой моделью пользоваться лучше?
так и не смог поставить, вылезают ошибки :( Автоматом не загружает, вручную закинул модель, тоже не помогло
Офигенно разделяю восторг матов особенно когда осознаешь сколько человеко-часов потрачено на вырезание в фотошопе
кайф!
Интерсная тема работа с картой глубин, но к сожалению не нова.
Работая VFX артистом, такие вещи создаются без особых проблем, локально в том же NUKE, только там все контролируемо под конкретную задачу в шоте.
Как альтернативу. первое что пришло на ум, Depth Scanner, только там работа заточена еще под видео, но принципы те же. Скорость обработки не уступает.
Да, физически, построение картинки верное. Освещение он считывает в данном примере правильно.
Для начала развития технологии, неплохой результат, но не идеален для проф работы.
Хачатур, хороший контент на канале, с удовольствием подписался. Задонатить однозначно!
Снимите пожалуйста новый ролик, данный плагин уже не поддерживается а необходимость замены фона у людей осталась :)
Снял про ControlNet 👍
Всем добрый день. Столкнулся с одной проблемкой, загрузил фото и маску и при наложении фон немного меняется, а так же изменяется сам человек (общие черты остаются, но лицо полностью перестраивается), параметры выставил те же, пытался Denoising strength понизить, все равно изменяет (разумеется на 0 ничего не происходит). Сама маска получилась правильно с применением invert depthmap. Модель стоит та же. Ощущение что стоит какой то стиль, но стили не ставил. Не знаете как исправить так, что бы человека почти не изменяло? Заранее спасибо за ответ
а если в оригинальном фото день, а хочется поменять на ночь? или например какие нибудь клубные цвета, где разные прожекторы и там падает разный цвет?) интересно, потом проверю, но, может уже кто делал, он меняет цвета на маске где не надо изменять? чтобы совпадало с фоном (с окружением)
Подскажите, может я пропустил и вопрос поднимался: можно ли рендерить на AMD видеокарте? Конкретно RX 570
шокирующее видео
А можно тутор запилить по обработке сиквенций и как с ними корректно работать. Буду очень признателен...
привет подскажи, как в Stable Diffusion изменить обычную фотку с мобилы, допустим 2 человека на улице, я хочу заменить одного к примеру на робота, при этом что бы второй человек остался без изменений
Спасибо фокусник