Вариационные автоэнкодеры (VAE). Что это такое? | #28 нейросети на Python

Sdílet
Vložit
  • čas přidán 28. 09. 2020
  • Что из себя представляют вариационные автоэнкодеры и чем они отличаются от обычных автоэнкодеров. Принцип их работы. Мера Кульбака-Лейблера.
    Телеграм-канал: t.me/machine_learning_selfedu
    Инфо-сайт: proproprogs.ru
    lesson 28. Autoencoder_hidden_space.py: github.com/selfedu-rus/neural...
    Дивергенция Кульбака-Лейблера: habr.com/ru/post/484756/

Komentáře • 28

  • @user-oq7ju6vp7j
    @user-oq7ju6vp7j Před 23 dny +1

    Спасибо, наконец-то понял необходимость репараметризирования

  • @KirillGalkin92
    @KirillGalkin92 Před 3 lety +11

    Я не нашёл лучше роликов с объяснением, чем у вас, а потратил я кучу времени. Вы отлично показываете причинно-следственные связи, за счёт чего материал воспринимается хорошо. Нет никакого тумана после просмотра

  • @evgzhu8558
    @evgzhu8558 Před 3 lety +10

    Качество материала на уровне научно-популярных фильмов канала ВВС! 5+

  • @argrigorov
    @argrigorov Před 3 lety +10

    Очень чётко, ясно и по делу (без воды). И самое главное - что на конкретных примерах с кодом. Это одни из лучших видеоурокоа по теме нейросетей.
    Спасибо!

  • @stasdavydov2833
    @stasdavydov2833 Před 3 lety +4

    браво! Вы первый лектор из этой области знаний, чьи лекции не оставляют тягостного ощущения неясности. Искренне благодарю.

  • @nikita_5578
    @nikita_5578 Před 2 měsíci +1

    Спасибо большое за уроки!

  • @sergeygetto7480
    @sergeygetto7480 Před 2 lety +3

    Всё-таки немного знание статистики помогло в изучении. А объяснили всё великолепно!

  • @alexeysavostin
    @alexeysavostin Před 3 lety +1

    Спасибо! Жду продолжения.

  • @lifeisbeautifu1
    @lifeisbeautifu1 Před 3 měsíci +1

    Спасибо!

  • @qaLex455
    @qaLex455 Před rokem

    Лучшее объяснение😊

  • @kanybekmomukeev4116
    @kanybekmomukeev4116 Před 2 lety +1

    Очень качественно

  • @velocity-hz8en
    @velocity-hz8en Před 2 lety +2

    супер!!!

  • @shadermagic3075
    @shadermagic3075 Před 3 lety +1

    Волшебство в репараметризации. Нейросеть "понимает" что дисперсия это именно дисперсия, потому что мы репараметризуем сэмплирование N(X,Y) как билинейную функцию X+Y*N(0,I), и при обратном распространении ошибки получаем различные градиенты в "направлении" X и Y.

  • @osvab000
    @osvab000 Před 2 lety +3

    3:00 - Крокодил

  • @user-qb5bo3jv3e
    @user-qb5bo3jv3e Před 2 lety

    Скажите пожалуйста, а что такое -k в формуле DKL? Подозреваю, что это размерность нормального распределения. Например, если это двумерное нормальное распределение, то k будет равно 2. Так ли это? Так же хочу спросить, правильно ли я понимаю, что бы минимизировать DKL в конечной функции потерь надо что бы векторы, генерируемые кодером, были такими: вектор дисперсий содержал только единички, а вектор матожиданий содержал только нули? В таком случае, если меня не подводят мои подсчеты, DKL будет равен 0 (при условии, что k = 2).

  • @user-kp7qh4yb6m
    @user-kp7qh4yb6m Před 6 měsíci +1

    Стоило на облаке наверное лэйблы поставить

  • @darkwingduck3152
    @darkwingduck3152 Před 2 lety +1

    На отметке 7:50 график слева похож на летящего жука.

  • @linecodelinecode8261
    @linecodelinecode8261 Před 3 lety

    Приветствую вас!не подскажите какой параметр сохранит обученную сеть.(чтобы сеть не обуч лось заново)

    • @selfedu_rus
      @selfedu_rus  Před 3 lety +1

      там у модели есть методы для сохранения и загрузки обученных коэффициентов, по моему, save_weights() и load_weights(). Подробнее в документации по Keras можно посмотреть

    • @linecodelinecode8261
      @linecodelinecode8261 Před 3 lety

      @@selfedu_rus спасибо за ответ!

  • @user-qb5bo3jv3e
    @user-qb5bo3jv3e Před 2 lety

    Цитата: "остается открытым вопрос, а где здесь брать какие точки, что бы точно получать изображение цифр". Почему? Обычный авторэнкодер разве не отвечает на этот вопрос? Мы ведь
    уже сгенерировали набор точек (сжатые векторы), почему бы нам не воспользоваться ими что бы получить осмысленный результат?
    Еще одна цитата: "он конечно сформировал внутри себя вот эту вот область распределения вот этих вот точек скрытого состояния, но мы уже не можем сами взять вот в этой области
    какую-то точку, что бы на выходе декодер нам смоделировал осмысленное изображение". Возникает вопрос, почему не можем? У нас же есть точки (область), по которым мы обучили декодер выдавать осмысленное изображение. Можем брать эти точки и подавать их декору и будет нам осмысленное изображение... Или тут речь о том что бы иметь возможность подавать на вход произвольные точки и все равно получать что-то осмысленное?

    • @selfedu_rus
      @selfedu_rus  Před 2 lety +1

      да, в конце вы сами и ответили на свой вопрос, именно, произвольную точку из некоторой области

    • @user-qb5bo3jv3e
      @user-qb5bo3jv3e Před 2 lety +1

      @@selfedu_rus Спасибо! Стало понятнее)

    • @user-qb5bo3jv3e
      @user-qb5bo3jv3e Před 2 lety

      @@selfedu_rus Возник такой вопрос, а что мешает использовать обычный автоэнкодер и применять к скрытому состоянию такую функцию активации, что бы значения векторов скрытого состояния были в диапазоне от -3 до 3? Ведь нам примерно это и нужно. Почему VAE должен быть лучше такой структуры?

  • @dmitryantonov3577
    @dmitryantonov3577 Před 2 lety +1

    Спасибо!