[DeepLearning | видео 3] В чем на самом деле заключается метод обратного распространения?

Sdílet
Vložit
  • čas přidán 27. 10. 2020
  • Оригинальная запись: • What is backpropagatio...

Komentáře • 72

  • @user-yg9vi1qt4b
    @user-yg9vi1qt4b Před 3 lety +74

    Как же классно что вы продолжаете делать переводы. Большое вам спасибо!

  • @limoshkamilk9887
    @limoshkamilk9887 Před 11 měsíci +8

    Действительно, прекрасный перевод с очень замечательными и интересными занятиями. Как же все таки профессилналы могут просто объяснить. Огромная благодарность, спасибо за уроки ❤❤❤

  • @an.toshik
    @an.toshik Před 3 lety +4

    Еще еще еще😍...прекрасные переводы...

  • @MDunaev
    @MDunaev Před 3 lety +1

    Спасибо большое! Жду продолжения.

  • @user-tw7ke2sj9q
    @user-tw7ke2sj9q Před 2 měsíci +3

    у меня защита проекта в 10 классе благодаря вашем роликам думаю сдам на отлично upd: точно сказу завтра как сдал

    • @leva-ufa
      @leva-ufa Před 2 měsíci +2

      И как?

    • @dimachik8076
      @dimachik8076 Před měsícem +1

      Каааак? Интересно же ..😢

    • @jinsaw5129
      @jinsaw5129 Před 16 hodinami

      Защитился?

  • @polinab7798
    @polinab7798 Před 9 měsíci +1

    Какое толковое видео! Спасибо! На примере математического анализа мне вообще было не понятно.

  • @user-mu5jh5hc2p
    @user-mu5jh5hc2p Před 3 lety +2

    Спасибо, ребята!

  • @Hengst.
    @Hengst. Před 3 lety +2

    Ура ! ! Продолжение! Завариваем чай!

    • @user-du8hm8cm6j
      @user-du8hm8cm6j Před 3 lety

      Где? Киньте пожалуйста, у меня не отображается.

  • @nullthesis8271
    @nullthesis8271 Před 3 lety +7

    Thank you a lot! =) U are the best! =)

  • @user-rd3lj4gn4s
    @user-rd3lj4gn4s Před 2 lety +4

    Нужно ещё видео по нейронным сетям!!!

  • @annaponomarova3472
    @annaponomarova3472 Před 3 lety +1

    вы лучший!!!!!!!!!!!!!!!

  • @user-st4ih8cu6l
    @user-st4ih8cu6l Před 4 měsíci

    Благодарю вас!

  • @McCosmo777
    @McCosmo777 Před 3 lety

    Привет с Пикабу.
    Подписался, сейчас смотрю ваши переводы! Первая лекция на старте.

  • @keyos269
    @keyos269 Před 5 měsíci +2

    Если мой вопрос кто-то видит, объясните пожалуйста, на основе чего я должен понять в каких корректировках нуждаются веса? Я не совсем понял из контекста.

    • @kryptodog1066
      @kryptodog1066 Před 5 měsíci

      Как я понял чем ближе результат возрата к истине, тем ниже он требует смещение, а исходит нужно из данных полного прогона цифр, то от 1 до 9, если 8=8 а 2 = 1 то мы смещаем лишь одно значение нейрона. Наверное так, но тем слишком тяжкая чтоб я мог сказать точно😂

  • @alex_kalinichenko
    @alex_kalinichenko Před 2 lety

    Супер!!!

  • @user-du8hm8cm6j
    @user-du8hm8cm6j Před 3 lety +16

    Круто! Почти всё понял, но всё-таки с тем, как метод обратного распространения определяет, что изменять, просто пока сложно переварить. Метод градиентного спуска - понял что делает, но не понял, как. Есть продолжения с этим же переводом (перевод супер!)? Или даже больше по поводу градиентного спуска, и как он делает требуемое? По кусочкам понятно, а в целом - не очень (но в целом про нс очень понятно, молодцы!).

    • @VitanXaos
      @VitanXaos Před 3 lety +7

      ну так суть то я то же понял, я досконально не уловил)) привык просто разбираться досконально в принципах (код же не закодить "наобум")

    • @horlonangel
      @horlonangel Před 2 lety +4

      @@VitanXaos такое впечатление, что это делается специально. Прочитал и просмотрел огромное количество материалла, но так и не понял как это работает досконально. Везде много воды (как и в этом видео), которую никто не замечает, ибо не использует это все на практике...

    • @tigdang
      @tigdang Před 2 lety +1

      @@horlonangel просто конкретику надо искать на курсах. В курсере машин лёрнинг - там вот да, там конкретика. Просто на ютубе же всё научно-популярное же, нужно развлекать

    • @eugene_fed
      @eugene_fed Před rokem +5

      @@tigdang конкретику вам даст матан - 5 курсов университета. если кажется, что нейронки - это просто, то это не так. внутри сильная математика, которую на пальцах в 4 20-минутных роликах не описать. хотите разораться "досконально" - нужно получать полноценное высшее образование. вопрос только зачем? pytorch, keras и т.п. для того и разработаны, чтобы в такие дебри не лезть. а информации из этой серии роликов должно быть достаточно, чтобы работать с этими готовыми библиотеками.

    • @hottabych137
      @hottabych137 Před 5 měsíci

      @@eugene_fed Вообщем да, лучше под капот не лезть, чтобы не свихнуться. pytorch'а хватает, что такое градиентные спуски, обратный подсчёт весов это не нужно знать, да и тяжело разобрать-понять. Пока будешь понимать как это работает, состаришься, а другие уже понаклепают продуктов на основе нейросетей таких, что потом во веки веков не догонишь 😂 Так и будешь вечно догоняющим и ничего не сделавшим. Хотелось бы понять, как это работает, но увы, надо ботаном становиться минимум на 5 лет

  • @user-bn5en3eo4q
    @user-bn5en3eo4q Před 8 měsíci +1

    А каждый новый вес в векторе градиента вычисляется с помощью формулы: Wn = Wp - a * df/dWp, где
    Wn - обновленный вес,
    Wp - предыдущее значение веса,
    a - скорость спуска,
    df/dWp - наклон к екстремуму функции ошибки ?

  • @rollocks9138
    @rollocks9138 Před rokem +6

    Если кто-то тоже делал нейросеть для распознавания таких цифр, то напишите, пожалуйста, ваши гиперпараметры (батчи и мини-батчи тоже), метод активации нейрона и количество эпох, через которое вы получили более менее обученную нейросеть. Я для диплома делаю почти такую же нейросеть (там ещё латинские буквы) с нуля на C#, и мне бы хотелось с чем-то сравнить результаты обучения, что бы понять - обучение сделано правильно или нет.

    • @user-yj3qs3nl9m
      @user-yj3qs3nl9m Před rokem

      Получилось ?

    • @rollocks9138
      @rollocks9138 Před rokem +2

      @@user-yj3qs3nl9m У меня не было опыта в этой сфере, я взял нейросеть, как тему дипломного проекта. У нее получилась очень низкая точность, к тому же датасет не сбалансирован, хотя рисунки (сделал рисование на winfows forms) при достаточном обучении, иногда распознает.
      В общем, мне нужно больше опыта, а нейросети больше оптимизации в алгоритме обучения (например параллельные прохождения мини-батчей в нескольких потоках, но я пока хз как это сделать). Но защитить диплом на 5 получилось

    • @djdje75hbebd5kzoem
      @djdje75hbebd5kzoem Před 6 měsíci

      ​@@rollocks9138 какой курс?

    • @rollocks9138
      @rollocks9138 Před 6 měsíci

      @@djdje75hbebd5kzoem, в этом году закончил (колледж)

    • @rollocks9138
      @rollocks9138 Před 6 měsíci

      То есть, в прошлом: 2023

  • @Techn0man1ac
    @Techn0man1ac Před 3 lety +4

    6:32 Я где-то в сети видел видео как несколько нейронов взаимодействуют друг с другом, так вот, они не создают устойчивые связи, а наоборот - постоянно меняют их. Так что да, пока что математическая "нейронка" далека от биологической.

    • @horlonangel
      @horlonangel Před 2 lety +2

      Есть и такие нейронные сети. В них нейроны передвигаются, создают и разрывают соединения, пока учатся.

    • @krutoyinfo
      @krutoyinfo Před rokem

      эти нейронные сети не аналог нейронов в мозгу

    • @keyos269
      @keyos269 Před 5 měsíci

      ​@@horlonangelКак называется подобный принцип работы нейросетей, если не секрет?

  • @Ciber-FanSistems
    @Ciber-FanSistems Před 3 lety

    Нужен идиальныйй вес!!! ИИ Всем Будеет Счастье!!!

  • @iq40
    @iq40 Před 3 lety +1

    очень полезно!

  • @kennyaleasta
    @kennyaleasta Před rokem +3

    теоретически все понятно но вот как это может выглядеть в коде я не представляю

  • @cesarion161
    @cesarion161 Před 3 lety +1

    Подскажите пожалуйста как делается подобная визуализация на видео? Это в After Effects сделано?

    • @O5MO
      @O5MO Před 3 lety +2

      Это озвучка, про оригинал можете спросить у 3blue1brown.

    • @llllNEOllllchannel
      @llllNEOllllchannel Před 2 lety +1

      библиотека в python

    • @hottabych137
      @hottabych137 Před 5 měsíci

      After Effects это древний продукт. В нём конечно можно такое сделать, но будет очень сложно и дорого. Анимацию инфографики можно делать и в 3D пакетах, например в Blender

  • @MairanYT
    @MairanYT Před 4 měsíci

    А что если нейрону с большим весом поступило число приближенное к 0, а нейрону с малым весом поступило большое число, то получается нейрон с малым весом имел большее влияние на полученный результат?

  • @user-bq7bm5ss7t
    @user-bq7bm5ss7t Před 3 lety +5

    Добавьте, пожалуйста, ссылку на патреон

    • @bin5460
      @bin5460 Před 3 lety

      В описании оригинальное видео (это перевод), там найдешь ссылку.

    • @user-bq7bm5ss7t
      @user-bq7bm5ss7t Před 3 lety

      @@bin5460 Спасибо!

  • @toxanbi
    @toxanbi Před rokem +1

    Самый большой вопрос: как вам удалось убрать голос оригинального автора?

  • @Mrsashafr
    @Mrsashafr Před 3 lety

    великолепно!
    Добавте PayPal, пожалуйста,

  • @YaShoom
    @YaShoom Před 3 lety +3

    Ничего не понял, очень много неточностей (не в переводе, а в объяснении первого автора видео).

  • @RasulAbuMuhammadAmin
    @RasulAbuMuhammadAmin Před 3 lety +3

    Красивый графон, но жвачка вообще

  • @avazart614
    @avazart614 Před 3 lety

    А переводы предыдущих видео есть?

  • @user---------
    @user--------- Před 4 měsíci +4

    НИXPEHA НЕ ПОНЯТНО. 😢

    • @dimachik8076
      @dimachik8076 Před měsícem

      Но очень интересно 😂

  • @hottabych137
    @hottabych137 Před 5 měsíci

    Нихера не понятно. Увы. Градиенты, спуски... Это понятно даже воробушку, но представить это на этой сети - не получается. Что, куда? Аа... уже не поспеваешь за роликом и энтропия в голове наслаивается и наслаивается превращаясь в ком "непоняток". Само видео - крутое, качественная анимация, вроде должно дать понимание, представление... но увы, в 45 лет это тяжело осознавать

  • @Chechnya_9595
    @Chechnya_9595 Před rokem

    Automatic HeadShot Accuracy Only!!! PUBG и Config

  • @Ciber-FanSistems
    @Ciber-FanSistems Před 3 lety

    21000!!!!

  • @Fakster_Bakster
    @Fakster_Bakster Před 3 lety +1

    Совок много думал о космосе и где он теперь? А вы много думаете о нейронах.

    • @oshyo2000
      @oshyo2000 Před 3 lety +1

      Хмм... попахивает нацизмом(я нац)

    • @furry8290
      @furry8290 Před 3 lety +1

      Совок остался забытым в песочнице(

    • @pavelekb3510
      @pavelekb3510 Před rokem +2

      аргумент уровня - Эйнштейн много думал... и где он теперь?

    • @Fakster_Bakster
      @Fakster_Bakster Před rokem

      @@pavelekb3510 Вообще-то, Эйнштейн теперь во всём.

    • @sanemanru2920
      @sanemanru2920 Před rokem

      @@Fakster_Bakster тоже подушню - вы сначала мотивировали тем что объекта больше нет, а затем перешли на то что не смотря на то что больше объекта нет - он оставил значимый след. дак СССР тоже след оставил. и очевидно что СССР-а нет не из-за того что там "думали о космосе"