Введение в Deep Learning | Григорий Сапунов (Intento)

Sdílet
Vložit
  • čas přidán 1. 08. 2017
  • Летняя школа по биоинформатике: bioinformaticsinstitute.ru/sum...
    Основы нейросетей. Виды нейросетей (полносвязные нейросети, автоэнкодеры, свёрточные, рекуррентные) и решаемые ими задачи. Современное состояние области и тренды.
    Институт биоинформатики: bioinf.me
    Слайды: bioinformaticsinstitute.ru/sum...

Komentáře • 41

  • @palyura1162
    @palyura1162 Před 6 lety +31

    Спасибо. Все так класно объясняет. Побольше бы таких видео.

  • @TheMitPitt
    @TheMitPitt Před 4 lety +25

    Комментаторы к этому видео пытаются обучить нейросеть?

    • @eRatube
      @eRatube Před 3 lety +3

      Это нейросети комментировали)

  • @ivanesan5235
    @ivanesan5235 Před 3 lety

    Очень доступно и интересно! Спасибо за контент!

  • @klev1983
    @klev1983 Před 6 lety +2

    Нормально так пробежались по машинному обучению

  • @elenasaht1379
    @elenasaht1379 Před 4 lety +1

    Прочла комментарии. Искренне захотелось верить, что сидящие в зале были другими (сложно, много матана...прочее). А лекция вполне хороша для вводного обзора

  • @warnalexfrost605
    @warnalexfrost605 Před 3 lety +1

    Сложно слооожно , много математики
    Зверский доклад
    Огонь

  • @user-yc5nq4xr8b
    @user-yc5nq4xr8b Před 5 měsíci +1

    Респект

  • @scariestscary1090
    @scariestscary1090 Před 3 lety +1

    Не знаю, кто как, но для меня изучающего нейросети в течении 3 часов , лекция очень понятна)))
    Осталось научить сеть прописывать/переписывать себе новые блоки и архитектуруи и организовать внутри себя нейронные связки памяти.

  • @artemykrylov
    @artemykrylov Před rokem +1

    Слайды: edu.bioinf.me/files/vvedenie_v_deep_learning.pdf

  • @johnsfppanthonyvtw1387

    Нормально так пробежались по машинному обучению
    Сложно сложно , мнооого математики

  • @daniiltroshkov6081
    @daniiltroshkov6081 Před 2 lety

    Хорошая лекция! Как я понял, четыре года прошло. Хочется еще апдейта со State Of Art. Если есть у кого линки на похожий современный материал, делитесь, плиз...

  • @user-jf6li8mn3l
    @user-jf6li8mn3l Před 6 lety +6

    Спасибо за видео. Не смотря на продолжительность, смотрится легко. Выложите пожалуйста презентацию иди хотя бы ссылки из неё.

    • @bioinforussia
      @bioinforussia  Před 5 lety +7

      Ссылки на все слады школы 2017: bioinformaticsinstitute.ru/summer2017/slides

    • @user-jf6li8mn3l
      @user-jf6li8mn3l Před 5 lety

      Институт биоинформатики Спасибо большое!

    • @loradolores
      @loradolores Před 2 lety

      @@bioinforussia Эта ссылка уже устарела. Не могли бы обновить?

    • @artemykrylov
      @artemykrylov Před rokem

      @@loradolores edu.bioinf.me/files/vvedenie_v_deep_learning.pdf

  • @illuzkameluz
    @illuzkameluz Před 4 lety +15

    Зверский доклад

  • @maratzvizdets1208
    @maratzvizdets1208 Před 4 lety +1

    я знаю кун-фу!
    А вообще нормально так пробежались по машинному обучению, хоть и сложно сложно , мнооого математики.
    Про что вообще лекция была?

  • @user-jd8ml1wr2e
    @user-jd8ml1wr2e Před 2 lety

    ну я этот пример где-то слышал, про отличие кошки от собаки для трёх летнего ребёнка, но там вроде речь была про простоту запоминания, то-есть, трёхлетнему покажи на пару сек и он запомнит и скорее всего распознает другой вид кошки, а компьютеру обучаться долго надо и иметь не одну картинку а целый дата сет. Но если про скорость говорить, то да это понятие не соответствует действительности, так как всё зависит от ресурсов вычислительных

  • @s.nielsenkeith3684
    @s.nielsenkeith3684 Před 4 lety

    Сложно сложно , мнооого математики
    Зверский доклад
    просмотрела 40 минут и ничего не поняла

    • @elenasaht1379
      @elenasaht1379 Před 4 lety

      Вроде уровня первого курса любого техничего вуза.

  • @a.bibbspatricia2839
    @a.bibbspatricia2839 Před 4 lety +1

    Сложно сложно , мнооого математики
    Зверский доклад

  • @sashausb1
    @sashausb1 Před 5 lety +1

    просмотрела 40 минут и ничего не поняла

  • @ZugDuk
    @ZugDuk Před 4 lety +1

    Я не понял, нейросеть умеет считать? А она умеет рисовать график? Умеет рисовать линии на графике?
    Про что вообще лекция была?

    • @user-zy7ui3ix1z
      @user-zy7ui3ix1z Před rokem

      А зачем? Графики прекрасно рисует обычный алгоритм.

  • @relicthominide5546
    @relicthominide5546 Před 6 lety +3

    Мой процессор восьмилетней давности в два раза медленнее чем такой же в современной линейке. Какие 1000 раз за 10 лет?) Закон Мура давно не работает.

    • @bnbr8100
      @bnbr8100 Před 6 lety +8

      внимательней слушайте, процессор и вычислительные мощности понятия не совсем идентичные

    • @relicthominide5546
      @relicthominide5546 Před 6 lety

      А что, вычисления уже чем-то другим производятся? В видеокартах - не процессор? DSP - не процессор?)) Упомянутый закон Мура не работает даже в буквальном изложении, как количество транзисторов на площадь, это факт. А уж в практическом тем более.

    • @bnbr8100
      @bnbr8100 Před 6 lety +6

      Почитайте про архитектуры процессоров, много полезного узнаете. Ваш процессор и к примеру специализированный ASIC под нейронки, недавно произведенный гуглами TPU, нельзя "сравнивать в лоб". Выщислительная мощность при равном колличестве транзисторов на кристалле будет существенно разная для разных задач. Или взять программируемые плис, их процессором в обывательском понятии вообще назвать нельзя. То, что плотность, с которой вытравливают на подложках транзисторы на кристалах микросхем уперлась в несколько нанометров, не говорит о том, что достигнут предел развития процессоров. Закон мура не о технологии производства. Просто Мур в свое время интерпретировал эмпирическую зависимость производительности по колличеству транзисторов, так и было - росла плотность - росла частота - росла производительность. Других идей не было у него. Зависимость осталась, но интерпретировать ее уже надо по другому, а название осталось.

    • @relicthominide5546
      @relicthominide5546 Před 6 lety +3

      Нет уж попрошу, Закон Мура - это закон Мура. Он не работает. Не надо сову на глобус натягивать, как бы мы теперь имеем в виду под законом Мура что-то другое, а не закон Мура. Математическая производительность процессоров также почти не выросла за последние десять лет, ни о какой 1000 раз уж точно тут речи не идет. А что мы теперь на этой математической мощности иногда считаем что-то другое и по-другому, на других алгоритмах и при помощи специализированных архитектур, которые выполняют какие-то задачи лучше чем процессоры общего назначения - это совсем другой вопрос, который к закону Мура ровным счетом никакого отноршения не имеет.
      Так что это вы лучше пойдите что-нибудь почитайте))

    • @bnbr8100
      @bnbr8100 Před 6 lety +7

      Походу что-то объяснять человеку нет смысла, если он черное видит белым. Те вычисления, которые мог провести ваш процессор имея в своей структуре N транзисторов, не медленнее в 2 раза процессора абсолютно другой архитектуры имеющего 2*N транзисторов. Так понятнее? Вычислительные мощности растут по закону мура а не мощность вычислений частного случая реализованного на основе какого либо одного процессора. Лектор имел ввиду это, говоря что те алгоритмы которые еще сейчас не представляется возможным общитать, уже через десять лет будут реализовываться на обычном персональном компьютере.

  • @mrGrey2009
    @mrGrey2009 Před 3 lety

    Сложно стригся 40 минут, пробежался по зверям, множественная математика