Рекуррентные нейронные сети | Обработка естественного языка
Vložit
- čas přidán 2. 06. 2024
- Архитектуры рекуррентных нейронных сетей LSTM и GRU.
00:00 - Рекуррентные нейронные сети
01:30 - Архитектура сети LSTM (Long Short Term Memory)
07:39 - Архитектура сети GRU (Gated Recurrent Units)
08:39 - Итоги
В видео используются рисунки из статьи Christopher Olah Understanding LSTM Networks - colah.github.io/posts/2015-08...
Проект реализуется победителем Конкурса на предоставление грантов преподавателям магистратуры благотворительной программы "Стипендиальная программа Владимира Потанина" Благотворительного фонда Владимира Потанина".
VK - avsozykin
telegram - t.me/a_sozykin
Мой сайт - www.asozykin.ru
Мой канал с краткими и понятными объяснениями сложных тем в ИТ и компьютерных науках - / andreysozykincs - Věda a technologie
Андрей, просьба не забрасывать выкладывание видео уроков.
Ваши уроки суперские ))
Спасибо за положительную оценку уроков. Не забрасываю, но времени не хватает регулярно записывать.
Жду видюху по трансформерам. Оч крутая тема , в которую хотелось бы поглубже окунуться
Да, траснформеры сейчас везде.
Нужен урок или курс по бинарным нейронным сетям. Их там много разных архитектур. У них нет проблемы переобучения и учатся они в 32 раза быстрее своих аналогов.
К сожалению, я в этом совершенно не разбираюсь, поэтому не смогу сделать хорошее видео.
@@AndreySozykin Будет повод разобраться😄
Вот бы ещё послушать про эхо сети...
В таких сетях тоже не разбираюсь, к сожалению.
Ждём про внимание и трансформеры... Сложная тема!
Да, тема сложная и важная! Особенно сейчас.
Уроборос. А я прочитал рекрутинговые Нейронные сети. Уже было обрадовался. Надеялся что искусственный интеллект даст мне работу. Пока нет времени смотреть видео но надо будет глянуть...
Нейронные сети для рекрутинга тоже есть, например, вот - habr.com/ru/companies/talenttech/articles/573282/
@@AndreySozykin Спасибо досмотрел и посмотрю следующие. Тема Очень актуальная Я этим не занимаюсь но Просто любопытно. Потому что сейчас эти нейросети всюду. Правда из этого видео мало что понял. Хотелось бы больше наглядности и конкретных примеров. Например взять какие-то данные и провести их по всему. Предположим какая-то информация ноль или единица зашла как онаи куда она выходит. Как На что влияет этот вентиль забвения и Подобные. Что Именно они делают с информацией вытирают удаляют заменяют. И откуда в них берётся информация о том что с поступающая информация и делать. Насколько я понял в том-то и смысл рекурсии Что информация для обработки новой информации берётся из старой. Наговорил сумбурно Извините Надеюсь понятно