Лекция 1 | Математика в машинном обучении | Александр Хватов

Sdílet
Vložit
  • čas přidán 11. 09. 2024
  • 01.08.2024
    Поговорим о том, как классические понятия непрерывной математики (многообразия, аппроксимация) преломляются в призме машинного обучения. Цели курса - подойти к полной задаче manifold regularization и понять, зачем она нужна в современном машинном обучении, и немного поговорить о сходимости и аппроксимации в целом на примере физически-обоснованных сетей.
    Литература:
    M. Belkin, P. Niyogi, V. Sindhwani, "Manifold regularization: A geometric framework for learning from labeled and unlabeled examples", (2006)
    M. Raissi, P. Perdikaris, G. E. Karniadakis, "Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations", (2019)
    Пререквизиты:
    Топология (многообразия, потоки над многообразиями, в целом достаточно знаний основных определений), функциональный анализ (банаховы, гильбертовы пространства, основные свойства и определения).

Komentáře • 2

  • @kirillkirill46
    @kirillkirill46 Před 21 dnem +1

    Спасибо большое, что загрузили на ютюб, и теперь можно посмотреть в записи! Очень ценно!

  • @ivansukin721
    @ivansukin721 Před měsícem +2

    Спасибо Александру за интересную лекцию!