Нейронные сети. Лекция 1 - пример нейронной сети, основы работы, примеры датасетов

Sdílet
Vložit
  • čas přidán 29. 08. 2022
  • В данной лекции приведено описание базовых принципов работы с нейронными сетями.

Komentáře • 10

  • @user-nf7dc6sf1w
    @user-nf7dc6sf1w Před 2 měsíci +1

    Так просто материал может подать человек, который разбирается в теме. Спасибо.

  • @nadezhdamartynova5614
    @nadezhdamartynova5614 Před rokem +4

    Я бесконечно благодарна за то, что такая информация выложена бесплатно в соц.сетях. спасибо за вашу работу.
    Но дана теоретическая часть очень сложно, очень сухо. Многие вещи рассказаны настолько сжато, что непонятно, о чем идет речь.

  • @andreyfly4331
    @andreyfly4331 Před 4 měsíci

    Хорошо бы ссылку на ноутбук, иначе невозможно все это усвоить.

  • @yuralamov9835
    @yuralamov9835 Před 3 měsíci

    Бля, раньше называли просто OCR, а теперь искусственный разум

  • @morispioneer632
    @morispioneer632 Před 6 měsíci +1

    "метод вычисления градиента" - градиента чего ?? Или градиент это нечто конкретное, как например портфель? Просто портфель. Но даже портфель непрост. Он бывает как сумка, а бывает портфель ценных бумаг.

    • @koshechkintube
      @koshechkintube  Před 6 měsíci +1

      Градиент - это величина, которая показывает скорость изменения функции в каждой точке ее области определения. В контексте обучения нейронных сетей градиент обычно используется для вычисления ошибки и обновления весов нейронов.
      Метод вычисления градиента в обучении нейронных сетей основан на правиле дифференцирования. Для вычисления градиента функции необходимо вычислить производную этой функции по каждому из ее аргументов. В случае нейронной сети, функция может быть представлена как совокупность функций активации нейронов, а аргументами будут входные данные.
      Процесс вычисления градиента начинается с вычисления ошибки на выходном слое нейронов. Затем ошибка распространяется назад через слои нейронов, и для каждого слоя вычисляется градиент функции потерь относительно весов этого слоя. После этого происходит обновление весов каждого слоя с помощью метода обратного распространения ошибки.
      В целом, метод вычисления градиента является ключевой частью процесса обучения нейронных сетей и позволяет находить оптимальные веса нейронов для минимизации ошибки.

    • @morispioneer632
      @morispioneer632 Před 6 měsíci +1

      спасибо большое за ваш ответ, но ... бывает например градиент температуры. Или градиент скорости. Или градиент яркости света.
      @@koshechkintube

    • @InStoKiller
      @InStoKiller Před 4 měsíci

      Стохастический Градиентный Спуск

    • @trelawney8530
      @trelawney8530 Před 4 měsíci

      @@morispioneer632 это ответ нейросети, если что)

  • @user-zs4kv4ii7d
    @user-zs4kv4ii7d Před 6 měsíci +2

    Полезной информации - ноль. Структуризация бездарна. Жаль.... тема актуальная.