FIDLE / Mathématiques & gradients everywhere !!!

Sdílet
Vložit
  • čas přidán 10. 01. 2024
  • Qui ne s'est jamais demandé ce qu'il se passait à l'intérieur d'un réseau de neurones ?
    Le but de cette séquence, qui se veut totalement didactique et abordable, est d'apporter des réponses claires à cette question en démystifiant les bases mathématiques des réseaux de neurones !
    Ces bases seront décrites et illustrées par de nombreux exemples en PyTorch.
    Nous regarderons en particulier comment un réseau de neurones peut transformer une image de manière à identifier progressivement ce qu'elle contient.
    Nous décrirons ensuite comment s'effectue l'apprentissage d'un réseau de neurones en prenant le temps de comprendre comment fonctionne une descente de gradient et la rétro-propagation.
    Quelques éléments seront enfin discutés pour comprendre l'intérêt des méthodes dites stochastiques pour l'apprentissage des réseaux de neurones.
    Pour rappel, FIDLE est une Formation d'Introduction au Deep Learning, libre et gratuite.
    Pour en savoir plus : fidle.cnrs.fr
  • Věda a technologie

Komentáře • 14

  • @anthony0027HD
    @anthony0027HD Před měsícem

    Cette vidéo est super bien expliquée. J’ai personnellement tout compris, aucune interrogation.
    Un immense merci pour ce travail et cette pédagogie.
    Vous êtes trop fort.

    • @CNRS-FIDLE
      @CNRS-FIDLE  Před 17 dny

      Merci !!! Nous sommes très heureux d'avoir pu vous aider !

  • @automatigo
    @automatigo Před měsícem

    Superbe présentation simple et claire de notions complexes.

  • @jarsal_firahel
    @jarsal_firahel Před 23 dny

    Pour cette partie maths, je recommanderai de commencer un peu plus simple notamment pour le gradient. Un truc qui permet de bien comprendre je trouve c'est un "computational graph" très simple, pour montrer comment le delta d'une variable d'entrée se "propage" dans les couches intermédiaires et finales, puis comment on peut "remonter" avec les dérivées. Andrew Ng a une très bonne explication dans sa spécialization "Deep Learning" sur Coursera (si besoin d'inspi)
    En dehors de ça FIDLE c'est toujours aussi génial ;)

    • @CNRS-FIDLE
      @CNRS-FIDLE  Před 17 dny

      Merci beaucoup pour ce retour et cette idée ! :-)

  • @laurentthowai3359
    @laurentthowai3359 Před 5 měsíci

    Merci beaucoup pour cette présentation très pédagogique , très intéressante !

    • @CNRS-FIDLE
      @CNRS-FIDLE  Před 4 měsíci

      Merci beaucoup pour votre intérêt !!

  • @cvmaths9838
    @cvmaths9838 Před 5 měsíci

    super bien expliqué , merci beaucoup pour ce type de présentation "gratuite" - un peu confus (par les notations pour la back propagation) -> du point de vue pédagogique faire avec une fonction précise (voir ex07 -> plus clair je trouve avant une generalisation avec les notations comme fait ici)

    • @CNRS-FIDLE
      @CNRS-FIDLE  Před 4 měsíci

      Merci beaucoup pour votre retour :-)

  • @neufsixnom8386
    @neufsixnom8386 Před 5 měsíci

    merci

  • @dtentes-Bivouac-974
    @dtentes-Bivouac-974 Před 5 měsíci

    Quelle différence avec l'analyse discriminante pour les résultats (axe 1 : science ; axe : langues)
    . Bonne présentation

    • @CNRS-FIDLE
      @CNRS-FIDLE  Před 4 měsíci +1

      Bonjour, désolé pour ce délais de réponse un peu long... ;-)
      Le modèle de prédiction est juste différent. En particulier la LDA fait souvent une hypothèse que les observations de chaque classe sont distribuées suivant une loi Gaussienne. L'apprentissage consiste alors à définir les paramètres de chaque Gaussienne.
      A très bientôt !

    • @fredericlacoste-if2hi
      @fredericlacoste-if2hi Před měsícem

      @@CNRS-FIDLE merci