Comprendre les LSTM - Réseaux de neurones récurrents

Sdílet
Vložit
  • čas přidán 5. 02. 2019
  • Patreon : / membership
    Dans cette vidéo, nous regardons comment fonctionnent les cellules LSTM (Long short time memory) et leur mémoire qui leur permettent de stocker uniquement l'information nécessaire utile à une prédiction.
    #RNN #LSTM #DeepLearning
    La vidéo sur les réseaux de neurones récurrents (RNN) :
    • Comprendre les réseaux...
    Discord de la communauté :
    / discord
    [Chronique d'une IA]
    Spotify : open.spotify.com/show/5yTTTKf...
    Amazon music : music.amazon.fr/podcasts/5097...
    Apple Podcasts: podcasts.apple.com/us/podcast...
    [About me]
    Visual Behavior : visualbehavior.ai
    Perso : www.thibaultneveu.ai/
    Github : github.com/thibo73800
    Linkedin : / thibaultneveu
    Twitter : / thiboneveu
  • Věda a technologie

Komentáře • 81

  • @raphaelt1000
    @raphaelt1000 Před 3 lety +6

    Très clair merci, référencement en tête des vidéos LSTM mérité. Un petit complément sur la backpropagation dans les cellules LSTM aurait peut-être pu compléter le tout

  • @yacinebenaffane6535
    @yacinebenaffane6535 Před 5 lety +15

    Enfiiin je comprend les LSTM. Merci !
    Une video sur les transformers serait aussi intéressante ^^

  • @guygirineza4001
    @guygirineza4001 Před 4 lety +1

    J'ai pas fini ta vidéo mais je tiens déjà à te remercier de ce que tu fais !! Tes explications sont simples et concises ! J'adore ca, merci bcp !

  • @romainl3591
    @romainl3591 Před 3 lety +1

    Quelle pédagogie ! C'est vraiment très bien expliqué. Bravo pour ce travail de qualité !

  • @bennacer13
    @bennacer13 Před 2 lety +1

    Slt , Merci Beaucoup pour cette très claire vulgarisation des LSTM, c'est vraiment très bien expliquer !
    Merci encore pour tout ton travail, et la qualité d'information partagée.

  • @bersalimahmoud6732
    @bersalimahmoud6732 Před 5 lety

    Trés bonne explication, Merci beaucoup pour vos efforts et Bonne continuation.

  • @thibautsaah3379
    @thibautsaah3379 Před 5 lety +1

    Merci vous m'avez vraiment aidé à comprendre les bases du LSTM!

  • @stedlg
    @stedlg Před 5 lety

    Vraiment excellent ce cours, merci beaucoup !

  • @benaissaahmed4692
    @benaissaahmed4692 Před 5 lety

    Bravo et mille merci, tres clair et tres bien explique.

  • @user-et8es9vg5z
    @user-et8es9vg5z Před rokem

    Merci beaucoup. Cette notion est clairement plus difficile à saisir que les RNN mais grâce à tes explications très claires je pense avoir compris.

  • @Spartan34Crafticraf
    @Spartan34Crafticraf Před 9 měsíci

    très bonne vidéo pédagogique ! un commentaire pour la mettre en lumière pour d'autres personnes en recherche de vidéos pédagogiques de qualité sur le sujet

  • @mehdi5753
    @mehdi5753 Před 4 lety

    Je viens de terminer la formation de andrew NG sur les LSTM j'avais quelque flou a propos de ça, en regardant ta vidéo j'ai pu combler mes lacunes a ce sujet. Bien joué.

  • @mountassirkh2759
    @mountassirkh2759 Před 3 lety

    C'est grandement instructif. Merci !

  • @sachadu779
    @sachadu779 Před 3 lety

    Franchement tu gères à fond merci beaucoup

  • @profeskills768
    @profeskills768 Před 3 lety

    Bravo ! C est trop bien expliqué :)

  • @zinebgarroussi5059
    @zinebgarroussi5059 Před 3 lety

    Excellente video sur les LSTM.

  • @rodklv8564
    @rodklv8564 Před 3 lety

    Bravo et félicitations Thibault, ne change rien ! En retour ce fan te conseille burning man ;)

  • @ilyeszemalache2348
    @ilyeszemalache2348 Před 4 lety

    Lerci beaucoup beaucoup mon frère tu expliques très bien

  • @franckmennereuil3028
    @franckmennereuil3028 Před 4 lety

    Très bien expliqué ! Merci

  • @djamilatoudiallo3583
    @djamilatoudiallo3583 Před rokem

    meilleur cours sur les LSTM Merci beaucoup

  • @nathanaelbenichou2276
    @nathanaelbenichou2276 Před 2 lety

    incroyable tes vidéos !

  • @fadiaferarha4932
    @fadiaferarha4932 Před rokem

    Merci pr la vidéo !

  • @sarahyounes2624
    @sarahyounes2624 Před 3 lety

    Merci, une vidéo tres claire.

  • @botanahmad9016
    @botanahmad9016 Před 3 lety +1

    Un mot a dire: excellent.

  • @youssefelajraoui2576
    @youssefelajraoui2576 Před rokem

    très bien expliqué. Merci

  • @yaminadjoudi4357
    @yaminadjoudi4357 Před 3 lety

    merci bcp, j'espère voir une vidéo sur les MNNs (Modular neural networks)

  • @naimsouni4428
    @naimsouni4428 Před 3 lety

    vraiment top comme video ! thanks :)

  • @alainrieger6905
    @alainrieger6905 Před 4 lety +6

    T'as mieux expliqué les LSTMs que Andrew Ng. Merci pour ton partage!

  • @searchof2887
    @searchof2887 Před 6 měsíci

    superbement explique

  • @chadhamhalla7310
    @chadhamhalla7310 Před 3 lety

    C'est excellent! Merci :D

  • @crabulin
    @crabulin Před 4 měsíci

    C'est très clair, merci :)

  • @moussabamba6216
    @moussabamba6216 Před 4 lety

    tu es génie, merci encore

  • @dzlcrd9519
    @dzlcrd9519 Před 4 lety

    Super bien expliqué

  • @mustaphag.b.d7758
    @mustaphag.b.d7758 Před 4 lety

    Merci, bien explique

  • @davidniddam9869
    @davidniddam9869 Před rokem

    Tres Clair , merci

  • @sahibkhouloud8670
    @sahibkhouloud8670 Před 4 lety

    Merci bcp ❤

  • @alvineteubo-ld9re
    @alvineteubo-ld9re Před měsícem

    Bravo merci beaucoup je comprends vraiment 🙏 stp as-tu fais une vidéo sur le backpropagation?

  • @mehdihellou4173
    @mehdihellou4173 Před 5 lety

    Un grand bravo pour ta vidéo, avec des explications très claire. Penses-tu que dans un avenir proche il serait possible de faire une vidéo sur les Memory Network, qui est une version amélioré des LSTM ?
    Encore un grand bravo pour ta vidéo et continue comme ça !

    • @ThibaultNeveu
      @ThibaultNeveu  Před 5 lety

      Je prend note, c'est vrai que les memory network sont super intéressant!

  • @louis-philippedugas8118
    @louis-philippedugas8118 Před 5 lety +2

    Excellent vidéo. Cependant j'ai du mal à voir comment les gains de toutes ces matrices sont entrainés comparés à un réseau feedforward. Un prochain vidéo :) ?

  • @jackympoy7
    @jackympoy7 Před 4 lety

    Merci pour ta vidéo, qu'est ce que représentent les 5 valeurs du vecteur Ct ?

  • @brahimdarham8001
    @brahimdarham8001 Před 2 lety

    GéNIAL !!

  • @aminearbouch4764
    @aminearbouch4764 Před 4 lety

    Salut thibaut, merci pour la video. STP comment je peux utiliser un graphe qui figure sur la video, biensur que en te citant dans mon etude

  • @user-dl5un7tq4t
    @user-dl5un7tq4t Před 8 měsíci

    merci!!

  • @science.20246
    @science.20246 Před 3 lety

    tres simple explicaion

  • @pedrocolombino3266
    @pedrocolombino3266 Před 5 lety

    Merci bcq pour la vidéo, c‘est très utile. A 4min22, est ce que la matrice de poids W pourrait avoir une taille 4X3 ou obligatoirement 3X4.

  • @hamadoumossigarba1201

    Bonjour et merci pour la clarté de ce cours. Je voudrai si possible savoir si on peut avec cette technique LSTM créer un système d'enregistrement, d'identification et de gestion de terminaux mobiles à l'aide de deux catégories de codes et d'une valeur fixe? Si oui, existe-t-il un survey sur cette préoccupation?

  • @LUCAMARRADI-ii6gp
    @LUCAMARRADI-ii6gp Před rokem

    Top :)

  • @bernardotod9962
    @bernardotod9962 Před 3 lety +1

    Pourriez-vous me dire svp quel logiciel utilisez vous pour la représentation graphique/schéma des réseaux ?

  • @emoloic8481
    @emoloic8481 Před 4 lety

    Merci

  • @Lumi265
    @Lumi265 Před 2 lety

    1) Les matrices pour l'étape d'oublie, d'ajout et de sortie sont donc toutes des matrices (9,5) mais pour chacune on attribue des valeurs aléatoires différentes ?
    2) quant à C lors de la partie sortie il s'agit de l'addition de la mémoire obtenue dans l'étape oublie + celle dans l'étape ajout ?
    3) dernière question comment fonctionne le t0 ? avec C-1 = vecteur nulle ?
    En tous cas merci d'expliquer avec tant d'explication ça rend le sujet vraiment abordable

  • @LaZaR92250
    @LaZaR92250 Před 5 lety

    Très instructif et très pédagogique (la qualité des slides aide énormément ^^)
    Par contre, j'anticipe peut-être le sujet d'une prochaine vidéo, mais comment fait-on pour paramètrer ce genre de cellules ?
    Merci encore pour ce travail pédagogique qui arrive à enlever la "magie" derrière les technologies à la base de l'intelligence artificielle.

    • @ThibaultNeveu
      @ThibaultNeveu  Před 5 lety

      En utilisant de la backpropagation, chaque matrice W et les bias b montré vont être modifié pour converger vers une solution. J'en parle dans ma série sur le deep learning.

    • @LaZaR92250
      @LaZaR92250 Před 5 lety

      @@ThibaultNeveu Une retro-propagation classique fonctionne donc ... ça doit pas être simple à mettre en œuvre à la main mais certain framework doivent faire ça je suppose ?
      Il faut donc avoir plusieurs, un pour chaque pas de temps ?

    • @ThibaultNeveu
      @ThibaultNeveu  Před 5 lety

      Non, un seul en réalité, car le calcul réalisé à t+10 par exemple dépend de t+9 qui dépend de t+8 qui dépend de ..... t. Donc par la rétropopagation un seul optimizer suffit pour optimiser la même céllule qui est utilisé sur toute les steps, et ainsi faire en sorte que à chaque step la céllule est bien une représentation et une série d'opération (foget gate, input gate, output gate) qui lui permette de faire la bonne prédiction.

  • @keichan0505
    @keichan0505 Před 5 lety

    Excellent travail, comme toujours :). Est-ce la prochaine video traitera de l'apprentissage de telles cellules ?

    • @ThibaultNeveu
      @ThibaultNeveu  Před 5 lety +2

      Ça va venir oui, il y a un gros programme que je prépare pour le mois prochain :)

    • @keichan0505
      @keichan0505 Před 5 lety

      @@ThibaultNeveu un gros programme? J'ai hate :)

  • @alainrieger6905
    @alainrieger6905 Před 4 lety

    est ce possible davoir une video sur le modèle transformer du papier "attention is all you need". Merci a toi bon courage!

  • @ismailelabbassi7150
    @ismailelabbassi7150 Před 8 měsíci

    Merci c'est bien expliqué. mais j'arrive pas saisir la relation entre la mémoire et le vanashing/exploding gradient.

  • @ghizlanechtouki
    @ghizlanechtouki Před 6 měsíci

    merci

  • @jean-marclaferte443
    @jean-marclaferte443 Před rokem +1

    Thibault, si tu lis encore les commentaires : merci pour cette vidéo qui m'a aidé à comprendre les LSTM. Deux remarques bienveillantes et constructives toutefois : pense à rappeler que tu parles de la multiplication numpy de vecteurs (ie membre à membre) et non d'une multiplication mathématique de vecteurs qui n'existe pas ! Par ailleurs mais c'est plus anecdotique j'en conviens, je pense que ce serait plus clair si tu évitais oralement certains termes anglais ou abréviations (exemple : biais et non "bias" avec une prononciation pas intuitive, tangente hyperbolique et non "tanh"). Bravo pour le reste 🙂

  • @jonathanndamba3661
    @jonathanndamba3661 Před 4 lety

    Top

  • @Maarx
    @Maarx Před 4 lety

    Super vidéo on comprend facilement grâce aux illustrations !
    Je me demandais seulement : est-ce que la taille du vecteur de mémoire de la cellule doit être égale à la taille du vecteur de sortie ?

    • @mmdrlolfr2612
      @mmdrlolfr2612 Před rokem

      Je réponds à cette question pour les prochains lecteurs mais je ne pense pas que la mémoire soit de même taille que l’output. Pour n’avoir par exemple qu’un output avec une matrice de 5 valeurs, on pourrait implémenter à la fin une couche pour relier chaque valeur de la mémoire à la sortie. Reprenez moi si j’ai faux. ;)

    • @Maarx
      @Maarx Před rokem

      @@mmdrlolfr2612 Alors, 3 ans de PyTorch plus tard je peux répondre à moi-même du passé : ce qu'on fait en pratique c'est qu'on ramène le hidden_state de la dernière couche LSTM à la dimension souhaitée grâce à une projection linéaire.

  • @kouagnybeliessouclementgue8

    Merci beaucoup pour vos explications. Mais est-ce possible d'avoir une ou des vidéos sur les GAN ?

  • @loubnafares929
    @loubnafares929 Před 2 lety

    merci beaucoup pour cette explication , une petite erreur (min 13:26)la matrice Wf doit être de taille (5,9) et non pas de (9,5)

  • @cesarus2780
    @cesarus2780 Před 4 lety

    Bonjour,
    Quelqu'un peut me dire comment on set le nombres de cells d'un LSTM?
    Merci

  • @kamalagourram3709
    @kamalagourram3709 Před 4 lety

    MERCI DE M'ENVOYEZ VOTRE E-MAIL

  • @imenekhalifa9344
    @imenekhalifa9344 Před 5 lety

    merciii beaucoup pour cette vidéo vous explique bien ! avez vous un email . je suis en train de faire ma mémoire de recherche qui s' intérésse sur le deep learnig pour prédir la tendance du prix d'un indice bourcier avec analyse numérique(prix de l'action ) et une analyse textuelle (analyse de sentiment) . je suis dans la phase de modéliser le modele avec le logiciel Matlab .Si je trouve un probléme ou une tache pas claire je peut vous contacter par email ?

    • @ThibaultNeveu
      @ThibaultNeveu  Před 5 lety

      Salut, as-tu rejoins le discord pour parler de ton projet ?

  • @ahlembougattaya5467
    @ahlembougattaya5467 Před 5 lety

    merci beaucoup pour cette explication est ce que tu peut me donne le diapo de présentation s'il possible et mrc

    • @ThibaultNeveu
      @ThibaultNeveu  Před 5 lety

      docs.google.com/presentation/d/126o9uafLcWUP6UHvffmrUxgmbIdoWXcj31ALDHK8baQ/edit?usp=sharing

    • @ahlembougattaya5467
      @ahlembougattaya5467 Před 5 lety

      @@ThibaultNeveu merci beaucoup

  • @hamadoumossigarba1201

    J'allais écrire, .... un système centralisé, ...

  • @nizarelhilali903
    @nizarelhilali903 Před rokem

    L3zzzz Biiik Awld Mimty 3ajbny Lah Yj3l Rby y7n 3lk alfrda

  • @WahranRai
    @WahranRai Před 3 lety

    Il oublie peu à peu son français : un biais, une couche, un produit scalaire, tangente hyperbolique, une sortie etc...