Comprendre les réseaux de neurones récurrents (RNN)

Sdílet
Vložit
  • čas přidán 10. 01. 2019
  • Patreon : / membership
    Les réseaux de neurones récurrents sont utilisés dans des millions de téléphones, dans la reconnaissance vocale, pour de la traduction, mais aussi dans de nombreuses autres applications en deep learning. Dans cette vidéo, nous regardons comment ils fonctionnent et quel est leur principale faiblesse.
    #RNN #DeepLearning
    Discord de la communauté :
    / discord
    [Chronique d'une IA]
    Spotify : open.spotify.com/show/5yTTTKf...
    Amazon music : music.amazon.fr/podcasts/5097...
    Apple Podcasts: podcasts.apple.com/us/podcast...
    [About me]
    Visual Behavior : visualbehavior.ai
    Perso : www.thibaultneveu.ai/
    Github : github.com/thibo73800
    Linkedin : / thibaultneveu
    Twitter : / thiboneveu
  • Věda a technologie

Komentáře • 46

  • @Laurentc42
    @Laurentc42 Před 5 lety +2

    Comme d'habitude, c'est clair, propre, merci à toi pour ces vidéos

  • @alexandregazagnes4577
    @alexandregazagnes4577 Před 3 lety +1

    J'avais fait du RNN il y a 3 ans. Je m'y remets après 2 ans Hors du circuit. Et bien et bien et bien... Très bonne vidéo. Bravo pour le côté pédagogique, pour la clarté du propos. Ni trop vite ni trop lentement. Il faut candidater chez fast.ai ;) bravo encore

  • @ecureuilmasque1234
    @ecureuilmasque1234 Před 5 lety +1

    Vidéo très intéressante et très clair, hâte de voir la suite

  • @user-dl5un7tq4t
    @user-dl5un7tq4t Před 8 měsíci

    merci beaucoup d'avoir pris le temps de nous expliquer, je suis passé de quelqu'un qui ne comprenait rien en RNN et au deep learning à quelqu'un qui le maitrise à la perfection 🙏🙏

  • @thibaultlequere2052
    @thibaultlequere2052 Před 4 lety +1

    cette surprise de voir des vidéo explicative en français! Merci!

  • @jeanpeuplu3862
    @jeanpeuplu3862 Před 2 lety +1

    Elles sont super tes vidéos, merci beaucoup !!

  • @tarluck
    @tarluck Před 4 lety

    Bonjour, Merci beaucoup , pour les explications détaillées , tu es bcp de talents en IA et aussi en Tuto's
    merci

  • @mariadebbah1759
    @mariadebbah1759 Před 4 lety +1

    Bravo...simple et clair, merci bcp

  • @ilyeszemalache2348
    @ilyeszemalache2348 Před 4 lety

    Tu explique juste, très bien, merci beaucoup

  • @fatmabenabdallah3002
    @fatmabenabdallah3002 Před 2 lety

    Excellente explication. Merci Thibault!

  • @bleunuit012
    @bleunuit012 Před 4 lety

    vraiment des explications claires, Merci bcp pour ces vidéos

  • @alima936
    @alima936 Před rokem

    Merci beaucoup , vidéo super , explications détaillés , bonne continuation

  • @fatimaz.youcef1175
    @fatimaz.youcef1175 Před 2 lety

    bien expliqué, la meilleur vidéo que j'ai vu jusqu'a présent

  • @bilelkhelifi4283
    @bilelkhelifi4283 Před 3 lety

    Waouh ,c'est vraiment épatant ,merci beaucoup !!

  • @YePapoteGlobal
    @YePapoteGlobal Před 5 lety

    Super intéressant. Merci

  • @chahinezhigoun1078
    @chahinezhigoun1078 Před 4 lety

    Excellente explication merci

  • @stedlg
    @stedlg Před 5 lety

    Super vidéo merci !

  • @eq3
    @eq3 Před 4 lety

    Salut, ta vidéo est vraiment super bien, on comprend très bien ce que tu cherches à expliquer ! J'ai une ptite question... si on a plusieurs hidden layers, on utiliserait lequel pour transmettre l'information au réseau t+1 ?
    Merci, ++

  • @MisterDerban
    @MisterDerban Před 5 lety

    franchement merci, jusqu'à présent j'avais pas pigé l'histoire du vanishing gradient, Siraj n'a qu'à bien se tenir !

  • @lionelkennethouedraogo637

    Présentation très claire des RNN !

  • @user-et8es9vg5z
    @user-et8es9vg5z Před rokem

    Wow très impressionant de tomber sur une vidéo d'une telle qualité sur un sujet comme celui-ci et en français. Tout était super clair merci beaucoup. Juste une petite question : Quel est donc l'intérêt des RNN dans la pratique s'ils ont un point faible aussi conséquent ? Je me souviens d'un prof qui nous avait demandé de le faire pour un projet de système de recommendations. Mais avec un défaut aussi conséquent, j'ai dû mal à voir comment cela peut-il être viable dans la pratique. Parce que dans la pratique je doute qu'on veuille se restreindre à des réseaux minuscules.

  • @Lumi265
    @Lumi265 Před 2 lety

    Cette vidéo est génial merci

  • @aissamdjahnine6854
    @aissamdjahnine6854 Před 4 lety

    Propre , Merci

  • @nathanaelbenichou2276
    @nathanaelbenichou2276 Před 2 lety

    Impeccable !

  • @visitingtogo
    @visitingtogo Před 4 lety

    @Thibault Neveu Merci pour la présentation. Où puis-je trouver les slides?

  • @bentamernadjiblakhdar3934

    Merci beaucoup

  • @oussamasahli6667
    @oussamasahli6667 Před rokem

    Merci Thibault

  • @mountassirkh2759
    @mountassirkh2759 Před 3 lety

    Merci !

  • @amiramorsli2265
    @amiramorsli2265 Před 5 lety

    Vidéo très intéressante ,.@Thibault Neveu, je veux savoir est ce que c'est la bonne méthode pour l'apprentissage de mon chatbot ,je vous explique j'ai utiliser dialogflow pour le traitement nlp t la ,je dois remplir toutes les expressions possibles pour une action pour cella je veux utiliser une méthode d’apprentissage d'IA pour régler ce probleme ,le faite de donner des expressions et a lui de trouver les expression qui ont le même sens ?

  • @moussabamba6216
    @moussabamba6216 Před 4 lety

    Merci pour cette vidéo maintenant j'amerais savoir tu as fais quoi comme formation afin d'etre bon en intelligence artificielle.merci d'avance

  • @emmanuelkoupoh7979
    @emmanuelkoupoh7979 Před 5 lety

    Salut Thibaut j'ai des question sur l'implémentation de RNN avec Keras stp

  • @mboubasoubeyedenis947

    wow!! très cool Prof! svp! pouvez-vous m'aider avec certains articles qui parlent de la prédiction des trafics routiers basée sur les réseaux de neurones profonds?

  • @ismailelabbassi7150
    @ismailelabbassi7150 Před 10 měsíci

    Nice

  • @amineboujida1276
    @amineboujida1276 Před 4 lety

    Merci pour la vidéo (y) bizarrement la seule syllabe qui se prononce pareil qu'en français "hid" dans "hidden" tu la prononce mal hahah (Just for fun Thank's for the great content dude ;) )

  • @emmanuelkoupoh7979
    @emmanuelkoupoh7979 Před 5 lety

    j'arrive pas bien à comprendre comment la boucle de récurrence est caractérisée avec keras

  • @megagooglito2471
    @megagooglito2471 Před 2 lety

    pour info, le i de "hidden" se prononce [i] pas [aïe].

  • @larotu00
    @larotu00 Před 5 lety

    En quoi un RNN est bien meilleur qu'un réseau "normal" avec plusieurs mots en entrée ? (et des mots "vides" quand il n'y a pas de précédents)

    • @larotu00
      @larotu00 Před 5 lety

      C'est ce qui se fait pour Word2Vec non ?

    • @ThibaultNeveu
      @ThibaultNeveu  Před 5 lety +2

      Je répond à cette question dans la vidéo à un moment à 20:44, dit moi si tu ne comprend pas l'explication. Word2Vec utilise pas de RNN car son but est différent. Le but de Word2Vec est avant tout de trouver une représenation vectorielle des mots.

    • @larotu00
      @larotu00 Před 5 lety

      @@ThibaultNeveu si j'ai compris mais je me demandais selon les modèles quelle était la différence en terme de performances

    • @ThibaultNeveu
      @ThibaultNeveu  Před 5 lety +1

      @@larotu00 La question à se poser c'est est-ce que la dimension temporel est importante dans la résolution du problème que tu souhaites résoudre. Pour word2vec ce n'est pas forcément important l'ordre des mots, car le vecteur de chaque mot est deduit à partir du contexte, peu importe l'ordre du contexte. Par contre pour de la traduction automatique par exemple, c'est important de connaître lordre des mots en en entré pour faire la traduction.

    • @larotu00
      @larotu00 Před 5 lety

      @@ThibaultNeveu d'accord merci

  • @izem1984
    @izem1984 Před 2 lety

    Pour les valeurs négatives on dit pas qu'elle sont petites car les valeurs petites sont les valeurs proches de zero.. on dit des valeurs grandes en valeur absolue

  • @zrmsraggot
    @zrmsraggot Před 4 lety

    Slide 21, vanish == disparaitre