Comprendre les réseaux de neurones récurrents (RNN)
Vložit
- čas přidán 10. 01. 2019
- Patreon : / membership
Les réseaux de neurones récurrents sont utilisés dans des millions de téléphones, dans la reconnaissance vocale, pour de la traduction, mais aussi dans de nombreuses autres applications en deep learning. Dans cette vidéo, nous regardons comment ils fonctionnent et quel est leur principale faiblesse.
#RNN #DeepLearning
Discord de la communauté :
/ discord
[Chronique d'une IA]
Spotify : open.spotify.com/show/5yTTTKf...
Amazon music : music.amazon.fr/podcasts/5097...
Apple Podcasts: podcasts.apple.com/us/podcast...
[About me]
Visual Behavior : visualbehavior.ai
Perso : www.thibaultneveu.ai/
Github : github.com/thibo73800
Linkedin : / thibaultneveu
Twitter : / thiboneveu - Věda a technologie
Comme d'habitude, c'est clair, propre, merci à toi pour ces vidéos
J'avais fait du RNN il y a 3 ans. Je m'y remets après 2 ans Hors du circuit. Et bien et bien et bien... Très bonne vidéo. Bravo pour le côté pédagogique, pour la clarté du propos. Ni trop vite ni trop lentement. Il faut candidater chez fast.ai ;) bravo encore
Vidéo très intéressante et très clair, hâte de voir la suite
merci beaucoup d'avoir pris le temps de nous expliquer, je suis passé de quelqu'un qui ne comprenait rien en RNN et au deep learning à quelqu'un qui le maitrise à la perfection 🙏🙏
cette surprise de voir des vidéo explicative en français! Merci!
Elles sont super tes vidéos, merci beaucoup !!
Bonjour, Merci beaucoup , pour les explications détaillées , tu es bcp de talents en IA et aussi en Tuto's
merci
Bravo...simple et clair, merci bcp
Tu explique juste, très bien, merci beaucoup
Excellente explication. Merci Thibault!
vraiment des explications claires, Merci bcp pour ces vidéos
Merci beaucoup , vidéo super , explications détaillés , bonne continuation
bien expliqué, la meilleur vidéo que j'ai vu jusqu'a présent
Waouh ,c'est vraiment épatant ,merci beaucoup !!
Super intéressant. Merci
Excellente explication merci
Super vidéo merci !
Salut, ta vidéo est vraiment super bien, on comprend très bien ce que tu cherches à expliquer ! J'ai une ptite question... si on a plusieurs hidden layers, on utiliserait lequel pour transmettre l'information au réseau t+1 ?
Merci, ++
franchement merci, jusqu'à présent j'avais pas pigé l'histoire du vanishing gradient, Siraj n'a qu'à bien se tenir !
Présentation très claire des RNN !
Wow très impressionant de tomber sur une vidéo d'une telle qualité sur un sujet comme celui-ci et en français. Tout était super clair merci beaucoup. Juste une petite question : Quel est donc l'intérêt des RNN dans la pratique s'ils ont un point faible aussi conséquent ? Je me souviens d'un prof qui nous avait demandé de le faire pour un projet de système de recommendations. Mais avec un défaut aussi conséquent, j'ai dû mal à voir comment cela peut-il être viable dans la pratique. Parce que dans la pratique je doute qu'on veuille se restreindre à des réseaux minuscules.
Cette vidéo est génial merci
Propre , Merci
Impeccable !
@Thibault Neveu Merci pour la présentation. Où puis-je trouver les slides?
Merci beaucoup
Merci Thibault
Merci !
Vidéo très intéressante ,.@Thibault Neveu, je veux savoir est ce que c'est la bonne méthode pour l'apprentissage de mon chatbot ,je vous explique j'ai utiliser dialogflow pour le traitement nlp t la ,je dois remplir toutes les expressions possibles pour une action pour cella je veux utiliser une méthode d’apprentissage d'IA pour régler ce probleme ,le faite de donner des expressions et a lui de trouver les expression qui ont le même sens ?
Merci pour cette vidéo maintenant j'amerais savoir tu as fais quoi comme formation afin d'etre bon en intelligence artificielle.merci d'avance
Salut Thibaut j'ai des question sur l'implémentation de RNN avec Keras stp
wow!! très cool Prof! svp! pouvez-vous m'aider avec certains articles qui parlent de la prédiction des trafics routiers basée sur les réseaux de neurones profonds?
Nice
Merci pour la vidéo (y) bizarrement la seule syllabe qui se prononce pareil qu'en français "hid" dans "hidden" tu la prononce mal hahah (Just for fun Thank's for the great content dude ;) )
j'arrive pas bien à comprendre comment la boucle de récurrence est caractérisée avec keras
pour info, le i de "hidden" se prononce [i] pas [aïe].
En quoi un RNN est bien meilleur qu'un réseau "normal" avec plusieurs mots en entrée ? (et des mots "vides" quand il n'y a pas de précédents)
C'est ce qui se fait pour Word2Vec non ?
Je répond à cette question dans la vidéo à un moment à 20:44, dit moi si tu ne comprend pas l'explication. Word2Vec utilise pas de RNN car son but est différent. Le but de Word2Vec est avant tout de trouver une représenation vectorielle des mots.
@@ThibaultNeveu si j'ai compris mais je me demandais selon les modèles quelle était la différence en terme de performances
@@larotu00 La question à se poser c'est est-ce que la dimension temporel est importante dans la résolution du problème que tu souhaites résoudre. Pour word2vec ce n'est pas forcément important l'ordre des mots, car le vecteur de chaque mot est deduit à partir du contexte, peu importe l'ordre du contexte. Par contre pour de la traduction automatique par exemple, c'est important de connaître lordre des mots en en entré pour faire la traduction.
@@ThibaultNeveu d'accord merci
Pour les valeurs négatives on dit pas qu'elle sont petites car les valeurs petites sont les valeurs proches de zero.. on dit des valeurs grandes en valeur absolue
Slide 21, vanish == disparaitre