FIDLE / Mathématiques & gradients everywhere !!!
Vložit
- čas přidán 10. 01. 2024
- Qui ne s'est jamais demandé ce qu'il se passait à l'intérieur d'un réseau de neurones ?
Le but de cette séquence, qui se veut totalement didactique et abordable, est d'apporter des réponses claires à cette question en démystifiant les bases mathématiques des réseaux de neurones !
Ces bases seront décrites et illustrées par de nombreux exemples en PyTorch.
Nous regarderons en particulier comment un réseau de neurones peut transformer une image de manière à identifier progressivement ce qu'elle contient.
Nous décrirons ensuite comment s'effectue l'apprentissage d'un réseau de neurones en prenant le temps de comprendre comment fonctionne une descente de gradient et la rétro-propagation.
Quelques éléments seront enfin discutés pour comprendre l'intérêt des méthodes dites stochastiques pour l'apprentissage des réseaux de neurones.
Pour rappel, FIDLE est une Formation d'Introduction au Deep Learning, libre et gratuite.
Pour en savoir plus : fidle.cnrs.fr - Věda a technologie
Cette vidéo est super bien expliquée. J’ai personnellement tout compris, aucune interrogation.
Un immense merci pour ce travail et cette pédagogie.
Vous êtes trop fort.
Merci !!! Nous sommes très heureux d'avoir pu vous aider !
Superbe présentation simple et claire de notions complexes.
Pour cette partie maths, je recommanderai de commencer un peu plus simple notamment pour le gradient. Un truc qui permet de bien comprendre je trouve c'est un "computational graph" très simple, pour montrer comment le delta d'une variable d'entrée se "propage" dans les couches intermédiaires et finales, puis comment on peut "remonter" avec les dérivées. Andrew Ng a une très bonne explication dans sa spécialization "Deep Learning" sur Coursera (si besoin d'inspi)
En dehors de ça FIDLE c'est toujours aussi génial ;)
Merci beaucoup pour ce retour et cette idée ! :-)
Merci beaucoup pour cette présentation très pédagogique , très intéressante !
Merci beaucoup pour votre intérêt !!
super bien expliqué , merci beaucoup pour ce type de présentation "gratuite" - un peu confus (par les notations pour la back propagation) -> du point de vue pédagogique faire avec une fonction précise (voir ex07 -> plus clair je trouve avant une generalisation avec les notations comme fait ici)
Merci beaucoup pour votre retour :-)
merci
Merci à vous :-)
Quelle différence avec l'analyse discriminante pour les résultats (axe 1 : science ; axe : langues)
. Bonne présentation
Bonjour, désolé pour ce délais de réponse un peu long... ;-)
Le modèle de prédiction est juste différent. En particulier la LDA fait souvent une hypothèse que les observations de chaque classe sont distribuées suivant une loi Gaussienne. L'apprentissage consiste alors à définir les paramètres de chaque Gaussienne.
A très bientôt !
@@CNRS-FIDLE merci