Comprendre les Transformers et les mécanismes d'attention

Sdílet
Vložit
  • čas přidán 9. 07. 2024
  • Patreon : / membership
    Les transformers et les mécanisme d'attention sont les architectures de réseaux de neurones ayant révolutionné des domaines tels que le traitement naturel du langage (NLP) et sont entrain de s'étendre a de nombreux autre domaine tel que la vision. Dans cette vidéo nous nous penchons sur le papier : Attention is all you need proposant la première architecture Transformer basé seulement sur des systèmes d'attention pour effectuer de la traduction automatique. Comprendre ce papier c'est aussi commencer à comprendre des architectures telles que Bert, GPT ou encore des travaux récents telles que Dall-e.
    Pour aider à aborder les notions de cette vidéo :
    Comment passer le test de Turing ? Traitement automatique du langage (NLP) • Comment passer le test...
    Comprendre les réseaux de neurones récurrents (RNN) • Comprendre les réseaux...
    Comprendre les LSTM - Réseaux de neurones récurrents
    • Comprendre les LSTM - ...
    00:00 Intro
    03:10 RNN
    05:00 Encoder Decoder
    12:00 Encoder Decoder with Attention
    13:20 Scaled dot product Attention
    22:40 Overview Attention is all you need
    27:00 Self Attention
    28:26 Multi-Head Attention
    35:20 Other encoder layers
    37:40 Masked multi head attention
    40:30 Positional encoding
    Slides: docs.google.com/presentation/...
    Attention is all you need: arxiv.org/abs/1706.03762
    [Chronique d'une IA]
    Spotify : open.spotify.com/show/5yTTTKf...
    Amazon music : music.amazon.fr/podcasts/5097...
    Apple Podcasts: podcasts.apple.com/us/podcast...
    [About me]
    Visual Behavior : visualbehavior.ai
    Perso : www.thibaultneveu.ai/
    Github : github.com/thibo73800
    Linkedin : / thibaultneveu
    Twitter : / thiboneveu
  • Věda a technologie

Komentáře • 54

  • @MachineLearnia
    @MachineLearnia Před 3 lety +42

    Quel plaisir de revoir une vidéo de ta part sur CZcams !

    • @FloNocode
      @FloNocode Před 3 lety +2

      En espérant que ce soit le début d'une longue série de vidéo :D.

    • @elouatimohamed3792
      @elouatimohamed3792 Před 3 lety

      En manque bq tes vedio machine learnia

    • @lucienkahozi3314
      @lucienkahozi3314 Před rokem

      nous aimerions aussi que tu fasses une video sur le sujet, ta pedagogie et tes animations sont vraiment utile Machine Learnia. Merci

  • @boukaryouedraogo9554
    @boukaryouedraogo9554 Před 3 lety +2

    Bon retour Thibault.

  • @renemiche735
    @renemiche735 Před 3 lety +1

    merci. J'attendais une vidéo sur le sujet en français depuis longtemps et je suis d'autant plus heureux que ce soit toi qui la traite, car tu es un excellent pédagogue.

  • @joslinmartinez9218
    @joslinmartinez9218 Před 2 lety +1

    Cette vidéo et le live coding que tu as fais sont de grande qualité et m'ont permis de comprendre cette architecture et la façon dont on peut coder ce genre de choses ! Merci beaucoup :)

  • @MsBowner
    @MsBowner Před rokem +2

    Excellent Thibault !

  • @arishali9248
    @arishali9248 Před 3 lety +2

    You deserve more views and more subscribers, I am in love with your channel !!

  • @MachineLinguist
    @MachineLinguist Před 3 lety +5

    Merci pour cette vidéo 🙏. C’est super bien expliqué.

  • @sargan7851
    @sargan7851 Před 3 lety +1

    Content de revoir des vidéos ... et le son est super bon.

  • @Leo-hi3to
    @Leo-hi3to Před 3 lety +1

    Content de te revoir !!

  • @alh7839
    @alh7839 Před 2 lety

    c'est si clair, bien dans les détails en expliquant bien des notions complexes, gg

  • @arminsmajlagic2907
    @arminsmajlagic2907 Před rokem

    I'm learning french and deep learning at the same time with you :D Thank you very much, well explained.

  • @alainrieger6905
    @alainrieger6905 Před 3 lety

    Merci Monsieur pour tout ce que vous rendez accessible

  • @abderrahmanemabroukmerabet9274

    Ce que tu fais est supe, continue c'est tres bien detaillé

  • @adrien123_
    @adrien123_ Před 3 lety +1

    Super vidéo, sujet très intéressant !

  • @walidayadi5752
    @walidayadi5752 Před 3 lety +1

    BRAVO ! Vidéo TOP !

  • @moussabamba6216
    @moussabamba6216 Před 3 lety +1

    Super vidéo et bien expliquée , merci pour ce tuto , on attend le TP

  • @hassanaghdaoui5138
    @hassanaghdaoui5138 Před 3 lety +1

    Sujet très intéressant , super vidéo

  • @jeanpeuplu3862
    @jeanpeuplu3862 Před 2 lety

    13:17 : ASMR pour penser à nous hydrater ; merci 🥰

  • @ahmedel-azharjebbari8806
    @ahmedel-azharjebbari8806 Před 3 lety +1

    Très bien expliqué !

  • @arishali9248
    @arishali9248 Před 3 lety +1

    Amazing video, thanks for the explanation

  • @hadjerhamidou1586
    @hadjerhamidou1586 Před rokem

    Merci pour ces explications

  • @bradleyadjileye1202
    @bradleyadjileye1202 Před rokem +1

    Merci pour cette vidéo

  • @14Tyrion
    @14Tyrion Před 3 lety +2

    Très bon travail !! Effectivement un TP pratique serait le bienvenu =)

  • @cedricmanouan2333
    @cedricmanouan2333 Před 3 lety +1

    Heureux de te revoir TN 😏

  • @denisbories
    @denisbories Před 3 lety +3

    Merci beaucoup pour ces explications claires 👏 Les propositions d’une séance de live coding ou une autre vidéo qui rentrerait dans les détails d’autres applications sont aussi intéressantes l’une que l’autre donc l’idéal serait de faire les 2 😬😇😷

  • @elouatimohamed3792
    @elouatimohamed3792 Před 3 lety +1

    Parfait 😍😍 merci bq

  • @laurentpourchot4649
    @laurentpourchot4649 Před 3 lety +3

    Hello, merci pour cette video. Un exemple avec keras (ou Pytorch) serait top :-)

  • @hamadoumossigarba1201
    @hamadoumossigarba1201 Před 2 měsíci

    Bonjour,
    Merci pour la qualité de la présentation et de clarté dans vos explications. Est -ce que le transformer peut être utilisé pour enregistrer et distribuer des données (codes imei et imsi)?
    Pourrai-je si possible avoir ce papier?

  • @lucienkahozi3314
    @lucienkahozi3314 Před rokem

    merci pour cette videos tres instructive bro !

  • @vincentb.8743
    @vincentb.8743 Před 3 lety +1

    Oui l'application des transformers serait très intéressant

  • @franklouenkam8820
    @franklouenkam8820 Před 2 lety

    Merci infiniment😍😍😍

  • @user-xj1pw4on2n
    @user-xj1pw4on2n Před 9 měsíci

    merci beaucoup vraiment 🤍🤍🤍

  • @damienbouchabou1311
    @damienbouchabou1311 Před 3 lety +3

    Superbe vidéo d'introduction aux transfomers. Je suis très intéressé pas le live coding d'un transfomers en keras. Et aussi très intéressé par l'explication d'application de transformer a d'autres domaines

  • @liapourlesentreprises
    @liapourlesentreprises Před 4 měsíci

    salut Thibault , est-ce que tu aurais un schéma où on retrouve en terme simplifié cette suite d'opérations : prompt - token - vecteur - tête d'attention - décodeur ?

  • @khaberislam8957
    @khaberislam8957 Před 3 lety +2

    Merci ..

  • @bekabd
    @bekabd Před 3 lety +1

    Merci

  • @soelreza1430
    @soelreza1430 Před 2 lety

    Salut ! Tes vidéos sont super ! Merci beaucoup
    Dis moi est ce que le mécanisme d’attention peut être utilisé non pas pour le traitement de language mais pour prédire des variables numériques continue comme par exemple pour prédire le kwh d’un compteur électrique qui change toutes les 10s

  • @jean-marcbereder4231
    @jean-marcbereder4231 Před 3 lety

    excellent

  • @automatescellulaires8543

    J'adore le premier Transformers. Michael Bay is all you need.

  • @lz8oo8zl
    @lz8oo8zl Před 3 lety +1

    Je ne comprends pas un truc. A quoi sert réellement le FFN dans l'encoder et le decoder ? Chaque token va passer dans un réseau de neurones mais je ne vois pas ce que ça apporte au modèle. Quel impact ces réseaux ont sur l'information?

  • @simonarduin8600
    @simonarduin8600 Před 3 lety

    nice

  • @yacinemamdouh1271
    @yacinemamdouh1271 Před 2 lety

    Je comprends pas pourquoi on a 8 têtes d'attention à 32:35 ?
    Merci pour la vidéo

  • @benoitmialet9842
    @benoitmialet9842 Před 2 měsíci

    une question qui me hante : la masked self attention ne devrait intervenir UNIQUEMENT que lors de l'entrainement, car on place en input de decoder une séquence contenant la réponse (les tokens futurs). donc, en quoi la masked self attention intervient durant un processus de génération (une fois le modèle entrainé), puisque les tokens encore non générés n'existent tout simplement pas ? Merci de tout éclairage !

    • @ThibaultNeveu
      @ThibaultNeveu  Před 2 měsíci +1

      En effet, seulement utile a l'entrainement

    • @benoitmialet9842
      @benoitmialet9842 Před 2 měsíci

      @@ThibaultNeveu merci je me sens moins seul maintenant 🤣

  • @elouatimohamed3792
    @elouatimohamed3792 Před 3 lety +1

    Et aussi il faut L'implémentation svp

    • @samuelhamache103
      @samuelhamache103 Před 3 lety

      il a donné toutes les informations pour coder. Pas besoin de plus.

  • @Saens406
    @Saens406 Před 2 lety

    rien compris

  • @WahranRai
    @WahranRai Před 2 lety +1

    Affreux melange du français et de l'anglais !

    • @lbognini
      @lbognini Před 2 lety

      Les documents d'origine sont en anglais et ce sont des concepts relativement nouveaux. Que voulez-vous qu'il fasse? Commencer par faire du boulot de traduction avant celui d'explication?
      On aurait bien aimé que les papers d'origine soit en français.
      Pour l'heure, souffrons de ce mélange.

  • @blancanthony9992
    @blancanthony9992 Před 2 lety

    Merci