Tensorflow et l'apprentissage profond, sans les équations différentielles (Martin Görner)

Sdílet
Vložit
  • čas přidán 23. 04. 2017
  • Google a récemment publié son framework d’intelligence artificielle appelé Tensorflow. Avec ce nouvel outil, l’apprentissage automatique franchit le pas entre la science de laboratoire et le métier d’ingénieur. Dans cette session, nos vous monterons comment choisir la bonne architecture de réseau de neurones pour votre problème et comment bien gérer son apprentissage. Savoir résoudre des équations différentielles n’est plus nécessaire. Des problèmes difficiles comme la reconnaissance de l’écriture manuscrite peuvent maintenant être résolus avec quelques lignes de Python/Tensorflow et une collection de trucs & astuces d’ingénieur. Cette Université s'adresse à tous les développeurs qui souhaitent entrer dans le monde des réseaux de neurones en 3 heures intenses mais accessibles. Elle couvre les réseaux denses, convolutionels et récurrents.
  • Věda a technologie

Komentáře • 27

  • @williamdroz6890
    @williamdroz6890 Před 7 lety +5

    J'ai envoyé cette vidéo à tous mes collègues. C'est vraiment agréable cette façon de présenter (et en plus en FR!).

  • @casierdavid
    @casierdavid Před 6 lety +5

    Excellent ! Merci Martin (et l'équipe, derrière, on sent qu'il y a du travail) !

  • @basumbintwal
    @basumbintwal Před 5 lety

    Merci Martin Gornet, vidéo fait avec professionnalisme . Tu maîtrises le sujet, on le voit

  • @leogout2164
    @leogout2164 Před 7 lety +6

    Merci beaucoup pour cette vidéo ! J'ai regardé la version anglophone mais dans ma langue maternelle c'est quand même vraiment plus confortable.

  • @jeeve
    @jeeve Před 6 lety

    Super présentation. Une excellente introduction par la pratique. Merci !

  • @boubacartraore9888
    @boubacartraore9888 Před 6 lety +1

    "Eh là, on est dessus de 99% de précision, YES !" (cf. 1:05:17), ça méritait une bonne bouffée d'air dans la salle :D xD !
    Bravo pour la présentation, je recommande vivement la vidéo aux matheux qui débutent avec les réseaux de neurones !
    Merci encore !

  • @sgrouge
    @sgrouge Před 6 lety

    Super vidéo j'ai mieux compris les mécanisqmes de tensorflow et ce qu'il permet de faire, très bonne présentation sur les 3 réseaux principaux ANN, CNN et RNN. Je n'ai juste pas bien compris le passage sur LSTM mais aucune importante à ce niveau de découverte. Merci Martin Görner. Merci beaucoup.

  • @walydiallo5865
    @walydiallo5865 Před 4 lety

    Merci Mr Gorner excellent travail, merci infiniment.

  • @WahranRai
    @WahranRai Před 6 lety +1

    Tres bonne video.Jusqu'à 29:00 Il fallait peut être expliquer comment le multiperceptron apprend en metant à jour les poids via la backpropagation de l'erreur ( comme on vous aviez bien explique le feedforward).

  • @sorymillimono5931
    @sorymillimono5931 Před 3 lety

    Merci beaucoup , une excellente explication

  • @hindlamharhar
    @hindlamharhar Před 4 lety

    Excellente présentation

  • @bwakamabe
    @bwakamabe Před 6 lety +1

    J'aurai payé pour avoir cette introduction par la pratique merci Martin

  • @morniang3845
    @morniang3845 Před 5 lety

    @Martin Görner est-ce qu'on peut avoir le document en PDF ou PowerPoint

  • @novagogie
    @novagogie Před 5 lety

    bonjour
    serait-il possible d'activer les sous-titres svp. nottament pour avoir les sous-titrage automatiques pour pouvoir vous lire et mieux comprendre certains mots et prendre le temps de comprendre ce qui est dit. Merci

  • @yedjour63
    @yedjour63 Před 6 lety

    Very interesting

  • @frederictost6659
    @frederictost6659 Před 6 lety +1

    Super vidéo ! Pour information à 1:18:45 il me semble que la fonction sigmoïde est entre [0 et 1] et pas [-1 et 1]. D'où l'activation entre [0 et 1] avec une belle répartition en cloche (moyenne à 0.5).

    • @MartinGorner
      @MartinGorner Před 6 lety +1

      Oui en effet ! Je voulais dire entre 0 et 1 bien sur. Par contre la moyenne n'est pas forcément à 0.5. La batch norm n'est pas juste une normalisation. Elle place les logits dans la partie utile de la fonction d'activation mais ne supprime pas forcément totalement la moyenne ce qui serait dommage si cette moyenne contient de l'information utile. Le terme "beta" dans l'équation sert à ça.

  • @philippegaucher8823
    @philippegaucher8823 Před 6 lety

    Présentation intéressante et bien faite, très claire. Mais il faut noter que le texte shakespearien généré par le réseau de neurones ne veut rien dire. Pareil pour le texte d'algèbre (qui en fait voudrait ressembler à de la géométrie algébrique) qui ne signifie rien. A ce propos, le diagramme n'est pas de la physique quantique mais est supposé être un diagramme en algèbre homologique qui ne signifie absolument rien. Les réseaux de neurones sont intéressants car ils permettent à partir d'un corpus de connaissance d'interpoler et de faire faire des progrès remarquables par exemple à la reconnaissance de caractères ou à la reconnaissance d'images. Et je vois qu'il est maintenant très facile d'en fabriquer. Mais, en tout cas, on est encore très très loin d'une intelligence artificielle. On n'a pas l'impression que le réseau de neurones comprend vraiment ce qu'il fait :-). Il interpole par contre de façon bluffante.

  • @043mehdi
    @043mehdi Před 6 lety

    Request to French speakers, Can you guys add subtitles please

  • @mohamedghorbel8364
    @mohamedghorbel8364 Před 5 lety

    Bonjour à tous, j'aimerai reproduire ces deux exemples de réseau de neurones (RN simple et récurent). Qui peut me conseiller sur le matériel informatique idéal qu'il faut avoir car je dois me ré-équiper . Egalement je cherche le lien vers les codes sources. Merci d'avance.

    • @MartinGorner
      @MartinGorner Před 5 lety

      Aujourd'hui, le mieux est d'utilise Colaboratory. Le materiel est fourni avec, meme des GPUs at TPUs et c'est gratuit.

  • @KokonotesChannel
    @KokonotesChannel Před 6 lety +3

    Merci pour cette video très bien expliquée, cependant ça ouvre les yeux sur les possibilités futures de l'apprentissage profond, les ordinateurs pourront un jour créer eux mêmes leur propre code, au moment où ils deviendront leur propre créateur, ce sera le début de la fin de l'humanité....

  • @marolahyyounoussaaugustin7279

    Pouvez m'envoyer le livre version numerique "L'apprentissage profond" par Yoshua Bengio, Aaron Courville, Ian Goodfellow s'il vous plaît. merci! (marolahyyy@gmail.com)

  • @olivierbodini1641
    @olivierbodini1641 Před 5 lety

    Un gars qui se la joue et qui ne comprend pas grand chose à ce qu'il dit.