L'intelligence artificielle en 2024: COT, Q*, Agents, Gaussian Splatting, Video Generation, Robotics

Sdílet
Vložit

Komentáře • 14

  • @slals
    @slals Před 7 měsíci +6

    J'ai quand même cette forte intuition que 2024 sera l'année de la robotique, les dernières découvertes que tu évoques sur la robotique avec l'apprentissage via simulation 3D est une des clés qui permet de "trial & error" en masse pour rapidement affiner les algorithmes

  • @fredrichstrasse
    @fredrichstrasse Před 7 měsíci +3

    j'avais des apriori en démarrant la video, et je vois que le Level est la, les connaissances sont approfondi. belle réflexion et jolie travail

  • @JosephGarnier
    @JosephGarnier Před 6 měsíci

    Bien vu pour la prédiction :p. En voyant la sorti de Sora d'OpenAI, j'ai tout de suite repensé à cette vidéo.

  • @JohanEQUIXOR
    @JohanEQUIXOR Před 6 měsíci +1

    Par rapport à ta prédiction sur les chaînes de pensées, il y a une très bonne interview de Shane Legg dans lequel il en parle très bien.

  • @mattyghan
    @mattyghan Před 7 měsíci

    Excellente vidéo. Merci.

  • @AurL_69
    @AurL_69 Před 7 měsíci +2

    40min sheesh la mine d'or d'info

  • @mimotron
    @mimotron Před 7 měsíci +1

    Très intéressant, merci. Un avis sur Mamba peut être ?

  • @Bencurlis
    @Bencurlis Před 7 měsíci

    Sur le sujet des agents/LLMs, pour moi il y a 3 aspects différents en jeu: le langage (la communication avec l'humain), le raisonnement de manière général, et le fameux world model.
    Le problème c'est que à l'heure actuelle, ces 3 aspects sont mélangés ensemble dans le pré-entraînement. Il faudrait à la place bien maîtriser ce que le modèle apprend dans chacun de ces aspects, de manière à rendre les modèles plus petits, plus performants et plus prévisible.
    Je vois bien un système de génération de données synthétique et de simulations procédurales, un peu similaire à EUREKA finalement, où on forcerait des LLMs à apprendre à communiquer entre eux des informations, pour leur apprendre à communiquer, par exemple poser des questions. On aurait aussi de la génération automatique de problèmes logiques et mathématiques pour leur apprendre à raisonner, ainsi que des tâches où on les forcerait à utiliser des outils externes, etc... Le système se ferait par étape, on aurait éventuellement à un moment les agents/LLMs qui génèrent des problèmes pour eux même, en se basant sur les choses apprises aux étapes d'avant. Du coup le système serait quasi-entièrement synthétique, le savoir humain étant implicitement distillé dans le code de la génération procédurale des problèmes et de la simulation, avec peut êtres quelques bases de données ponctuelles (un dictionnaire ou la doc d'un outil par exemple).

    • @ThibaultNeveu
      @ThibaultNeveu  Před 7 měsíci +1

      Merci pour tes retours suite a la vidéo, comme toujours intéressant à lire !

  • @alexamand2312
    @alexamand2312 Před 7 měsíci +2

    Salut, toujours au top tes vidéos, très belle take sur les modèles textto3d/diffusion sur la génération de vidéo. Tu es surement le vidéaste le plus technique (et pertinent) dans le youtube francophone. Si tu faisais un format IA news, je regarderai et je te recommanderai.
    Je suis d'accord sur presque tout sauf la partie autoregressive, quelques reflexions qui me travaillent:
    L'auto regression n'est elle pas déja un moyen de "think back", une expression du temps qui passe ? Le modèle de langage n'est il pas déja un world model ? Une chain of thought multi agent n'est elle pas déja une architecture comme décrite pas Yan Lecun dans ses anciens papiers ? Nous autre humain n'avons nous pas aussi une dérive auto prédictive ? Somme nous vraiment cohérent temporellement à très long terme ? (je dirais plutot qu'on fait du chain of thought à différent niveau d’abstraction façon renforcement learning avec cette possibilité d'auto évaluation).
    Est ce l'approche one shot d'un très long contexte a vraiment du sens d'un point de vue math/proba ? Je pense personnellement, qu'il est pour l'instant difficile d'affirmer que l'approche auto regressive va taper un plafond de verre (ou meme que ce soit indésirable, qui des hallucinations positives ?) . Surtout que des papiers continue à scaler la taille de contexte.
    Après je suis d'accord sur l'affirmation générale que le problème de la cohérence temporelle sur une grand nombre de step n'a pas encore été résolu quelque soit le réseau de neurone text/image... à part peut être par le renforcement learning et/ou l'approche agentique ?
    Voilà beaucoup trop de questions qui n'attendent pas de réponse. c'est si jamais elles vous intéressent aussi :)

    • @ThibaultNeveu
      @ThibaultNeveu  Před 7 měsíci

      Merci pour ces réflexions / questionnements, on en reparlera !

    • @suleymanturan5259
      @suleymanturan5259 Před 2 měsíci

      merci pour ces réflexions, j'avais rien à faire les prochains jours

  • @The_Little_One_Of_Darkness
    @The_Little_One_Of_Darkness Před 7 měsíci

    Ce que je trouve dommage c'est cette volonté d'empêcher les utilisateurs de faire de l'open source. Dans le sens ou il faut payer une clef api open ai pour avoir l'autorisation de faire ça...
    Moi j'aurais aimé testé ces agents. Et le deuxième points c'est que tout ces modèles sont encore super lourds et pas forcément accessibles à tous le monde, il faut forcément avoir du bon matos pour espérer lancer un truc en local actuellement. J'espère qu'un jour on sera capable de produire un bot personnalisable de A à Z intégrer sur le pc directement avec une mémoire modulable qui se rappel de ce que tu as fais hier, la semaine dernière ect..... J'y crois.