I.A. - Formations, débouchés, projets concrets et évolutions en 2024

Sdílet
Vložit
  • čas přidán 27. 04. 2024
  • Alexandre Quemy, docteur en Machine Learning, détaille les travaux et défis des chercheurs / ingénieurs en Machine Learning en 2024.
    💪 Soutenir la chaine via tipeee :
    fr.tipeee.com/codeconcept
    🚀 Plus de 40 formations pour 25 €/mois SANS engagement de durée 🚀
    codeconcept.teachable.com/
    Liens cités dans la vidéo :
    Alexandre Quemy
    / aquemy
    Contrôler la propagation des erreurs de calculs numériques
    www.aquemy.info/2016-05-23-co...
    Microsoft AutoGen
    www.microsoft.com/en-us/resea...
    L’IA qui hallucine de la jurisprudence
    theconversation.com/ai-is-cre...
    AI getting dumber?
    community.openai.com/t/is-the...
    Multimodal generative AI
    ai.meta.com/tools/system-card...
  • Věda a technologie

Komentáře • 41

  • @djcaesar9114
    @djcaesar9114 Před měsícem +2

    C'est quelqu'un de très bien, cet homme.

  • @antonzizic3483
    @antonzizic3483 Před 24 dny +1

    chouette video !! merci beaucoup :)

  •  Před 10 dny +1

    Je découvre la chaîne ! merci pour ces contenus.

  • @fatimata_pro
    @fatimata_pro Před měsícem +1

    Merci pour cet entretien, j'ai appris plein de choses 🙏

  • @phennryr1216
    @phennryr1216 Před měsícem +5

    Super interview un très grand merci pour cette vidéo!!

    • @codeconcept
      @codeconcept  Před měsícem

      Merci ! C'était un plaisir d'avoir un témoignage de première main.

  • @maloukemallouke9735
    @maloukemallouke9735 Před měsícem +3

    Merci pour la vidéo,
    Merci Alexandre

  • @atha5469
    @atha5469 Před měsícem +1

    Merci belle interview !

  • @manuelminana4826
    @manuelminana4826 Před měsícem +2

    La meilleur vidéo de la chaine selon moi

    • @codeconcept
      @codeconcept  Před měsícem

      Bon et bah, ça met la pression pour les prochaines vidéos 😄

  • @didier..n..1567
    @didier..n..1567 Před měsícem +1

    Bonjour Samir
    Super intéressant Alexandre sur la vision qu'il à avec l' I.A , une vision équilibrée,
    et pas bullshit ..
    PS : Et comme la si bien dit , Alexandre que je dit depuis un bail la "FORMATION' mais c'est 💲💲💵💵. Le Nerf de la guerre..

    • @codeconcept
      @codeconcept  Před měsícem

      Bonjour Didier 😀
      et oui, le point de vue de quelqu'un du métier est tout de suite plus nuancé et riche. Mais ça fait moins le buzz qu'une vision idéalisée 👼, ou à l'opposé, cauchemardesque 👹

  • @capeitalist6963
    @capeitalist6963 Před měsícem +2

    Pour le coût des cartes graphiques, il existe la rtx 3090 qui possède également 24GO de VRAM et qui peut se trouver d'occasion pour 700euros. C'est un budget, mais un budget nettement moins élevé que les 4000 euros annoncés (la 4090 ne coute d'ailleurs pas 4000 euros, mais plutôt 1800).

    • @alexandrequemy
      @alexandrequemy Před měsícem +2

      Effectivement! J'avais en tete la RTX 5000 ADA 32GB, laquelle j'avais compare a la RTX 4090 24GB pour le choix de ma station de travail. :-)

  • @naturo_yatangaki
    @naturo_yatangaki Před měsícem +3

    La barre à l'entrée va augmenter mais ça c'était le cas avant les IA. Tant que quelqu'un (ou quelque chose) fait mieux avec autant voire moins de moyens, les autres resteront sur la paille.

    • @codeconcept
      @codeconcept  Před měsícem +1

      Est-ce que ça sera tenable sur la durée ? Car même pour ceux qui passeront la barre d'entrée, si tous les postes deviennent exclusivement et tout le temps consacrés à des problèmes ardus, ça peut finir par causer pas mal de burnout. Il n'est probablement pas possible d'être toujours à fond.
      Dans tous les métiers, il y a des tâches de difficulté et d'intensité variables. Si aux humains ne restent plus que les tâches difficiles, il va falloir doper les survivants 😄💉

  • @radioduthe
    @radioduthe Před měsícem +1

    Très intéressant, proche de ce que je pense.
    Notamment sur le fait que les IA se chargent de gérer les taches simples et nous laissent les taches plus "complexes"...
    Par contre, sur le fait que les LLM régresseraient et que tout le monde l’a constaté.
    Je n’ai vraiment pas ce sentiment...

    • @codeconcept
      @codeconcept  Před měsícem

      @radioduthe Pas tout le monde en fait, mais j'ai vu quelques commentaires sur la chaîne de devs qui avaient pourtant des versions payantes de ChatGPT ou Copilot. Suite à ça, j'ai cherché sur internet pour voir si c'était le cas pour d'autres utilisateurs de longues date et malheureusement, c'était le cas. Affaire à suivre 😀

    • @Decentraliseur
      @Decentraliseur Před měsícem

      J'utilise ChatGPT Plus massivement depuis novembre 2022, et je confirme que les performances de GPT 4 ont drastiquement diminué durant 2023. Par contre depuis la dernière maj de mi avril, les performances ont augmenté a nouveau. Difficile de dire si elles sont au meme niveau qu'auparavant

  • @Pubelle
    @Pubelle Před měsícem +1

    Llama 3 est incroyablement performant malgré ses 7 milliards de paramètres, surpassant GPT-3.5 dans certains domaines. Vers la fin de la vidéo, vous évoquez la possibilité d'avoir des modèles en local. Je me demande si cela serait réalisable avec un Raspberry Pi 5 et le Coral de Google pour gérer de petits LLM localement ?
    En tout cas je trouve très positif et prometteur que certaines entreprises commencent à proposer des modèles plus compacts, typiquement de 1B, 3.5B, etc. C'est très encourageant pour le futur de l'ia !

    • @PS3EXTRA
      @PS3EXTRA Před měsícem

      Via Ollama un model 7B (Mistral, llama2, Straling) tourne correctement (me semble t'il) avec un i7 32GB RTX 3070.
      Ca tourne aussi sur un i5 16GB GTX 1060, mais c'est moins fluide.
      J'ai pu tester sur un Xeon 12 core 256 GB sans GPU c'est plus long mais ça passe aussi

    • @Pubelle
      @Pubelle Před měsícem

      @@PS3EXTRA Donc sur un rasberry Pi 5 + Coral c'est pas envisageable ?

    • @alexandrequemy
      @alexandrequemy Před měsícem +2

      Ce que j'entends par petits modeles ce sont surtout des modeles specialises pour des taches particulieres (e.g. Gemma pour de la generation de code). Evidemment, ils vont avoir assez peu de parametres - mais un modele avec peu de parametres n'est pas forcement un petit modeles (e.g. Llama 3 en versions 7B).
      Ensuite, il faut regarder ce que l'on veut faire avec le modele:
      - de l'inference? quelle latence est acceptable? combien de tokens par minutes en inference? combien de pipeline d'inferrence en paralelle.
      - de l'entrainement? du fine tuning? du continuous learning? etc.
      En fonction de tous les besoins, il va falloir une infrastructure differente avec des contraintes de VRAM differente.
      Pour un usage personnel (e.g. assistant domotique), il est certain qu'un LLama 3 7B-it quantise en 4bits pourra probablement tenir sur 8G de VRAM et avoir une latence et throughput acceptable.
      Pour prototyper des choses qui sortent un peu de cela, ou meme s'entrainer sur des use-cases un peu plus complexes, ca va commencer a devenir complique. J'ai essaye de faire tourner Gemma 7B-it ce week-end sur un GPU a 8GB de VRAM et meme avec un bon CPU offloading, j'ai pas reussi a obtenir des reponses avec des prompts courts sous les 20 secondes. En milieu pro, il me fait des reponses // sous la seconde avec des contextes > 1000 tokens. On en est encore loin localement avec du materiel grand public malheureusement.
      Mais effectivement, des modeles 1B ou meme des modeles 1 bits avec plus de parameters, specialises dans des taches particulieres et que l'on agence via un framework multi-agent - je pense que c'est non seulement le future en ce qui concerne la mise en production de IA pour des cas concrets, mais aussi une porte d'entree a moindre cout pour le grand public.

    • @PS3EXTRA
      @PS3EXTRA Před měsícem

      @@Pubelle A ma grande surprise ça semble possible d'après des vidéos sur CZcams

  • @PS3EXTRA
    @PS3EXTRA Před měsícem +1

    De ma petite expérience j'ai développé grâce des llm locaux un portail frontend perso fullstack hébergé dans mon salon , là ça va encore je comprends à peu prêt ce que j'ai fait grâce à l'IA, donc j'arrive à faire évoluer au fil de mes besoin mon portail codé en HTML CSS JS et je pense en maitriser les bases.
    Par contre bien que j’ai réussi à faire une application en python qui me rend bien service, aujourd'hui je voudrais la faire évoluer mais j'en suis incapable car dans les faits, je ne sais pas coder en python et il semble que la base de cette application ne le permette pas, ou du moins les llm n'y arrive plus. Tout ça pour dire que l’IA c’est fabuleux mais ça ne fait pas tout et sans quelques bases, ça devient très vite limitant.
    Arriver à faire quelque chose qui m’était jusque-là impossible, c’est génial au premier abord, mais se retrouver otage de l’IA pour avancer c’est super frustrant. Mais quand on ne part de rien, c’est déjà bien.
    Merci pour toutes ces explications, la vidéo est très intéressante et accessible

    • @Venden_IX
      @Venden_IX Před měsícem +2

      Oui et ça fait des codes pas sécurisés/opti, faut avoir un certain recul pour juger si un code généré par une IA est bon

    • @TheRemiRODRIGUES
      @TheRemiRODRIGUES Před měsícem +2

      Oui mais les LLM peuvent expliquer le code.
      Je me dit même que ça peut être une bonne façon d'apprendre.
      On lui demande de nous expliquer les concepts utilisés, de nous les expliquer et de nous donner des exercices pour qu'on puisse s'exercer à les mettre en œuvre.

    • @codeconcept
      @codeconcept  Před měsícem

      @@Venden_IX Niveau (absence d') optimisation, c'est typiquement ce qui est arrivé à un pote récemment : en regardant du code généré par Copilot par un de ses collègues , il a constaté que le code généré lisait d'énormes fichiers au lieu de les streamer. Donc relire attentivement le code généré reste important. Comme c'est le cas pour du code récupéré depuis StackOverflow en fait : on ne peut pas faire l'économie de comprendre ce qu'on copie, peu importe d'où vient le code récupéré 😀

    • @codeconcept
      @codeconcept  Před měsícem +1

      @@TheRemiRODRIGUES Ca fait partie du morceau d'interview que j'avais hélas coupé, pour ne pas avoir avec une vidéo trop longue. Dans un framework Multi-Agent, un agent peut critiquer le code généré par un autre agent et donc probablement l'expliquer.
      Ca pourrait même devenir un jeu de boisson : chaque fois que le terme Multi-Agent apparait en 2024 dans une vidéo d'IA, il faut boire un coup. Il y a un risque certain à ne plus finir une vidéo en marchant droit 🥃😄

    • @codeconcept
      @codeconcept  Před měsícem +2

      @PS3EXTRA Tu es en train d'expérimenter le fait que maintenir une application prend plus de temps et d'effort (et coûte même plus cher) que de la créer. Je te rassure, c'est le cas pour tout le monde, avec ou sans recours à l'IA 😀
      C'est pour ça que c'est important de créer des fonctions avec des noms clairs, faire en sorte que chaque fonction fasse idéalement une seule chose, réussir à combiner facilement des fonctions. Sans oublier, ne pas over-ingénieurer (plus facile à dire qu'à faire).
      En tous cas, rien de tel que d'apprendre à créant des projets concrets 👍 Après, il faut alterner les phases théoriques (lecture de doc officielle, tuto) et mis en pratique.

  • @battlefield5
    @battlefield5 Před měsícem +3

    Attention on entend un peu echo ton interlocuteur, je pense que tu l'enregistre a la fois directement et indirectement via ton micro

    • @codeconcept
      @codeconcept  Před měsícem

      @battlefield5 Ca n'est que ma deuxième interview, donc j'ai encore des bonnes pratiques à découvrir 😉

    • @battlefield5
      @battlefield5 Před měsícem

      @@codeconcept c'est pas un reproche, juste une remarque :)

    • @codeconcept
      @codeconcept  Před měsícem +1

      @battlefield5 Pas de problème, je ne l'avais pas mal pris😀 Heureusement que ça n'est pas pas parti en larsen. Même si je suis un fan d'Hendrix, je préfère éviter le phénomène dans le cadre d'une interview.

  • @science.20246
    @science.20246 Před měsícem +1

    essayez de supprimer l'écho, et reposter la vidéo, elle très intéressante

    • @codeconcept
      @codeconcept  Před 28 dny

      Merci !
      Sur la prochaine, j'enregistrerai localement chaque source sonore que je réunirai en post prod. Là, c'est trop tard. Ceci dit, l'écho donne un effet "vaste" qui ne nuit pas à la compréhension.

  • @johangodfroid4978
    @johangodfroid4978 Před měsícem +1

    dans 3 ans il y aura des AGI, la concurrence risque d'être rude , très rude

    • @codeconcept
      @codeconcept  Před měsícem

      C'est toujours délicat de donner une date (ne serait-ce qu'une année) précise, car entre le marketing qui exagère les possibilités de certaines IA et les limitations physiques (nombre de GPU disponibles, data center à construire etc), les investisseurs - par nature impatients- vont peut-être retirer une partie de leurs billes pour sauter sur une nouvelle hype en 2025 ou 2026, si bien que les progrès ne seront pas continu.
      Ensuite, même si l'AGI est effective dans deux cinq ou dix ans, la destruction de millions d'emplois dans chaque pays rendra nécessaire une réorganisation : soit revenu universel, soit économie alternative des gens éjectés qui ne se résigneront pas à être catalogués "inutiles" par les RH accro aux IA, soit un mélange des deux.
      C'est une période d'incertitude, voire d'angoisse, mais peut-être aussi de changement de perspective imprévisibles pas nécessairement négatifs.

  • @ouck02
    @ouck02 Před měsícem

    Pour moi l'IA désigne les personnes qui croient que des programmes sont ou peuvent être intelligents. Ces gens ont une intelligence artificielle