LLM(ChatGPT) - Dé-coder les grands modèles de langage - Christophe Cerisara

Sdílet
Vložit
  • čas přidán 26. 11. 2023
  • Les grands modèles de langage naturel sont fondés sur les principes de la programmation, et bousculent aujourd'hui l'évolution des langages de programmation. Qu'est-ce qui les rend si différents des méthodes d'apprentissage automatique précédant 2018 ? Pourquoi semblent-ils fonctionner aussi bien ? Notre compréhension de leurs propriétés reste très parcellaire, et leur étude nous mène sans cesse de surprise en surprise. A défaut d'apporter des réponses définitives, nous nous poserons ces questions dans cet exposé et tenterons d'apporter quelques éléments de réflexion pour mieux cerner leur évolution actuelle et à court terme.
    Christophe Cerisara - CNRS
    Christophe Cerisara est chercheur en informatique au CNRS et travaille au laboratoire LORIA à Nancy. Il a créé l'équipe de recherche Synalp en 2012, composée d'une vingtaine de chercheurs spécialistes en traitement automatique des langues (TAL), dirige l'axe IA-TAL du LORIA depuis 2019 et a été référent dans le Plan National de la Recherche en IA en 2020. Il est ou a été responsable de plusieurs projets nationaux en IA, dont le projet OLKi de 2018 à 2022 et le projet LLM4All de 2023 à 2027. Il a encadré dix thèses de doctorat et publié plus d'une centaine d'articles de recherche en IA. Ses recherches actuelles portent principalement sur les algorithmes d'apprentissage profond et les propriétés des grands modèles de langage.
  • Věda a technologie

Komentáře • 4