Base de connaissance sur GPT - Mes données injectées booste le modèle - Assistant IA

Sdílet
Vložit
  • čas přidán 10. 06. 2024
  • Je vous montre comment créer votre propre IA boostée avec VOS données en 15 min ! 🔥
    Au programme :
    00:00 Introduction - Le pouvoir des IA personnalisées
    00:56 Le "knowledge base embedding"
    02:20 Étape 1 : Structurer sa base de connaissances
    04:55 Étape 2 : Créer l'interface de recherche IA
    06:33 Démo - On teste notre IA sur-mesure !
    09:49 Alternative clé en mai
    10:40 Bilan - Les cas d'usage révolutionnaires
    📚 En injectant vos données structurées à un modèle IA, vous obtenez un assistant ultra-pointu capable de répondre à toutes les questions sur votre domaine.
    🎯 Un vrai gain de temps et de pertinence. Les cas d’utilisations sont énormes !
    À la fin de cette vidéo, vous pourrez créer votre propre GPT pour répondre à n’importe quelle question !
    📩 Recevez des cas concrets d'IA appliquée chaque mardi : optimia.substack.com/
    📣 Suivez-moi sur LinkedIn pour ne rien manquer sur l'IA : [www.linkedin.com/in/louisgraffeuil]( / louisgraffeuil )
    #intelligenceartificielle #IA #gpt #agentgpt #baseconnaissance #KnowledgeEmbedding #RelevanceAI #ChatbotCustom #chatbot #Startup #dust
  • Věda a technologie

Komentáře • 32

  • @user-gj4fv3sm9r
    @user-gj4fv3sm9r Před 20 dny

    Merci pour la video. Je ne connaissais pas l'outil et je l'essaierai grâce à vous. Attention aux termes, "injection de données" est utilisé à tort et à travers et pas toujours à bon escient. Ensuite sur les exemples d'utilisation, pour le juridique, c'est interdit de mettre des contrats à disposition d'une IA qui ne serait pas locale, et qui plus est dont les serveurs sont hors de France. Enfin, quoique l'outil soit intéressant, on peut faire les choses plus simplement avec les GPTs (openAI) GEMs (Gemini) etc disponibles sur la plupart des LLM . Mais c'est surement parce que je ne l'ai pas testé et que je n'en vois surement pas encore tous les apports. Merci et continuez comme cela. Je m'abonne !

    • @LouisGraffeuil
      @LouisGraffeuil  Před 20 dny

      Merci pour le retour que je note. Je veillerai à la bonne utilisation des termes pour les prochaines fois. Je reste encore en exploration sur le sujet, les outils / techno évoluent tellement vite.

  • @steved1122
    @steved1122 Před 26 dny

    merci je m'abonne direct! le contenue francophone est rare merci !!

    • @LouisGraffeuil
      @LouisGraffeuil  Před 26 dny +1

      Merci ! S'il y a des cas concrets que tu souhaites que j'aborde, n'hésite pas à les partager en commentaire :)

    • @steved1122
      @steved1122 Před 26 dny

      @@LouisGraffeuil j’ai un grand nombre de thèse ( pdf) de mes étudiants mais je sais pas trop comment alimenter un modèle type llama3 ou autre pour le custom ! Une vidéo sur l’intégration de doc pdf serait génial ;-)!!

    • @LouisGraffeuil
      @LouisGraffeuil  Před 26 dny

      @@steved1122 Quel est l'objectif ou la problématique précise ? Qu'est-ce que tu souhaites obtenir après l'agrégation des thèses ?

    • @steved1122
      @steved1122 Před 26 dny

      L’idée serait d’avoir a terme un modèle agrégeant les données précises de notre domaine ! On commence par les data du laboratoire ( thèse et article) puis on élargit à la littérature ( article du domaine)! Cela nous servira pour les nouveaux entrants et aussi pour une meilleure orientation des manip futures

  • @dido2079
    @dido2079 Před 26 dny

    Excellent !!!!!

  • @cgc2300
    @cgc2300 Před 14 dny

    Bonjour, on avait commencé à ce parler sur discord, je suis cyril

  • @passepartout1140
    @passepartout1140 Před měsícem +1

    Bonjour et merci pour cette vidéo.
    je ne pense pas que comparer Opus 3 et gpt 3.5 soit pertinent.
    Opus 3 et gpt 4 ok
    Ou alors des versions inférieures, mais qui restent comparables.

    • @LouisGraffeuil
      @LouisGraffeuil  Před měsícem +1

      Oui, c'est vrai que j'aurais dû rester sur des modèles à performance similaire. L'objectif était surtout de montrer concrètement que le modèle est capable d'avoir des hallucinations quand les questions sont trop précises, sans base de connaissance

  • @pm5853
    @pm5853 Před 6 dny

    Très intéressant mais n'obtient-on pas la même chose plus facilement avec les futures IA (GPT5) ou les GPTs auxquels on ajoute le csv ?

    • @LouisGraffeuil
      @LouisGraffeuil  Před 6 dny

      Pour GPT5, je peux pas te répondre mais par rapport aux GPTs, c'est possible de faire à peu près la même chose, mais il y a quelques contraintes :
      - le manque de flexibilité sur les modèles utilisées (on est obligé d'utiliser GPT et on ne peut pas basculer sur d'autres domaines)
      - un GPT n'est pas disponible par API, on est obligé de rester sur l'interface web de GPT, une limitation sur l'automatisation ou l'intégration dans des outils internes
      Les outils low-code comme Relevance AI (il y en a pleins d'autres) offrent des possibilités plus larges.
      Je pense faire une vidéo dédiée sur ces outils pour vous montrer toute la puissance + une vidéo dédiée sur les GPTs / assistants Open AI
      Si tu as d'autres idées de vidéos, n'hésite pas :)

    • @pm5853
      @pm5853 Před 6 dny

      @@LouisGraffeuil Je viens de tester avec gpt 4o et la réponse est satisfaisante (pour la scpi test de la vidéo) donc l'idée derrière est que "plutôt que de se "lancer" (même si ce n'est pas compliqué) dans des outils annexes, ne vaut il pas mieux attendre les nouvelles versions d'outils comme chatgpt" qui ont vocation à "tout écraser" de toutes façons.. Par ailleurs, copilot sur excel, rend exactement (et plus facilement du moment qu'on a bien sûr la licence) ce genre de service.

    • @LouisGraffeuil
      @LouisGraffeuil  Před 6 dny

      ​@@pm5853 Dans l'exemple, l'idée était de montrer un outil qui apporte des réponses précises sur un sujet non généraliste (par exemple, savoir quelles sont les conditions de ventes d'un produit de mon entreprise, ..) Là j'ai voulu prendre les SCPI pour les conseillers en gestion de patrimoine. Mais les données des produits SCPI sont publiques, la version GPT-4o a donc réussi à récupérer des informations que GPT-4 n'avait pas avant. Mais pour toutes données qui est non publique, GPT-4 et GPT-5 plus tard, n'auront simplement pas l'info. Copilot utilise Gemini, un peu le même problème.

    • @pm5853
      @pm5853 Před 6 dny

      @@LouisGraffeuil Copilot c'est Microsoft ;-) Avec la nouvelle version d'excel, un tableau comme celui montré dans l'exemple est "traité" traitable directement, avec des requêtes en langage naturel. Quand Office Copilot sera généralisé, énormément de services comme relevanceai ou autres ne serviront plus à rien.. L'intérêt pourrait être de faire un service en ligne, mais là encore, par exemple avec wordpress, il y a déjà pas mal de plugins qui font le boulot en permettant de se baser en 2 temps 3 mouvements sur des données qu'on entre (et donc d'avoir par exemple un chatbot sur le site qui répond à des questions sur le sujet). (On peut aussi le baser sur les "posts" du wordpress ce qui laisse donc tous les formats possibles.

    • @LouisGraffeuil
      @LouisGraffeuil  Před 5 dny

      ​ @pm5853 Oula oui désolé pour l'erreur. Ce que je tenais à souligner, c'est la distinction entre les solutions avec les modèles d'IA générative (GPT, copilot qui ne fait qu'utiliser GPT dans une feuille sheets) et qui donnent des réponses trop généralistes et les solutions intégrant des bases de connaissances pouvant fournir des réponses très spécifiques.
      Sur la réalisation de tâches précises, tant que ces outils ne permettront pas d'apporter de la personnalisation en partageant des données sur lesquelles ils peuvent s'appuyer pour faire des tâches précises, ils ne sauront pas au niveau d'un relevance AI qui apporte beaucoup plus de flexibilité, avec la création d'un process de A à Z complet. Ce sont juste des usages différents : besoins généralistes vs besoins spécifiques

  • @maximinmaster7511
    @maximinmaster7511 Před 28 dny

    Bonjour, merci pour cette vidéo très instructive. Le problème de confidentialité pour une entreprise c'est que ses données peuvent se retrouver dans la base de chatGPT. Peut-on créer notre propre assistant, avec nos propres données sans qu'elles soient intégrées et mise en ligne par ChatGPT ?

    • @LouisGraffeuil
      @LouisGraffeuil  Před 28 dny +2

      Très bonne question. L'outil que j'utilise permet d'utiliser d'autres modèles IA comme Llama 3 (modèle open source de Meta) par exemple qui a une performance entre GPT 3.5 et GPT 4. C'est le modèle 70b qui est dispo. Je devrais faire prochainement une vidéo sur un chatbot, je ferais en sorte d'utiliser un modèle open source comme Llama ou Mistral

    • @maximinmaster7511
      @maximinmaster7511 Před 28 dny

      @@LouisGraffeuil Merci pour la réponse, vivement la prochaine vidéo alors, celle-ci est déjà bien faites. Bonne journée

    • @LouisGraffeuil
      @LouisGraffeuil  Před 28 dny +2

      @@maximinmaster7511 Merci pour le soutien, ça fait super plaisir ! Je pense que cette vidéo sera disponible dans 1 à 2 mois. Il y a déjà 3 vidéos dans le pipe : outils IA, la base du prompt, excel avec l'IA. D'ailleurs, s'il y a d'autres sujets que tu souhaites que j'aborde, n'hésite surtout pas ! Une vidéo sur la confidentialité des données / gestion de données par les modèles IA, pourrait être aussi cool, j'ai l'impression qu'on est tous un peu perdus à ce niveau-là.

    • @maximinmaster7511
      @maximinmaster7511 Před 28 dny

      @@LouisGraffeuil Merci, je vais regarder tes précédentes vidéos. Un chat-bot serait également un plus pour la formation en interne, il jouerait le rôle d'un professeur en piochant dans la base que nous lui aurions préalablement fournis sous forme de fichier pdf ou texte, ce serait un plus pour les entreprises serait un plus.

  • @Fullhaura
    @Fullhaura Před 28 dny +1

    Quelle est la différence entre Dust et Relevance AI ?

    • @LouisGraffeuil
      @LouisGraffeuil  Před 28 dny +1

      Relevance permet de créer des agents / outils où tu fais appel à un LLM de ton choix pour faire des process complets, l'exécution se fait sur leur serveur. Ça permet d'automatiser des process assez larges en utilisant des modèles d'IA génératives.
      Alors que Dust (dust.tt/) s'est spécialisé sur un besoin précis : la recherche d'informations interne avec l'intégration d'outils type Drive / Notion / DropBox / Github

    • @Fullhaura
      @Fullhaura Před 28 dny

      @@LouisGraffeuil Merci beaucoup pour ta réponse !

  • @doctor.project_
    @doctor.project_ Před 27 dny +1

    c'est comme answerly en fait non ?

    • @LouisGraffeuil
      @LouisGraffeuil  Před 27 dny

      Par rapport au cas d'usage, oui ça aurait pu être fait sous forme de chatbot. Je ne connais pas Answerly, j'imagine que c'est un peu comme voiceflow ou botpress ? Par contre, c'est assez différent de Relevance AI qui a des possibilités plus larges

    • @doctor.project_
      @doctor.project_ Před 21 dnem

      @@LouisGraffeuil comme quoi par exemple ?

    • @LouisGraffeuil
      @LouisGraffeuil  Před 21 dnem

      @@doctor.project_ Answerly est un AI chatbot, Relevance AI peut être vu comme un outil AI d'automatisation de tâches. Il est possible de créer des agents et des outils, un peu comme des GPTs où tu peux en plus créer d'autres étapes pour donner un workflow. Beaucoup d'intégrations possibles, les possibilités sont très larges

  • @spadaacca
    @spadaacca Před měsícem

    Suffit de juste créer un GPT avec une/plusieurs base(s) de données plutôt que d'utiliser des outils externes. Tu compliques le process pour rien.

    • @LouisGraffeuil
      @LouisGraffeuil  Před měsícem +3

      C’est aussi possible de faire à peu près la même chose avec un GPT mais les inconvénients que je peux voir :
      - Pas de choix sur le LLM (possible d’utiliser Groq et Llama 3 sur Relevance par exemple)
      - Limite d’upload de documents et sur la taille des documents (il faut souvent retravailler le format des docs pour que ça soit bien digéré par le GPT)
      - Absence d’API et impossibilité de l’ajouter à une interface maison
      Au final, une fois la base de connaissance prête, les étapes sont assez similaires entre créer un GPT et utiliser Relevance AI. Ça se fait rapidement et j’aurai pu utiliser GPT pour l’exemple.
      Mais l’intérêt je trouve, c’est plutôt en termes d’intégration avec son application et mise en production. Par contre, je n'ai pas creusé les Assistants d'Open AI qui semblent exploitable par API

    • @passepartout1140
      @passepartout1140 Před měsícem

      @@LouisGraffeuil Oui je confirme car la structuration des données est très importante si l'on veut un output pertinent et efficace. D'où les vecteurs :)