Tout savoir sur le Support Vector Machine (SVM) - LES MODELES LINEAIRES #16

Sdílet
Vložit
  • čas přidán 24. 07. 2024
  • Abonnez-vous à la chaîne afin de me soutenir, grâce à votre abonnement vous allez faire grandir cette chaîne et me permettre de créer plus de contenus.
    Dans cette vidéo, je vais vous expliquer toute la théorie qui se cache derrière l'algorithme du Support Vector Machine.
    Avoir accès à la formation en ligne :
    www.aiforyou.fr/formations-en...
    Si vous voulez avoir accès aux codes et aux pdf de cette formation, cliquez sur le lien ci-dessous :
    modele_arbre.ck.page/f7993d66ba
    Si vous avez envie de me soutenir et m'aider à developper ce projet, n'hésitez pas à regarder des vidéos ou à faire un don sur mon tipeee : fr.tipeee.com/aiforyou
    Si vous avez apprécié ce contenu, aimez la vidéo et abonnez-vous à la chaîne afin d'être au courant des prochaines nouveautés.
  • Věda a technologie

Komentáře • 13

  • @souleymanerashid8885
    @souleymanerashid8885 Před rokem

    On a vraiment besoin cette vidéo (théorie de la régression).
    Vraiment vous nous ouvre la porte de l'intelligence
    Merci d'avance

    • @AIforyouMorganGautherot
      @AIforyouMorganGautherot  Před rokem

      Hello Souleymane,
      Merci pour ton retour ça fait vraiment plaisir :)
      J'essaie effectivement de partager ce que j'apprend le plus possible :p

  • @MLA263
    @MLA263 Před rokem +1

    Super, merci ça m'a beaucoup aidée ! Avez-vous prévu une vidéo sur la formulation duale du problème ? Pour les cas non linéaires.

    • @AIforyouMorganGautherot
      @AIforyouMorganGautherot  Před rokem +1

      Non, ce n'est pas prévu.
      La semaine prochaine sort une série des vidéos sur les KNN.
      Je suis en train de travailler sur une série sur les algorithmes non-supervisés.

    • @MLA263
      @MLA263 Před rokem +1

      @@AIforyouMorganGautherot c'est noté merci :)

    • @AIforyouMorganGautherot
      @AIforyouMorganGautherot  Před rokem

      @@MLA263 De rien, bonne journée :)

  • @fatimazahrafz7647
    @fatimazahrafz7647 Před 4 měsíci

    Bonjour
    Belle explication!
    Une question: Pourquoi le vecteur poids est perpendiculaire à la droite de la combinaison linéaire?

    • @kenzaraiq1441
      @kenzaraiq1441 Před 28 dny

      Et si on a un dataset bimodal est ce que c'est la même chose?

  • @ulyssevs6848
    @ulyssevs6848 Před rokem +2

    Bonjour !
    La norme d'un vecteur, ce n'est pas plutôt racine(u1carré "+" u2carré), et non pas "-" ? C'est Pythagore.

    • @AIforyouMorganGautherot
      @AIforyouMorganGautherot  Před rokem

      Effectivement, il y a une coquille ici.
      La norme d'un vecteur u (x, y) c'est bien racine(x^2 + y^2)

    • @machkouroke7731
      @machkouroke7731 Před rokem +1

      ​@@AIforyouMorganGautherot heureusement j'ai failli me barrer sinon superbe vidéo

    • @remiandre5475
      @remiandre5475 Před rokem

      ça dépend ... si tu te places dans un espace de Minkowski ça marche...

    • @ulyssevs6848
      @ulyssevs6848 Před rokem

      @@remiandre5475 Oh oui ! une géométrie liée à la relativité restreinte 😁👍