K-Means Clustering in Python

Sdílet
Vložit
  • čas přidán 24. 10. 2019

Komentáře • 38

  • @mamadougalydiallo6598
    @mamadougalydiallo6598 Před 4 lety +4

    merci Meriem,j'ai bien aimé le tuto,ça m'a permis de comprendre mieux l'algorithme de kmeans

  • @laminedembele7421
    @laminedembele7421 Před 3 lety

    Merci Meriem pour cette superbe vidéo pratique. votre tuto est parmis les meilleurs qui parlent de cette notion .encore une fois merci▲

  • @gloriamessengatiok5017

    bonsoir madame, tout d'abord merci pour vos explications elles m'ont permis de comprendre le processus étape par étape. soyez bénis

  • @MJ-vo8ns
    @MJ-vo8ns Před 4 lety +2

    Merci bcp pour ce tuto sur KMeans 👍
    La methode de clustering KMeans est tres simplistique, intuitive et facilement interpretable, vu qu'elle est basé sur la distance euclidienne (pour mesurer l'ecart entre les points voisins), d'où sa popularité et l'interet qu'elle a par rapport à d'autres methodes plus compliqué comme le HDBSCAN...etc
    Or, bien que KMeans soit bcp utilisé, elle soufre d'un problème que l'on appel "the curse of dimensionality", qu'on trouve surtout avec des datasets avec >10 caracteristiques, car en high dimension, entre autres problemes, la distance euclidienne n'a plus de sense (la distance entre les differents points devient plus au moins egale) c'est comme ci on observe les étoiles dans le ciel (un plan 2D) on peut voir des etoiles voisines et d'autres qui ne sont pas voisines, mais imaginons qu'on est dans l'espace (3D), la réalité est que les étoiles sont reparti d'une façon uniforme a peu pres, donc ca devient tres difficile par rapport au 2D de creer des clusters.
    C'est pour cela en industry on prefere tt d'abord qu'on fasse de la reduction de dimension (moyennant qlq methodes...) avant de passer a un algo de clustering.

    • @MeriemHnidacours
      @MeriemHnidacours  Před 4 lety +1

      Votre commentaire est très instructif. Merci Marwan pour votre retour.

  • @sylvainballerini239
    @sylvainballerini239 Před 3 lety

    Merci excellente vidéo très claire avec un cas pratique et la comparaison ... vraiment du bon boulot !

  • @informatiqueinfos
    @informatiqueinfos Před 3 lety

    Très clair, j'ai tout compris. Merci beaucoup !

  • @douniabentaleb8693
    @douniabentaleb8693 Před 4 lety +1

    Bravo! Je vous remercie pour votre clarté

  • @ouedraogoaboubakari6538

    Merci Meriem. Vous expliquez le cours avec clarté. Chapo à vous.

  • @sofnef1268
    @sofnef1268 Před 3 lety

    Merci beaucoup c'était clair et comprehensif.

  • @amineziane4542
    @amineziane4542 Před 4 lety +1

    Bonjour, très bonne vidéo, je voulais savoir si il y avait d'autre dataset ou la classification a déjà été faite comme pour celle de la fleur iris ?

  • @issakone6387
    @issakone6387 Před rokem

    Je me suis abonné

  • @alainvihumbira8354
    @alainvihumbira8354 Před 4 lety

    Woow! j'ai beaucoup aimé ce tuto thank u👌 Meriem 👍

  • @mehdib1781
    @mehdib1781 Před rokem +1

    Super tuto.
    C'est la méthode Elbow pour plus de précision.
    Merci.

  • @kemmounramzy6232
    @kemmounramzy6232 Před rokem

    barak ALlah fik

  • @amazzalel-habib9099
    @amazzalel-habib9099 Před 4 lety

    Thank you 👏

  • @vladimirrav
    @vladimirrav Před 3 lety

    Super!!! Est-il posible de retrouver automatiquement le numéro optimal de clusters sans la nécessité du for loop?

  • @sahbibannour3137
    @sahbibannour3137 Před 4 lety +1

    merci meriem

  • @abdelkaderhamadi7422
    @abdelkaderhamadi7422 Před 4 lety +1

    Merci pour ce tuto très bien fait. juste une question, pourquoi on a choisi le nombre 11 dans la boucle for.

    • @MeriemHnidacours
      @MeriemHnidacours  Před 4 lety +1

      Salam Abdelkader, au début on a pas une idée claire de nombre de classes à utiliser pour cela on fait une boucle allant du nombre minimum de classes au nombre maximum (estimation). Puis la méthode nous retourne le bon nombre de clusters à utiliser.

    • @abdelkaderhamadi7422
      @abdelkaderhamadi7422 Před 4 lety

      @@MeriemHnidacours merci beaucoup Meriem pour ta réponse, j'espère que tu feras plus de vidéos en data science.

  • @evadavid5726
    @evadavid5726 Před 4 lety

    Merci beaucoup

  • @oumaimasouid1055
    @oumaimasouid1055 Před 4 lety +1

    merci a vous j'adore

  • @fatoumatacisse8704
    @fatoumatacisse8704 Před 3 lety +1

    J apprécie vraiment votre vidéo mais j aimerai savoir si c est le logiciel R que vous avez utilisé

    • @MeriemHnidacours
      @MeriemHnidacours  Před 3 lety

      il s'agit du logiciel (ou IDE) appelé IDLE pour faire de la programmation en Python

    • @fatoumatacisse8704
      @fatoumatacisse8704 Před 3 lety

      Mais pouvez vous me donnez des astuces pour La segmentation sur R?

    • @MeriemHnidacours
      @MeriemHnidacours  Před 3 lety +1

      @@fatoumatacisse8704 voici un bon exemple en R: uc-r.github.io/kmeans_clustering

    • @fatoumatacisse8704
      @fatoumatacisse8704 Před 3 lety

      @@MeriemHnidacoursmerci vraiment

  • @karimamaaroufi9191
    @karimamaaroufi9191 Před 4 lety

    Bravo ma chère copine

  • @khawladouja9329
    @khawladouja9329 Před 4 lety

    Fière de toi .. 😍

  • @issakone6387
    @issakone6387 Před rokem

    Merci beaucoup vous venez de me faire apprendre comme ça. Merci

  • @bqdone
    @bqdone Před 2 lety

    bonsoir Meriem, j'ai kiffer votre tuto, mais je souhaite que vous fassiez un aussi bien construit que celui ci dans le cas d'apprentissage supervise: par exemple la prevision d'un dataset de clients d'un site

  • @adlaahmed9218
    @adlaahmed9218 Před 3 lety

    Merci beaucoup