Merci bcp pour ce tuto sur KMeans 👍 La methode de clustering KMeans est tres simplistique, intuitive et facilement interpretable, vu qu'elle est basé sur la distance euclidienne (pour mesurer l'ecart entre les points voisins), d'où sa popularité et l'interet qu'elle a par rapport à d'autres methodes plus compliqué comme le HDBSCAN...etc Or, bien que KMeans soit bcp utilisé, elle soufre d'un problème que l'on appel "the curse of dimensionality", qu'on trouve surtout avec des datasets avec >10 caracteristiques, car en high dimension, entre autres problemes, la distance euclidienne n'a plus de sense (la distance entre les differents points devient plus au moins egale) c'est comme ci on observe les étoiles dans le ciel (un plan 2D) on peut voir des etoiles voisines et d'autres qui ne sont pas voisines, mais imaginons qu'on est dans l'espace (3D), la réalité est que les étoiles sont reparti d'une façon uniforme a peu pres, donc ca devient tres difficile par rapport au 2D de creer des clusters. C'est pour cela en industry on prefere tt d'abord qu'on fasse de la reduction de dimension (moyennant qlq methodes...) avant de passer a un algo de clustering.
Salam Abdelkader, au début on a pas une idée claire de nombre de classes à utiliser pour cela on fait une boucle allant du nombre minimum de classes au nombre maximum (estimation). Puis la méthode nous retourne le bon nombre de clusters à utiliser.
bonsoir Meriem, j'ai kiffer votre tuto, mais je souhaite que vous fassiez un aussi bien construit que celui ci dans le cas d'apprentissage supervise: par exemple la prevision d'un dataset de clients d'un site
merci Meriem,j'ai bien aimé le tuto,ça m'a permis de comprendre mieux l'algorithme de kmeans
Merci Meriem pour cette superbe vidéo pratique. votre tuto est parmis les meilleurs qui parlent de cette notion .encore une fois merci▲
bonsoir madame, tout d'abord merci pour vos explications elles m'ont permis de comprendre le processus étape par étape. soyez bénis
Merci bcp pour ce tuto sur KMeans 👍
La methode de clustering KMeans est tres simplistique, intuitive et facilement interpretable, vu qu'elle est basé sur la distance euclidienne (pour mesurer l'ecart entre les points voisins), d'où sa popularité et l'interet qu'elle a par rapport à d'autres methodes plus compliqué comme le HDBSCAN...etc
Or, bien que KMeans soit bcp utilisé, elle soufre d'un problème que l'on appel "the curse of dimensionality", qu'on trouve surtout avec des datasets avec >10 caracteristiques, car en high dimension, entre autres problemes, la distance euclidienne n'a plus de sense (la distance entre les differents points devient plus au moins egale) c'est comme ci on observe les étoiles dans le ciel (un plan 2D) on peut voir des etoiles voisines et d'autres qui ne sont pas voisines, mais imaginons qu'on est dans l'espace (3D), la réalité est que les étoiles sont reparti d'une façon uniforme a peu pres, donc ca devient tres difficile par rapport au 2D de creer des clusters.
C'est pour cela en industry on prefere tt d'abord qu'on fasse de la reduction de dimension (moyennant qlq methodes...) avant de passer a un algo de clustering.
Votre commentaire est très instructif. Merci Marwan pour votre retour.
Merci excellente vidéo très claire avec un cas pratique et la comparaison ... vraiment du bon boulot !
Très clair, j'ai tout compris. Merci beaucoup !
Bravo! Je vous remercie pour votre clarté
Merci Meriem. Vous expliquez le cours avec clarté. Chapo à vous.
Merci beaucoup c'était clair et comprehensif.
Bonjour, très bonne vidéo, je voulais savoir si il y avait d'autre dataset ou la classification a déjà été faite comme pour celle de la fleur iris ?
Je me suis abonné
Woow! j'ai beaucoup aimé ce tuto thank u👌 Meriem 👍
Merci Alain
Super tuto.
C'est la méthode Elbow pour plus de précision.
Merci.
Avec plaisir 👍
barak ALlah fik
Thank you 👏
Super!!! Est-il posible de retrouver automatiquement le numéro optimal de clusters sans la nécessité du for loop?
merci meriem
Merci pour ce tuto très bien fait. juste une question, pourquoi on a choisi le nombre 11 dans la boucle for.
Salam Abdelkader, au début on a pas une idée claire de nombre de classes à utiliser pour cela on fait une boucle allant du nombre minimum de classes au nombre maximum (estimation). Puis la méthode nous retourne le bon nombre de clusters à utiliser.
@@MeriemHnidacours merci beaucoup Meriem pour ta réponse, j'espère que tu feras plus de vidéos en data science.
Merci beaucoup
merci a vous j'adore
Non, je suis Marocaine
J apprécie vraiment votre vidéo mais j aimerai savoir si c est le logiciel R que vous avez utilisé
il s'agit du logiciel (ou IDE) appelé IDLE pour faire de la programmation en Python
Mais pouvez vous me donnez des astuces pour La segmentation sur R?
@@fatoumatacisse8704 voici un bon exemple en R: uc-r.github.io/kmeans_clustering
@@MeriemHnidacoursmerci vraiment
Bravo ma chère copine
Thank you my dear for your support
Fière de toi .. 😍
Merciiiiiiiiiiiiiiiiiiii khawlati
Merci beaucoup vous venez de me faire apprendre comme ça. Merci
bonsoir Meriem, j'ai kiffer votre tuto, mais je souhaite que vous fassiez un aussi bien construit que celui ci dans le cas d'apprentissage supervise: par exemple la prevision d'un dataset de clients d'un site
Merci beaucoup