Article
Types et applications de l’apprentissage automatique
L’apprentissage automatique (AA) révolutionne divers secteurs en permettant aux systèmes informatiques d’apprendre et de prendre des décisions axées sur les données. De l’identification des fraudes financières à la personnalisation des recommandations de produits, les techniques de l’AA se révèlent essentielles pour l’innovation et l’efficacité opérationnelle. Cet article explore donc les différents types d’apprentissage automatique et examine leurs applications pratiques, ainsi que les avantages et les défis associés à chacune de ces approches. Une fois que les entreprises connaissent les capacités de chaque type d’AA, elles peuvent mieux appliquer ces technologies pour résoudre des problèmes complexes et obtenir des informations utiles.
Qu’est-ce que l’apprentissage automatique ?
L’apprentissage automatique est une branche de l’intelligence artificielle (IA) qui implique la création d’algorithmes et de modèles statistiques qui permettent aux ordinateurs d’effectuer des tâches spécifiques sans être explicitement programmés pour cela. Cela signifie qu’au lieu de suivre des instructions détaillées étape par étape, les ordinateurs apprennent à partir de données et d’expériences passées. Cela leur permet de faire des prédictions ou de prendre des décisions sur la base de nouvelles données.
L’idée principale derrière l’AA est que les systèmes peuvent identifier des modèles et des corrélations inconnus dans de grandes quantités de données et, avec le temps, améliorer leur capacité à réaliser des tâches spécifiques. L’apprentissage se fait en introduisant de grands ensembles de données et en utilisant des algorithmes qui ajustent les modèles pour mieux représenter les relations entre eux.
Types d’apprentissage automatique
Il existe plusieurs types d’apprentissage automatique, mais ils peuvent être largement classés en quatre catégories principales :
- Apprentissage supervisé : dans l’apprentissage supervisé, l’algorithme est entraîné sur un ensemble de données étiquetées. Cela signifie que chaque exemple d’entraînement est composé d’un ensemble d’entrées et de sorties correctement identifiées et classifiées. L’objectif de l’algorithme est d’apprendre à cartographier la relation entre les entrées (inputs) et les sorties (outputs) en se basant sur les exemples fournis ;
- Apprentissage non supervisé : dans l’apprentissage non supervisé, l’algorithme est entraîné sur des données non-étiquetées. L’objectif est de découvrir des structures cachées dans les données. Sans réponses fournies, l’algorithme tente de regrouper ou de réduire la dimensionnalité des données afin d’extraire des informations potentiellement pertinentes ;
- Apprentissage semi-supervisé : l’apprentissage semi-supervisé est une approche intermédiaire qui utilise à la fois des données étiquetées et non étiquetées pour entraîner des algorithmes. Généralement, une petite quantité de données étiquetées est utilisée en conjonction avec une grande quantité de données non étiquetées. Cette approche est utile lorsque l’étiquetage des données est coûteux ou prend du temps ;
- Apprentissage par renforcement : dans l’apprentissage par renforcement, au lieu d’établir les variables d’entrée avec les paramètres de sortie, l’algorithme apprend à prendre des décisions en interagissant avec un environnement dynamique. Selon les actions qu’il réalise, il reçoit des récompenses ou des pénalités, et l’objectif est de maximiser la récompense cumulée au fil du temps.
Ces types d’apprentissage automatique permettent l’application de techniques d’AA à une large gamme de problèmes, allant des prévisions financières à la création de systèmes autonomes.
Apprentissage supervisé
L’apprentissage supervisé est l’une des approches les plus courantes et largement utilisées dans le domaine de l’apprentissage automatique. Dans cette technique, les algorithmes sont entraînés en utilisant un ensemble de données étiquetées, où chaque entrée est associée à une sortie souhaitée. L’objectif est de faire en sorte que le modèle apprenne à partir de ces exemples afin qu’il puisse faire des prédictions précises ou prendre des décisions lorsque de nouvelles données sont présentées.
Applications de l’apprentissage supervisé
L’apprentissage supervisé a une large gamme d’applications dans divers secteurs, notamment :
- Classification des e-mails de spam : identifier les e-mails indésirables et les classer comme spam ou non-spam ;
- Détection de fraudes : identifier les transactions frauduleuses en temps réel dans les systèmes financiers ;
- Reconnaissance et classification d’images : classer des images dans des catégories, comme identifier des objets ou des visages sur des photos ;
- Prévision des ventes : prédire le volume des ventes futures en se basant sur des données historiques ;
- Analyse de sentiments : déterminer le sentiment (positif, négatif ou neutre) de textes, comme les analyses de produits ou les commentaires sur les réseaux sociaux ;
- Systèmes de recommandation : suggérer des produits ou des contenus en fonction de l’historique des préférences des utilisateurs ;
- Conversion de la langue parlée en texte : convertir la langue parlée en une langue écrite.
- Diagnostic médical : aider à identifier des maladies en se basant sur des symptômes et des examens médicaux.
Avantages
L’apprentissage supervisé offre plusieurs avantages, parmi lesquels :
- Précision : les modèles supervisés peuvent être très précis, à condition d’être entraînés avec des données de bonne qualité ;
- Polyvalence : peut être appliqué à une large gamme de problèmes de classification et de régression ;
- Interprétation : les processus de prise de décision sont généralement faciles à interpréter et à expliquer.
Défis
Malgré ses avantages, l’apprentissage supervisé présente également certains défis :
- Nécessité de données étiquetées : requiert une grande quantité de données étiquetées, ce qui peut être coûteux et long à obtenir ;
- Surapprentissage : il y a un risque que le modèle s’ajuste trop aux données d’entraînement, ce qui nuit à ses performances sur de nouvelles données ;
- Biais dans les données : si les données d’entraînement sont biaisées, le modèle résultant le sera également ;
- Mise à jour des modèles : les modèles peuvent avoir besoin d’être régulièrement mis à jour avec de nouvelles données pour maintenir leur précision.
Apprentissage non supervisé
L’apprentissage non supervisé est une approche de l’apprentissage automatique où les algorithmes sont entraînés en utilisant des données qui ne possèdent pas d’étiquettes. Contrairement à l’apprentissage supervisé, où chaque entrée a une sortie correspondante connue, l’objectif de l’apprentissage non supervisé est d’identifier des modèles ou des structures cachées dans les données. Cela peut inclure le regroupement de données en catégories ou la réduction de la dimensionnalité des données pour simplification et visualisation. Les deux principales catégories de l’apprentissage non supervisé sont les algorithmes de regroupement (clustering en anglais) et les règles d’association.
Applications de l’apprentissage non supervisé
L’apprentissage non supervisé est largement utilisé dans plusieurs domaines, notamment :
- Segmentation des clients : segmenter les clients en groupes avec des comportements ou des caractéristiques similaires pour des stratégies marketing ciblées ;
- Recommandation de produits : découvrir les comportements d’achat qui aident à suggérer des produits pertinents aux utilisateurs ;
- Analyse de communautés dans les réseaux sociaux : identifier les communautés et les influenceurs dans les réseaux sociaux en analysant la structure des liens entre les utilisateurs ;
- Détection d’anomalies : identifier les transactions inhabituelles ou frauduleuses qui ne correspondent pas aux modèles normaux des données ;
- Compression de données : réduire la dimensionnalité des données pour faciliter le stockage et l’analyse, comme les techniques de compression d’images ;
- Analyse génétique : identifier des similarités dans les séquences d’ADN pour la recherche génétique et biomédicale.
Avantages
L’apprentissage non supervisé présente plusieurs avantages :
- Exploration de données : permet la découverte de modèles cachés et d’informations dans des données non étiquetées ;
- Réduction des coûts : ne nécessite pas de données étiquetées, économisant ainsi le temps et les ressources nécessaires pour l’étiquetage manuel ;
- Adaptabilité : peut être appliqué à de nouveaux ensembles de données sans besoin d’étiquettes, ce qui le rend flexible pour diverses applications ;
- Identification d’anomalies : efficace pour détecter les valeurs aberrantes et les anomalies qui peuvent ne pas être évidents dans les données étiquetées.
Défis
Cependant, l’apprentissage non supervisé fait face à plusieurs défis :
- Interprétation des résultats : les résultats peuvent être difficiles à interpréter, car il n’y a pas d’étiquettes pour valider les conclusions ;
- Complexité computationnelle : les algorithmes peuvent être computationnellement complexes, surtout pour de grands ensembles de données ;
- Qualité des données : l’efficacité dépend de la qualité et de la représentativité des données d’entrée ;
- Risque de regroupements arbitraires : sans étiquettes, il y a un risque de regrouper les données de façon qui n’a pas de sens pratique.
Apprentissage semi-supervisé
L’apprentissage semi-supervisé est une approche intermédiaire entre l’apprentissage supervisé et l’apprentissage non supervisé. Cette approche utilise à la fois des données étiquetées et non étiquetées pour former les algorithmes. En général, une petite quantité de données étiquetées est combinée à une grande quantité de données non étiquetées. Cette méthode est particulièrement utile dans les situations où les données étiquetées sont coûteuses ou longues à obtenir, mais où il existe une abondance de données non étiquetées.
Applications de l’apprentissage semi-supervisé
L’apprentissage semi-supervisé trouve des applications dans divers domaines, notamment :
- Traitement du langage naturel (TLN) : appliqué à des tâches comme l’analyse des sentiments, où seule une petite partie des textes est étiquetée ;
- Reconnaissance vocale : améliore la précision des modèles de reconnaissance vocale en utilisant des données audios étiquetées et non étiquetées ;
- Systèmes de recommandation : améliore les recommandations en utilisant des données de préférences des utilisateurs partiellement étiquetées ;
- Classification d’images : utilisé pour classer de grands ensembles d’images où seules quelques-unes sont étiquetées, réduisant ainsi l’effort manuel d’étiquetage ;
- Diagnostic médical : aide à identifier les maladies en utilisant un petit ensemble de données médicales étiquetées et un grand volume de données non étiquetées ;
- Détection de fraudes : augmente l’efficacité des systèmes de détection de fraudes en combinant des transactions étiquetées avec un grand nombre de transactions non étiquetées.
Avantages
L’apprentissage semi-supervisé présente plusieurs avantages importants :
- Réduction des coûts et du temps : nécessite moins de données étiquetées, réduisant ainsi de façon significative le coût et le temps impliqués dans l’étiquetage manuel ;
- Meilleure performance : peut améliorer la performance du modèle par rapport à l’apprentissage non supervisé en utilisant les informations des données étiquetées ;
- Flexibilité : adapté à de nombreux domaines où les données non étiquetées sont abondantes, mais les données étiquetées sont rares ;
- Généralisation : améliore la capacité du modèle à se généraliser en explorant des modèles dans des données non étiquetées.
Défis
L’apprentissage semi-supervisé fait également face à certains défis :
- Qualité des données non étiquetées : l’efficacité dépend de la qualité des données non étiquetées, car des données bruyantes ou non pertinentes peuvent nuire aux performances ;
- Complexité algorithmique : les algorithmes peuvent être complexes et nécessiter une puissance de calcul accrue pour traiter de grands volumes de données non étiquetées ;
- Étiquetage initial : la sélection et l’étiquetage initiaux d’un ensemble de données représentatif sont cruciaux et peuvent influencer significativement les performances du modèle ;
- Évaluation des performances : évaluer et valider les performances des modèles semi-supervisés peut être complexe en raison de la combinaison de données étiquetées et non étiquetées.
Apprentissage par renforcement
L’apprentissage par renforcement est une approche de l’apprentissage automatique où un agent apprend à prendre des décisions dans un environnement dynamique pour maximiser une récompense cumulative. Contrairement à l’apprentissage supervisé et non supervisé, l’apprentissage par renforcement repose sur l’interaction continue de l’agent avec l’environnement, recevant des retours sous forme de récompenses ou de pénalités en fonction des actions entreprises. L’agent ajuste sa stratégie au fil du temps pour améliorer ses performances, apprenant quelle action entreprendre dans différentes situations pour obtenir la plus grande récompense possible.
Applications de l’apprentissage par renforcement
L’apprentissage par renforcement a une large gamme d’applications pratiques, notamment :
- Robotique : développer des robots capables d’effectuer des tâches complexes, telles que la navigation autonome, la manipulation d’objets et les tâches industrielles ;
- Jeux : entraîner des agents à jouer à des jeux comme les échecs et les jeux vidéo complexes, surpassant les joueurs humains ;
- Systèmes de recommandation : améliorer la personnalisation dans les systèmes de recommandation en ajustant les suggestions en fonction du retour d’information continu de l’utilisateur ;
- Contrôle du trafic : optimiser le contrôle des feux de circulation dans les villes pour réduire les embouteillages et améliorer la circulation ;
- Finance : développer des stratégies de négociation automatisées qui s’ajustent dynamiquement au marché pour maximiser les profits ;
- Gestion des ressources : optimiser l’allocation des ressources dans les centres de données et les réseaux de communication pour améliorer l’efficacité et réduire les coûts ;
- Santé : développer des protocoles de traitement personnalisés qui s’ajustent en fonction de la réponse du patient au traitement.
Avantages
L’apprentissage par renforcement présente plusieurs avantages, parmi lesquels :
- Adaptation continue : l’agent peut adapter ses actions en fonction du retour continu de l’environnement, améliorant ses performances au fil du temps ;
- Exploration : équilibre l’exploration de nouvelles stratégies et l’exploitation de stratégies connues afin d’optimiser la récompense ;
- Applicabilité dans les environnements dynamiques : idéal pour les environnements où les conditions changent continuellement et où la prise de décision en temps réel est cruciale.
Défis
Malgré ses avantages, l’apprentissage par renforcement fait face à des défis :
- Complexité computationnelle : nécessite des ressources computationnelles importantes pour l’entraînement, en particulier dans des environnements complexes ;
- Récompenses éparses : dans de nombreux environnements, les récompenses peuvent être éparses et différées, ce qui rend difficile l’apprentissage des meilleures actions par l’agent ;
- Sécurité et fiabilité : garantir que l’agent prend des décisions sûres et fiables dans des environnements critiques est un défi ;
- Scalabilité : faire évoluer les solutions d’apprentissage par renforcement pour des problèmes de grande envergure avec plusieurs agents peut être complexe.
Intégration de l’AA avec les principes Kaizen
L’intégration de l’apprentissage automatique et de l’intelligence artificielle avec les principes Kaizen représente une synergie entre technologies avancées et méthodes d’amélioration continue. Le Kaizen, un mot japonais qui signifie « amélioration continue », met l’accent sur l’optimisation des processus, des produits et des services. Lorsqu’il est combiné avec l’AA, le Kaizen peut accélérer l’efficacité opérationnelle et l’innovation, offrant une approche structurée pour l’excellence.
Amélioration continue en AA
Intégrer les principes de l’amélioration continue dans l’apprentissage automatique fournit un cadre structuré et efficace pour optimiser chaque étape du processus, de l’identification des opportunités à l’application et l’amélioration des modèles de l’AA. Avec son accent sur l’optimisation et l’implication de toute l’équipe, le Kaizen peut être un outil puissant pour stimuler l’innovation et l’efficacité dans les projets de l’AA.
Cette synergie peut avoir un impact positif sur les différentes phases du projet :
- Identification des opportunités d’application de l’AA : en promouvant une culture d’analyse et de recherche continue de l’amélioration, le Kaizen facilite l’identification des domaines où l’AA peut être appliqué pour résoudre des problèmes ou optimiser des processus ;
- Gestion de projets : le Kaizen et le Lean offrent des approches structurées de gestion de projets qui peuvent soutenir la mise en œuvre des projets d’AA, garantissant que chaque étape soit exécutée de façon efficace et avec qualité ;
- Collecte et préparation des données : avec son accent sur les données et les preuves, le Kaizen peut aider dans le processus de collecte de données, garantissant qu’elles soient de qualité et pertinentes pour les modèles ;
- Entraînement et validation : le Kaizen peut contribuer à la mise en œuvre de cycles d’entraînement et de validation avec un retour d’information continu, permettant des ajustements rapides et des améliorations progressives des modèles ;
- Évaluation des performances : établir des métriques claires et des révisions régulières pour surveiller les performances des modèles, en identifiant les domaines à améliorer, est une autre zone où le Kaizen peut bénéficier aux organisations ;
- Retour d’information et ajustements : l’amélioration continue encourage également l’utilisation des retours d’information des utilisateurs et des résultats opérationnels pour ajuster les modèles et les processus.
Mettre en œuvre les principes du Kaizen dans les projets d’apprentissage automatique améliore l’efficacité des processus et promeut également une culture d’innovation continue et d’adaptation, fondamentale pour réussir dans des environnements dynamiques et compétitifs.
Excellence opérationnelle
La combinaison de l’apprentissage automatique avec les principes du Kaizen peut contribuer significativement à l’excellence opérationnelle. Avec sa capacité à analyser de grands volumes de données et à identifier des modèles cachés, l’apprentissage automatique offre des informations utiles qui peuvent guider les améliorations des processus opérationnels. Lorsqu’elles sont appliquées de façon systématique et alignées avec les principes Kaizen, ces améliorations deviennent encore plus efficaces et pérennes.
Par exemple, l’AA peut être utilisée pour surveiller en continu l’efficacité d’une chaîne de production, en identifiant les goulots d’étranglement et les variabilités qui affectent les performances. Ces informations permettent aux équipes de mettre en œuvre des améliorations, optimisant la productivité et la qualité. De plus, les outils d’apprentissage automatique jouent un rôle clé dans la maintenance prédictive en prévoyant les problèmes potentiels avant qu’ils ne surviennent, permettant ainsi des actions préventives et réduisant les temps d’inactivité et les coûts opérationnels.
L’intégration de ces technologies facilite également la mesure de l’impact des changements mis en œuvre. Cette approche basée sur les données garantit que les améliorations sont fondées sur des preuves concrètes, augmentant la probabilité de succès et la pérennité des changements.
En outre, l’utilisation de l’apprentissage automatique peut automatiser les tâches répétitives et opérationnelles, libérant les employés pour se concentrer sur des activités à plus forte valeur ajoutée.
En résumé, le Kaizen facilite la mise en œuvre de la transformation numérique, mais des technologies comme l’IA et l’analytique métier peuvent également contribuer à l’amélioration continue dans les organisations. Cette synergie entre technologie et principes Kaizen crée un environnement de travail plus efficace, agile et innovant, essentiel pour les organisations de l’avenir. L’application conjointe de l’IA et du Kaizen offre aux organisations un élan significatif dans leur quête de l’excellence opérationnelle.
Avez-vous encore des questions sur l’apprentissage automatique ?
Pourquoi intégrer les principes Kaizen dans l’AA ?
Intégrer les principes Kaizen dans l’apprentissage automatique (AA) offre plusieurs avantages significatifs :
- Amélioration continue : le Kaizen met l’accent sur l’amélioration continue, permettant aux modèles d’AA d’être constamment améliorés ;
- Efficacité opérationnelle : optimise les processus et les flux de travail, réduisant les gaspillages et augmentant l’efficacité dans les opérations d’AA ;
- Innovation constante : encourage une culture d’innovation où de nouvelles idées et techniques sont constamment testées et mises en œuvre ;
- Engagement des employés : implique les équipes dans les processus d’amélioration, augmentant la motivation et l’engagement envers la qualité et l’efficacité.
Quels sont les types d’apprentissage automatique les moins connus ?
En plus des catégories largement connues, il existe plusieurs types d’apprentissage automatique moins connus qui sont utilisés dans des niches spécifiques ou pour résoudre des problèmes particuliers :
- Apprentissage du classement (learning to rank – L2R en anglais) : cette méthode est principalement utilisée dans les moteurs de recherche et les systèmes de recommandation pour classer les éléments dans un ordre spécifique de pertinence ou de préférence ;
- Apprentissage avec peu d’exemples (few-shot learning en anglais) : cette méthode permet à un modèle d’apprendre avec très peu d’exemples d’entraînement, généralement seulement quelques exemples de chaque classe ;
- Apprentissage à partir de zéro (zero-shot learning en anglais) : cette méthode permet à un modèle de reconnaître des classes qui n’étaient pas présentes dans le jeu d’entraînement, en généralisant à partir d’autres classes connues ;
- Apprentissage multitâche (multi-task learning en anglais) : un modèle est entraîné pour effectuer plusieurs tâches simultanément, partageant des informations entre les tâches liées pour améliorer les performances ;
- Apprentissage auto-supervisé (self-supervised learning en anglais) : le modèle génère ses propres étiquettes à partir des données non étiquetées, utilisant généralement la structure interne des données comme supervision ;
- Apprentissage actif (active learning en anglais) : le modèle interagit avec un oracle (comme un humain) pour étiqueter de nouvelles données considérées comme plus informatives et pouvant améliorer les performances du modèle ;
- Apprentissage par renforcement avec transfert (transfer RL en anglais) : combine l’apprentissage par renforcement avec le transfert de connaissances d’un domaine à un autre, permettant aux modèles de tirer parti des connaissances acquises dans des tâches antérieures ;
- Apprentissage fédéré (federated learning en anglais) : permet à plusieurs dispositifs de former un modèle d’AA de façon collaborative sans partager de données entre eux, préservant ainsi la confidentialité des données.
Quelle est la différence entre l’apprentissage en ligne et l’apprentissage par lots en AA ?
La principale différence entre l’apprentissage en ligne et l’apprentissage par lots (batch learning en anglais) en apprentissage automatique réside dans la façon dont les données sont traitées. Dans l’apprentissage en ligne, les données sont traitées en flux continus, et le modèle est mis à jour au fur et à mesure que de nouvelles données arrivent. Cela permet au modèle de s’adapter rapidement aux changements dans les données au fil du temps, étant idéal pour les systèmes où la mémoire et le stockage sont limités, car il traite de petits lots de données à la fois. Les applications courantes de l’apprentissage en ligne incluent les systèmes de recommandation, l’analyse des réseaux sociaux et la détection de fraudes en temps réel.
En revanche, dans l’apprentissage par lots, toutes les données sont traitées en une seule fois, et le modèle est entraîné avec l’ensemble complet de données. Cela garantit une analyse plus stable et complète des données disponibles, résultant en des modèles plus robustes. Cependant, cette approche nécessite plus de mémoire et de puissance de calcul, car toutes les données sont chargées et traitées d’un coup. L’apprentissage par lots est indiqué aux tâches de prévision, de classification et d’analyse des données historiques.
Quelles sont les principales métriques pour évaluer les modèles d’apprentissage automatique ?
Pour évaluer les modèles d’apprentissage automatique efficacement, il est nécessaire de comprendre et d’utiliser une variété de métriques clés, qui varient en fonction du type de tâche (par exemple, classification, régression, regroupement). Voici quelques-unes des principales métriques pour différents types de tâches d’AA :
Métriques de classification :
- Matrice de confusion : tableau qui résume les performances d’un modèle de classification en montrant les vrais positifs, vrais négatifs, faux positifs et faux négatifs. Il fournit une vue détaillée des erreurs du modèle ;
- Exactitude (accuracy en anglais) : proportion de prédictions correctes (positives et négatives) par rapport au total de prédictions. Utilisée principalement dans les problèmes de classification. Pour illustrer ces métriques, imaginons un modèle qui classe les e-mails dans la catégorie « spam » ou « non-spam ». Dans ce cas, l’exactitude correspondrait au pourcentage d’e-mails classés correctement. En utilisant les données du tableau ci-dessus, la précision du modèle serait de (40+45) / 100 = 85 %.
- Précision (precision en anglais) : proportion de vrais positifs par rapport au total des prédictions positives. En d’autres termes, cela mesure le pourcentage des prédictions de la classe positive qui étaient vraiment correctes. Dans notre exemple, le modèle a classé 45 e-mails comme spam (A + C), dont 40 (A) appartiennent effectivement à la classe positive. La précision serait donc de 40/45 = 89 % ;
- Rappel (sensibilité) : proportion de vrais positifs par rapport au total des positifs réels. Autrement dit, combien d’échantillons de la classe positive ont été identifiés par le modèle. Dans notre exemple, sur les 50 e-mails de spam (A + B), seulement 40 ont été identifiés par le modèle (A), et 10 ont été incorrectement classés comme non-spam (B). Le rappel de notre modèle serait donc de 40/50 = 80 % ;
- Score F1 : moyenne harmonique entre la précision et le rappel. Utile pour équilibrer précision et rappel dans les problèmes de classification. Cette valeur montre si le modèle a une bonne capacité à prédire correctement le spam, c’est-à-dire, il est utile pour garantir non seulement la précision, mais aussi la capacité d’identifier une proportion significative de spams réels. Dans notre exemple, cette valeur serait d’environ 84 % ;
Métriques de régression :
- Erreur quadratique moyenne (Mean Squared Error – MSE en anglais) : moyenne des carrés des erreurs ou des différences entre les valeurs prévues et les valeurs réelles. Utilisée principalement dans les problèmes de régression ;
- R-carré (coefficient de détermination) : mesure la proportion de la variance des données dépendantes qui est prévisible à partir des variables indépendantes. Utilisé pour évaluer l’ajustement des modèles de régression.
Métriques de regroupement :
- Indice de silhouette : mesure la similarité d’un objet avec son propre groupe par rapport aux autres groupes ;
- Indice de Davies-Bouldin : mesure la moyenne du rapport de similarité de chaque groupe avec le groupe le plus similaire ;
- Indice de Rand Ajusté (ARI) : mesure la similarité entre deux groupements de données, en ajustant pour le regroupement aléatoire des éléments.
Digital et IA
Découvrez plus d’informations sur ce type de transformation