logo

Algorithmes d'apprentissage automatique

Algorithmes d'apprentissage automatique sont des modèles informatiques qui permettent aux ordinateurs de comprendre des modèles et de prévoir ou de porter des jugements basés sur des données sans avoir recours à une programmation explicite. Ces algorithmes constituent le fondement de l’intelligence artificielle moderne et sont utilisés dans un large éventail d’applications, notamment la reconnaissance d’images et de parole, le traitement du langage naturel, les systèmes de recommandation, la détection de fraude, les voitures autonomes, etc.

Ce Algorithmes d'apprentissage automatique l'article couvrira tous les algorithmes essentiels de l'apprentissage automatique comme Machine à vecteurs de support, prise de décision, régression logistique, classificateur bayees naïf, forêt aléatoire, clustering k-mean, apprentissage par renforcement, vecteur, clustering hiérarchique, xgboost, adaboost, logistique, etc.



héritage Java

Types d'algorithmes d'apprentissage automatique

Il existe trois types d'algorithmes d'apprentissage automatique.

  1. Enseignement supervisé
    • Régression
    • Classification
  2. Apprentissage non supervisé
  3. Apprentissage par renforcement

Types d'algorithmes d'apprentissage automatique

1. Algorithme d’apprentissage supervisé

Enseignement supervisé est un type d'algorithme d'apprentissage automatique dans lequel nous avons utilisé un ensemble de données étiqueté pour entraîner le modèle ou les algorithmes. L'objectif de l'algorithme est d'apprendre un mappage entre les données d'entrée et les étiquettes de sortie, ce qui lui permet de faire des prédictions ou des classifications sur de nouvelles données invisibles.

Algorithmes d’apprentissage automatique supervisé

  1. Modèle linéaire :
    • Régression
      • Régression des moindres carrés ordinaires
      • Régression linéaire simple
      • La régression linéaire multiple
      • Régression polynomiale
      • Poursuite de correspondance orthogonale (OMP)
      • Régression bayésienne
      • Régression quantile
      • Régression isotonique
      • Régression pas à pas
      • Régression du moindre angle (LARS)
    • Classification:
    • Régularisation :
      • Lasso (régularisation L1)
      • Ridge (régularisation L2)
        • Régression de crête
        • Classificateur de crête
      • Filet élastique
      • LARS Lasso
  2. K-Voisins les plus proches (KNN) :
    • Algorithmes de force brute
    • Algorithmes d'arbre à billes et d'arbre KD
    • Classificateur K-Nearest Neighbours (KNN)
    • Régresseur K-Nearest Neighbours (KNN)
  3. Machines vectorielles de support :
    • Régresseur des machines à vecteurs de support
    • Différentes fonctions du noyau dans SVM
  4. Descente de gradient stochastique
    • Classificateur de descente de gradient stochastique
    • Régresseur de descente de gradient stochastique
    • Différentes fonctions de perte dans SGD
  5. Arbre de décision:
    • Algorithmes d’arbre de décision
      • Algorithmes de dichotomiseur itératif 3 (ID3)
      • C5. Algorithmes
      • Algorithmes d’arbres de classification et de régression
    • Classificateur d'arbre de décision
    • Régresseur d'arbre de décision
  6. Apprentissage d’ensemble :
    • Ensachage (agrégation Bootstrap)
    • Booster
      • AdaBoost
      • XGBoost
      • ChatBoost
      • Machines d'amplification de gradient (GBM)
      • LumièreGBM
    • Empilage
  7. Modèle Génératif
    • Bayes naïf
      • Bayes naïf gaussien
      • Bayes naïfs multinomiaux
      • Bernoulli Naive Bayes
    • Processus gaussiens
      • Régression du processus gaussien (GPR)
      • Classification des processus gaussiens (GPC)
    • Analyse discriminante gaussienne
      • Analyse discriminante linéaire (LDA)
      • Analyse discriminante quadratique (QDA)
    • Réseaux de croyances bayésiennes
    • Modèles de Markov cachés (HMM)
  8. Prévisions de séries chronologiques :
    • Visualisation et analyse des séries chronologiques :
      • Composants de séries chronologiques : tendance, saisonnalité et bruit
      • Techniques de décomposition de séries chronologiques
      • Désaisonnalisation et différenciation
      • Autocorrélation et fonctions d'autocorrélation partielle
      • Test Dickey-Fuller augmenté
      • Décomposition saisonnière des séries chronologiques (décomposition STL)
      • Méthodologie Box-Jenkins pour les modèles ARIMA
    • Algorithmes de prévision de séries chronologiques :
      • Moyenne mobile (MA) et moyenne mobile pondérée
      • Méthodes de lissage exponentiel (simple, double et triple)
      • Modèles autorégressifs (AR)
      • Modèles de moyenne mobile (MA)
      • Modèles de moyenne mobile intégrée autorégressive (ARIMA)
      • Décomposition saisonnière des séries chronologiques par Loess (STL)
      • Modèles de moyenne mobile intégrée autorégressive saisonnière (SARIMA)
      • Modèles ARIMAX et SARIMAX
  9. Technique de réduction de dimensionnalité supervisée :
    • Analyse discriminante linéaire (LDA)

Certains algorithmes d'apprentissage automatique supervisé peuvent être utilisés à la fois pour la classification et la régression avec un peu de modification.

  • Algorithmes multiclasses et multisorties :
    • Classification multiclasse
      • Classificateur OneVsRest
    • Classification multi-étiquettes
    • Régression multisortie

Métriques pour les algorithmes de classification et de régression :

  • Métriques de régression :
    • Erreur quadratique moyenne (MSE)
    • Erreur quadratique moyenne (RMSE)
    • Erreur absolue moyenne (MAE)
    • R au carré
    • R-carré ajusté
  • Métriques de classification :
  • Calibrage de probabilité
    • Courbes d'étalonnage
    • Calibrer un classificateur

Technique de validation croisée :

  • Validation croisée K-fold
  • Validation croisée k-fold stratifiée
  • Validation croisée sans intervention
  • Validation croisée aléatoire et fractionnée
  • Validation croisée des séries chronologiques

Technique d'optimisation :

  • Descente graduelle
    • Descente de gradient stochastique
    • Descente de gradient en mini-lots
    • Descente de gradient basée sur l'élan
  • Techniques d'optimisation basées sur Newton
    • L'algorithme de Newton
    • Méthodes quasi-Newton (BFGS, L-BFGS)
    • Dégradé conjugué
  • Techniques d'optimisation de la recherche locale
    • Escalade
    • Recherche taboue

2. Algorithme d'apprentissage non supervisé

Apprentissage non supervisé est un type d'algorithmes d'apprentissage automatique dans lequel les algorithmes sont utilisés pour trouver les modèles, la structure ou la relation au sein d'un ensemble de données à l'aide d'un ensemble de données non étiqueté. Il explore la structure inhérente des données sans catégories ni étiquettes prédéfinies.

Algorithmes d'apprentissage automatique non supervisés

  • Regroupement
    • Méthodes basées sur le centroïde
    • Méthodes basées sur la distribution
    • Méthodes basées sur la connectivité
      • Classification hiérarchique
        • Clustering aggloméré
        • Regroupement diviseur
      • Propagation d'affinité
    • Méthodes basées sur la densité
      • DBSCAN (regroupement spatial basé sur la densité d'applications avec bruit)
      • OPTIQUE (Points de commande pour identifier la structure de clustering)
  • Exploration des règles d'association
    • Algorithme a priori
    • FP-Croissance (Croissance fréquente)
    • ECLAT (Clustering de classes d'équivalence et traversée de treillis ascendante)
  • Détection d'une anomalie:
    • Score Z
    • Facteur de valeur aberrante locale (LOF)
    • Forêt d'isolement
  • Technique de réduction de dimensionnalité :
    • Analyse en composantes principales (ACP)
    • Intégration de voisin stochastique distribuée en t (t-SNE)
    • Factorisation matricielle non négative (NMF)
    • Analyse des composants indépendants (ICA)
    • Analyse factorielle
    • Allocation latente de Dirichlet (LDA)
    • Isomape
    • Incorporation localement linéaire (LLE)
    • Analyse sémantique latente (LSA)

3. Apprentissage par renforcement

Apprentissage par renforcement est un type d'algorithme d'apprentissage automatique dans lequel un agent apprend à prendre des décisions successives en interagissant avec son environnement. L'agent reçoit le feedback sous forme d'incitations ou de punitions en fonction de ses actions. Le but de l’agent est de découvrir des tactiques optimales qui maximisent les récompenses cumulées au fil du temps par essais et erreurs. L'apprentissage par renforcement est fréquemment utilisé dans des scénarios dans lesquels l'agent doit apprendre à naviguer dans un environnement, à jouer à des jeux, à gérer des robots ou à porter des jugements dans des situations incertaines.

Apprentissage par renforcement

casser Java
  • Méthodes basées sur un modèle :
    • Processus de décision markoviens (MDP)
    • Équation de Bellman
    • Algorithme d'itération de valeur
    • Recherche d'arbres de Monte-Carlo
  • Méthodes sans modèle :
    • Méthodes basées sur la valeur :
      • Q-Apprentissage
      • SAUCE
      • Méthodes de Monte Carlo
    • Méthodes basées sur des politiques :
      • Algorithme RENFORCER
      • Algorithme acteur-critique
    • Méthodes acteur-critique
      • Acteur-Critique de l’Avantage Asynchrone (A3C)

Liste des algorithmes d’apprentissage automatique populaires

Voici une liste des 10 algorithmes d’apprentissage automatique les plus populaires.

1. Régression linéaire

La régression linéaire est un algorithme simple utilisé pour cartographier la relation linéaire entre les entités en entrée et une variable cible continue. Cela fonctionne en ajustant une ligne aux données, puis en utilisant la ligne pour prédire de nouvelles valeurs.

2. Régression logistique

La régression logistique est une extension de la régression linéaire utilisée pour les tâches de classification afin d'estimer la probabilité qu'une instance appartienne à une classe spécifique.

3. SVM (Machine à vecteurs de support)

Les SVM sont des algorithmes d'apprentissage supervisé capables d'effectuer des tâches de classification et de régression. Il trouve un hyperplan qui sépare au mieux les classes dans l'espace des fonctionnalités.

4. KNN (K-voisin le plus proche)

KNN est une technique non paramétrique qui peut être utilisée aussi bien pour la classification que pour la régression. Il fonctionne en identifiant les k points de données les plus similaires à un nouveau point de données, puis en prédisant l'étiquette du nouveau point de données à l'aide des étiquettes de ces points de données.

5. Arbre de décision

Les arbres de décision sont un type de technique d'apprentissage supervisé qui peut être utilisé à la fois pour la classification et la régression. Il fonctionne en segmentant les données en groupes de plus en plus petits jusqu'à ce que chaque groupe puisse être classé ou prédit avec un degré élevé de précision.

6. Forêt aléatoire

Les forêts aléatoires sont un type de méthode d'apprentissage d'ensemble qui utilise un ensemble d'arbres de décision pour effectuer des prédictions en agrégeant les prédictions d'arbres individuels. Il améliore la précision et la résilience des arbres de décision uniques. Il peut être utilisé à la fois pour des tâches de classification et de régression.

7. Bayes naïfs

Naive Bayes est un classificateur probabiliste basé sur le théorème de Bayes qui est utilisé pour les tâches de classification. Cela fonctionne en supposant que les caractéristiques d’un point de données sont indépendantes les unes des autres.

8. PCA (Analyse en composantes principales)

La PCA est une technique de réduction de dimensionnalité utilisée pour transformer les données dans un espace de dimension inférieure tout en conservant autant de variance que possible. Il fonctionne en trouvant les directions dans les données qui contiennent le plus de variations, puis en projetant les données sur ces directions.

9. Algorithmes a priori

L'algorithme Apriori est une technique traditionnelle d'exploration de données pour l'exploration de règles d'association dans des bases de données ou des ensembles de données transactionnels. Il est conçu pour découvrir des liens et des modèles entre des éléments qui se produisent régulièrement dans les transactions. Apriori détecte les ensembles d'éléments fréquents, qui sont des groupes d'éléments qui apparaissent ensemble dans les transactions avec un niveau de support minimum donné.

10. Clustering K-Means

Le clustering K-Means est une approche d'apprentissage non supervisée qui peut être utilisée pour regrouper des points de données. Il fonctionne en trouvant k clusters dans les données afin que les points de données de chaque cluster soient aussi similaires que possible les uns aux autres tout en restant aussi distincts que possible des points de données des autres clusters.

Découvrez les concepts fondamentaux qui sous-tendent l'apprentissage automatique en apprenant les les 10 meilleurs algorithmes , comme la régression linéaire, les arbres de décision et les réseaux de neurones.

Algorithme d’apprentissage automatique – FAQ

1. Qu'est-ce qu'un algorithme en Machine Learning ?

Algorithmes d'apprentissage automatique sont des techniques basées sur des concepts statistiques qui permettent aux ordinateurs d'apprendre à partir de données, de découvrir des modèles, de faire des prédictions ou d'accomplir des tâches sans avoir recours à une programmation explicite. Ces algorithmes sont globalement classés en trois types, à savoir l'apprentissage supervisé, l'apprentissage non supervisé et l'apprentissage par renforcement.

2. Quels sont les types d’apprentissage automatique ?

Il existe principalement trois types d’apprentissage automatique :

  • Algorithme supervisé
  • Algorithme non supervisé
  • Algorithme de renforcement

3. Quel algorithme de ML est le meilleur pour la prédiction ?

La méthode d'apprentissage automatique idéale pour la prédiction est déterminée par un nombre de critères , y compris la nature du problème, le type de données et les exigences uniques. Les approches de machines à vecteurs de support, de forêts aléatoires et d’augmentation de gradient sont populaires pour les charges de travail de prédiction. En revanche, la sélection d’un algorithme doit être basée sur des tests et une évaluation du problème spécifique et de l’ensemble de données en question.

tri par insertion java

4. Quels‌ ‌sont‌ ‌les‌ ‌10 ‌Populaires‌ ‌Machine‌ ‌Algorithmes d'apprentissage ?‌

Vous trouverez ci-dessous la liste des 10 principaux algorithmes d’apprentissage automatique (ML) couramment utilisés :

  1. Régression linéaire
  2. Régression logistique
  3. SVM (machine à vecteurs de support)
  4. KNN (K-voisin le plus proche)
  5. Arbre de décision
  6. Forêt aléatoire
  7. Bayes naïf
  8. ACP (Analyse en Composantes Principales)
  9. Algorithmes a priori
  10. Clustering K-Means