AccueilđŸ‡«đŸ‡·Chercher

AdaBoost

AdaBoost (ou adaptive boosting) est, en intelligence artificielle et en apprentissage automatique, un mĂ©ta-algorithme de boosting introduit par Yoav Freund et Robert Schapire[1]. Il peut ĂȘtre utilisĂ© en association avec de nombreux autres types d'algorithmes d'apprentissage afin d'en amĂ©liorer les performances. Les sorties des autres algorithmes (appelĂ©s classifieurs faibles) sont combinĂ©es en une somme pondĂ©rĂ©e qui reprĂ©sente la sortie finale du classeur boostĂ©. AdaBoost est adaptatif dans le sens oĂč les classeurs faibles subsĂ©quents sont ajustĂ©s en faveur des Ă©chantillons mal classĂ©s par les classeurs prĂ©cĂ©dents.

AdaBoost est notablement sensible aux donnĂ©es bruitĂ©es ou peu corrĂ©lĂ©es. Toutefois, dans certains problĂšmes, il peut s'avĂ©rer moins enclin au surapprentissage que d'autres algorithmes. Les sous-classeurs utilisĂ©s peuvent ĂȘtre faibles tant qu'ils proposent une performance au moins un peu supĂ©rieure Ă  celle d'un classeur alĂ©atoire, auquel cas il peut ĂȘtre prouvĂ© que le modĂšle final converge vers un classeur fort.

Tous les algorithmes d'apprentissage tendent à correspondre plus à certains types de problÚmes qu'à d'autres, et ont typiquement de nombreux paramÚtres et configurations différents qu'il est nécessaire d'ajuster pour atteindre une performance optimale sur un ensemble d'apprentissage fourni. AdaBoost (avec des arbres de décision comme classeurs faibles) est souvent désigné comme le meilleur classeur clé-en-main.

Principe

Adaboost repose sur la sélection itérative de classifieur faible en fonction d'une distribution des exemples d'apprentissage. Chaque exemple est pondéré en fonction de sa difficulté avec le classifieur courant. C'est un exemple de la méthode des poids multiplicatifs (multiplicative weights update method)[2] - [3].

Description

Soit un ensemble d'observations. Notons les : oĂč sont les caractĂ©ristiques de l'individu et la variable Ă  prĂ©dire.

On initialise le poids associé à ,

Pour :

  • Trouver la fonction qui minimise l'erreur de classification en fonction des poids . C'est-Ă -dire qui vĂ©rifie le programme de minimisation suivant :

est l'erreur du modĂšle.

  • Si la fonction est sĂ©lectionnĂ©e, sinon l'algorithme s'arrĂȘte
  • On calcule alors le pas du gradient: , avec
  • On met ensuite Ă  jour le poids des exemples :


avec un facteur de normalisation Ă©gal Ă 

Quand l'algorithme s'arrĂȘte Ă  l'itĂ©ration , le classifieur rĂ©sultant du processus de sĂ©lection est :

Variantes

Des variantes ont été introduites, et dont les modifications portent essentiellement sur la maniÚre dont les poids sont mis à jour. Parmi ces variantes, Gentle AdaBoost et Real Adaboost sont fréquemment utilisées. Citons aussi RankBoost.

Histoire

Ce fut l'une des premiĂšres mĂ©thodes pleinement fonctionnelles permettant de mettre en Ɠuvre le principe de boosting. Les auteurs ont reçu le prestigieux prix Gödel en 2003 pour leur dĂ©couverte[4].

Notes et références

Bibliographie

  • (en) Yoav Freund et Robert Schapire, « A decision-theoretic generalization of on-line learning and an application to boosting », Journal of Computer and System Sciences, vol. 55, no 1,‎ , p. 119-139 (lire en ligne)

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.