AccueilđŸ‡«đŸ‡·Chercher

Extreme learning machine

En apprentissage automatique, le terme extreme learning machine (machine Ă  apprentissage extrĂȘme) fait rĂ©fĂ©rence Ă  un type de rĂ©seau de neurones. Sa spĂ©cificitĂ© est de n'avoir qu'une seule couche de nƓuds cachĂ©s, oĂč les poids des entrĂ©es de connexion de nƓuds cachĂ©s sont rĂ©partis au hasard et jamais mis Ă  jour. Ces poids entre les nƓuds cachĂ©s d'entrĂ©e et les sorties sont appris en une seule Ă©tape, ce qui revient essentiellement Ă  l'apprentissage d'un modĂšle linĂ©aire. Le nom "extreme learning machine" (ELM) a Ă©tĂ© donnĂ© Ă  ces modĂšles par Guang-Bin Huang, mais le principe Ă©tait dĂ©jĂ  connu.

Ces modÚles peuvent produire une bonne performance de généralisation et avoir un processus d'apprentissage beaucoup plus rapide que les réseaux entraßnés en utilisant la rétropropagation du gradient[1].

Algorithme

Le plus simple algorithme d'apprentissage ELM a un modĂšle de la forme

oĂč W1 est la matrice des pondĂ©rations d'entrĂ©e-Ă -couche cachĂ©e, σ est une fonction d'activation, et W2 est la matrice des pondĂ©rations de couche cachĂ©e-Ă -sortie. L'algorithme fonctionne de la maniĂšre suivante:

  1. Assignez W1 avec du bruit aléatoire gaussien ;
  2. Estimez W2 par la mĂ©thode des moindres carrĂ©s pour faire correspondre la matrice rĂ©ponse des variables Y, calculĂ©e en utilisant le pseudoinverse ⋅+, donnant une matrice de conception X:

Controverse

La prĂ©tendue invention de l'ELM, en 2006, a provoquĂ© des dĂ©bats. En particulier, il a Ă©tĂ© soulignĂ© dans une lettre Ă  l'Ă©diteur de IEEE Transactions on Neural Networks que l'idĂ©e d'utiliser une couche cachĂ©e connectĂ©e Ă  des poids d'entrĂ©e alĂ©atoires avait dĂ©jĂ  Ă©tĂ© suggĂ©rĂ©e dans des documents de RBF networks Ă  la fin des annĂ©es 1980, et que des expĂ©rimentations avec le perceptron multicouche avec une logique alĂ©atoire similaire Ă©tait apparu dans la mĂȘme pĂ©riode de temps. Guang-Bin Huang a rĂ©pondu en soulignant des diffĂ©rences subtiles[2].

Dans un document de 2015, Huang a répondu aux plaintes concernant son invention du nom ELM pour les méthodes déjà existantes, se plaignant de "commentaires trÚs négatifs et inutiles sur l'ELM de maniÚre ni académique ni professionnel en raison de divers motifs et intentions" et une «irresponsable attaque anonyme qui a l'intention de détruire l'harmonie de l'environnement de la recherche ", faisant valoir que son travail" fournit une plate-forme d'apprentissage fédérateur »de différents types de réseaux neuronaux[3].

Articles connexes

Références

  1. Guang-Bin Huang, Qin-Yu Zhu et Chee-Kheong Siew, « Extreme learning machine: theory and applications », Neurocomputing, vol. 70, no 1,‎ , p. 489–501 (DOI 10.1016/j.neucom.2005.12.126)
  2. Lipo P. Wang et Chunru R. Wan, « Comments on “The Extreme Learning Machine” », IEEE Trans. Neural Networks,‎ .
  3. Guang-Bin Huang, « What are Extreme Learning Machines? Filling the Gap Between Frank Rosenblatt’s Dream and John von Neumann’s Puzzle », Cognitive Computing, vol. 7,‎ (DOI 10.1007/s12559-015-9333-0, lire en ligne)
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.