Extreme learning machine
En apprentissage automatique, le terme extreme learning machine (machine Ă apprentissage extrĂȘme) fait rĂ©fĂ©rence Ă un type de rĂ©seau de neurones. Sa spĂ©cificitĂ© est de n'avoir qu'une seule couche de nĆuds cachĂ©s, oĂč les poids des entrĂ©es de connexion de nĆuds cachĂ©s sont rĂ©partis au hasard et jamais mis Ă jour. Ces poids entre les nĆuds cachĂ©s d'entrĂ©e et les sorties sont appris en une seule Ă©tape, ce qui revient essentiellement Ă l'apprentissage d'un modĂšle linĂ©aire. Le nom "extreme learning machine" (ELM) a Ă©tĂ© donnĂ© Ă ces modĂšles par Guang-Bin Huang, mais le principe Ă©tait dĂ©jĂ connu.
Ces modÚles peuvent produire une bonne performance de généralisation et avoir un processus d'apprentissage beaucoup plus rapide que les réseaux entraßnés en utilisant la rétropropagation du gradient[1].
Algorithme
Le plus simple algorithme d'apprentissage ELM a un modĂšle de la forme
oĂč W1 est la matrice des pondĂ©rations d'entrĂ©e-Ă -couche cachĂ©e, Ï est une fonction d'activation, et W2 est la matrice des pondĂ©rations de couche cachĂ©e-Ă -sortie. L'algorithme fonctionne de la maniĂšre suivante:
- Assignez W1 avec du bruit aléatoire gaussien ;
- Estimez W2 par la mĂ©thode des moindres carrĂ©s pour faire correspondre la matrice rĂ©ponse des variables Y, calculĂ©e en utilisant le pseudoinverse â
+, donnant une matrice de conception X:
Controverse
La prĂ©tendue invention de l'ELM, en 2006, a provoquĂ© des dĂ©bats. En particulier, il a Ă©tĂ© soulignĂ© dans une lettre Ă l'Ă©diteur de IEEE Transactions on Neural Networks que l'idĂ©e d'utiliser une couche cachĂ©e connectĂ©e Ă des poids d'entrĂ©e alĂ©atoires avait dĂ©jĂ Ă©tĂ© suggĂ©rĂ©e dans des documents de RBF networks Ă la fin des annĂ©es 1980, et que des expĂ©rimentations avec le perceptron multicouche avec une logique alĂ©atoire similaire Ă©tait apparu dans la mĂȘme pĂ©riode de temps. Guang-Bin Huang a rĂ©pondu en soulignant des diffĂ©rences subtiles[2].
Dans un document de 2015, Huang a répondu aux plaintes concernant son invention du nom ELM pour les méthodes déjà existantes, se plaignant de "commentaires trÚs négatifs et inutiles sur l'ELM de maniÚre ni académique ni professionnel en raison de divers motifs et intentions" et une «irresponsable attaque anonyme qui a l'intention de détruire l'harmonie de l'environnement de la recherche ", faisant valoir que son travail" fournit une plate-forme d'apprentissage fédérateur »de différents types de réseaux neuronaux[3].
Articles connexes
Références
- Guang-Bin Huang, Qin-Yu Zhu et Chee-Kheong Siew, « Extreme learning machine: theory and applications », Neurocomputing, vol. 70, no 1,â , p. 489â501 (DOI 10.1016/j.neucom.2005.12.126)
- Lipo P. Wang et Chunru R. Wan, « Comments on âThe Extreme Learning Machineâ », IEEE Trans. Neural Networks,â .
- Guang-Bin Huang, « What are Extreme Learning Machines? Filling the Gap Between Frank Rosenblattâs Dream and John von Neumannâs Puzzle », Cognitive Computing, vol. 7,â (DOI 10.1007/s12559-015-9333-0, lire en ligne)
- (en) Cet article est partiellement ou en totalitĂ© issu de lâarticle de WikipĂ©dia en anglais intitulĂ© « Extreme learning machine » (voir la liste des auteurs).