Redresseur (réseaux neuronaux)
En mathématiques, la fonction Unité Linéaire Rectifiée (ou ReLU pour Rectified Linear Unit) est définie par :
pour tout réel
Elle est fréquemment utilisée comme fonction d'activation dans le contexte du réseau de neurones artificiels pour sa simplicité de calcul, en particulier de sa dérivée.
Variations
Un dĂ©savantage de la fonction ReLU est que sa dĂ©rivĂ©e devient nulle lorsque l'entrĂ©e est nĂ©gative ce qui peut empĂȘcher la rĂ©tropropagation du gradient[1]. On peut alors introduire une version appelĂ©e Leaky ReLU dĂ©finie par :
pour tout réel
Le paramÚtre est un réel strictement positif et inférieur à 1 La dérivée est alors égale à lorsque x est strictement négatif, ce qui permet de conserver la mise à jour des poids d'un perceptron utilisant cette fonction d'activation.
Notes et références
- « Activation Functions | Fundamentals Of Deep Learning », sur Analytics Vidhya, (consulté le )