AccueilđŸ‡«đŸ‡·Chercher

Redresseur (réseaux neuronaux)

En mathématiques, la fonction Unité Linéaire Rectifiée (ou ReLU pour Rectified Linear Unit) est définie par :

Graphique de la fonction Unité Linéaire Rectifiée

pour tout réel

Elle est fréquemment utilisée comme fonction d'activation dans le contexte du réseau de neurones artificiels pour sa simplicité de calcul, en particulier de sa dérivée.

Variations

Un dĂ©savantage de la fonction ReLU est que sa dĂ©rivĂ©e devient nulle lorsque l'entrĂ©e est nĂ©gative ce qui peut empĂȘcher la rĂ©tropropagation du gradient[1]. On peut alors introduire une version appelĂ©e Leaky ReLU dĂ©finie par :

pour tout réel

Le paramÚtre est un réel strictement positif et inférieur à 1 La dérivée est alors égale à lorsque x est strictement négatif, ce qui permet de conserver la mise à jour des poids d'un perceptron utilisant cette fonction d'activation.

Notes et références

  1. « Activation Functions | Fundamentals Of Deep Learning », sur Analytics Vidhya, (consulté le )
Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.