Régression de Poisson
Modèle de régression
Soit
un vecteur de variables indépendantes, et
la variable que l'on cherche à prédire. Réaliser une régression de Poisson revient à supposer que
suit une loi de Poisson de paramètre :=\operatorname {E} (Y\mid \mathbf {x} )=\exp(\alpha +\mathbf {\beta } '\mathbf {x} )}
, avec
et
les paramètres de la régression à estimer, et
le produit scalaire standard de
.
On peut ré-écrire le modèle ci-dessus

ou de manière plus compacte

avec un
correspondant au précédent avec un élément supplémentaire valant 1. De même,
.
L'objectif de la régression de Poisson est d'estimer
. Une fois ce vecteur estimé, il est possible de prédire
pour un nouveau
avec

Si l'on a accès à une collection de
couples indépendants :
, alors
peut être estimé par maximum de vraisemblance.
Estimation des paramètres par maximum de vraisemblance
Comme indiqué plus haut, à partir d'un paramètre
et d'un vecteur d'entrée
, la variable de sortie
suit une loi de Poisson de paramètre
- :=\operatorname {E} (Y\mid \mathbf {x} )=e^{{\boldsymbol {\theta }}'\mathbf {x} },\,}

La fonction de masse de cette loi de Poisson est alors
- ;{\boldsymbol {\theta }})={\frac {\lambda ^{y}}{y!}}e^{-\lambda }={\frac {e^{y{\boldsymbol {\theta }}'\mathbf {x} }e^{-e^{{\boldsymbol {\theta }}'\mathbf {x} }}}{y!}}}

Supposons que l'on ait accès à une collection de
couples indépendants :
. Alors, pour un vecteur
donné, la fonction de vraisemblance (c'est-à-dire la probabilité d'obtenir cet ensemble de données particulier) s'écrit

L'estimateur du maximum de vraisemblance, comme son nom l'indique, renvoie la valeur de
qui maximise la vraisemblance des données. Pour ce faire, puisqu'il est difficile d'optimiser une fonction écrite comme un produit dont tous les termes sont positifs, on minimise la négative log-vraisemblance

On peut remarquer que le terme
ne dépend pas de
. Puisque l'on cherche à trouver le
qui minimise cette négative log-vraisemblance, on peut la simplifier à une constante additive près. Par abus de langage, on identifie la véritable négative log-vraisemblance et la version à une constante additive près :

Pour trouver le minimum de cette négative log-vraisemblance, on résout l'équation
, qui n'a pas de solution explicite. Cependant, puisque cette fonction est convexe, on peut utiliser des algorithmes efficace d'optimisation convexe comme la méthode de Newton pour obtenir rapidement la valeur optimale de
.
Références
Voir aussi
Cet article est issu de
wikipedia. Text licence:
CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.