Définition
Soit une paire de variable aléatoires (X,T).
Si la distribution conditionnelle de X sachant T est normale de moyenne
et variance 

et si la distribution marginale de T est une loi gamma

alors (X,T) suit une loi gamma-normale, que l'on note

Fonction de densité
La fonction de densité conjointe de (X,T) a la forme

Distributions marginales
Par définition, la distribution marginale de
est une loi gamma.
La distribution marginale de
est une loi de Student non-standardisée de paramètres
.
Calibrage
Si
,
alors pour tout b > 0,

Famille exponentielle
Les lois gamma-normales forment une famille exponentielle de paramètre naturel
et de statistique suffisante
.
Moments des statistiques suffisantes
Ces moments se calculent à l'aide de la fonction génératrice des moments de la statistique suffisante :
,
où
est la fonction digamma,
,
,
.
Distribution a posteriori des paramètres
Soit X distribuée selon une normale de moyenne
et variance
inconnues

Supposons que la distribution a priori de
suive une distribution gamma-normale 
![{\displaystyle \pi (\mu ,\tau )\propto \tau ^{\alpha _{0}-{\frac {1}{2}}}\,\exp[{-\beta _{0}\tau }]\,\exp \left[-{\frac {\lambda _{0}\tau (\mu -\mu _{0})^{2}}{2}}\right].}](https://img.franco.wiki/i/ff35eab0e1752ee4ba2df8b2699e6605d55c41f3.svg)
Étant donné un échantillon
constitué de n variables aléatoires indépendantes et identiquement distribuées (i.i.d)
, la distribution a posteriori de
et
conditionnellement à cet échantillon se calcule par la formule de Bayes.
,
où
est la vraisemblance des données observées pour ces paramètres.
Pour des données i.i.d, la vraisemblance conjointe de l'échantillon est égale au produit des vraisemblances individuelles :

Ainsi,
![{\displaystyle {\begin{aligned}\mathbf {L} (\mathbf {X} |\tau ,\mu )&\propto \prod _{i=1}^{n}\tau ^{1/2}\exp \left[{\frac {-\tau }{2}}(x_{i}-\mu )^{2}\right]\\&\propto \tau ^{n/2}\exp \left[{\frac {-\tau }{2}}\sum _{i=1}^{n}(x_{i}-\mu )^{2}\right]\\&\propto \tau ^{n/2}\exp \left[{\frac {-\tau }{2}}\sum _{i=1}^{n}(x_{i}-{\bar {x}}+{\bar {x}}-\mu )^{2}\right]\\&\propto \tau ^{n/2}\exp \left[{\frac {-\tau }{2}}\sum _{i=1}^{n}\left((x_{i}-{\bar {x}})^{2}+({\bar {x}}-\mu )^{2}\right)\right]\\&\propto \tau ^{n/2}\exp \left[{\frac {-\tau }{2}}\left(ns+n({\bar {x}}-\mu )^{2}\right)\right],\end{aligned}}}](https://img.franco.wiki/i/f87feca93a5797b85aab1fc56b72dc82d1a1da77.svg)
où
, moyenne d'échantillon, et
, variance d'échantillon.
La distribution a posteriori des paramètres devient ainsi
![{\displaystyle {\begin{aligned}\mathbf {P} (\tau ,\mu |\mathbf {X} )&\propto \mathbf {L} (\mathbf {X} |\tau ,\mu )\pi (\tau ,\mu )\\&\propto \tau ^{n/2}\exp \left[{\frac {-\tau }{2}}\left(ns+n({\bar {x}}-\mu )^{2}\right)\right]\tau ^{\alpha _{0}-{\frac {1}{2}}}\,\exp \left[-\beta _{0}\tau \right]\,\exp \left[-{\frac {\lambda _{0}\tau (\mu -\mu _{0})^{2}}{2}}\right]\\&\propto \tau ^{{\frac {n}{2}}+\alpha _{0}-{\frac {1}{2}}}\exp \left[-\tau \left({\frac {1}{2}}ns+\beta _{0}\right)\right]\exp \left[-{\frac {\tau }{2}}\left(\lambda _{0}(\mu -\mu _{0})^{2}+n({\bar {x}}-\mu )^{2}\right)\right]\\\end{aligned}}}](https://img.franco.wiki/i/679746a1b43ac3281b10fa4f57449e659d66d46b.svg)
Développant le terme de la deuxième exponentielle, on a :
![{\displaystyle {\begin{aligned}\lambda _{0}(\mu -\mu _{0})^{2}+n({\bar {x}}-\mu )^{2}&=\lambda _{0}\mu ^{2}-2\lambda _{0}\mu \mu _{0}+\lambda _{0}\mu _{0}^{2}+n\mu ^{2}-2n{\bar {x}}\mu +n{\bar {x}}^{2}\\[3pt]&=(\lambda _{0}+n)\mu ^{2}-2(\lambda _{0}\mu _{0}+n{\bar {x}})\mu +\lambda _{0}\mu _{0}^{2}+n{\bar {x}}^{2}\\[3pt]&=(\lambda _{0}+n)\left(\mu ^{2}-2{\frac {\lambda _{0}\mu _{0}+n{\bar {x}}}{\lambda _{0}+n}}\mu \right)+\lambda _{0}\mu _{0}^{2}+n{\bar {x}}^{2}\\[3pt]&=(\lambda _{0}+n)\left(\mu -{\frac {\lambda _{0}\mu _{0}+n{\bar {x}}}{\lambda _{0}+n}}\right)^{2}+\lambda _{0}\mu _{0}^{2}+n{\bar {x}}^{2}-{\frac {\left(\lambda _{0}\mu _{0}+n{\bar {x}}\right)^{2}}{\lambda _{0}+n}}\\[3pt]&=(\lambda _{0}+n)\left(\mu -{\frac {\lambda _{0}\mu _{0}+n{\bar {x}}}{\lambda _{0}+n}}\right)^{2}+{\frac {\lambda _{0}n({\bar {x}}-\mu _{0})^{2}}{\lambda _{0}+n}}\end{aligned}},}](https://img.franco.wiki/i/22d885725a4e864febe8f0dad61d510c21366d93.svg)
ce qui donne :
![{\displaystyle {\begin{aligned}\mathbf {P} (\tau ,\mu |\mathbf {X} )&\propto \tau ^{{\frac {n}{2}}+\alpha _{0}-{\frac {1}{2}}}\exp \left[-\tau \left({\frac {1}{2}}ns+\beta _{0}\right)\right]\exp \left[-{\frac {\tau }{2}}\left(\left(\lambda _{0}+n\right)\left(\mu -{\frac {\lambda _{0}\mu _{0}+n{\bar {x}}}{\lambda _{0}+n}}\right)^{2}+{\frac {\lambda _{0}n({\bar {x}}-\mu _{0})^{2}}{\lambda _{0}+n}}\right)\right]\\&\propto \tau ^{{\frac {n}{2}}+\alpha _{0}-{\frac {1}{2}}}\exp \left[-\tau \left({\frac {1}{2}}ns+\beta _{0}+{\frac {\lambda _{0}n({\bar {x}}-\mu _{0})^{2}}{2(\lambda _{0}+n)}}\right)\right]\exp \left[-{\frac {\tau }{2}}\left(\lambda _{0}+n\right)\left(\mu -{\frac {\lambda _{0}\mu _{0}+n{\bar {x}}}{\lambda _{0}+n}}\right)^{2}\right]\end{aligned}}}](https://img.franco.wiki/i/9a204d413aff589640c7b48ca6cf70ca10eb2056.svg)
Cette dernière expression est bien celle d'une distribution Gamma-Normale,

Interprétation bayesienne des paramètres
- La nouvelle moyenne est la moyenne pondérée de l'ancienne pseudo-moyenne et de la moyenne d'échantillon observée, avec des poids relatifs proportionnels aux nombres de (pseudo-)observations.
- Le nombre de pseudo-observations (
) est adapté simplement en y additionnant le nombre correspondant de nouvelles observations (
).
- La concentration (l'inverse de la variance) a priori revient à estimer sur base de
pseudo-observations (c.à.d. un nombre éventuellement différent de pseudo-observations, afin de permettre de contrôler séparément la variance de la moyenne et de la concentration) de moyenne
et variance
.
- Une nouvelle somme d'écarts quadratiques est constituée de l'addition des sommes d'écarts quadratiques respectives. Toutefois, un "terme d'interaction" doit être ajouté parce que les deux ensembles d'écarts étaient mesurés par rapport à des moyennes distinctes, ce qui sous-estime l'écart quadratique total réel.
Par conséquent, si on a une moyenne a priori
basée sur
observations et une concentration a priori
basée sur
observations, la distribution a priori de
est

et la distribution a posteriori après échantillon de
observations de moyenne
et variance
sera
