Factorisation de Cholesky
La factorisation de Cholesky, nommée d'après André-Louis Cholesky, consiste, pour une matrice symétrique définie positive A, à déterminer une matrice triangulaire inférieure L telle que : A=LLT.
La matrice L est en quelque sorte une « racine carrée » de A. Cette décomposition permet notamment de calculer la matrice inverse A−1, de calculer le déterminant de A (égal au carré du produit des éléments diagonaux de L) ou encore de simuler une loi multinormale. Elle est aussi utilisée en chimie quantique pour accélérer les calculs (voir Décomposition de Cholesky (chimie quantique)).
Exemple
La matrice symétrique A :
est égale au produit de la matrice triangulaire L :
avec à sa droite sa transposée LT :
Théorème
Théorème — Si A est une matrice symétrique définie positive, il existe une matrice réelle triangulaire inférieure L telle que[1]:
- A=LLT.
De plus cette décomposition est unique si l'on impose à L d'avoir des coefficients diagonaux strictement positifs.
Algorithme
On cherche la matrice :
De l'égalité A=LLT on déduit :
puisque lpq=0 si 1 ≤ p < q ≤ n.
La matrice A étant symétrique, il suffit que les relations ci-dessus soient vérifiées pour i ≤ j, c'est-à -dire que les éléments lij de la matrice L doivent satisfaire :
Pour i=1, on détermine la première colonne de L :
- d'où
- d'où
On détermine la i-ème colonne de L 2 ≤ i ≤ n, après avoir calculé les (i–1) premières colonnes :
- d'où
- d'où
Il résulte du théorème précédent qu'il est possible de choisir tous les éléments lii>0 en assurant que toutes les quantités
sont positives.
Décomposition de Cholesky alternative
La décomposition de Cholesky alternative permet d'éviter l'utilisation des racines carrées au sein des sommes, source potentielle de problème en calcul numérique, elle se calcule de la façon suivante[2] :
où D est une matrice diagonale, et L une matrice triangulaire inférieure avec des 1 sur sa diagonale.
Les factorisations LDLT et LLT (notez que la matrice L est différente dans les deux cas) sont liées :
La dernière expression étant le produit d'une matrice triangulaire et de sa transposée, de la même manière que dans la factorisation LLT.
On remarquera que la racine carrée d'une matrice diagonale (ici, D1/2) se calcule trivialement en prenant les racines carrées de chacun de ses éléments.
Histoire
La décomposition porte le nom d'André-Louis Cholesky un officier et ingénieur français. Elle figure dans le manuscrit intitulé « Sur la résolution numérique des systèmes d'équations linéaires », manuscrit porté en 2005 aux Archives de l'École Polytechnique. Daté du 2 décembre 1910, son contenu n'était auparavant connu que par une publication du commandant Benoît, qui décrivit la méthode de Cholesky en 1924, soit plusieurs années après sa mort[3]. Il est probable que Cholesky ait découvert cette méthode en 1902[3].
La méthode, définie pour un problème de topographie, resta longtemps inconnue des mathématiciens[3]. Elle fut remise en avant par John Todd (en) en 1946 dans son cours d'analyse numérique au King's College de Londres[3].
Cette méthode est aujourd'hui centrale en analyse numérique.
Note
- Xavier Gourdon, Les Maths en tête: Algèbre, page 247
- (en) D. Watkins, Fundamentals of Matrix Computations, p. 84.
- Claude Brezinski et Dominique Tournès, « André–Louis Cholesky (1875-1918), mathématicien, topographe, enseignant et officier », sur Images des maths, .
Voir aussi
Articles connexes
Bibliographie
La méthode de Cholesky est essentielle en analyse numérique. Il existe donc une multitude de références, parmi lesquelles :
Philippe Ciarlet, Introduction à l'analyse numérique matricielle et à l'optimisation, 1985 (rééd. 2001), éd. Masson, coll. Math. Appl. pour la Maîtrise (ISBN 2-225-68893-1)
Lien externe
- Sur la résolution numérique des systèmes linéaires, manuscrit de Cholesky en ligne et commenté sur le site BibNum.