Matrice inversible
En mathĂ©matiques et plus particuliĂšrement en algĂšbre linĂ©aire, une matrice inversible (ou rĂ©guliĂšre ou encore non singuliĂšre) est une matrice carrĂ©e A pour laquelle il existe une matrice B de mĂȘme taille n avec laquelle les produits AB et BA sont Ă©gaux Ă la matrice identitĂ©.
Dans ce cas la matrice B est unique, appelĂ©e matrice inverse de A et notĂ©e B = Aâ1.
Cette dĂ©finition correspond Ă celle dâĂ©lĂ©ment inversible pour la multiplication dans lâanneau des matrices carrĂ©es associĂ©[1].
Si les coefficients dâune matrice carrĂ©e sont pris dans un anneau commutatif K, cette matrice est inversible si et seulement si elle reprĂ©sente un isomorphisme de Kn, ce qui se traduit par un dĂ©terminant inversible. En particulier, si K est un corps commutatif tel que R ou C, lâinversibilitĂ© est caractĂ©risĂ©e par un dĂ©terminant non nul, mais aussi par la maximalitĂ© du rang ou dâautres propriĂ©tĂ©s de lâendomorphisme reprĂ©sentĂ©. Diverses conditions plus simples peuvent sâappliquer sur certaines classes de matrices.
Lâalgorithme du pivot de Gauss permet un calcul exact de lâinverse mais peu robuste aux propagations dâerreurs lorsque la taille de la matrice devient trop importante. Dâautres algorithmes se rĂ©vĂšlent prĂ©fĂ©rables en pratique pour une approximation de lâinverse.
Dans lâensemble des matrices carrĂ©es de taille n Ă coefficients dans un anneau K, lâensemble des matrices inversibles forme un groupe multiplicatif, appelĂ© groupe gĂ©nĂ©ral linĂ©aire et notĂ© .
La notion de matrice inverse est généralisée par celle de pseudo-inverse et en particulier les inverses à gauche ou à droite.
Inversibilité
Contexte
Contrairement Ă la multiplication dans le corps des rĂ©els ou celui des complexes, la multiplication matricielle (mĂȘme par une matrice non nulle) nâest pas toujours une opĂ©ration rĂ©versible (on dit que cette loi de composition nâest pas rĂ©guliĂšre), au sens oĂč lâĂ©galitĂ© de deux produits AB = AC nâimplique pas forcĂ©ment lâĂ©galitĂ© B = C.
De mĂȘme, connaissant une matrice A et une matrice Y, lâĂ©quation AX = Y ne peut se rĂ©soudre en divisant les deux membres de lâĂ©galitĂ© par la matrice A.
Lâexistence dâune matrice inverse Aâ1 permet de rĂ©soudre ces deux problĂšmes, par lâĂ©quivalence suivante :
- .
Ainsi toute matrice inversible est simplifiable pour la multiplication Ă gauche ou Ă droite.
Cependant, la rĂ©solution dâune Ă©quation matricielle de la forme AX = Y, Ă©ventuellement donnĂ©e sous forme de systĂšme d'Ă©quations linĂ©aires, ne se traite pas systĂ©matiquement par la dĂ©termination dâune matrice inverse pour A. Des mĂ©thodes de dĂ©composition comme la dĂ©composition LU sont beaucoup plus rapides que l'inversion.
ReprĂ©sentation dâun isomorphisme et dĂ©terminant
Toute matrice A=(ai,j) Ă coefficients dans un anneau commutatif K dĂ©finit un unique endomorphisme de module (voire dâespace vectoriel) sur Kn :
et rĂ©ciproquement, tout endomorphisme sur Kn peut ĂȘtre obtenu de la sorte Ă partir dâune unique matrice de .
En particulier, la matrice identitĂ© est associĂ©e Ă lâapplication identitĂ©. Et comme la multiplication matricielle se traduit par la composition des applications associĂ©es (dans le mĂȘme ordre), on en dĂ©duit que lâexistence dâune matrice inverse est Ă©quivalente au fait que lâapplication associĂ©e soit un automorphisme. Ce rĂ©sultat repose en partie sur la propriĂ©tĂ© fondamentale que la rĂ©ciproque dâun isomorphisme de modules est aussi un isomorphisme.
La multiplicativitĂ© du dĂ©terminant appliquĂ©e Ă une matrice inversible A permet dâĂ©crire
donc le dĂ©terminant dâune matrice inversible est nĂ©cessairement inversible dans lâanneau des coefficients.
RĂ©ciproquement, le produit dâune matrice avec la transposĂ©e de sa comatrice donne la formule de Laplace
donc dĂšs lors que le dĂ©terminant est inversible dans lâanneau des coefficients, la matrice det(A)â1.tcom(A) est une inverse pour A.
En particulier, une matrice Ă coefficients entiers admet une inverse Ă coefficients entiers si et seulement si son dĂ©terminant vaut 1 ou â1.
Caractérisations
Soit A une matrice carrĂ©e d'ordre n Ă coefficients dans un corps commutatif K (par exemple le corps â des rĂ©els). Les propositions suivantes sont Ă©quivalentes (on note X une matrice colonne Ă n Ă©lĂ©ments dans K)[2] :
- A est inversible,
- le déterminant de A est non nul ;
- A possĂšde n pivots ;
- 0 n'est pas valeur propre de A ;
- le rang de A est Ă©gal Ă n ;
- le systÚme linéaire homogÚne AX = 0 a pour seule solution X = 0 ;
- pour tout b dans Mn,1(K), le systÚme linéaire AX = b a au plus une solution ;
- pour tout b dans Mn,1(K), le systÚme linéaire AX = b a au moins une solution ;
- les colonnes de A, considérées comme des vecteurs de Kn, sont linéairement indépendantes ;
- les colonnes de A, considérées comme des vecteurs de Kn, engendrent Kn ;
- l'endomorphisme canoniquement associĂ© Ă A (câest-Ă -dire l'application linĂ©aire de Kn dans lui-mĂȘme qui a pour matrice A dans la base canonique) est injectif ;
- l'endomorphisme canoniquement associé à A est surjectif ;
- la matrice A est inversible à gauche, c'est-à -dire qu'il existe une matrice B carrée d'ordre n telle que BA = In ;
- la matrice A est inversible à droite, c'est-à -dire qu'il existe une matrice B carrée d'ordre n telle que AB = In ;
- la transposée tA de A est inversible ;
- il existe un polynĂŽme annulateur de A dont 0 n'est pas racine ;
- 0 n'est pas racine du polynĂŽme minimal de A ;
- A est équivalente à la matrice identité In d'ordre n.
Cas particuliers
Lorsque lâensemble des coefficients est un corps, une matrice triangulaire (supĂ©rieure ou infĂ©rieure) est inversible si et seulement si tous ses coefficients diagonaux sont non nuls.
Une matrice rĂ©elle dont toutes les colonnes sont orthogonales deux Ă deux est inversible si et seulement si elle nâa aucune colonne nulle.
Un produit de deux matrices carrées est inversible si et seulement si les deux matrices en facteur le sont aussi.
Les matrices de permutation, transvection, symétrie ou rotation et les matrices de passage sont toujours inversibles.
La matrice de variance-covariance dâune famille (X1, ⊠, Xn) de variables alĂ©atoires rĂ©elles est inversible sauf sâil existe une relation affine presque sĂ»re entre ces variables.
La matrice compagnon dâun polynĂŽme est inversible si et seulement si ce polynĂŽme a un coefficient constant non nul.
Autres ensembles de coefficients
Pour des matrices Ă coefficients dans un anneau non commutatif, voire dans un semi-anneau, la dĂ©termination de lâinversibilitĂ© ne peut plus sâappuyer sur la notion de dĂ©terminant.
Lâensemble des matrices carrĂ©es de quaternions se plonge naturellement comme sous-algĂšbre dans lâensemble des matrices complexes de taille double, sur lequel le dĂ©terminant induit alors une fonction complexe dont lâannulation caractĂ©rise les matrices singuliĂšres. Lâexistence dâune inverse Ă gauche est encore Ă©quivalente Ă celle dâune inverse Ă droite (et ces deux inverses coĂŻncident)[3].
Avec des coefficients boolĂ©ens, munis des lois de composition interne OU et ET, les seules matrices inversibles sont les matrices de permutation, dont lâinverse Ă©gale Ă la transposĂ©e[4].
Inversion
De multiples mĂ©thodes permettent de dĂ©terminer lâinverse dâune matrice.
RĂ©solution de systĂšme
Ătant donnĂ© une matrice carrĂ©e A de taille n, la dĂ©termination dâune matrice B satisfaisant la relation AB = In peut sâexprimer par un systĂšme avec n2 Ă©quations linĂ©aires et autant dâinconnues.
Cependant, mĂȘme pour de faibles valeurs de n, il est beaucoup plus simple de rĂ©soudre un systĂšme traduisant lâĂ©galitĂ© AX = Y oĂč X est une matrice colonne de n inconnues et Y est une matrice colonne de n paramĂštres littĂ©raux. Lâexpression des inconnues en fonction des paramĂštres sâĂ©crit sous forme matricielle X = BY et la matrice B ainsi dĂ©finie est la matrice inverse de A.
La rĂ©solution de ces systĂšmes sâappuie en gĂ©nĂ©ral sur le processus dâĂ©limination de Gauss-Jordan, aussi appelĂ© algorithme du pivot de Gauss.
MĂ©thode des cofacteurs
Si le déterminant d'une matrice A (à coefficients dans un corps commutatif) est non nul, alors A est inversible, son inverse étant donnée par :
oĂč tcom(A) est la transposĂ©e de la comatrice de A. En effet (cf. article dĂ©taillĂ©), toute matrice carrĂ©e A d'ordre n vĂ©rifie :
- .
Cette écriture permet un calcul aisé de l'inverse d'une matrice de petite dimension. Pour des matrices de plus grande dimension, cette méthode essentiellement récursive devient inefficace.
Inversion des matrices 2Ă2
L'Ă©quation des cofacteurs ci-dessus permet de calculer l'inverse des matrices de dimensions 2Ă2 : si ad â bc â 0,
- ,
- .
- Exemple
- .
Inversion des matrices 3Ă3
De mĂȘme, on obtient l'inverse d'une matrice de dimension 3Ă3 en calculant son dĂ©terminant (par la rĂšgle de Sarrus, par exemple) :
puis en utilisant la formule :
- .
PolynĂŽme annulateur
Si une matrice carrĂ©e A possĂšde un polynĂŽme annulateur Ă coefficients dans un corps commutatif et de terme constant non nul, alors elle est inversible : pour tout polynĂŽme on a[5] - [6] avec (pour k = 1) A0 = In, oĂč n est l'ordre de la matrice carrĂ©e A.
RĂ©ciproquement, si A est inversible, alors il existe de tels polynĂŽmes :
- le polynĂŽme caractĂ©ristique PA(X) = det(XIn â A) est un polynĂŽme annulateur de A d'aprĂšs le thĂ©orĂšme de Cayley-Hamilton, or son terme constant PA(0) = (â1)ndet(A) est non nul si (et seulement si) A est inversible ;
- le polynÎme minimal de A est de degré inférieur ou égal au degré n de PA. Ses racines sont, comme pour PA, les valeurs propres de A. Son terme constant est donc non nul si (et seulement si) 0 n'est pas valeur propre, c'est-à -dire si A est inversible.
Inversion par bloc
L'inverse d'une matrice peut Ă©galement ĂȘtre calculĂ©e par blocs, en utilisant la formule analytique suivante :
oĂč A, B, C et D sont des blocs de taille arbitraire, sous rĂ©serve que A soit inversible ainsi que son complĂ©ment de Schur D â CAâ1B. Cette mĂ©thode peut se rĂ©vĂ©ler avantageuse, par exemple, si A est diagonale et si son complĂ©ment D â CAâ1B est une matrice de petite dimension, puisque ce sont les seules matrices Ă inverser.
Cette technique a été inventée par Volker Strassen, connu également pour l'algorithme de Strassen sur le produit matriciel rapide.
Si D est inversible ainsi que son complĂ©ment A â BDâ1C, on a la formule duale :
- .
(Si les matrices A et D sont toutes deux inversibles ainsi que leurs compléments, on peut combiner ces deux formules en choisissant, pour chacun des quatre blocs de la matrice inverse, l'une des deux expressions fournies.)
Cette relation permet de montrer que la complexitĂ© algorithmique de l'inversion de matrice est la mĂȘme que celle du produit matriciel[7].
Groupe des matrices inversibles
Les matrices carrées d'ordre n à coefficients dans un anneau K forment un anneau, noté Mn(K). L'ensemble des matrices inversibles de Mn(K) forme donc un groupe pour la multiplication : le groupe des inversibles de Mn(K). On l'appelle groupe général linéaire et on le note habituellement GLn(K). Par conséquent :
- la matrice inverse d'une matrice inversible A est elle-mĂȘme inversible, et
- (Aâ1)â1 = A ;
- le produit de deux matrices inversibles A et B (de mĂȘme ordre) est une matrice inversible et son inverse est donnĂ© par la relation suivante
- (AB)â1 = Bâ1Aâ1 (diffĂ©rent en gĂ©nĂ©ral de Aâ1Bâ1, sauf si A et B commutent, par exemple si A ou B est une matrice scalaire et si l'anneau K est commutatif).
Toute matrice qui commute avec une matrice inversible A commute aussi avec Aâ1.
En gĂ©nĂ©ral, « presque toutes » les matrices carrĂ©es d'ordre n sont inversibles. Sur le corps des nombres rĂ©els, cela peut ĂȘtre formulĂ© de façon plus prĂ©cise : l'ensemble des matrices non inversibles, considĂ©rĂ© comme sous-ensemble de , est nĂ©gligeable pour la mesure de Lebesgue. Intuitivement, cela signifie que si l'on choisit au hasard une matrice carrĂ©e d'ordre n Ă coefficients rĂ©els, la probabilitĂ© pour qu'elle ne soit pas inversible est nulle. La raison en est que les matrices non inversibles sont les racines (ou zĂ©ros) d'une fonction polynomiale donnĂ©e par le dĂ©terminant.
Dans l'ensemble des matrices carrées réelles ou complexes de taille fixée, le sous-ensemble des matrices inversibles est dense[8].
Dérivée de l'inverse d'une application à valeurs matricielles
- Soient un intervalle I (d'intérieur non vide) de et une fonction matricielledérivable sur I. Alors, la fonction matricielleest dérivable sur I et.Pour n = 1, en notant f(t) le réel A(t), on retrouve la formule usuelle de dérivation :
- .
- Plus génériquement, l'applicationest infiniment différentiable (puisque son expression par la formule des cofacteurs est rationnelle) et sa différentielle est donnée par[9] :
Généralisations
Certaines des propriĂ©tĂ©s des matrices inverses sont aussi vĂ©rifiĂ©es par les matrices pseudo-inverses qui peuvent ĂȘtre dĂ©finies pour n'importe quelle matrice, mĂȘme pour celles qui ne sont pas carrĂ©es.
MĂȘme lorsque la matrice X n'est pas carrĂ©e, les matrices XX' et X'X (oĂč X' est la matrice transposĂ©e de X) le sont. Si l'une de ces matrices est inversible, il est alors possible d'« inverser » X grĂące Ă une multiplication Ă gauche par , ou une multiplication Ă droite par ; dans ce cas, on a en effet
- (inverse Ă gauche) ou
- (inverse Ă droite).
Notes et références
- Il y a diffĂ©rents ensembles de matrices carrĂ©es, selon la dimension et lâensemble de coefficients choisi. Une mĂȘme matrice Ă coefficients entiers par exemple peut ĂȘtre inversible dans sans lâĂȘtre dans .
- Voir par exemple (en) David C. Lay, Linear Algebra and its Applications, Washington, Pearson, , 579 p. (ISBN 978-0-321-98238-4), p. 114, 237, 277 et 423, ou le chapitre sur l'inverse, dans la leçon de Wikiversité sur les matrices (voir infra).
- Fuzhen Zhang, Quaternions and Matrices of Quaternions, Linear Algebra and its Applications 251:21â57 (1997).
- D. E. Rutherford, Inverses of Boolean matrices, Glasgow Mathematical Journal, Volume 6:1, janvier 1963, p. 49â53, DOI: https://doi.org/10.1017/S2040618500034705.
- S. Sarfati et M. FegyvÚres, Mathématiques : méthodes, savoir-faire et astuces, Bréal, coll. « Optimal, CPHEC », (lire en ligne), p. 65.
- C. Gautier et A. Warusfel (dir.), Mathématiques « tout-en-un » ECS 2e année, Dunod, (lire en ligne), p. 16.
- (en) Thomas H. Cormen, Charles E. Leiserson et Ronald L. Rivest, Introduction à l'algorithmique, Paris, Dunod, , xxix+1146 (ISBN 978-2-10-003922-7, SUDOC 068254024), chap. 28 (« Calcul matriciel »)
- Voir par exemple .
- Voir par exemple cet .