AccueilđŸ‡«đŸ‡·Chercher

Matrice inversible

En mathĂ©matiques et plus particuliĂšrement en algĂšbre linĂ©aire, une matrice inversible (ou rĂ©guliĂšre ou encore non singuliĂšre) est une matrice carrĂ©e A pour laquelle il existe une matrice B de mĂȘme taille n avec laquelle les produits AB et BA sont Ă©gaux Ă  la matrice identitĂ©.

Dans ce cas la matrice B est unique, appelĂ©e matrice inverse de A et notĂ©e B = A−1.

Cette dĂ©finition correspond Ă  celle d’élĂ©ment inversible pour la multiplication dans l’anneau des matrices carrĂ©es associĂ©[1].

Si les coefficients d’une matrice carrĂ©e sont pris dans un anneau commutatif K, cette matrice est inversible si et seulement si elle reprĂ©sente un isomorphisme de Kn, ce qui se traduit par un dĂ©terminant inversible. En particulier, si K est un corps commutatif tel que R ou C, l’inversibilitĂ© est caractĂ©risĂ©e par un dĂ©terminant non nul, mais aussi par la maximalitĂ© du rang ou d’autres propriĂ©tĂ©s de l’endomorphisme reprĂ©sentĂ©. Diverses conditions plus simples peuvent s’appliquer sur certaines classes de matrices.

L’algorithme du pivot de Gauss permet un calcul exact de l’inverse mais peu robuste aux propagations d’erreurs lorsque la taille de la matrice devient trop importante. D’autres algorithmes se rĂ©vĂšlent prĂ©fĂ©rables en pratique pour une approximation de l’inverse.

Dans l’ensemble des matrices carrĂ©es de taille n Ă  coefficients dans un anneau K, l’ensemble des matrices inversibles forme un groupe multiplicatif, appelĂ© groupe gĂ©nĂ©ral linĂ©aire et notĂ© .

La notion de matrice inverse est généralisée par celle de pseudo-inverse et en particulier les inverses à gauche ou à droite.

Inversibilité

Contexte

Deux matrices diffĂ©rentes ayant le mĂȘme produit avec une mĂȘme troisiĂšme

Contrairement Ă  la multiplication dans le corps des rĂ©els ou celui des complexes, la multiplication matricielle (mĂȘme par une matrice non nulle) n’est pas toujours une opĂ©ration rĂ©versible (on dit que cette loi de composition n’est pas rĂ©guliĂšre), au sens oĂč l’égalitĂ© de deux produits AB = AC n’implique pas forcĂ©ment l’égalitĂ© B = C.

De mĂȘme, connaissant une matrice A et une matrice Y, l’équation AX = Y ne peut se rĂ©soudre en divisant les deux membres de l’égalitĂ© par la matrice A.

L’existence d’une matrice inverse A−1 permet de rĂ©soudre ces deux problĂšmes, par l’équivalence suivante :

.

Ainsi toute matrice inversible est simplifiable pour la multiplication Ă  gauche ou Ă  droite.

Cependant, la rĂ©solution d’une Ă©quation matricielle de la forme AX = Y, Ă©ventuellement donnĂ©e sous forme de systĂšme d'Ă©quations linĂ©aires, ne se traite pas systĂ©matiquement par la dĂ©termination d’une matrice inverse pour A. Des mĂ©thodes de dĂ©composition comme la dĂ©composition LU sont beaucoup plus rapides que l'inversion.

ReprĂ©sentation d’un isomorphisme et dĂ©terminant

Toute matrice A=(ai,j) Ă  coefficients dans un anneau commutatif K dĂ©finit un unique endomorphisme de module (voire d’espace vectoriel) sur Kn :

et rĂ©ciproquement, tout endomorphisme sur Kn peut ĂȘtre obtenu de la sorte Ă  partir d’une unique matrice de .

En particulier, la matrice identitĂ© est associĂ©e Ă  l’application identitĂ©. Et comme la multiplication matricielle se traduit par la composition des applications associĂ©es (dans le mĂȘme ordre), on en dĂ©duit que l’existence d’une matrice inverse est Ă©quivalente au fait que l’application associĂ©e soit un automorphisme. Ce rĂ©sultat repose en partie sur la propriĂ©tĂ© fondamentale que la rĂ©ciproque d’un isomorphisme de modules est aussi un isomorphisme.

La multiplicativitĂ© du dĂ©terminant appliquĂ©e Ă  une matrice inversible A permet d’écrire

donc le dĂ©terminant d’une matrice inversible est nĂ©cessairement inversible dans l’anneau des coefficients.

RĂ©ciproquement, le produit d’une matrice avec la transposĂ©e de sa comatrice donne la formule de Laplace

donc dĂšs lors que le dĂ©terminant est inversible dans l’anneau des coefficients, la matrice det(A)−1.tcom(A) est une inverse pour A.

En particulier, une matrice Ă  coefficients entiers admet une inverse Ă  coefficients entiers si et seulement si son dĂ©terminant vaut 1 ou −1.

Caractérisations

Soit A une matrice carrĂ©e d'ordre n Ă  coefficients dans un corps commutatif K (par exemple le corps ℝ des rĂ©els). Les propositions suivantes sont Ă©quivalentes (on note X une matrice colonne Ă  n Ă©lĂ©ments dans K)[2] :

  • A est inversible,
  • le dĂ©terminant de A est non nul ;
  • A possĂšde n pivots ;
  • 0 n'est pas valeur propre de A ;
  • le rang de A est Ă©gal Ă  n ;
  • le systĂšme linĂ©aire homogĂšne AX = 0 a pour seule solution X = 0 ;
  • pour tout b dans Mn,1(K), le systĂšme linĂ©aire AX = b a au plus une solution ;
  • pour tout b dans Mn,1(K), le systĂšme linĂ©aire AX = b a au moins une solution ;
  • les colonnes de A, considĂ©rĂ©es comme des vecteurs de Kn, sont linĂ©airement indĂ©pendantes ;
  • les colonnes de A, considĂ©rĂ©es comme des vecteurs de Kn, engendrent Kn ;
  • l'endomorphisme canoniquement associĂ© Ă  A (c’est-Ă -dire l'application linĂ©aire de Kn dans lui-mĂȘme qui a pour matrice A dans la base canonique) est injectif ;
  • l'endomorphisme canoniquement associĂ© Ă  A est surjectif ;
  • la matrice A est inversible Ă  gauche, c'est-Ă -dire qu'il existe une matrice B carrĂ©e d'ordre n telle que BA = In ;
  • la matrice A est inversible Ă  droite, c'est-Ă -dire qu'il existe une matrice B carrĂ©e d'ordre n telle que AB = In ;
  • la transposĂ©e tA de A est inversible ;
  • il existe un polynĂŽme annulateur de A dont 0 n'est pas racine ;
  • 0 n'est pas racine du polynĂŽme minimal de A ;
  • A est Ă©quivalente Ă  la matrice identitĂ© In d'ordre n.

Cas particuliers

Lorsque l’ensemble des coefficients est un corps, une matrice triangulaire (supĂ©rieure ou infĂ©rieure) est inversible si et seulement si tous ses coefficients diagonaux sont non nuls.

Une matrice rĂ©elle dont toutes les colonnes sont orthogonales deux Ă  deux est inversible si et seulement si elle n’a aucune colonne nulle.

Un produit de deux matrices carrées est inversible si et seulement si les deux matrices en facteur le sont aussi.

Les matrices de permutation, transvection, symétrie ou rotation et les matrices de passage sont toujours inversibles.

La matrice de variance-covariance d’une famille (X1, 
 , Xn) de variables alĂ©atoires rĂ©elles est inversible sauf s’il existe une relation affine presque sĂ»re entre ces variables.

La matrice compagnon d’un polynîme est inversible si et seulement si ce polynîme a un coefficient constant non nul.

Autres ensembles de coefficients

Pour des matrices Ă  coefficients dans un anneau non commutatif, voire dans un semi-anneau, la dĂ©termination de l’inversibilitĂ© ne peut plus s’appuyer sur la notion de dĂ©terminant.

L’ensemble des matrices carrĂ©es de quaternions se plonge naturellement comme sous-algĂšbre dans l’ensemble des matrices complexes de taille double, sur lequel le dĂ©terminant induit alors une fonction complexe dont l’annulation caractĂ©rise les matrices singuliĂšres. L’existence d’une inverse Ă  gauche est encore Ă©quivalente Ă  celle d’une inverse Ă  droite (et ces deux inverses coĂŻncident)[3].

Avec des coefficients boolĂ©ens, munis des lois de composition interne OU et ET, les seules matrices inversibles sont les matrices de permutation, dont l’inverse Ă©gale Ă  la transposĂ©e[4].

Inversion

De multiples mĂ©thodes permettent de dĂ©terminer l’inverse d’une matrice.

RĂ©solution de systĂšme

Étant donnĂ© une matrice carrĂ©e A de taille n, la dĂ©termination d’une matrice B satisfaisant la relation AB = In peut s’exprimer par un systĂšme avec n2 Ă©quations linĂ©aires et autant d’inconnues.

Cependant, mĂȘme pour de faibles valeurs de n, il est beaucoup plus simple de rĂ©soudre un systĂšme traduisant l’égalitĂ© AX = Y oĂč X est une matrice colonne de n inconnues et Y est une matrice colonne de n paramĂštres littĂ©raux. L’expression des inconnues en fonction des paramĂštres s’écrit sous forme matricielle X = BY et la matrice B ainsi dĂ©finie est la matrice inverse de A.

La rĂ©solution de ces systĂšmes s’appuie en gĂ©nĂ©ral sur le processus d’élimination de Gauss-Jordan, aussi appelĂ© algorithme du pivot de Gauss.

MĂ©thode des cofacteurs

Si le déterminant d'une matrice A (à coefficients dans un corps commutatif) est non nul, alors A est inversible, son inverse étant donnée par :

oĂč tcom(A) est la transposĂ©e de la comatrice de A. En effet (cf. article dĂ©taillĂ©), toute matrice carrĂ©e A d'ordre n vĂ©rifie :

.

Cette écriture permet un calcul aisé de l'inverse d'une matrice de petite dimension. Pour des matrices de plus grande dimension, cette méthode essentiellement récursive devient inefficace.

Inversion des matrices 2×2

L'Ă©quation des cofacteurs ci-dessus permet de calculer l'inverse des matrices de dimensions 2×2 : si ad – bc ≠ 0,

,
.
Exemple
.

Inversion des matrices 3×3

De mĂȘme, on obtient l'inverse d'une matrice de dimension 3×3 en calculant son dĂ©terminant (par la rĂšgle de Sarrus, par exemple) :

puis en utilisant la formule :

.

PolynĂŽme annulateur

Si une matrice carrĂ©e A possĂšde un polynĂŽme annulateur Ă  coefficients dans un corps commutatif et de terme constant non nul, alors elle est inversible : pour tout polynĂŽme on a[5] - [6] avec (pour k = 1) A0 = In, oĂč n est l'ordre de la matrice carrĂ©e A.

RĂ©ciproquement, si A est inversible, alors il existe de tels polynĂŽmes :

Inversion par bloc

L'inverse d'une matrice peut Ă©galement ĂȘtre calculĂ©e par blocs, en utilisant la formule analytique suivante :

oĂč A, B, C et D sont des blocs de taille arbitraire, sous rĂ©serve que A soit inversible ainsi que son complĂ©ment de Schur D – CA−1B. Cette mĂ©thode peut se rĂ©vĂ©ler avantageuse, par exemple, si A est diagonale et si son complĂ©ment D – CA−1B est une matrice de petite dimension, puisque ce sont les seules matrices Ă  inverser.

Cette technique a été inventée par Volker Strassen, connu également pour l'algorithme de Strassen sur le produit matriciel rapide.

Si D est inversible ainsi que son complĂ©ment A – BD−1C, on a la formule duale :

.

(Si les matrices A et D sont toutes deux inversibles ainsi que leurs compléments, on peut combiner ces deux formules en choisissant, pour chacun des quatre blocs de la matrice inverse, l'une des deux expressions fournies.)

Cette relation permet de montrer que la complexitĂ© algorithmique de l'inversion de matrice est la mĂȘme que celle du produit matriciel[7].

Groupe des matrices inversibles

Les matrices carrées d'ordre n à coefficients dans un anneau K forment un anneau, noté Mn(K). L'ensemble des matrices inversibles de Mn(K) forme donc un groupe pour la multiplication : le groupe des inversibles de Mn(K). On l'appelle groupe général linéaire et on le note habituellement GLn(K). Par conséquent :

  • la matrice inverse d'une matrice inversible A est elle-mĂȘme inversible, et
    (A−1)−1 = A ;
  • le produit de deux matrices inversibles A et B (de mĂȘme ordre) est une matrice inversible et son inverse est donnĂ© par la relation suivante
    (AB)−1 = B−1A−1 (diffĂ©rent en gĂ©nĂ©ral de A−1B−1, sauf si A et B commutent, par exemple si A ou B est une matrice scalaire et si l'anneau K est commutatif).

Toute matrice qui commute avec une matrice inversible A commute aussi avec A−1.

En gĂ©nĂ©ral, « presque toutes » les matrices carrĂ©es d'ordre n sont inversibles. Sur le corps des nombres rĂ©els, cela peut ĂȘtre formulĂ© de façon plus prĂ©cise : l'ensemble des matrices non inversibles, considĂ©rĂ© comme sous-ensemble de , est nĂ©gligeable pour la mesure de Lebesgue. Intuitivement, cela signifie que si l'on choisit au hasard une matrice carrĂ©e d'ordre n Ă  coefficients rĂ©els, la probabilitĂ© pour qu'elle ne soit pas inversible est nulle. La raison en est que les matrices non inversibles sont les racines (ou zĂ©ros) d'une fonction polynomiale donnĂ©e par le dĂ©terminant.

Dans l'ensemble des matrices carrées réelles ou complexes de taille fixée, le sous-ensemble des matrices inversibles est dense[8].

Dérivée de l'inverse d'une application à valeurs matricielles

  • Soient un intervalle I (d'intĂ©rieur non vide) de et une fonction matricielledĂ©rivable sur I. Alors, la fonction matricielleest dĂ©rivable sur I et.Pour n = 1, en notant f(t) le rĂ©el A(t), on retrouve la formule usuelle de dĂ©rivation :
.
  • Plus gĂ©nĂ©riquement, l'applicationest infiniment diffĂ©rentiable (puisque son expression par la formule des cofacteurs est rationnelle) et sa diffĂ©rentielle est donnĂ©e par[9] :
.

Généralisations

Certaines des propriĂ©tĂ©s des matrices inverses sont aussi vĂ©rifiĂ©es par les matrices pseudo-inverses qui peuvent ĂȘtre dĂ©finies pour n'importe quelle matrice, mĂȘme pour celles qui ne sont pas carrĂ©es.

MĂȘme lorsque la matrice X n'est pas carrĂ©e, les matrices XX' et X'X (oĂč X' est la matrice transposĂ©e de X) le sont. Si l'une de ces matrices est inversible, il est alors possible d'« inverser » X grĂące Ă  une multiplication Ă  gauche par , ou une multiplication Ă  droite par ; dans ce cas, on a en effet

(inverse Ă  gauche) ou
(inverse Ă  droite).

Notes et références

  1. Il y a diffĂ©rents ensembles de matrices carrĂ©es, selon la dimension et l’ensemble de coefficients choisi. Une mĂȘme matrice Ă  coefficients entiers par exemple peut ĂȘtre inversible dans sans l’ĂȘtre dans .
  2. Voir par exemple (en) David C. Lay, Linear Algebra and its Applications, Washington, Pearson, , 579 p. (ISBN 978-0-321-98238-4), p. 114, 237, 277 et 423, ou le chapitre sur l'inverse, dans la leçon de Wikiversité sur les matrices (voir infra).
  3. Fuzhen Zhang, Quaternions and Matrices of Quaternions, Linear Algebra and its Applications 251:21–57 (1997).
  4. D. E. Rutherford, Inverses of Boolean matrices, Glasgow Mathematical Journal, Volume 6:1, janvier 1963, p. 49–53, DOI: https://doi.org/10.1017/S2040618500034705.
  5. S. Sarfati et M. FegyvÚres, Mathématiques : méthodes, savoir-faire et astuces, Bréal, coll. « Optimal, CPHEC », (lire en ligne), p. 65.
  6. C. Gautier et A. Warusfel (dir.), Mathématiques « tout-en-un » ECS 2e année, Dunod, (lire en ligne), p. 16.
  7. (en) Thomas H. Cormen, Charles E. Leiserson et Ronald L. Rivest, Introduction à l'algorithmique, Paris, Dunod, , xxix+1146 (ISBN 978-2-10-003922-7, SUDOC 068254024), chap. 28 (« Calcul matriciel »)
  8. Voir par exemple cet exercice corrigé de la leçon « Espaces vectoriels normés » sur Wikiversité.
  9. Voir par exemple cet exercice corrigé de la leçon « Calcul différentiel » sur Wikiversité.

Voir aussi

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.