AccueilđŸ‡«đŸ‡·Chercher

Algorithme de recherche de valeur propre

Un problĂšme important en analyse numĂ©rique consiste Ă  dĂ©velopper des algorithmes efficaces et stables pour trouver les valeurs propres d'une matrice. Ces algorithmes de recherche de valeurs propres peuvent ĂȘtre Ă©tendus pour donner les vecteurs propres associĂ©s.

Valeurs et vecteurs propres

Pour une matrice carrĂ©e A de taille n × n rĂ©elle ou complexe, une valeur propre λ et son vecteur propre gĂ©nĂ©ralisĂ© associĂ© v sont un couple vĂ©rifiant la relation[1]

oĂč v est un vecteur colonne n × 1 non nul, I la matrice identitĂ© de taille n × n, k un entier positif. λ et v peuvent ĂȘtre complexes mĂȘme pour A rĂ©elle. Si k = 1, le vecteur est simplement appelĂ© vecteur propre et vĂ©rifie donc Av = λv. Toute valeur propre λ de A a des vecteurs propres « ordinaires Â» qui lui sont associĂ©s, dans le sens oĂč si k est le plus petit entier vĂ©rifiant (A – λI)k v = 0 pour un vecteur propre gĂ©nĂ©ralisĂ© v, alors (A – λI)k–1 v est un vecteur propre ordinaire. La valeur k peut toujours ĂȘtre prise comme infĂ©rieure ou Ă©gale Ă  n. En particulier, (A – λI)n v = 0 pour tout vecteur propre gĂ©nĂ©ralisĂ© v associĂ© Ă  λ.

Pour toute valeur propre λ de A, le noyau ker(A – λI) est le sous-espace vectoriel engendrĂ© par tous les vecteurs propres associĂ©s Ă  λ (dont le vecteur nul), qu'on appelle espace propre de λ, tandis que l'espace vectoriel ker((A – λI)n) est le sous-espace vectoriel engendrĂ© par tous les vecteurs propres gĂ©nĂ©ralisĂ©s associĂ©s, et donc appelĂ© espace propre gĂ©nĂ©ralisĂ©. La multiplicitĂ© gĂ©omĂ©trique de λ est la dimension de ce sous-espace. La multiplicitĂ© algĂ©brique de λ est la dimension de son espace propre gĂ©nĂ©ralisĂ©. Cette terminologie se justifie en remarquant que

oĂč det est le dĂ©terminant, les λi sont les valeurs propres de Aet les αi sont les multiplicitĂ©s algĂ©briques associĂ©es. La fonction pA(z) est le polynĂŽme caractĂ©ristique de A. Ainsi, la multiplicitĂ© algĂ©brique est la multiplicitĂ© de la valeur propre comme racine du polynĂŽme caractĂ©ristique. Comme tout vecteur propre est un vecteur propre gĂ©nĂ©ralisĂ©, la multiplicitĂ© gĂ©omĂ©trique est infĂ©rieure ou Ă©gale Ă  la multiplicitĂ© algĂ©brique. La somme des multiplicitĂ©s algĂ©briques vaut n, le degrĂ© du polynĂŽme caractĂ©ristique. L'Ă©quation pA(z) = 0 est appelĂ© Ă©quation caractĂ©ristique, car ses racines sont les valeurs propres de A. Par le thĂ©orĂšme de Cayley-Hamilton, A vĂ©rifie la mĂȘme Ă©quation : pA(A) = 0[note 1]. Par consĂ©quent, les colonnes de la matrice sont soit nulles soit des vecteurs propres gĂ©nĂ©ralisĂ©s de la valeur propre λj, car ils sont annulĂ©s par (A – λjI)αj. En fait, l'espace colonne (le sous-espace vectoriel engendrĂ© par les colonnes de la matrice) est l'espace propre gĂ©nĂ©ralisĂ© de λj.

Toute collection de vecteurs propres gĂ©nĂ©ralisĂ©s de valeurs propres distinctes est linĂ©airement indĂ©pendante, donc une base de ℂn peut ĂȘtre choisi Ă  partir de vecteurs propres gĂ©nĂ©ralisĂ©s. Plus prĂ©cisĂ©ment, cette base (vi)n
i=1
peut ĂȘtre choisie est ordonnĂ©e de sorte que

  • si vi et vj ont la mĂȘme valeur propre, alors tout vk pour tout k entre i et j, et
  • si vi n'est pas un vecteur propre ordinaire, associĂ© Ă  la valeur propre λi, alors (A – λiI )vi = vi–1 (en particulier, v1 doit ĂȘtre un vecteur propre ordinaire).

Si ces vecteurs de base sont rangĂ©s comme vecteurs colonnes d'une matrice V = [ v1 v2 ... vn ], alors V peut ĂȘtre utilisĂ© pour transformer A en sa forme de Jordan :

oĂč les λi sont les valeurs propres, ÎČi = 1 si (A – λi+1)vi+1 = vi et ÎČi = 0 sinon.

Plus gĂ©nĂ©ralement, si W est une matrice inversible, et λ est une valeur propre de A de vecteur propre gĂ©nĂ©ralisĂ© v, alors (W−1AW – λI )k W−kv = 0. Ainsi λ est une valeur propre de W−1AW pour tout vecteur propre gĂ©nĂ©ralisĂ© W−kv. De plus, des matrices semblables ont les mĂȘmes valeurs propres.

Matrices symétriques réelles, normales et hermitiennes

La matrice adjointe M* d'une matrice complexe M est la transposĂ©e de la conjuguĂ©e M : M * = M T. Une matrice carrĂ©e A est appelĂ©e normale si elle commute avec son adjointe : A*A = AA*. Elle est appelĂ©e hermitienne si elle est Ă©gale Ă  son adjointe : A* = A. Toutes les matrices hermitiennes sont normales. Si A est rĂ©elle, l'adjointe est sa transposĂ©e, et A est hermitienne si et seulement si elle est symĂ©trique. Une fois appliquĂ©e aux vecteurs colonnes, l'adjointe peut ĂȘtre utilisĂ©e pour dĂ©finir le produit scalaire canonique sur ℂn: w · v = w* v[note 2]. Les matrices normales, hermitiennes et symĂ©triques de rĂ©elles ont plusieurs propriĂ©tĂ©s utiles :

  • tout vecteur propre gĂ©nĂ©ralisĂ© d'une matrice normale est un vecteur propre ordinaire ;
  • toute matrice normale est similaire Ă  une matrice diagonale, car sa forme normale de Jordan est diagonale ;
  • deux vecteurs propres associĂ©s Ă  des valeurs propres distinctes d'une mĂȘme matrice normale sont orthogonaux ;
  • le noyau et l'image d'une matrice normale sont orthogonaux ;
  • pour toute matrice normale A, ℂn a une base orthonormale de vecteurs propres de A. La matrice correspondante de vecteurs propres est unitaire ;
  • les valeurs propres d'une matrice hermitienne sont rĂ©elles, car (λ − λ)v = (A* − A)v = (A − A)v = 0 pour un vecteur propre non nul v ;
  • si A est rĂ©elle, il y a une base orthonormale de Rn constituĂ©e de vecteurs propres de A si et seulement si A est symĂ©trique.

Il est possible qu'une matrice rĂ©elle ou complexe n'ait que des valeurs propres rĂ©elles sans ĂȘtre hermitienne. Par exemple, une matrice rĂ©elle triangulaire a ses valeurs propres sur sa diagonale, mais elle n'est pas symĂ©trique dans le cas gĂ©nĂ©ral.

Conditionnement

Tout problĂšme de calcul numĂ©rique peut ĂȘtre vu comme l'Ă©valuation d'une fonction ƒ en un point x. Le conditionnement Îș(ƒ, x) du problĂšme est le rapport de l'erreur relative de la rĂ©ponse sur l'erreur relative de l'entrĂ©e, qui varie selon la fonction et l'entrĂ©e. Le conditionnement dĂ©crit la variation de l'erreur pendant le calcul. Son logarithme dĂ©cimal donne le nombre de chiffres perdus entre l'entrĂ©e et la sortie. Il reste cependant un rapport optimal. Il reflĂšte l'instabilitĂ© induite par le problĂšme, indĂ©pendamment de la mĂ©thode de rĂ©solution. Aucun algorithme ne peut produire des rĂ©sultats plus prĂ©cis que ceux donnĂ©s par le conditionnement, sauf cas exceptionnels. Cependant, un algorithme mal choisi peut empirer les rĂ©sultats. Par exemple, le problĂšme de recherche des valeurs propres d'une matrice normale est toujours bien conditionnĂ© mais la recherche des racines d'un polynĂŽme peut ĂȘtre trĂšs mal conditionnĂ©. Ainsi, les algorithmes de recherche de valeurs propres qui se reposent sur une recherche de zĂ©ro du polynĂŽme caractĂ©ristique peuvent ĂȘtre ma conditionnĂ©s mĂȘme si le problĂšme de base ne l'est pas.

Pour le problĂšme de rĂ©solution de l'Ă©quation linĂ©aire Av = b oĂč A est inversible, le conditionnement Îș(A−1, b) est donnĂ© par ||A||op||A−1||op, oĂč || ||op est la norme d'opĂ©rateur subordonnĂ©e Ă  la norme euclidienne sur ℂn. Puisqu'il est indĂ©pendant de b et de la mĂȘme forme pour A et A−1, on le dĂ©signe comme le conditionnement Îș(A) de la matrice A. Cette valeur Îș(A) est Ă©galement la valeur absolue du rapport entre la plus grande valeur propre de A sur sa plus petite. Si A est unitaire, alors ||A||op = ||A−1||op = 1, et donc Îș(A) = 1. Pour une matrice quelconque, la norme d'opĂ©rateur est souvent difficile Ă  calculer et le conditionnement est calculĂ© par d'autres normes matricielles.

Pour le problĂšme de valeurs propres, le thĂ©orĂšme de Bauer-Fike Ă©tablit que si λ est une valeur propre d'une matrice diagonalisable A avec pour matrice de vecteurs propres V, alors l'erreur absolue en calculant λ est majorĂ©e par le produit de Îș(V) et de l'erreur absolue en A[2]. Par corollaire, le conditionnement pour trouver λ vaut Îș(λ, A) = Îș(V) = ||V ||op ||V −1||op. Si A est normale, alors V est unitaire, et Îș(λ, A) = 1. Ainsi, le problĂšme de recherche de valeurs propres pour une matrice normale est toujours bien conditionnĂ©.

Il a été montré que le conditionnement du problÚme de recherche des espaces propres d'une matrice normale A correspondant à une valeur propre λ est inversement proportionnel à la distance minimum entre λ et les autres valeurs propres de A[3]. En particulier, le problÚme d'espace propre pour les matrices normales est bien conditionné pour les valeurs propres isolées ; sinon, on peut au mieux identifier le sous-espace engendré par les vecteurs propres de valeurs propres proches.

Idée directrice des algorithmes

Tout polynĂŽme unitaire est le polynĂŽme caractĂ©ristique de sa matrice compagnon. Ainsi, un algorithme gĂ©nĂ©ral pour trouver des valeurs propres peut ĂȘtre basĂ© sur la recherche des racines d'un polynĂŽme. Le thĂ©orĂšme d'Abel-Ruffini montre que tout algorithme de la sorte pour des dimensions supĂ©rieures Ă  4 peut ĂȘtre soit infini, soit impliquer des fonctions plus compliquĂ©es que des polynĂŽmes ou des fonctions rationnelles. Pour cette raison, les algorithmes qui calculent exactement les valeurs propres en un nombre fini d'Ă©tapes n'existent que pour des classes spĂ©cifiques de matrices. Dans le cas gĂ©nĂ©ral, les algorithmes sont itĂ©ratifs, amĂ©liorant l'approximation Ă  chaque itĂ©ration.

Certains algorithmes donnent toutes les valeurs propres, d'autres en donnent plusieurs Ă  la fois, d'autres une seule. Toutefois, tous les algorithmes donnĂ©s plus bas peuvent ĂȘtre utilisĂ©s pour donner toutes les valeurs propres : une fois qu'une valeur propre λ d'une matrice A a Ă©tĂ© identifiĂ©e, la mĂ©thode peut ĂȘtre adaptĂ©e pour diriger les calculs vers une autre solution ou rĂ©duire le problĂšme Ă  un nouveau dont λ n'est plus solution.

La redirection est souvent faite par dĂ©calage : remplacer A par A – ÎŒI pour une constante ÎŒ. La valeur propre obtenue par A – ÎŒI doit avoir ÎŒ ajoutĂ©e pour obtenir une valeur propre de A. Par exemple, pour la mĂ©thode de la puissance itĂ©rĂ©e, on prend ÎŒ = λ. Cette mĂ©thode donne la valeur propre de valeur absolue plus Ă©levĂ©e, ainsi mĂȘme si λ n'est qu'approchĂ©e, on ne la trouvera pas une deuxiĂšme fois par la puissance itĂ©rĂ©e. Inversement, les mĂ©thodes basĂ©es sur la puissance inverse trouvent la plus petite valeur propre, donc ÎŒ doit ĂȘtre choisi loin de λ, Ă©ventuellement plus proche d'une autre valeur propre.

La rĂ©duction peut ĂȘtre faite en restreignant A Ă  l'espace colonne de la matrice A – λI. Comme cette matrice est singuliĂšre, l'espace colonne est de dimension plus petite. L'algorithme de recherche des valeurs propres peut alors ĂȘtre appliquĂ© Ă  la matrice restreinte, et le processus peut ĂȘtre rĂ©pĂ©tĂ© jusqu'Ă  avoir obtenu toutes les valeurs propres.

Si un algorithme ne donne pas de vecteurs propres, une pratique courante est d'utiliser une algorithme d'itĂ©ration inverse avec ÎŒ fixĂ© proche d'une approximation de valeur propre. Cela va vite converger vers un vecteur propre associĂ© Ă  la valeur propre la plus proche de ÎŒ. Pour de petites matrices, une alternative est de regarder l'espace colonne du produit de A – λ'I pour chaque valeur propre λ'.

Transformations en matrices de Hessenberg et tridiagonales

Un cas idĂ©al est l'Ă©tude d'une matrice triangulaire, car ses valeurs propres sont ses coefficients diagonaux. Cependant, pour une matrice quelconque, il n'y a aucune mĂ©thode finie semblable que le pivot de Gauss pour triangulariser une matrice tout en prĂ©servant ses valeurs propres. Il est toutefois possible d'atteindre une forme proche de triangulaire. Une matrice de Hessenberg supĂ©rieure est une matrice carrĂ©e dont tous les coefficients sous la premiĂšre sous-diagonale sont nuls ; une matrice de Hessenberg infĂ©rieure est dĂ©finie de maniĂšre similaire. Les matrices qui sont Ă  la fois de Hessenberg infĂ©rieures et supĂ©rieures sont tridiagonales. Les matrices de Hessenberg et tridiagonales sont les points de dĂ©part de nombreux algorithmes de recherche de valeurs propres car les nombreux coefficients nuls simplifient la complexitĂ© du problĂšme. Plusieurs mĂ©thodes sont couramment utilisĂ©es pour convertir une matrice donnĂ©e en une forme de Hessenberg avec les mĂȘmes valeurs propres. Si la matrice originale est symĂ©trique ou hermitienne, la matrice rĂ©sultante sera tridiagonale.

Si seules les valeurs propres sont recherchĂ©es, le calcul de la matrice de passage n'est pas nĂ©cessaire, les deux matrices partageant les mĂȘmes valeurs propres. Si les vecteurs propres sont voulus, la matrice de passage peut ĂȘtre nĂ©cessaire pour transformer les vecteurs propres de la matrice de Hessenberg en ceux de la matrice originale.

MéthodeS'applique à une matrice...Donne une matrice...Coût sans matrice de passageCoût avec matrice de passageDescription
Transformation de HouseholderQuelconquede Hessenberg2n3⁄3 + O(n2)[4](p474)4n3⁄3 + O(n2)[4](p474)Envoie chaque colonne vers un sous-espace nul pour les coefficients bas.
Rotations de Givens (en)Quelconquede Hessenberg4n3⁄3 + O(n2)[4](p470)Application de rotations planaires pour annuler des coefficients choisis, dans un ordre telle qu'un coefficient annulĂ© le reste.
Algorithme d'Arnoldi (en)Quelconquede HessenbergNCNCOrthogonalisation de Gram-Schmidt sur des sous-espaces de Krylov.
Algorithme de LanczosHermitienneTridiagonaleNCNCItération d'Arnoldi adaptée au cas hermitien.

Pour les problĂšmes de valeurs propres d'une matrice tridiagonale, toutes les valeurs propres (sans les vecteurs propres) peuvent ĂȘtre calculĂ©es en O(n), par dichotomie dans le polynĂŽme caractĂ©ristique.

Algorithmes itératifs

Les algorithmes itératifs résolvent le problÚme des valeurs propres en générant des suites convergeant vers les valeurs propres. Certains algorithmes créent également des suites de vecteurs convergeant vers les vecteurs propres. Plus communément, les suites de valeurs propres sont exprimées comme suites de matrices similaires convergeant vers une matrice diagonale ou tridiagonale, rendant la lecture des valeurs propres aisée. Les suites de vecteurs propres apparaissent dans les matrices de passage correspondantes.

MéthodeS'applique àProduitCoût par itérationConvergenceDescription
Méthode de la puissance itéréeToutesValeur propre de plus grand module + vecteur propre associéO(n2)LinéaireApplication répétée d'une matrice à un vecteur arbitraire puis renormalisation.
MĂ©thode de la puissance inverseToutesValeur propre plus proche de ÎŒNCLinĂ©airePuissance itĂ©rĂ©e sur (A − ÎŒI )−1
ItĂ©ration de RayleighHermitienneValeur + vecteur propre le plus procheNCCubiquePuissance itĂ©rĂ©e sur (A − ÎŒiI )−1, avec ÎŒi Ă  chaque pas le quotient de Rayleigh du pas prĂ©cĂ©dent.
Algorithme inverse prĂ©conditionnĂ©[5] ou LOBPCGRĂ©elle symĂ©trique dĂ©finie positiveValeur propre plus proche de ÎŒDĂ©pend du prĂ©conditionneurPuissance inverse avec un prĂ©conditionneur (approximation de l'inverse de A).
Méthode de dichotomieRéelle symétrique tridiagonaleN'importe quelle valeur propreNCLinéaireUtilise la méthode de dichotomie pour trouver les racines du polynÎme caractéristique, à partir de sa suite de Sturm.
Algorithme de LaguerreRéelle symétrique tridiagonaleN'importe quelle valeur propreNCCubique[6]Utilisation de la méthode de Laguerre pour trouver les racines du polynÎme caractéristique, à partir de sa suite de Sturm.
Algorithme QR (en)HessenbergToutes les valeurs propresO(n2)CubiqueCalcul de la factorisation A = QR, avec Q orthogonale et R triangulaire, puis application Ă  RQ au pas suivant.
Tous les couples valeur/vecteur propre6n3 + O(n2)
Méthode de Jacobi (en)Réelle symétriqueToutes les valeurs propresO(n3)QuadratiqueRotations de Givens pour annuler si possible les termes non-diagonaux.
Algorithme diviser-pour-régner (en)Hermitienne tridiagonaleToutes les valeurs propresO(n2)Découpe la matrice en sous-matrices qui sont diagonalisées puis recombinées.
Tous les couples valeur/vecteur propres(4⁄3)n3 + O(n2)
Méthode par homotopieRéelle symétrique tridiagonaleTous les couples valeur/vecteur propreO(n2)[7]NCConstruction d'un chemin homotope calculable à partir d'un problÚme de valeurs propres diagonales.
MĂ©thode du spectre repliĂ©RĂ©elle symĂ©triqueValeur + vecteur propre de valeur plus proche de ÎŒNCNCPuissance inverse prĂ©conditionnĂ© sur (A − ÎŒI )2
Algorithme RRRM (en)[8]RĂ©elle symĂ©trique tridiagonaleCouples valeur/vecteur propresO(n2)NC"reprĂ©sentation relativement robustes multiples" – puissance inverse sur la dĂ©composition de Cholesky de la matrice dĂ©calĂ©e.

MĂ©thodes directes

S'il n'existe aucun algorithme simple permettant de calculer directement les valeurs propres pour une matrice quelconque, il existe plusieurs cas oĂč le calcul direct est possible.

Matrices triangulaires

Puisque le déterminant d'une matrice triangulaire est le produit de ses coefficients diagonaux, si T est triangulaire, alors . Ainsi, les valeurs propres de T sont ses coefficients diagonaux.

Équations polynomiales factorisables

Si p est un polynĂŽme tel que p(A) = 0, alors les valeurs propres de A vĂ©rifient la mĂȘme Ă©quation. Si p peut ĂȘtre simplement factorisĂ©, alors les valeurs propres de A sont parmi les racines.

Par exemple, une projection est une matrice carrée P satisfaisant P2 = P. Les racines de l'équation polynomiale scalaire correspondante, λ2 = λ, sont donc 0 et 1. Ainsi, toutes les projections ont 0 et 1 comme valeurs propres. La multiplicité de 0 comme valeur propre est la dimension du noyau de P, et la multiplicité de 1 est le rang de P.

Un autre exemple est une matrice A vérifiant A2 = α2I pour un scalaire α. Les valeurs propres valent donc ±α. Les opérateurs de projection

vérifient

et

Les espaces colonne de P+ et P− sont les espaces propres de A correspondant Ă  +α et –α, respectivement.

Matrices 2×2

Pour les dimensions 2 Ă  4, les valeurs propres peuvent ĂȘtre exprimĂ©es par des radicaux (d'aprĂšs le thĂ©orĂšme de Gauss-Wantzel). Si les formules sont connues pour les matrices 2×2 et 3×3, la complexitĂ© de l'Ă©criture des racines d'une Ă©quation quartique pour les matrices 4×4 peut dĂ©courager et amener Ă  les trouver par d'autres moyens.

Pour une matrice 2×2

le polynÎme caractéristique est

Ainsi, les valeurs propres peuvent ĂȘtre obtenues par les Ă©galitĂ©s usuelles :

On pose ή(A) = √Tr (A)2 – 4 det(A) la distance entre les deux valeurs, ce qui permet d'obtenir

avec des formules similaires pour c et d. De là, on en déduit que le calcul est bien conditionné si les valeurs propres sont isolées.

Les vecteurs propres peuvent ĂȘtre trouvĂ©s en utilisant le thĂ©orĂšme de Cayley-Hamilton. Si λ1, λ2 sont les valeurs propres, alors (A – λ1I )(A – λ2I ) = (A – λ2I )(A – λ1I ) = 0, donc les colonnes de (A – λ2I ) sont annulĂ©es par (A – λ1I ) et rĂ©ciproquement. En supposant que les deux matrices sont non nulles, les colonnes de chacune doivent contenir des vecteurs propres de l'autre valeur propre. (Si l'une des matrices est nulle, alors A est un multiple de l'identitĂ© et tout vecteur non nul est vecteur propre.)

Exemple

vĂ©rifie Tr(A) = 4 – 3 = 1 et det(A) = 4(–3) – 3(–2) = –6, donc l'Ă©quation caractĂ©ristique vaut

et les valeurs propres sont 3 et –2. De là,

Dans les deux matrices, les colonnes sont multiples l'une de l'autre, donc une peut ĂȘtre utilisĂ©e. Ainsi, (1, –2) peut ĂȘtre utilisĂ© comme vecteur propre associĂ©e Ă  –2, et (3, –1) comme vecteur propre associĂ© Ă  la valeur propre 3, ce qui se vĂ©rifie simplement.

Matrices 3×3

Si A est une matrice 3×3, alors son polynĂŽme caractĂ©ristique peut s'Ă©crire sous la forme :

On peut obtenir les racines par la mĂ©thode de Cardan ou de Lagrange, mais un changement affine de A peut grandement simplifier l'expression et permettre d'Ă©crire les solutions sous forme trigonomĂ©trique. Si A = pB + qI, alors A et B ont les mĂȘmes vecteurs propres, et ÎČ est valeur propre de B si et seulement si α = pÎČ + q est valeur propre de A. On pose q = Tr(A)/3 et p = (Tr((A – qI)2)/6)1/2, ce qui donne

La substitution ÎČ = 2cos Ξ et des calculs de simplification par le dĂ©veloppement cos (3Ξ) = 4cos3 Ξ – 3cos Ξ mĂšnent Ă  l'Ă©galitĂ© cos (3Ξ) = det(B)/2. Ainsi, les racines s'Ă©crivent sous la forme :

Si det(B) est complexe ou supĂ©rieur Ă  2 en valeur absolue, l'arc cosinus doit ĂȘtre pris sur la mĂȘme branche pour les trois valeurs de k. Ceci n'apparaĂźt pas si A est rĂ©elle et symĂ©trique, et les calculs des valeurs propres sont grandement simplifiĂ©s[9].

On peut Ă©galement obtenir les vecteurs propres de A par le thĂ©orĂšme de Cayley-Hamilton. Si α1, α2, α3 sont trois valeurs propres distinctes pour A, alors (A – α1I)(A – α2I)(A – α3I) = 0. Donc les colonnes du produit de deux de ces matrices consisteront des vecteurs propres de la troisiĂšme. Si α3 = α1, alors (A – α1I)2(A – α2I) = (A – α2I)(A – α1I)2 = 0. Ainsi l'espace propre gĂ©nĂ©ralisĂ© associĂ© Ă  α1 est gĂ©nĂ©rĂ© par les colonnes de A – α2I tandis que l'espace propre ordinaire est gĂ©nĂ©rĂ© par les colonnes de (A – α1I)(A – α2I). L'espace propre ordinaire de α2 est gĂ©nĂ©rĂ© par les colonnes de (A – α1I)2.

Exemple

L'équation caractéristique vaut

avec pour valeurs propres 1 (de multiplicité 2) et -1. Ainsi,

et

Donc (–4, –4, 4) est un vecteur propre pour –1, et (4, 2, –2) est un vecteur propre pour 1. (2, 3, –1) et (6, 5, –3) sont deux vecteurs propres gĂ©nĂ©ralisĂ©s associĂ©s Ă  1, chacun pouvant ĂȘtre combinĂ© Ă  (–4, –4, 4) et (4, 2, –2) pour former une base de vecteurs propres gĂ©nĂ©ralisĂ©s pour A. Ces vecteurs peuvent ĂȘtre normalisĂ©s si nĂ©cessaire.

Vecteurs propres de matrices 3×3 normales

Si A est une matrice 3×3 normale, alors le produit vectoriel peut ĂȘtre utilisĂ© pour trouver les vecteurs propres, car pour ce cas, les noyaux et les espaces colonne sont orthogonaux (ce n'est pas toujours vĂ©rifiĂ©).

Si λ est une valeur propre de A, alors le noyau de A – λI est perpendiculaire Ă  son espace colonne, le produit vectoriel de deux colonnes linĂ©airement indĂ©pendantes de A – λI sera dans le noyau, donc un vecteur propre associĂ© avec λ. Comme l'espace colonne est de dimension 2 dans ce cas, l'espace propre doit ĂȘtre de dimension 1, donc tout vecteur propre sera parallĂšle Ă  celui-ci.

Si A – λI ne contient pas deux colonnes indĂ©pendantes mais est diffĂ©rente de 0, le produit vectoriel peut toujours ĂȘtre utilisĂ©. Dans ce cas, λ est une valeur propre de multiplicitĂ© 2, donc tout vecteur orthogonal Ă  l'espace colonne sera un vecteur propre. Supposons que v est une colonne non nulle de A – λI. On choisit un vecteur arbitraire u non colinĂ©aire Ă  v. Alors v × u et (v × u) × v sera orthogonal Ă  v et sont donc vecteurs propres associĂ©s Ă  λ.

Applications

La détermination des valeurs et vecteurs propres d'une matrice permet de travailler sur une base propre de celle-ci et de résoudre plus simplement certains problÚmes par l'exploitation des propriétés de la base de vecteurs propres.

Parmi les problÚmes physiques directes, la résolution de l'équation de Schrödinger passe par une recherche de modes propres.

Par extension, la résolution numérique d'un problÚme physique peut se ramener à un problÚme aux valeurs propres. Par exemple, on étudie un problÚme de corde vibrante :

Une rĂ©solution directe n'est pas possible dans le cas gĂ©nĂ©ral (pour des coefficients non constants), aussi on va discrĂ©tiser [0;1] en un nombre fini de points Ă©quirĂ©partis {xi}i=0,...,n et dĂ©composer sur les solutions pĂ©riodiques en temps : u(t,x) = w(x)exp(iωt). L'approximation classique de la dĂ©rivĂ©e seconde en espace donne :

AprÚs réécriture, la résolution du problÚme physique de la corde vibrante revient à la résolution du problÚme aux valeurs propres :

avec

Notes

  1. Il faut cependant la considĂ©rer sous sa forme matricielle, oĂč le terme constant vaut la matrice identitĂ©.
  2. Cet ordre, avec le conjugué à gauche, est privilégié par les physiciens. Les algébristes placent plutÎt le conjugué linéaire à droite : w · v = v* w.

Références

  1. Sheldon Axler, « Down with Determinants! », American Mathematical Monthly, vol. 102,‎ , p. 139–154 (DOI 10.2307/2975348, lire en ligne)
  2. F. L. Bauer et C. T. Fike, « Norms and exclusion theorems », Numer. Math., vol. 2,‎ , p. 137–141 (DOI 10.1007/bf01386217)
  3. S.C. Eisenstat et I.C.F. Ipsen, « Relative Perturbation Results for Eigenvalues and Eigenvectors of Diagonalisable Matrices », BIT, vol. 38, no 3,‎ , p. 502–9 (DOI 10.1007/bf02510256)
  4. (en) William H. Press, Saul A. Teukolsky, William T. Vetterling et Brian P. Flannery, Numerical Recipes in C : The Art of Scientific Computing, Cambridge University Press, , 2nd Ă©d., 994 p. (ISBN 978-0-521-43108-8, BNF 37382181)
  5. K. Neymeyr, « A geometric theory for preconditioned inverse iteration IV: On the fastest convergence cases. », Linear Algebra Appl., vol. 415, no 1,‎ , p. 114–139 (DOI 10.1016/j.laa.2005.06.022)
  6. (en) T.Y. Li et Zhonggang Zeng, « Laguerre's Iteration In Solving The Symmetric Tridiagonal Eigenproblem - Revisited », SIAM Journal on Scientific Computing,‎
  7. Moody T. Chu, « A Note on the Homotopy Method for Linear Algebraic Eigenvalue Problems », Linear Algebra Appl., vol. 105,‎ , p. 225–236 (DOI 10.1016/0024-3795(88)90015-8)
  8. Inderjit S. Dhillon, Beresford N. Parlett et Christof Vömel, « The Design and Implementation of the MRRR Algorithm », ACM Transactions on Mathematical Software, vol. 32, no 4,‎ , p. 533–560 (DOI 10.1145/1186785.1186788)
  9. Oliver K. Smith, « Eigenvalues of a symmetric 3 × 3 matrix. », Communications of the ACM, vol. 4, no 4,‎ , p. 168 (DOI 10.1145/355578.366316)

Bibliographie

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplĂ©mentaires peuvent s’appliquer aux fichiers multimĂ©dias.