Algorithme de recherche de valeur propre
Un problĂšme important en analyse numĂ©rique consiste Ă dĂ©velopper des algorithmes efficaces et stables pour trouver les valeurs propres d'une matrice. Ces algorithmes de recherche de valeurs propres peuvent ĂȘtre Ă©tendus pour donner les vecteurs propres associĂ©s.
Valeurs et vecteurs propres
Pour une matrice carrée A de taille n à n réelle ou complexe, une valeur propre λ et son vecteur propre généralisé associé v sont un couple vérifiant la relation[1]
oĂč v est un vecteur colonne n Ă 1 non nul, I la matrice identitĂ© de taille n Ă n, k un entier positif. λ et v peuvent ĂȘtre complexes mĂȘme pour A rĂ©elle. Si k = 1, le vecteur est simplement appelĂ© vecteur propre et vĂ©rifie donc Av = λv. Toute valeur propre λ de A a des vecteurs propres « ordinaires » qui lui sont associĂ©s, dans le sens oĂč si k est le plus petit entier vĂ©rifiant (A â λI)k v = 0 pour un vecteur propre gĂ©nĂ©ralisĂ© v, alors (A â λI)kâ1 v est un vecteur propre ordinaire. La valeur k peut toujours ĂȘtre prise comme infĂ©rieure ou Ă©gale Ă n. En particulier, (A â λI)n v = 0 pour tout vecteur propre gĂ©nĂ©ralisĂ© v associĂ© à λ.
Pour toute valeur propre λ de A, le noyau ker(A â λI) est le sous-espace vectoriel engendrĂ© par tous les vecteurs propres associĂ©s à λ (dont le vecteur nul), qu'on appelle espace propre de λ, tandis que l'espace vectoriel ker((A â λI)n) est le sous-espace vectoriel engendrĂ© par tous les vecteurs propres gĂ©nĂ©ralisĂ©s associĂ©s, et donc appelĂ© espace propre gĂ©nĂ©ralisĂ©. La multiplicitĂ© gĂ©omĂ©trique de λ est la dimension de ce sous-espace. La multiplicitĂ© algĂ©brique de λ est la dimension de son espace propre gĂ©nĂ©ralisĂ©. Cette terminologie se justifie en remarquant que
oĂč det est le dĂ©terminant, les λi sont les valeurs propres de Aet les αi sont les multiplicitĂ©s algĂ©briques associĂ©es. La fonction pA(z) est le polynĂŽme caractĂ©ristique de A. Ainsi, la multiplicitĂ© algĂ©brique est la multiplicitĂ© de la valeur propre comme racine du polynĂŽme caractĂ©ristique. Comme tout vecteur propre est un vecteur propre gĂ©nĂ©ralisĂ©, la multiplicitĂ© gĂ©omĂ©trique est infĂ©rieure ou Ă©gale Ă la multiplicitĂ© algĂ©brique. La somme des multiplicitĂ©s algĂ©briques vaut n, le degrĂ© du polynĂŽme caractĂ©ristique. L'Ă©quation pA(z) = 0 est appelĂ© Ă©quation caractĂ©ristique, car ses racines sont les valeurs propres de A. Par le thĂ©orĂšme de Cayley-Hamilton, A vĂ©rifie la mĂȘme Ă©quation : pA(A) = 0[note 1]. Par consĂ©quent, les colonnes de la matrice sont soit nulles soit des vecteurs propres gĂ©nĂ©ralisĂ©s de la valeur propre λj, car ils sont annulĂ©s par (A â λjI)αj. En fait, l'espace colonne (le sous-espace vectoriel engendrĂ© par les colonnes de la matrice) est l'espace propre gĂ©nĂ©ralisĂ© de λj.
Toute collection de vecteurs propres gĂ©nĂ©ralisĂ©s de valeurs propres distinctes est linĂ©airement indĂ©pendante, donc une base de ân peut ĂȘtre choisi Ă partir de vecteurs propres gĂ©nĂ©ralisĂ©s. Plus prĂ©cisĂ©ment, cette base (vi)n
i=1 peut ĂȘtre choisie est ordonnĂ©e de sorte que
- si vi et vj ont la mĂȘme valeur propre, alors tout vk pour tout k entre i et j, et
- si vi n'est pas un vecteur propre ordinaire, associĂ© Ă la valeur propre λi, alors (A â λiI )vi = viâ1 (en particulier, v1 doit ĂȘtre un vecteur propre ordinaire).
Si ces vecteurs de base sont rangĂ©s comme vecteurs colonnes d'une matrice V = [ v1 v2 ... vn ], alors V peut ĂȘtre utilisĂ© pour transformer A en sa forme de Jordan :
oĂč les λi sont les valeurs propres, ÎČi = 1 si (A â λi+1)vi+1 = vi et ÎČi = 0 sinon.
Plus gĂ©nĂ©ralement, si W est une matrice inversible, et λ est une valeur propre de A de vecteur propre gĂ©nĂ©ralisĂ© v, alors (Wâ1AW â λI )k Wâkv = 0. Ainsi λ est une valeur propre de Wâ1AW pour tout vecteur propre gĂ©nĂ©ralisĂ© Wâkv. De plus, des matrices semblables ont les mĂȘmes valeurs propres.
Matrices symétriques réelles, normales et hermitiennes
La matrice adjointe M* d'une matrice complexe M est la transposĂ©e de la conjuguĂ©e M : M * = M T. Une matrice carrĂ©e A est appelĂ©e normale si elle commute avec son adjointe : A*A = AA*. Elle est appelĂ©e hermitienne si elle est Ă©gale Ă son adjointe : A* = A. Toutes les matrices hermitiennes sont normales. Si A est rĂ©elle, l'adjointe est sa transposĂ©e, et A est hermitienne si et seulement si elle est symĂ©trique. Une fois appliquĂ©e aux vecteurs colonnes, l'adjointe peut ĂȘtre utilisĂ©e pour dĂ©finir le produit scalaire canonique sur ân: w · v = w* v[note 2]. Les matrices normales, hermitiennes et symĂ©triques de rĂ©elles ont plusieurs propriĂ©tĂ©s utiles :
- tout vecteur propre généralisé d'une matrice normale est un vecteur propre ordinaire ;
- toute matrice normale est similaire Ă une matrice diagonale, car sa forme normale de Jordan est diagonale ;
- deux vecteurs propres associĂ©s Ă des valeurs propres distinctes d'une mĂȘme matrice normale sont orthogonaux ;
- le noyau et l'image d'une matrice normale sont orthogonaux ;
- pour toute matrice normale A, ân a une base orthonormale de vecteurs propres de A. La matrice correspondante de vecteurs propres est unitaire ;
- les valeurs propres d'une matrice hermitienne sont rĂ©elles, car (λ â λ)v = (A* â A)v = (A â A)v = 0 pour un vecteur propre non nul v ;
- si A est réelle, il y a une base orthonormale de Rn constituée de vecteurs propres de A si et seulement si A est symétrique.
Il est possible qu'une matrice rĂ©elle ou complexe n'ait que des valeurs propres rĂ©elles sans ĂȘtre hermitienne. Par exemple, une matrice rĂ©elle triangulaire a ses valeurs propres sur sa diagonale, mais elle n'est pas symĂ©trique dans le cas gĂ©nĂ©ral.
Conditionnement
Tout problĂšme de calcul numĂ©rique peut ĂȘtre vu comme l'Ă©valuation d'une fonction Æ en un point x. Le conditionnement Îș(Æ, x) du problĂšme est le rapport de l'erreur relative de la rĂ©ponse sur l'erreur relative de l'entrĂ©e, qui varie selon la fonction et l'entrĂ©e. Le conditionnement dĂ©crit la variation de l'erreur pendant le calcul. Son logarithme dĂ©cimal donne le nombre de chiffres perdus entre l'entrĂ©e et la sortie. Il reste cependant un rapport optimal. Il reflĂšte l'instabilitĂ© induite par le problĂšme, indĂ©pendamment de la mĂ©thode de rĂ©solution. Aucun algorithme ne peut produire des rĂ©sultats plus prĂ©cis que ceux donnĂ©s par le conditionnement, sauf cas exceptionnels. Cependant, un algorithme mal choisi peut empirer les rĂ©sultats. Par exemple, le problĂšme de recherche des valeurs propres d'une matrice normale est toujours bien conditionnĂ© mais la recherche des racines d'un polynĂŽme peut ĂȘtre trĂšs mal conditionnĂ©. Ainsi, les algorithmes de recherche de valeurs propres qui se reposent sur une recherche de zĂ©ro du polynĂŽme caractĂ©ristique peuvent ĂȘtre ma conditionnĂ©s mĂȘme si le problĂšme de base ne l'est pas.
Pour le problĂšme de rĂ©solution de l'Ă©quation linĂ©aire Av = b oĂč A est inversible, le conditionnement Îș(Aâ1, b) est donnĂ© par ||A||op||Aâ1||op, oĂč || ||op est la norme d'opĂ©rateur subordonnĂ©e Ă la norme euclidienne sur ân. Puisqu'il est indĂ©pendant de b et de la mĂȘme forme pour A et Aâ1, on le dĂ©signe comme le conditionnement Îș(A) de la matrice A. Cette valeur Îș(A) est Ă©galement la valeur absolue du rapport entre la plus grande valeur propre de A sur sa plus petite. Si A est unitaire, alors ||A||op = ||Aâ1||op = 1, et donc Îș(A) = 1. Pour une matrice quelconque, la norme d'opĂ©rateur est souvent difficile Ă calculer et le conditionnement est calculĂ© par d'autres normes matricielles.
Pour le problĂšme de valeurs propres, le thĂ©orĂšme de Bauer-Fike Ă©tablit que si λ est une valeur propre d'une matrice diagonalisable A avec pour matrice de vecteurs propres V, alors l'erreur absolue en calculant λ est majorĂ©e par le produit de Îș(V) et de l'erreur absolue en A[2]. Par corollaire, le conditionnement pour trouver λ vaut Îș(λ, A) = Îș(V) = ||V ||op ||V â1||op. Si A est normale, alors V est unitaire, et Îș(λ, A) = 1. Ainsi, le problĂšme de recherche de valeurs propres pour une matrice normale est toujours bien conditionnĂ©.
Il a été montré que le conditionnement du problÚme de recherche des espaces propres d'une matrice normale A correspondant à une valeur propre λ est inversement proportionnel à la distance minimum entre λ et les autres valeurs propres de A[3]. En particulier, le problÚme d'espace propre pour les matrices normales est bien conditionné pour les valeurs propres isolées ; sinon, on peut au mieux identifier le sous-espace engendré par les vecteurs propres de valeurs propres proches.
Idée directrice des algorithmes
Tout polynĂŽme unitaire est le polynĂŽme caractĂ©ristique de sa matrice compagnon. Ainsi, un algorithme gĂ©nĂ©ral pour trouver des valeurs propres peut ĂȘtre basĂ© sur la recherche des racines d'un polynĂŽme. Le thĂ©orĂšme d'Abel-Ruffini montre que tout algorithme de la sorte pour des dimensions supĂ©rieures Ă 4 peut ĂȘtre soit infini, soit impliquer des fonctions plus compliquĂ©es que des polynĂŽmes ou des fonctions rationnelles. Pour cette raison, les algorithmes qui calculent exactement les valeurs propres en un nombre fini d'Ă©tapes n'existent que pour des classes spĂ©cifiques de matrices. Dans le cas gĂ©nĂ©ral, les algorithmes sont itĂ©ratifs, amĂ©liorant l'approximation Ă chaque itĂ©ration.
Certains algorithmes donnent toutes les valeurs propres, d'autres en donnent plusieurs Ă la fois, d'autres une seule. Toutefois, tous les algorithmes donnĂ©s plus bas peuvent ĂȘtre utilisĂ©s pour donner toutes les valeurs propres : une fois qu'une valeur propre λ d'une matrice A a Ă©tĂ© identifiĂ©e, la mĂ©thode peut ĂȘtre adaptĂ©e pour diriger les calculs vers une autre solution ou rĂ©duire le problĂšme Ă un nouveau dont λ n'est plus solution.
La redirection est souvent faite par dĂ©calage : remplacer A par A â ÎŒI pour une constante ÎŒ. La valeur propre obtenue par A â ÎŒI doit avoir ÎŒ ajoutĂ©e pour obtenir une valeur propre de A. Par exemple, pour la mĂ©thode de la puissance itĂ©rĂ©e, on prend ÎŒ = λ. Cette mĂ©thode donne la valeur propre de valeur absolue plus Ă©levĂ©e, ainsi mĂȘme si λ n'est qu'approchĂ©e, on ne la trouvera pas une deuxiĂšme fois par la puissance itĂ©rĂ©e. Inversement, les mĂ©thodes basĂ©es sur la puissance inverse trouvent la plus petite valeur propre, donc ÎŒ doit ĂȘtre choisi loin de λ, Ă©ventuellement plus proche d'une autre valeur propre.
La rĂ©duction peut ĂȘtre faite en restreignant A Ă l'espace colonne de la matrice A â λI. Comme cette matrice est singuliĂšre, l'espace colonne est de dimension plus petite. L'algorithme de recherche des valeurs propres peut alors ĂȘtre appliquĂ© Ă la matrice restreinte, et le processus peut ĂȘtre rĂ©pĂ©tĂ© jusqu'Ă avoir obtenu toutes les valeurs propres.
Si un algorithme ne donne pas de vecteurs propres, une pratique courante est d'utiliser une algorithme d'itĂ©ration inverse avec ÎŒ fixĂ© proche d'une approximation de valeur propre. Cela va vite converger vers un vecteur propre associĂ© Ă la valeur propre la plus proche de ÎŒ. Pour de petites matrices, une alternative est de regarder l'espace colonne du produit de A â λ'I pour chaque valeur propre λ'.
Transformations en matrices de Hessenberg et tridiagonales
Un cas idĂ©al est l'Ă©tude d'une matrice triangulaire, car ses valeurs propres sont ses coefficients diagonaux. Cependant, pour une matrice quelconque, il n'y a aucune mĂ©thode finie semblable que le pivot de Gauss pour triangulariser une matrice tout en prĂ©servant ses valeurs propres. Il est toutefois possible d'atteindre une forme proche de triangulaire. Une matrice de Hessenberg supĂ©rieure est une matrice carrĂ©e dont tous les coefficients sous la premiĂšre sous-diagonale sont nuls ; une matrice de Hessenberg infĂ©rieure est dĂ©finie de maniĂšre similaire. Les matrices qui sont Ă la fois de Hessenberg infĂ©rieures et supĂ©rieures sont tridiagonales. Les matrices de Hessenberg et tridiagonales sont les points de dĂ©part de nombreux algorithmes de recherche de valeurs propres car les nombreux coefficients nuls simplifient la complexitĂ© du problĂšme. Plusieurs mĂ©thodes sont couramment utilisĂ©es pour convertir une matrice donnĂ©e en une forme de Hessenberg avec les mĂȘmes valeurs propres. Si la matrice originale est symĂ©trique ou hermitienne, la matrice rĂ©sultante sera tridiagonale.
Si seules les valeurs propres sont recherchĂ©es, le calcul de la matrice de passage n'est pas nĂ©cessaire, les deux matrices partageant les mĂȘmes valeurs propres. Si les vecteurs propres sont voulus, la matrice de passage peut ĂȘtre nĂ©cessaire pour transformer les vecteurs propres de la matrice de Hessenberg en ceux de la matrice originale.
Méthode | S'applique à une matrice... | Donne une matrice... | Coût sans matrice de passage | Coût avec matrice de passage | Description |
---|---|---|---|---|---|
Transformation de Householder | Quelconque | de Hessenberg | 2n3â3 + O(n2)[4](p474) | 4n3â3 + O(n2)[4](p474) | Envoie chaque colonne vers un sous-espace nul pour les coefficients bas. |
Rotations de Givens (en) | Quelconque | de Hessenberg | 4n3â3 + O(n2)[4](p470) | Application de rotations planaires pour annuler des coefficients choisis, dans un ordre telle qu'un coefficient annulĂ© le reste. | |
Algorithme d'Arnoldi (en) | Quelconque | de Hessenberg | NC | NC | Orthogonalisation de Gram-Schmidt sur des sous-espaces de Krylov. |
Algorithme de Lanczos | Hermitienne | Tridiagonale | NC | NC | Itération d'Arnoldi adaptée au cas hermitien. |
Pour les problĂšmes de valeurs propres d'une matrice tridiagonale, toutes les valeurs propres (sans les vecteurs propres) peuvent ĂȘtre calculĂ©es en O(n), par dichotomie dans le polynĂŽme caractĂ©ristique.
Algorithmes itératifs
Les algorithmes itératifs résolvent le problÚme des valeurs propres en générant des suites convergeant vers les valeurs propres. Certains algorithmes créent également des suites de vecteurs convergeant vers les vecteurs propres. Plus communément, les suites de valeurs propres sont exprimées comme suites de matrices similaires convergeant vers une matrice diagonale ou tridiagonale, rendant la lecture des valeurs propres aisée. Les suites de vecteurs propres apparaissent dans les matrices de passage correspondantes.
Méthode | S'applique à | Produit | Coût par itération | Convergence | Description |
---|---|---|---|---|---|
Méthode de la puissance itérée | Toutes | Valeur propre de plus grand module + vecteur propre associé | O(n2) | Linéaire | Application répétée d'une matrice à un vecteur arbitraire puis renormalisation. |
MĂ©thode de la puissance inverse | Toutes | Valeur propre plus proche de ÎŒ | NC | LinĂ©aire | Puissance itĂ©rĂ©e sur (A â ÎŒI )â1 |
ItĂ©ration de Rayleigh | Hermitienne | Valeur + vecteur propre le plus proche | NC | Cubique | Puissance itĂ©rĂ©e sur (A â ÎŒiI )â1, avec ÎŒi Ă chaque pas le quotient de Rayleigh du pas prĂ©cĂ©dent. |
Algorithme inverse prĂ©conditionnĂ©[5] ou LOBPCG | RĂ©elle symĂ©trique dĂ©finie positive | Valeur propre plus proche de ÎŒ | DĂ©pend du prĂ©conditionneur | Puissance inverse avec un prĂ©conditionneur (approximation de l'inverse de A). | |
Méthode de dichotomie | Réelle symétrique tridiagonale | N'importe quelle valeur propre | NC | Linéaire | Utilise la méthode de dichotomie pour trouver les racines du polynÎme caractéristique, à partir de sa suite de Sturm. |
Algorithme de Laguerre | Réelle symétrique tridiagonale | N'importe quelle valeur propre | NC | Cubique[6] | Utilisation de la méthode de Laguerre pour trouver les racines du polynÎme caractéristique, à partir de sa suite de Sturm. |
Algorithme QR (en) | Hessenberg | Toutes les valeurs propres | O(n2) | Cubique | Calcul de la factorisation A = QR, avec Q orthogonale et R triangulaire, puis application Ă RQ au pas suivant. |
Tous les couples valeur/vecteur propre | 6n3 + O(n2) | ||||
Méthode de Jacobi (en) | Réelle symétrique | Toutes les valeurs propres | O(n3) | Quadratique | Rotations de Givens pour annuler si possible les termes non-diagonaux. |
Algorithme diviser-pour-régner (en) | Hermitienne tridiagonale | Toutes les valeurs propres | O(n2) | Découpe la matrice en sous-matrices qui sont diagonalisées puis recombinées. | |
Tous les couples valeur/vecteur propres | (4â3)n3 + O(n2) | ||||
Méthode par homotopie | Réelle symétrique tridiagonale | Tous les couples valeur/vecteur propre | O(n2)[7] | NC | Construction d'un chemin homotope calculable à partir d'un problÚme de valeurs propres diagonales. |
MĂ©thode du spectre repliĂ© | RĂ©elle symĂ©trique | Valeur + vecteur propre de valeur plus proche de ÎŒ | NC | NC | Puissance inverse prĂ©conditionnĂ© sur (A â ÎŒI )2 |
Algorithme RRRM (en)[8] | RĂ©elle symĂ©trique tridiagonale | Couples valeur/vecteur propres | O(n2) | NC | "reprĂ©sentation relativement robustes multiples" â puissance inverse sur la dĂ©composition de Cholesky de la matrice dĂ©calĂ©e. |
MĂ©thodes directes
S'il n'existe aucun algorithme simple permettant de calculer directement les valeurs propres pour une matrice quelconque, il existe plusieurs cas oĂč le calcul direct est possible.
Matrices triangulaires
Puisque le déterminant d'une matrice triangulaire est le produit de ses coefficients diagonaux, si T est triangulaire, alors . Ainsi, les valeurs propres de T sont ses coefficients diagonaux.
Ăquations polynomiales factorisables
Si p est un polynĂŽme tel que p(A) = 0, alors les valeurs propres de A vĂ©rifient la mĂȘme Ă©quation. Si p peut ĂȘtre simplement factorisĂ©, alors les valeurs propres de A sont parmi les racines.
Par exemple, une projection est une matrice carrée P satisfaisant P2 = P. Les racines de l'équation polynomiale scalaire correspondante, λ2 = λ, sont donc 0 et 1. Ainsi, toutes les projections ont 0 et 1 comme valeurs propres. La multiplicité de 0 comme valeur propre est la dimension du noyau de P, et la multiplicité de 1 est le rang de P.
Un autre exemple est une matrice A vérifiant A2 = α2I pour un scalaire α. Les valeurs propres valent donc ±α. Les opérateurs de projection
vérifient
et
Les espaces colonne de P+ et Pâ sont les espaces propres de A correspondant Ă +α et âα, respectivement.
Matrices 2Ă2
Pour les dimensions 2 Ă 4, les valeurs propres peuvent ĂȘtre exprimĂ©es par des radicaux (d'aprĂšs le thĂ©orĂšme de Gauss-Wantzel). Si les formules sont connues pour les matrices 2Ă2 et 3Ă3, la complexitĂ© de l'Ă©criture des racines d'une Ă©quation quartique pour les matrices 4Ă4 peut dĂ©courager et amener Ă les trouver par d'autres moyens.
Pour une matrice 2Ă2
le polynÎme caractéristique est
Ainsi, les valeurs propres peuvent ĂȘtre obtenues par les Ă©galitĂ©s usuelles :
On pose ÎŽ(A) = âTr (A)2 â 4 det(A) la distance entre les deux valeurs, ce qui permet d'obtenir
avec des formules similaires pour c et d. De là , on en déduit que le calcul est bien conditionné si les valeurs propres sont isolées.
Les vecteurs propres peuvent ĂȘtre trouvĂ©s en utilisant le thĂ©orĂšme de Cayley-Hamilton. Si λ1, λ2 sont les valeurs propres, alors (A â λ1I )(A â λ2I ) = (A â λ2I )(A â λ1I ) = 0, donc les colonnes de (A â λ2I ) sont annulĂ©es par (A â λ1I ) et rĂ©ciproquement. En supposant que les deux matrices sont non nulles, les colonnes de chacune doivent contenir des vecteurs propres de l'autre valeur propre. (Si l'une des matrices est nulle, alors A est un multiple de l'identitĂ© et tout vecteur non nul est vecteur propre.)
- Exemple
vĂ©rifie Tr(A) = 4 â 3 = 1 et det(A) = 4(â3) â 3(â2) = â6, donc l'Ă©quation caractĂ©ristique vaut
et les valeurs propres sont 3 et â2. De lĂ ,
Dans les deux matrices, les colonnes sont multiples l'une de l'autre, donc une peut ĂȘtre utilisĂ©e. Ainsi, (1, â2) peut ĂȘtre utilisĂ© comme vecteur propre associĂ©e Ă â2, et (3, â1) comme vecteur propre associĂ© Ă la valeur propre 3, ce qui se vĂ©rifie simplement.
Matrices 3Ă3
Si A est une matrice 3Ă3, alors son polynĂŽme caractĂ©ristique peut s'Ă©crire sous la forme :
On peut obtenir les racines par la mĂ©thode de Cardan ou de Lagrange, mais un changement affine de A peut grandement simplifier l'expression et permettre d'Ă©crire les solutions sous forme trigonomĂ©trique. Si A = pB + qI, alors A et B ont les mĂȘmes vecteurs propres, et ÎČ est valeur propre de B si et seulement si α = pÎČ + q est valeur propre de A. On pose q = Tr(A)/3 et p = (Tr((A â qI)2)/6)1/2, ce qui donne
La substitution ÎČ = 2cos Ξ et des calculs de simplification par le dĂ©veloppement cos (3Ξ) = 4cos3 Ξ â 3cos Ξ mĂšnent Ă l'Ă©galitĂ© cos (3Ξ) = det(B)/2. Ainsi, les racines s'Ă©crivent sous la forme :
Si det(B) est complexe ou supĂ©rieur Ă 2 en valeur absolue, l'arc cosinus doit ĂȘtre pris sur la mĂȘme branche pour les trois valeurs de k. Ceci n'apparaĂźt pas si A est rĂ©elle et symĂ©trique, et les calculs des valeurs propres sont grandement simplifiĂ©s[9].
On peut Ă©galement obtenir les vecteurs propres de A par le thĂ©orĂšme de Cayley-Hamilton. Si α1, α2, α3 sont trois valeurs propres distinctes pour A, alors (A â α1I)(A â α2I)(A â α3I) = 0. Donc les colonnes du produit de deux de ces matrices consisteront des vecteurs propres de la troisiĂšme. Si α3 = α1, alors (A â α1I)2(A â α2I) = (A â α2I)(A â α1I)2 = 0. Ainsi l'espace propre gĂ©nĂ©ralisĂ© associĂ© à α1 est gĂ©nĂ©rĂ© par les colonnes de A â α2I tandis que l'espace propre ordinaire est gĂ©nĂ©rĂ© par les colonnes de (A â α1I)(A â α2I). L'espace propre ordinaire de α2 est gĂ©nĂ©rĂ© par les colonnes de (A â α1I)2.
- Exemple
L'équation caractéristique vaut
avec pour valeurs propres 1 (de multiplicité 2) et -1. Ainsi,
et
Donc (â4, â4, 4) est un vecteur propre pour â1, et (4, 2, â2) est un vecteur propre pour 1. (2, 3, â1) et (6, 5, â3) sont deux vecteurs propres gĂ©nĂ©ralisĂ©s associĂ©s Ă 1, chacun pouvant ĂȘtre combinĂ© Ă (â4, â4, 4) et (4, 2, â2) pour former une base de vecteurs propres gĂ©nĂ©ralisĂ©s pour A. Ces vecteurs peuvent ĂȘtre normalisĂ©s si nĂ©cessaire.
Vecteurs propres de matrices 3Ă3 normales
Si A est une matrice 3Ă3 normale, alors le produit vectoriel peut ĂȘtre utilisĂ© pour trouver les vecteurs propres, car pour ce cas, les noyaux et les espaces colonne sont orthogonaux (ce n'est pas toujours vĂ©rifiĂ©).
Si λ est une valeur propre de A, alors le noyau de A â λI est perpendiculaire Ă son espace colonne, le produit vectoriel de deux colonnes linĂ©airement indĂ©pendantes de A â λI sera dans le noyau, donc un vecteur propre associĂ© avec λ. Comme l'espace colonne est de dimension 2 dans ce cas, l'espace propre doit ĂȘtre de dimension 1, donc tout vecteur propre sera parallĂšle Ă celui-ci.
Si A â λI ne contient pas deux colonnes indĂ©pendantes mais est diffĂ©rente de 0, le produit vectoriel peut toujours ĂȘtre utilisĂ©. Dans ce cas, λ est une valeur propre de multiplicitĂ© 2, donc tout vecteur orthogonal Ă l'espace colonne sera un vecteur propre. Supposons que v est une colonne non nulle de A â λI. On choisit un vecteur arbitraire u non colinĂ©aire Ă v. Alors v Ă u et (v Ă u) Ă v sera orthogonal Ă v et sont donc vecteurs propres associĂ©s à λ.
Applications
La détermination des valeurs et vecteurs propres d'une matrice permet de travailler sur une base propre de celle-ci et de résoudre plus simplement certains problÚmes par l'exploitation des propriétés de la base de vecteurs propres.
Parmi les problÚmes physiques directes, la résolution de l'équation de Schrödinger passe par une recherche de modes propres.
Par extension, la résolution numérique d'un problÚme physique peut se ramener à un problÚme aux valeurs propres. Par exemple, on étudie un problÚme de corde vibrante :
Une rĂ©solution directe n'est pas possible dans le cas gĂ©nĂ©ral (pour des coefficients non constants), aussi on va discrĂ©tiser [0;1] en un nombre fini de points Ă©quirĂ©partis {xi}i=0,...,n et dĂ©composer sur les solutions pĂ©riodiques en temps : u(t,x) = w(x)exp(iÏt). L'approximation classique de la dĂ©rivĂ©e seconde en espace donne :
AprÚs réécriture, la résolution du problÚme physique de la corde vibrante revient à la résolution du problÚme aux valeurs propres :
avec
Notes
- Il faut cependant la considĂ©rer sous sa forme matricielle, oĂč le terme constant vaut la matrice identitĂ©.
- Cet ordre, avec le conjugué à gauche, est privilégié par les physiciens. Les algébristes placent plutÎt le conjugué linéaire à droite : w · v = v* w.
Références
- (en) Cet article est partiellement ou en totalitĂ© issu de lâarticle de WikipĂ©dia en anglais intitulĂ© « Eigenvalue algorithm » (voir la liste des auteurs).
- Sheldon Axler, « Down with Determinants! », American Mathematical Monthly, vol. 102,â , p. 139â154 (DOI 10.2307/2975348, lire en ligne)
- F. L. Bauer et C. T. Fike, « Norms and exclusion theorems », Numer. Math., vol. 2,â , p. 137â141 (DOI 10.1007/bf01386217)
- S.C. Eisenstat et I.C.F. Ipsen, « Relative Perturbation Results for Eigenvalues and Eigenvectors of Diagonalisable Matrices », BIT, vol. 38, no 3,â , p. 502â9 (DOI 10.1007/bf02510256)
- (en) William H. Press, Saul A. Teukolsky, William T. Vetterling et Brian P. Flannery, Numerical Recipes in C : The Art of Scientific Computing, Cambridge University Press, , 2nd Ă©d., 994 p. (ISBN 978-0-521-43108-8, BNF 37382181)
- K. Neymeyr, « A geometric theory for preconditioned inverse iteration IV: On the fastest convergence cases. », Linear Algebra Appl., vol. 415, no 1,â , p. 114â139 (DOI 10.1016/j.laa.2005.06.022)
- (en) T.Y. Li et Zhonggang Zeng, « Laguerre's Iteration In Solving The Symmetric Tridiagonal Eigenproblem - Revisited », SIAM Journal on Scientific Computing,â
- Moody T. Chu, « A Note on the Homotopy Method for Linear Algebraic Eigenvalue Problems », Linear Algebra Appl., vol. 105,â , p. 225â236 (DOI 10.1016/0024-3795(88)90015-8)
- Inderjit S. Dhillon, Beresford N. Parlett et Christof Vömel, « The Design and Implementation of the MRRR Algorithm », ACM Transactions on Mathematical Software, vol. 32, no 4,â , p. 533â560 (DOI 10.1145/1186785.1186788)
- Oliver K. Smith, « Eigenvalues of a symmetric 3 Ă 3 matrix. », Communications of the ACM, vol. 4, no 4,â , p. 168 (DOI 10.1145/355578.366316)
Bibliographie
- Adam W. Bojanczyk et Adam Lutoborski, « Computation of the Euler angles of a symmetric 3X3 matrix », SIAM Journal on Matrix Analysis and Applications, vol. 12, no 1,â , p. 41â48 (DOI 10.1137/0612005, lire en ligne)