Décomposition propre d'une matrice - Eigendecomposition of a matrix
En algèbre linéaire , la décomposition propre est la factorisation d' une matrice en une forme canonique , dans laquelle la matrice est représentée en termes de valeurs propres et de vecteurs propres . Seules les matrices diagonalisables peuvent être factorisées de cette manière. Lorsque la matrice à factoriser est une matrice symétrique normale ou réelle , la décomposition est appelée "décomposition spectrale", dérivée du théorème spectral .
Théorie fondamentale des vecteurs et valeurs propres matriciels
Un vecteur (non nul) v de dimension N est un vecteur propre d'une matrice carrée N × N A s'il satisfait une équation linéaire de la forme
pour certains scalaire λ . Alors λ est appelée la valeur propre correspondant à v . Géométriquement parlant, les vecteurs propres de A sont les vecteurs que A s'allonge ou se rétrécit simplement, et la quantité qu'ils allongent/rétrécissent est la valeur propre. L'équation ci-dessus est appelée équation aux valeurs propres ou problème aux valeurs propres.
Cela donne une équation pour les valeurs propres
Nous appelons p ( λ ) le polynôme caractéristique , et l'équation, appelée équation caractéristique, est une équation polynomiale d'ordre N dans l'inconnue λ . Cette équation sera N de solutions distinctes, où 1 ≤ N X ≤ N . L'ensemble des solutions, c'est-à-dire les valeurs propres, est appelé le spectre de A .
Si le champ des scalaires est algébriquement clos , alors nous pouvons factoriser p comme
Le nombre entier n i est appelé la multiplicité algébrique de valeurs propres λ i . Les multiplicités algébriques somment à N : :
Pour chaque valeur propre λ i , nous avons une équation aux valeurs propres spécifique
Il y aura 1 ≤ m i ≤ n i solutions linéairement indépendantes pour chaque équation aux valeurs propres. Les combinaisons linéaires des m i solutions (sauf celle qui donne le vecteur nul) sont les vecteurs propres associés à la valeur propre λ i . Le nombre entier m i est appelé la multiplicité géométrique de λ i . Il est important de garder à l'esprit que la multiplicité algébrique n i et la multiplicité géométrique m i peuvent être égales ou non, mais nous avons toujours m i ≤ n i . Le cas le plus simple est bien sûr lorsque m i = n i = 1 . Le nombre total de vecteurs propres linéairement indépendants, N v , peut être calculé en additionnant les multiplicités géométriques
Les vecteurs propres peuvent être indexés par des valeurs propres, à l'aide d'un double indice, v ij étant le j ème vecteur propre pour la i ème valeur propre. Les vecteurs propres peuvent également être indexés en utilisant la notation plus simple d'un seul indice v k , avec k = 1, 2, ..., N v .
Décomposition propre d'une matrice
Soit A une matrice carrée n × n avec n vecteurs propres q i linéairement indépendants (où i = 1, ..., n ). Alors A peut être factorisé comme
où Q est la matrice carrée n × n dont la i ème colonne est le vecteur propre q i de A , et Λ est la matrice diagonale dont les éléments diagonaux sont les valeurs propres correspondantes, Λ ii = λ i . Notez que seules les matrices diagonalisables peuvent être factorisées de cette manière. Par exemple, la matrice défectueuse (qui est une matrice de cisaillement ) ne peut pas être diagonalisée.
Les n vecteurs propres q i sont généralement normalisés, mais ils n'ont pas besoin de l'être. Un ensemble non normalisé de n vecteurs propres, v i peut également être utilisé comme colonnes de Q . Cela peut être compris en notant que la grandeur des vecteurs propres dans Q s'annule dans la décomposition par la présence de Q -1 .
La décomposition peut être dérivée de la propriété fondamentale des vecteurs propres :
Exemple
La matrice réelle 2 × 2 A
peut être décomposé en une matrice diagonale par multiplication d'une matrice non singulière B
Puis
pour une vraie matrice diagonale .
En multipliant les deux membres de l'équation de gauche par B :
L'équation ci-dessus peut être décomposée en deux équations simultanées :
En factorisant les valeurs propres x et y :
Location
cela nous donne deux équations vectorielles :
Et peut être représenté par une seule équation vectorielle impliquant deux solutions comme valeurs propres :
où λ représente les deux valeurs propres x et y , et u représente les vecteurs a et b .
Le passage λ u sur le côté gauche et la factorisation u out
Puisque B est non singulier, il est essentiel que u soit non nul. Par conséquent,
Ainsi
nous donnant les solutions des valeurs propres pour la matrice A comme λ = 1 ou λ = 3 , et la matrice diagonale résultante de la décomposition propre de A est donc .
Remettre les solutions dans les équations simultanées ci-dessus
En résolvant les équations, on a
Ainsi la matrice B requise pour la décomposition propre de A est
C'est:
Matrice inverse via décomposition propre
Si une matrice A peut être décomposée propre et si aucune de ses valeurs propres n'est nulle, alors A est inversible et son inverse est donné par
Si est une matrice symétrique, puisqu'elle est formée à partir des vecteurs propres de celle-ci est garantie d'être une matrice orthogonale , donc . De plus, parce que Λ est une matrice diagonale , son inverse est facile à calculer :
Les implications pratiques
Lorsque la décomposition propre est utilisée sur une matrice de données réelles mesurées, l' inverse peut être moins valable lorsque toutes les valeurs propres sont utilisées sans modification dans la forme ci-dessus. En effet, lorsque les valeurs propres deviennent relativement petites, leur contribution à l'inversion est grande. Ceux proches de zéro ou au "bruit" du système de mesure auront une influence indue et pourraient entraver les solutions (détection) en utilisant l'inverse.
Deux mesures d'atténuation ont été proposées : tronquer les valeurs propres faibles ou nulles et étendre la valeur propre fiable la plus faible à celles qui lui sont inférieures.
La première méthode d'atténuation est similaire à un échantillon clairsemé de la matrice d'origine, en supprimant les composants qui ne sont pas considérés comme précieux. Cependant, si la solution ou le processus de détection est proche du niveau de bruit, la troncature peut supprimer les composants qui influencent la solution souhaitée.
La deuxième atténuation étend la valeur propre de sorte que les valeurs inférieures ont beaucoup moins d'influence sur l'inversion, mais contribuent toujours, de sorte que des solutions proches du bruit seront toujours trouvées.
La valeur propre fiable peut être trouvée en supposant que les valeurs propres de valeur extrêmement similaire et faible sont une bonne représentation du bruit de mesure (qui est supposé faible pour la plupart des systèmes).
Si les valeurs propres sont classées par rang par valeur, alors la valeur propre fiable peut être trouvée par minimisation du laplacien des valeurs propres triées :
où les valeurs propres sont indicées avec un s pour indiquer qu'elles sont triées. La position de la minimisation est la valeur propre fiable la plus basse. Dans les systèmes de mesure, la racine carrée de cette valeur propre fiable est le bruit moyen sur les composants du système.
Calcul fonctionnel
La décomposition propre permet un calcul beaucoup plus facile de séries entières de matrices. Si f ( x ) est donné par
alors on sait que
Parce que Λ est une matrice diagonale , les fonctions de Λ sont très faciles à calculer:
Les éléments hors diagonale de f ( Λ ) sont nuls; soit f ( Λ ) est une matrice diagonale. Par conséquent, le calcul de f ( A ) se réduit au simple calcul de la fonction sur chacune des valeurs propres.
Une technique similaire fonctionne plus généralement avec le calcul fonctionnel holomorphe , en utilisant
d'en haut . Encore une fois, nous trouvons que
Exemples
qui sont des exemples pour les fonctions . De plus, est la matrice exponentielle .
Décomposition pour matrices spéciales
Lorsque A est une matrice symétrique normale ou réelle , la décomposition est appelée "décomposition spectrale", dérivée du théorème spectral .
Matrices normales
Une matrice carrée à valeurs complexes A est normale (c'est-à-dire A * A = AA * , où A * est la transposée conjuguée ) si et seulement si elle peut être décomposée en
où U est une matrice unitaire (c'est-à-dire U * = U −1 ) et Λ = diag( λ 1 , ..., λ n ) est une matrice diagonale . Les colonnes u 1 , ..., u n de U forment une base orthonormée et sont des vecteurs propres de A avec des valeurs propres correspondantes λ 1 , ..., λ n .
Si A est restreint à une matrice hermitienne ( A = A * ), alors Λ n'a que des entrées à valeurs réelles. Si A est restreint à une matrice unitaire, alors Λ prend toutes ses valeurs sur le cercle unité complexe, c'est-à-dire | λ i | = 1 .
Matrices symétriques réelles
Comme cas particulier, pour chaque matrice symétrique réelle n × n , les valeurs propres sont réelles et les vecteurs propres peuvent être choisis réels et orthonormés . Ainsi, une matrice symétrique réelle A peut être décomposée en
où Q est une matrice orthogonale dont les colonnes sont les vecteurs propres (choisis ci-dessus, réels et orthonormés) de A , et Λ est une matrice diagonale dont les entrées sont les valeurs propres de A .
Faits utiles
Faits utiles concernant les valeurs propres
-
Le produit des valeurs propres est égal au déterminant de A
-
La somme des valeurs propres est égale à la trace de A
-
Si les valeurs propres de A sont λ i , et A est inversible, alors les valeurs propres de A −1 sont simplement λ-1
je. - Si les valeurs propres de A sont λ i , alors les valeurs propres de f ( A ) sont simplement f ( λ i ) , pour toute fonction holomorphe f .
Faits utiles concernant les vecteurs propres
- Si A est hermitien et de rang complet, la base des vecteurs propres peut être choisie pour être mutuellement orthogonale . Les valeurs propres sont réelles.
- Les vecteurs propres de A -1 sont les mêmes que les vecteurs propres de A .
- Les vecteurs propres ne sont définis qu'à une constante multiplicative près. Autrement dit, si Av = λ v alors c v est aussi un vecteur propre pour tout scalaire c 0 . En particulier, − v et e iθ v (pour tout θ ) sont aussi des vecteurs propres.
- Dans le cas de valeurs propres dégénérées (une valeur propre apparaissant plus d'une fois), les vecteurs propres ont une liberté de rotation supplémentaire, c'est-à-dire toute combinaison linéaire (orthonormale) de vecteurs propres partageant une valeur propre (dans le sous-espace dégénéré), sont eux-mêmes des vecteurs propres ( dans le sous-espace).
Faits utiles concernant la décomposition propre
- A peut être décomposé propre si et seulement si le nombre de vecteurs propres linéairement indépendants, N v , est égal à la dimension d'un vecteur propre : N v = N
- Si le champ de scalaires est algébriquement clos et si p ( λ ) n'a pas de racines répétées, qui est, si alors A peut être eigendecomposed.
- L'énoncé « A peut être décomposé proprement » n'implique pas que A a un inverse.
- L'énoncé « A a un inverse » n'implique pas que A puisse être décomposé proprement. Un contre-exemple est , qui est une matrice défectueuse inversible .
Faits utiles concernant la matrice inverse
-
A peut être inversé si et seulement si toutes les valeurs propres sont différentes de zéro :
- Si λ i ≠ 0 et N v = N , l'inverse est donné par
Calculs numériques
Calcul numérique des valeurs propres
Supposons que l'on veuille calculer les valeurs propres d'une matrice donnée. Si la matrice est petite, on peut les calculer symboliquement en utilisant le polynôme caractéristique . Cependant, cela est souvent impossible pour des matrices plus grandes, auquel cas il faut utiliser une méthode numérique .
En pratique, les valeurs propres des grandes matrices ne sont pas calculées en utilisant le polynôme caractéristique. Le calcul du polynôme devient coûteux en soi, et les racines exactes (symboliques) d'un polynôme de haut degré peuvent être difficiles à calculer et à exprimer : le théorème d'Abel-Ruffini implique que les racines de polynômes de haut degré (5 ou plus) ne peuvent pas en général être exprimé simplement en utilisant les racines n ièmes. Par conséquent, les algorithmes généraux pour trouver les vecteurs propres et les valeurs propres sont itératifs .
Il existe des algorithmes numériques itératifs pour l'approximation des racines des polynômes, comme la méthode de Newton , mais en général, il est peu pratique de calculer le polynôme caractéristique et d'appliquer ensuite ces méthodes. Une des raisons est que de petites erreurs d'arrondi dans les coefficients du polynôme caractéristique peuvent conduire à de grandes erreurs dans les valeurs propres et les vecteurs propres : les racines sont une fonction extrêmement mal conditionnée des coefficients.
Une méthode itérative simple et précise est la méthode de puissance : un vecteur aléatoire v est choisi et une séquence de vecteurs unitaires est calculée comme
Cette séquence sera presque toujours converger vers un vecteur propre correspondant à la valeur propre de grandeur plus grande, à condition que v a une composante non nulle de ce vecteur propre à la base des vecteurs propres (et à condition qu'il n'y a qu'une seule valeur propre de grandeur plus). Cet algorithme simple est utile dans certaines applications pratiques ; par exemple, Google l' utilise pour calculer le classement des pages des documents dans leur moteur de recherche. De plus, la méthode de la puissance est le point de départ de nombreux algorithmes plus sophistiqués. Par exemple, en gardant non seulement le dernier vecteur de la séquence, mais en regardant plutôt l' étendue de tous les vecteurs de la séquence, on peut obtenir une meilleure approximation (convergence plus rapide) du vecteur propre, et cette idée est la base d' Arnoldi itération . Alternativement, l'important algorithme QR est également basé sur une transformation subtile d'une méthode de puissance.
Calcul numérique des vecteurs propres
Une fois les valeurs propres calculées, les vecteurs propres peuvent être calculés en résolvant l'équation
en utilisant l'élimination de Gauss ou toute autre méthode de résolution d' équations matricielles .
Cependant, dans les méthodes pratiques de valeurs propres à grande échelle, les vecteurs propres sont généralement calculés d'autres manières, en tant que sous-produit du calcul des valeurs propres. Dans l' itération de puissance , par exemple, le vecteur propre est en fait calculé avant la valeur propre (qui est généralement calculée par le quotient de Rayleigh du vecteur propre). Dans l'algorithme QR pour une matrice hermitienne (ou toute matrice normale ), les vecteurs propres orthonormés sont obtenus en tant que produit des matrices Q à partir des étapes de l'algorithme. (Pour les matrices plus générales, l'algorithme QR donne la décomposition Schur d' abord, à partir de laquelle les vecteurs propres peuvent être obtenus par une backsubstitution procédure.) Pour les matrices hermitiennes, la Diviser pour mieux régner algorithme valeur propre est plus efficace que l'algorithme QR si les deux vecteurs propres et les valeurs propres sont souhaitées.
Sujets supplémentaires
Espaces propres généralisés
Rappelons que la multiplicité géométrique d'une valeur propre peut être décrite comme la dimension de l'espace propre associé, l'espace nul de λ I − A . La multiplicité algébrique peut aussi être considérée comme une dimension : c'est la dimension de l' espace propre généralisé associé (1er sens), qui est l'espace nul de la matrice ( λ I − A ) k pour tout k suffisamment grand . C'est-à-dire que c'est l'espace des vecteurs propres généralisés (premier sens), où un vecteur propre généralisé est tout vecteur qui devient finalement 0 si λ I − A lui est appliqué suffisamment de fois successivement. Tout vecteur propre est un vecteur propre généralisé, et donc chaque espace propre est contenu dans l'espace propre généralisé associé. Ceci fournit une preuve facile que la multiplicité géométrique est toujours inférieure ou égale à la multiplicité algébrique.
Cette utilisation ne doit pas être confondue avec le problème généralisé des valeurs propres décrit ci-dessous.
vecteur propre conjugué
Un vecteur propre ou coneigenvector conjugué est un vecteur envoyé après transformation à un multiple scalaire de son conjugué, où le scalaire est appelé valeur propre conjuguée ou coneigenvalue de la transformation linéaire. Les coneigenvectors et les coneigenvalues représentent essentiellement les mêmes informations et la même signification que les vecteurs propres et valeurs propres réguliers, mais surviennent lorsqu'un système de coordonnées alternatif est utilisé. L'équation correspondante est
Par exemple, dans la théorie de la diffusion électromagnétique cohérente, la transformation linéaire A représente l'action effectuée par l'objet diffusant, et les vecteurs propres représentent les états de polarisation de l'onde électromagnétique. En optique , le système de coordonnées est défini à partir du point de vue de l'onde, connu sous le nom d' alignement de diffusion avant (FSA), et donne lieu à une équation aux valeurs propres régulière, alors qu'en radar , le système de coordonnées est défini à partir du point de vue du radar, connu sous le nom de retour. Scattering Alignment (BSA), et donne lieu à une équation de coneigenvalue.
Problème aux valeurs propres généralisé
Un problème aux valeurs propres généralisé (second sens) est le problème de trouver un vecteur v qui obéit
où A et B sont des matrices. Si v obéit à cette équation, avec une certaine λ , nous appelons v le vecteur propre généralisé de A et B (dans le second sens), et λ est appelée la valeur propre généralisée de A et B (dans le second sens) qui correspond à la généralisation vecteur propre v . Les valeurs possibles de λ doivent obéir à l'équation suivante
Si n vecteurs linéairement indépendants { v 1 , ..., v n } peut être trouvé, tel que pour tout i ∈ {1, ..., n } , Av i = λ i Bv i , alors nous définissons les matrices P et D de telle sorte que
Alors l'égalité suivante est vérifiée
Et la preuve est
Et puisque P est inversible, nous multiplions l'équation de droite par son inverse, terminant la preuve.
L'ensemble de matrices de la forme A - λ B , où λ est un nombre complexe, est appelé un crayon ; le terme crayon matriciel peut également désigner le couple ( A , B ) de matrices.
Si B est inversible, alors le problème original peut être écrit sous la forme
qui est un problème aux valeurs propres standard. Cependant, dans la plupart des situations, il est préférable de ne pas effectuer l'inversion, mais plutôt de résoudre le problème des valeurs propres généralisé comme indiqué à l'origine. Ceci est particulièrement important si A et B sont des matrices hermitiennes , car dans ce cas B -1 A n'est généralement pas hermitienne et les propriétés importantes de la solution ne sont plus apparentes.
Si A et B sont tous deux symétriques ou hermitiens et que B est également une matrice définie positive , les valeurs propres λ i sont réelles et les vecteurs propres v 1 et v 2 avec des valeurs propres distinctes sont B -orthogonaux ( v 1 * Bv 2 = 0 ). Dans ce cas, les vecteurs propres peuvent être choisis pour que la matrice P définie ci-dessus satisfasse
- ou ,
et il existe une base de vecteurs propres généralisés (ce n'est pas un problème défectueux ). Ce cas est parfois appelé crayon défini hermitien ou crayon défini .
Voir également
- Décomposition matricielle
- Jordanie forme normale
- Liste des matrices
- Valeur propre, vecteur propre et espace propre
- Théorème spectral
- Décomposition en valeur singulière
- Transformation du propriétaire
- covariante de Frobenius
- La formule de Sylvestre
- Perturbation des valeurs propres
Remarques
Les références
- Franklin, Joël N. (1968). Théorie matricielle . Publications de Douvres. ISBN 978-0-486-41179-8.
- Golub, Gene H.; Van Loan, Charles F. (1996), Matrix Computations (3e éd.), Baltimore: Johns Hopkins University Press , ISBN 978-0-8018-5414-9
- Corne, Roger A.; Johnson, Charles R. (1985). Analyse matricielle . La presse de l'Universite de Cambridge. ISBN 978-0-521-38632-6.
- Corne, Roger A.; Johnson, Charles R. (1991). Sujets dans l'analyse matricielle . La presse de l'Universite de Cambridge. ISBN 978-0-521-46713-1.
- Kreyszig, Erwin (1972), Advanced Engineering Mathematics (3e éd.), New York: Wiley , ISBN 978-0-471-50728-4
- Nering, Evar D. (1970), l' algèbre linéaire et la théorie des matrices (2e éd.), New York: Wiley , LCCN 76091646
- Strang, G. (1998). Introduction à l'algèbre linéaire (3e éd.). Wellesley-Cambridge Press. ISBN 978-0-9614088-5-5.