Matrice diagonale - Diagonal matrix

En algèbre linéaire , une matrice diagonale est une matrice dans laquelle les entrées en dehors de la diagonale principale sont toutes nulles ; le terme fait généralement référence à des matrices carrées . Les éléments de la diagonale principale peuvent être nuls ou non nuls. Un exemple de matrice diagonale 2×2 est , tandis qu'un exemple de matrice diagonale 3×3 est . Une matrice identité de n'importe quelle taille, ou n'importe quel multiple de celle-ci (une matrice scalaire ), est une matrice diagonale.

Une matrice diagonale est parfois appelée matrice de mise à l'échelle , car la multiplication matricielle avec elle entraîne un changement d'échelle (taille). Son déterminant est le produit de ses valeurs diagonales.

Définition

Comme indiqué ci-dessus, une matrice diagonale est une matrice dans laquelle toutes les entrées hors diagonale sont nulles. Autrement dit, la matrice D = ( d i , j ) avec n colonnes et n lignes est diagonale si

Cependant, les entrées diagonales principales ne sont pas restreintes.

Le terme matrice diagonale peut parfois se référer à un matrice diagonale rectangulaire , qui est unematricemparnavec toutes les entrées qui ne sont pas de la formed i , i étant zéro. Par exemple:

ou

Le plus souvent, cependant, la matrice diagonale fait référence à des matrices carrées, qui peuvent être spécifiées explicitement comme unmatrice diagonale carrée . Une matrice diagonale carrée est unematrice symétrique, donc cela peut aussi être appelé unmatrice diagonale symétrique .

La matrice suivante est une matrice diagonale carrée :

Si les entrées sont des nombres réels ou des nombres complexes , il s'agit également d'une matrice normale .

Dans la suite de cet article, nous ne considérerons que les matrices diagonales carrées et nous les appellerons simplement "matrices diagonales".

Matrice scalaire

Une matrice diagonale avec des entrées diagonales égales est une matrice scalaire ; soit un multiple scalaire λ de la Matrice identité I . Son effet sur un vecteur est une multiplication scalaire par λ . Par exemple, une matrice scalaire 3×3 a la forme :

Les matrices scalaires sont le centre de l'algèbre des matrices : c'est-à-dire qu'elles sont précisément les matrices qui commutent avec toutes les autres matrices carrées de même taille. En revanche, sur un corps (comme les nombres réels), une matrice diagonale avec tous les éléments diagonaux distincts ne commute qu'avec des matrices diagonales (son centralisateur est l'ensemble des matrices diagonales). C'est parce que si une matrice diagonale a alors donné une matrice avec le terme des produits sont : et et (puisqu'on peut diviser par ), alors ils ne commutent que si les termes hors diagonale sont nuls. Les matrices diagonales où les entrées diagonales ne sont pas toutes égales ou toutes distinctes ont des centreurs intermédiaires entre tout l'espace et uniquement les matrices diagonales.

Pour un espace vectoriel abstrait V (plutôt que l'espace vectoriel concret ), l'analogue des matrices scalaires sont des transformations scalaires . Ceci est vrai plus généralement pour un module M sur un anneau R , l' algèbre d'endomorphisme End( M ) (algèbre des opérateurs linéaires sur M ) remplaçant l'algèbre des matrices. Formellement, la multiplication scalaire est une application linéaire, induisant une application (d'un scalaire λ à sa transformation scalaire correspondante, multiplication par λ ) présentant End( M ) comme une R - algèbre . Pour les espaces vectoriels, les transformées scalaires sont exactement le centre de l'algèbre d'endomorphisme et, de même, les transformées inversibles sont le centre du groupe linéaire général GL( V ). Le premier est plus généralement de vrais modules libres , pour lesquels l'algèbre d'endomorphisme est isomorphe à une algèbre matricielle.

Opérations vectorielles

La multiplication d'un vecteur par une matrice diagonale multiplie chacun des termes par l'entrée diagonale correspondante. Étant donnés une matrice diagonale et un vecteur , le produit est :

Ceci peut être exprimé de manière plus compacte en utilisant un vecteur au lieu d'une matrice diagonale, , et en prenant le produit de Hadamard des vecteurs (produit d'entrée), noté :

Ceci est mathématiquement équivalent, mais évite de stocker tous les termes nuls de cette matrice creuse . Ce produit est ainsi utilisé en machine learning , comme le calcul de produits de dérivées en rétropropagation ou la multiplication de poids IDF en TF-IDF , car certains frameworks BLAS , qui multiplient efficacement les matrices, n'incluent pas directement la capacité produit Hadamard.

Opérations matricielles

Les opérations d'addition matricielle et de multiplication matricielle sont particulièrement simples pour les matrices diagonales. Écrivez diag( a 1 , ..., a n ) pour une matrice diagonale dont les entrées diagonales commençant dans le coin supérieur gauche sont a 1 , ..., a n . Ensuite, pour l'addition, nous avons

diag( a 1 , ..., a n ) + diag( b 1 , ..., b n ) = diag( a 1 + b 1 , ..., a n + b n )

et pour la multiplication matricielle ,

diag( a 1 , ..., a n ) diag( b 1 , ..., b n ) = diag( a 1 b 1 , ..., a n b n ) .

La matrice diagonale diag( a 1 , ..., a n ) est inversible si et seulement si les entrées a 1 , ..., a n sont toutes non nulles. Dans ce cas, nous avons

diag( un 1 , ..., un n ) -1 = diag( un 1 -1 , ..., un n -1 ) .

En particulier, les matrices diagonales forment un sous - anneau de l'anneau de l' ensemble n de n des matrices.

Multiplier une matrice n par n A à partir de la gauche avec diag( a 1 , ..., a n ) revient à multiplier la i ème rangée de A par a i pour tout i ; multiplier la matrice A par la droite avec diag( a 1 , ..., a n ) revient à multiplier la i ème colonne de A par a i pour tout i .

Matrice d'opérateurs en base propre

Comme expliqué dans la détermination des coefficients de la matrice de l' opérateur , il existe une base particulière, e 1 , ..., e n , dont la matrice se présente sous forme diagonale. Par conséquent, dans l'équation de définition , tous les coefficients avec ij sont nuls, ne laissant qu'un terme par somme. Les éléments diagonaux survivants, , sont appelés valeurs propres et désignés par dans l'équation, ce qui se réduit à . L'équation résultante est connue sous le nom d' équation aux valeurs propres et utilisée pour dériver le polynôme caractéristique et, en outre, les valeurs propres et les vecteurs propres .

En d' autres termes, les valeurs propres de diag ( X 1 , ..., λ n ) sont λ 1 , ..., λ n avec associés vecteurs propres de e 1 , ..., e n .

Propriétés

Applications

Les matrices diagonales se produisent dans de nombreux domaines de l'algèbre linéaire. En raison de la simple description de l'opération matricielle et des valeurs propres/vecteurs propres données ci-dessus, il est généralement souhaitable de représenter une matrice ou une carte linéaire donnée par une matrice diagonale.

En fait, une donnée n -by- n matrice A est similaire à une matrice diagonale ( ce qui signifie qu'il y a une matrice X de sorte que X -1 AX est diagonale) si et seulement si elle a n linéairement indépendants vecteurs propres. De telles matrices sont dites diagonalisables .

Dans le domaine des nombres réels ou complexes , plus est vrai. Le théorème spectral dit que chaque matrice normale est d'un seul tenant semblable à une matrice diagonale (si AA * = A * A alors il existe une matrice unitaire U de telle sorte que UAU * est diagonale). En outre, la décomposition de la valeur singulière implique que pour toute matrice A , il existe des matrices unitaires U et V tel que UAV * est diagonale avec des entrées positives.

Théorie des opérateurs

Dans la théorie des opérateurs , en particulier l'étude des EDP , les opérateurs sont particulièrement faciles à comprendre et les EDP faciles à résoudre si l'opérateur est diagonal par rapport à la base avec laquelle on travaille ; cela correspond à une équation aux dérivées partielles séparable . Par conséquent, une technique clé pour comprendre les opérateurs est un changement de coordonnées - dans le langage des opérateurs, une transformation intégrale - qui change la base en une base propre de fonctions propres : ce qui rend l'équation séparable. Un exemple important de ceci est la transformée de Fourier , qui diagonalise les opérateurs de différenciation à coefficient constant (ou plus généralement les opérateurs invariants de translation), tels que l'opérateur laplacien, disons, dans l' équation de la chaleur .

Les opérateurs de multiplication sont particulièrement simples , définis comme la multiplication par (les valeurs d') une fonction fixe - les valeurs de la fonction en chaque point correspondent aux entrées diagonales d'une matrice.

Voir également

Remarques

Les références

Sources