Diagonalisation des matrices

Sommaire

Introduction
Vocabulaire
Propriétés
Cas particulier : une seule valeur propre
Calcul des valeurs propres : le polynôme caractéristique
Trouver les sous-espaces propres
Récapitulatif des cas particuliers
Exercices

Introduction

Nous allons voir dans ce chapitre une des principales applications des matrices : la diagonalisation.
La diagonalisation des matrices est en effet très courante dans les exercices ou les sujets portant sur les matrices.
Nous verrons aussi à quoi sert la diagonalisation d’une matrice.
Après une première partie assez théorique axée sur le vocabulaire, nous verrons concrètement comment diagonaliser une matrice, et les vidéos disponibles en fin de chapitre t’aideront encore plus à comprendre !
A noter que pour bien comprendre ce chapitre, il faut déjà maîtriser les bases des matrices, ce pourquoi tu es vivement encouragé à regarder d’abord les chapitres correspondant.

Vocabulaire

Saches tout d’abord qu’on ne peut diagonaliser que des matrices carrées, donc toutes les matrices que l’on cherchera à diagonaliser seront carrées (on ne le précisera donc pas à chaque fois).

Mais diagonaliser une matrice, qu’est-ce-que cela signifie ?
Si l’on a une matrice M, diagonaliser cette matrice revient à chercher une matrice diagonale D ainsi qu’une matrice inversible P telle que :

Autrement dit, on cherche une base dans laquelle la matrice M est diagonale.
La matrice P est alors la matrice de changement de base (ce pourquoi elle est inversible).

En fait, M est la représentation matricielle d’un endomorphisme dans une base E, et D la représentation de ce même endomorphisme dans une base F. P est donc la matrice de passage de E dans F (voir le chapitre sur les matrices de passage pour plus de précisions).

Parlons maintenant de ce que l’on appelle les éléments propres.
Les éléments propres sont les valeurs propres, les vecteurs propres et les sous-espaces propres associés aux valeurs propres..

Une valeur propre est un scalaire (souvent un réel) : elle est souvent notée λ.
Un vecteur propre est un vecteur colonne, il est souvent noté X.
Un sous-espace propre est un espace vectoriel, il est souvent noté Eλ s’il est associé à la valeur propre λ.


Remarque : parfois pour abréger, certains écrivent VP, mais cela peut signifier… Vecteurs propres ou Valeurs propres !!!
Afin de ne pas confondre, vecteur propre est noté VP (avec un V majuscule) car les vecteurs colonnes sont généralement notés avec une lettre majuscule comme X, tandis que valeur propre est noté vP (avec un v minuscule) car les scalaires sont généralement notés en minuscule comme λ.
Pour ne pas t’embrouiller la tête nous ne ferons pas d’abréviation dans la suite du cours

Une valeur propre ne peut pas exister sans vecteur propre et réciproquement.
En effet, si on a une valeur propre λ associée au vecteur propre X, on a :

Le vecteur propre et la valeur propre sont reliés par cette égalité.

Mathématiquement, on peut donner les définitions suivantes :


X est un vecteur propre de M si X ≠ 0 et s’il existe un réel λ tel que MX = λX.

A noter qu’un vecteur propre est nécessairement NON NUL !!! (X ≠ 0)
En effet, si on dit que X est le vecteur nul, alors MX = 0 pour tout M, et λX = 0 quel que soit λ, donc le vecteur nul serait un vecteur propre pour toutes les matrices avec tous les réels comme valeurs propres, ce qui n’a pas beaucoup d’intérêt ni de sens…
Pour les valeurs propres :


λ est une valeur propre de M s’il existe un vecteur X non nul tel que MX = λX.

On retrouve ici le fait que le vecteur X doit être non nul…

A noter que pour une même matrice M, il peut bien sûr y avoir plusieurs vecteurs propres et plusieurs valeurs propres.
De plus, une valeur propre possède plusieurs vecteurs propres.
En effet, si on a un vecteur propre X, tous les vecteurs proportionnels à X sont vecteurs propres associés à la même valeur propre.
En effet, supposons que MX = λX et prenons un réel k non nul.
Alors k MX = k λ X
D’où M(kX) = λ(kX)
Donc kX est un vecteur propre associé à la valeur propre λ !

Ainsi, une valeur propre possède une infinité de vecteurs propres ! (puisque k peut être n’importe quel réel non nul, car si k est nul kX = 0 et on a vu que le vecteur nul n’était pas un vecteur propre).

En revanche, un vecteur propre ne peut être associé qu’à une seule valeur propre.
En effet, supposons que vecteur X soit associé à deux valeurs propres différentes λ1 et λ2.
On a donc MX = λ1X et MX = λ2X
D’où λ1X = λ2X, d’où λ1 = λ2, ce qui contredit le fait que λ1 et λ2 soient différentes.

Imaginons maintenant que l’on ait une valeur propre λ associée à un vecteur propre X, si on note Id la matrice identité :

Ainsi X ∈ Ker (M – λ Id).

On en déduit que Ker (M – λ Id) ≠ {0}, donc M – λ Id n’est pas inversible.

La réciproque se montre assez facilement (tu peux t’entraîner à le faire ).

On en déduit le théorème suivante :


λ est une valeur propre de M si et seulement si M – λ Id n’est pas inversible.

Cela peut parfois servir dans les exercices…

Parlons maintenant des sous-espaces propres.
Prenons une valeur propre λ. Il y a au moins un vecteur propre associé par définition.
Mais on a vu précédemment qu’il y a plusieurs vecteurs propres (tous ceux proportionnels à un vecteur propre).
Tous ces vecteurs propres sont rassemblés dans un espace vectoriel appelé sous-espace propre et noté Eλ.

On a donc par définition :

A noter que le vecteur nul fait partie de Eλ (car M × 0 = λ × 0) mais n’est pourtant pas un vecteur propre.
On peut donc dire que le sous-espace propre contient l’ensemble des vecteurs propres ainsi que le vecteur nul.

De la même manière que l’on regroupe l’ensemble des vecteurs propres d’une même valeur propre, on regroupe l’ensemble des valeurs propres d’une même matrice.


L’ensemble des valeurs propres d’une matrice est appelé le spectre de la matrice.

Le spectre d’une matrice M est noté Sp(M).
Si par exemple les valeurs propres de M sont 6 et 15, on a Sp(M) = {6 ; 15}

Retiens bien tout ce vocabulaire car il ne faut pas tout mélanger !
Nous verrons plus tard comment calculer les valeurs propres, les vecteurs propres et les espaces propres associés, mais voyons d’abord certaines propriétés liées à la diagonalisation.



Propriétés

Haut de page

Il faut tout d’abord remarquer que toutes les matrices ne sont pas diagonalisables. Nous allons donc voir à quelles conditions une matrice est diagonalisable.

Le raisonnement va se baser sur les sous-espaces propres qui, rappelons-le, est constitué de vecteurs propres (et du vecteur nul).
Ces sous-espaces propres étant des espaces vectoriels, ils ont une dimension, et on peut trouver une base constituée par définition d’autant de vecteurs que la dimension de cet espace.
Par exemple, si on a un sous-espace de dimension 3, on peut trouver une base constituée de 3 vecteurs, si on a un sous-espace de dimension 5, il existe une base constituée de 5 vecteurs etc…

La plupart du temps, le sous-espace propre sera de dimension 1 ou 2.

Les vecteurs des bases de ces sous-espaces sont bien évidemment des vecteurs propres (puisqu’ils appartiennent au sous-espace propre).

La matrice de passage P dont nous avons parlé précédemment sera en fait constituée de vecteurs propres, et même mieux des vecteurs des bases des sous-espaces propres !

Si la matrice est de dimension n, il faut donc n vecteurs propres libres afin de constituer la matrice P, et pour cela il faudra concaténer (c’est-à-dire regrouper) les bases de chaque sous-espace propre.

En effet, un premier théorème nous dit que :


Des vecteurs propres associés à des valeurs propres distinctes forment une famille libre.

Une première conséquence est que si l’on a n valeurs propres distinctes, on aura n vecteurs propres distincts libres qui formeront une base et constitueront la matrice P, et M sera alors diagonalisable !
D’où le théorème suivant :


Si une matrice M de dimension n possède n valeurs propres distinctes, alors elle est diagonalisable.
En regroupant un vecteur propre de chaque valeur propre, on obtient une base qui permet de former la matrice P.

Oui mais comment choisir le vecteur propre associée à une valeur propre ?
On a vu qu’il y en avait une infinité, mais il y a un point important à remarquer : si M a n valeurs propres distinctes, chaque sous-espace propre associé est de dimension 1 !
En effet, on a la propriété suivante :


La somme des dimensions des sous-espaces propres est inférieure ou égale à n (la dimension de l’espace total).

Ainsi, comme on a n sous-espaces propres de dimension au moins égale à 1, aucun ne peut avoir une dimension supérieure à 1 sinon au total la somme des dimensions des sous-espaces propres dépasserait n, ce qui contredirait la propriété ci-dessus.

On en conclut que si M a n valeurs propres distinctes, chaque sous-espace propre est de dimension 1, et comme il faut prendre une base de chaque sous-espace propre on ne prend qu’un seul vecteur propre de chaque sous-espace (celui que l’on veut, le plus simple étant le mieux^^).

Mais que vaut dans ce cas la matrice D ?
Ce sera une matrice diagonale dont la diagonale sera constituée des valeurs propres de M.

Oui mais dans quel ordre ?
Dans le même ordre que celui des vecteurs propres pour la matrice P !

Prenons un exemple : soit la matrice M de taille 3 x 3 suivante :

\Huge  M = \begin{pmatrix} 0 & 2 & -1 \\ 3 & -2 & 0 \\ -2 & 2 & 1 \end{pmatrix}

Une étude préalable nous permettrait de montrer que les valeurs propres sont 1 ; 2 et -4 : on a donc bien 3 valeurs propres distinctes d’un espace de dimension 3, donc M est diagonalisable.
En cherchant, on trouverait que des vecteurs propres associés à ces valeurs propres sont :

\Huge  X = \begin{pmatrix} 1 \\ 1 \\ 1\end{pmatrix} \, et \,   \Huge  Y = \begin{pmatrix} 4 \\ 3 \\ -2\end{pmatrix} \, et \,   \Huge  Z = \begin{pmatrix} 2 \\ -3 \\ 2\end{pmatrix}
(tu peux calculer pour vérifier si tu veux !)

X est associé à 1, Y à 2 et Z à – 4.
Si on prend comme matrice P les vecteurs X, Y et Z dans cet ordre, la matrice D sera la matrice diagonale 1, 2 et – 4 dans cet ordre.
Si en revanche on prend Z, X, Y comme ordre pour P, on aura – 4, 1 et 2 pour D.
Comme tu le vois, rien de compliqué, il faut garder le même ordre pour P et pour D :

avec

\Huge  P = \begin{pmatrix} 1 & 4 & 2 \\ 1 & 3 & -3 \\ 1 & -2 & 2 \end{pmatrix}

\Huge  D = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & -4 \end{pmatrix}

Bien sûr il y a plusieurs possibilités pour P et D : si on change l’ordre des vecteurs de P, on change l’ordre des coefficients diagonaux de D.

Tout ce que l’on a vu jusqu’à présent est valable si M a n valeurs propres distinctes.
Voyons maintenant ce qui se passe si ce n’est pas le cas.

Le raisonnement va être basé sur le théorème suivant :


Une matrice M de dimension n est diagonalisable si et seulement si la somme des dimensions des sous-espaces propres est n.
La concaténation des bases des sous-espaces propres forme alors une base de vecteurs propres de l’espace (qui pourra servir à former la matrice P).

Il faut donc trouver tous les sous-espaces propres et additionner leurs dimensions pour savoir si une matrice est diagonalisable ou pas.

Prenons par exemple une matrice 3 x 3 notée M.
On nous dit que les valeurs propres sont 4 et 9.
Il n’y a donc que 2 valeurs propres pour un espace de dimension 3.
Nous avons alors 3 solutions :
– les sous-espaces propres de 4 et 9 sont de dimension 1 : la somme des dimensions est donc 2 qui n’est pas égal à 3 : la matrice M n’est pas diagonalisable.
– le sous-espace propre de 4 est de dimension 2 et celui de 9 de dimension 1 : la somme des dimensions est donc 3 : la matrice M est diagonalisable.
– le sous-espace propre de 4 est de dimension 1 et celui de 9 de dimension 2 : la somme des dimensions est donc 3 : la matrice M est diagonalisable.

Attention qu’ici un sous-espace propre ne peut être de dimension 3 car l’autre étant au moins égal à 1, la somme serait au moins de 4, ce qui contredit une propriété vue précédemment (la somme des dimensions des sous-espaces propres est inférieure ou égale à n).
De même, chaque sous-espace propre ne peut être de dimension 2 pour les mêmes raisons (la somme des dimensions ferait 4).

Si M est diagonalisable, que vaut alors la matrice D ??
Comme précédemment, c’est une matrice diagonale avec sur sa diagonale les valeurs propres.
Sauf que si un sous-espace propre est de dimension 4 par exemple, sa base sera constituée de 4 vecteurs : la matrice P aura donc 4 vecteurs associés à une même valeur propre. Cette valeur propre sera donc présente 4 fois dans la matrice D.

Exemple :

\Huge  M = \begin{pmatrix} 3 & 0 & -1 \\ 2 & 4 & 2 \\ -1 & 0 & 3 \end{pmatrix}

Une étude permettrait de déterminer que les valeurs propres sont 2 et 4, et que le sous-espace propre associé à 2 (E1) est de dimension 1, et que le sous-espace propre associé à 4 (qui est noté E4) est de dimension 2.
La somme des dimensions vaut 3, comme la dimension de l’espace, donc la matrice est diagonalisable.
On pourrait montrer que les vecteurs X et Y suivants forment une base de E4 :

\Huge  X = \begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix} \, et \,  Y = \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}

De même, le vecteur Z suivant forme une base de E2 :

\Huge  Z = \begin{pmatrix} 1 \\ -2 \\ 1 \end{pmatrix}

On a alors deux possibilités :
– mettre dans P d’abord X et Y, puis Z, et alors D aura sur sa diagonale dans l’ordre 4, 4 et 2.
– mettre dans P d’abord Z, puis X et Y et alors D aura sur sa diagonale dans l’ordre 2, 4 et 4.
Par exemple :

\Huge  P = \begin{pmatrix} 1 & 0 & 1\\ 0 & 1 & -2 \\ -1 & 0 & 1 \end{pmatrix}

\Huge  D = \begin{pmatrix} 4 & 0 & 0 \\ 0 & 4 & 0 \\ 0 & 0 & 2 \end{pmatrix}

On pourrait aussi imaginer que dans P on ne mette pas X et Y l’un à côté de l’autre mais comme ils font partie du même sous-espace propre cela a peu d’intérêt (mais c’est mathématiquement faisable).

Il nous reste maintenant à voir comment calculer les valeurs propres, et trouver les vecteurs propres et sous-espaces propres !

Mais avant cela, voyons un cas particulier.



Cas particulier : une seule valeur propre

Haut de page

Le cas particulier que nous allons voir se retrouve souvent en exercice, et on demande souvent à le redémontrer.

Il s’agit du cas où une matrice M n’a qu’une seule valeur propre λ.
D’après ce que l’on vient de voir, cette matrice n’est diagonalisable que si le sous-espace propre associé est de dimension n.
Si tel est le cas, on prend une base de ce sous-espace et les vecteurs de cette base constituent la matrice P. La matrice D n’est donc composée que de λ sur sa diagonale :

\Huge  D =\begin{pmatrix} \lambda & 0 & 0 \\ 0 & \ddots & 0\\ 0 & 0 & \lambda \\ \end{pmatrix}

D’où :

Ainsi :


(retiens bien cette démonstration, elle est facile et peut t’être demandée en exercice…)

On trouve ainsi que M est une matrice diagonale qui est déjà égale D !!
Cela signifie que :


Une matrice M ayant une unique valeur propre n’est diagonalisable que si elle est déjà diagonale avec cette unique valeur propre sur toute sa diagonale

Il n’y a donc pas d’intérêt à la diagonaliser puisqu’elle est déjà diagonale !!!

En réalité, c’est plus la contraposée qui est intéressante ici :


Si une matrice M non diagonale a une unique valeur propre, alors elle n’est pas diagonalisable.

Ainsi, si on a une matrice M quelconque (non diagonale) et qu’après calcul on trouve qu’elle n’a qu’une seule valeur propre, pas besoin de chercher les vecteurs propres, il suffit d’utiliser la propriété précédente pour dire qu’elle n’est pas diagonalisable.

Voyons maintenant comment calculer les valeurs propres et les vecteurs propres associés.

Calcul des valeurs propres : le polynôme caractéristique

Haut de page

Pour calculer les valeurs propres d’une matrice M, il faut calculer ce que l’on appelle le polynôme caractéristique de M.
Ce polynôme, dont la variable est λ, est noté χM(λ) (χ est la lettre grecque chi), et est défini par

M – λ Id correspond à la matrice M avec des – λ sur la diagonale.
En calculant ce déterminant, on obtient un polynôme dont la variable est λ (voir le cours sur le déterminant pour avoir plus de précisions sur la manière de calculer ce déterminant).

On a alors la propriété suivante extrêmement importante :


Les valeurs propres de M sont les racines de son polynôme caractéristique :
λ valeur propre de M ⇔ det(M – λ Id) = 0

Ainsi, en trouvant les racines du polynôme caractéristique, on trouve les valeurs propres !

Prenons un exemple :

\Huge  A = \begin{pmatrix} 1 & 4 \\ 1 & 1 \end{pmatrix}

Cherchons les valeurs propres de A. On calcule le polynôme caractéristique :

\Huge  det(A - \lambda Id) = \begin{vmatrix} 1 - \lambda & 4 \\ 1 & 1 - \lambda \end{vmatrix}

Un rapide calcul (tu peux t’entraîner à le faire) montrerait que les racines du polynôme sont -1 et 3, donc les valeurs propres de A sont -1 et 3 !

Une fois les racines trouvées, on peut alors calculer les dimensions des sous-espaces propres et vérifier que la somme est égale à la dimension de l’espace (ou pas).
Mais il est judicieux de factoriser le polynôme caractéristique à partir de ses racines.

On rappelle en effet que :


Si a est une racine d’un polynôme, on peut factoriser ce polynôme par (x – a).
Ici la variable du polynôme caractéristique étant λ on factorisera le polynôme par (λ – a).
Attention, si on a (λ – 7), la racine est 7, si on a (λ + 8), la racine est -8…

Pour l’exemple ci-dessus, on pourrait montrer facilement que det(A – λ Id) = (λ – 3)(λ + 1)

Mais il arrive que certaines racines soient, doubles, triples, quadruples etc…
Cela arrive quand le terme (λ – a) est à une certaine puissance, cette puissance est appelée la multiplicité de la racine, et est noté m(a).

Si on a par exemple det(A – λ Id) = (λ – 4)2(λ – 6)3(λ + 7) :
4 est racine double (autrement dit 4 est racine de multiplicité 2 : m(4) = 2)
6 est racine triple (autrement dit 6 est racine de multiplicité 3 : m(6) = 3)
-7 est racine simple (autrement dit -7 est racine de multiplicité 1 : m(-7) = 1)

Il y a alors une définition importante à connaître : les polynômes scindés (nous allons voir maintenant quelques règles sur les polynômes puis nous ferons le lien avec la diagonalisation, donc ne t’étonnes pas si tu as l’impression que l’on s’éloigne un peu des matrices )

Un polynôme est dit scindé s’il peut se mettre sous la forme d’un produit de polynômes de degré 1.

Par exemple : (λ – 4)2(λ – 6)3(λ + 7) est scindé.
En revanche, (λ2 + 2λ + 9)(λ + 5) n’est pas scindé car on ne peut pas factoriser λ2 + 2λ + 9 (en tout cas dans les réels, car son Δ est strictement négatif).

De manière générale, et si on prend comme variable x et non λ :


Un polynômes est dit scindé sur le corps \mathbb{K} s’il peut s’écrire sous forme d’un produit de polynômes de degré 1 :
P(x) = α(x – x1)(x – x2)(x – x3)…(x – xn)
avec α, x1, x2… éléments de \mathbb{K} , et n le degré de P.
ATTENTION à ne pas oublier le α !!! (qui est le coefficient dominant)

De manière évidente, chaque xi est une racine de P (si on remplace x par xi, un des facteurs sera nul et donc P(xi) sera nul).
Si certains xi sont identiques, on les regroupe, ce qui donne une multiplicité de 2, 3, 4 etc…

En revanche, si tous les xi sont différents, on dit que le polynômes est scindé à racines simples (autrement dit la multiplicité de chaque racine est 1) :
(x – 3)(x + 7)(x – 4) est scindé à racines simples
(x – 3)2(x + 7)(x – 4)9 est scindé mais n’est pas à racines simples

Enfin, on pourrait démontrer de manière assez simple (entraîne-toi à le faire) que la somme des multiplicités des racines d’un polynôme scindé est égale au degré du polynôme :


Pour un polynôme P scindé, en appelant λi les racines de P :

Cependant, les polynômes ne sont pas tous scindés : s’ils ne sont pas scindés, ils s’écriront comme le produit d’un polynôme scindé et d’un ou plusieurs polynômes de degré 2.

Par exemple :
P(x) = (x – 5)2(x – 7)4(x2 + 2x + 7)(x2 + 3x + 5)
x2 + 2x + 7 et x2 + 3x + 5 n’ont pas de racine réelle, donc ils ne sont pas factorisables dans \mathbb{R} , donc P n’est pas scindé dans \mathbb{R} .

Mais dans \mathbb{C} , x2 + 2x + 7 et x2 + 3x + 5 ont des racines complexes et sont donc factorisables : le polynôme est alors scindé dans \mathbb{C} !
Cela reste vrai pour tous les polynômes de degré 2 dans \mathbb{C} , ils ont tous des racines (réelles ou complexes) et on peut les factoriser, ce qui permet d’avoir des polynômes scindés. D’où la propriété :


Dans \mathbb{C} , tous les polynômes sont scindés !

Il est donc important de savoir si l’on travaille dans \mathbb{R} ou dans \mathbb{C} car on verra que pour une même matrice la conclusion n’est pas du tout la même selon le cas !!

Mais quel est le rapport de tout cela avec la diagonalisation ??
Nous avons vu que les racines du polynôme caractéristique d’une matrice étaient les valeurs propres de cette matrice.

Deux cas peuvent alors se présenter :
– soit le polynôme caractéristique n’est pas scindé, et alors la matrice n’est pas diagonalisable
– soit le polynôme caractéristique est scindé, et alors la matrice PEUT être diagonalisable, mais pas forcément.

Nous allons donc étudier le cas où le polynôme est scindé.
Dans ce cas, il y a plusieurs valeurs propres λi, avec chacune une multiplicité m(λi), et un sous-espace propre associé Eλi.
Ce sous-espace propre étant un espace vectoriel, il y a une dimension : dim(Eλi).
Pour que la matrice soit diagonalisable, il faut (et il suffit) que la dimension de chaque sous-espace propre soit égale à la multiplicité de la valeur propre :


A est diagonalisable sur \mathbb{K} ⇔ son polynôme caractéristique est scindé sur \mathbb{K} et pour chaque valeur propre λ de A, m(λ) = dim(Eλ).

Ce théorème est extrêmement important (voire le plus important du chapitre) car c’est sur lui que va se baser tout le raisonnement sur la diagonalisation !


A noter : dans l’énoncé ci-dessus il est précisé sur \mathbb{K} car, comme on l’a vu précédemment, un polynôme peut être scindé sur \mathbb{C} mais pas sur \mathbb{R} .
Ainsi une matrice peut être diagonalisable sur \mathbb{C} mais pas sur \mathbb{R} , donc attention à l’énoncé de l’exercice !

Remarque : on a vu précédemment que pour un polynôme scindé, la somme des multiplicité était égale au degré de P.
Or si la multiplicité est égale à la dimension du sous-espace, cela signifie que la somme des dimensions des sous-espaces est égale est égale au degré de P, qui est lui-même égal à la dimension de l’espace total : on retrouve le théorème vu précédemment : une matrice M de dimension n est diagonalisable si et seulement si la somme des dimensions des sous-espaces propres est n.
La boucle est bouclée !

Autre propriété importante : la dimension d’un sous-espace propre est au moins égale à 1 (puisqu’il y a au moins un vecteur propre non nul), et au plus égale à la multiplicité de la valeur propre :

Conséquence : si multiplicité d’une racine est 1, son sous-espace propre est obligatoirement de dimension 1 (c’est le cas le plus simple, si la multiplicité n’est pas 1 il va falloir calculer la dimension du sous-espace propre…).

Ainsi, après avoir calculé le polynôme caractéristique et trouvé les valeurs propres, il faut factoriser le polynôme afin de connaître la multiplicité de chacune d’elle.
Si la multiplicité est 1 : pas de problème, la dimension du sous-espace propre est 1 (donc égale à la multiplicité de la valeur propre)
Si la multiplicité est supérieure à 1 : il faut calculer la dimension du sous-espace propre :
– si pour chaque valeur propre, la dimension du sous-espace propre est égale à la multiplicité, alors la matrice est diagonalisable
– si au moins un des sous-espaces propres a une dimension inférieure à la multiplicité, la matrice n’est pas diagonalisable.

Exemple :
Si det(A – λ Id) = (λ – 5)2(λ – 7)4(λ + 12)
-12 est racine simple : pas de problème
5 est racine double : il faut calculer la dimension de E5
7 est racine de multiplicité 4 : il faut calculer la dimension de E7

Si dim(E5) = 2 ET dim(E7) = 4, alors la matrice A est diagonalisable, sinon elle ne l’est pas.

Maintenant, il ne reste plus qu’à savoir comment calculer la dimension des sous-espaces propres et en trouver une base !

Trouver les sous-espaces propres

Haut de page

On rappelle qu’un sous-espace propre d’une valeur propre λ est noté Eλ et est l’ensemble constitué des vecteurs propres d’une valeur propre ainsi que du vecteur nul.
Pour trouver ces vecteurs propres, on va tout simplement résoudre un système obtenu grâce à l’égalité MX = λ X.

Prenons un exemple vu précédemment :

\Huge  M = \begin{pmatrix} 3 & 0 & -1 \\ 2 & 4 & 2 \\ -1 & 0 & 3 \end{pmatrix}

On pourrait calculer le polynôme caractéristique et montrer que les valeurs propres sont 2 et 4 (entraîne-toi à le faire).
Tu devrais trouver comme polynôme caractéristique : (2 – λ)(λ – 4)2
2 est racine simple, on sait que son sous-espace propre est de dimension 1, on va donc se focaliser sur 4 qui est racine double (donc son sous-espace propre peut être de dimension 1 ou 2).
Pour trouver le sous-espace propre associé à la valeur propre 4, on résout :
MX = 4X (car λ = 4).
Comme M est de taille 3 x 3, X est un vecteur colonne 3 x 1 :

\Huge  \begin{pmatrix} 3 & 0 & -1 \\ 2 & 4 & 2 \\ -1 & 0 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix}  = 4 \begin{pmatrix} x \\ y \\ z \end{pmatrix}

\Huge  \begin{pmatrix} 3x - z \\ 2x + 4y + 2z \\ -x + 3z \end{pmatrix}  = \begin{pmatrix} 4x \\ 4y \\ 4z \end{pmatrix}

Après résolution, on obtient :

Ce qui se résume finalement à une seule équation : z = -x, soit x + z = 0
Comme on est dans un espace de dimension 3, on sait d’après le cours sur la géométrie dans l’espace qu’il s’agit d’un plan (de vecteur normal (1 ; 0 ; 1)) : c’est donc un espace de dimension 2 !

Ainsi, 4 est racine double du polynôme caractéristique et dim(E4) = 2, et on a vu que 2 est racine simple avec dim(E2) = 1 : la matrice M est donc diagonalisable !

Comme tu le vois, trouver la dimension d’un sous-espace propre revient à résoudre un système.

Une fois la dimension trouvée, il ne reste plus qu’à trouver une base, composée d’autant de vecteurs libres que la dimension.
Comme dim(E4) = 2, une base de E4 sera composée de 2 vecteur libres.
Pour les trouver on va utiliser la résolution du système précédent, on avait trouvé z = -x.
Il faut donc prendre deux vecteurs LIBRES vérifiant cette équation, par exemple :

\Huge  X = \begin{pmatrix} 1 \\ 0 \\ -1 \end{pmatrix} et Y = \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}

Il est assez évident que X et Y sont libres.
Il y a évidemment une infinité de possibilités pour choisir X et Y, du moment qu’ils sont libres tu peux prendre ceux que tu veux !

Il faut maintenant faire la même chose pour E2, on commence donc par résoudre le système :
MX = 2X

\Huge  \begin{pmatrix} 3 & 0 & -1 \\ 2 & 4 & 2 \\ -1 & 0 & 3 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix}  = 2 \begin{pmatrix} x \\ y \\ z \end{pmatrix}

\Huge  \begin{pmatrix} 3x - z \\ 2x + 4y + 2z \\ -x + 3z \end{pmatrix}  = \begin{pmatrix} 2x \\ 2y \\ 2z \end{pmatrix}

D’où le système :

Ce qui donne :

On peut supprimer la dernière ligne qui est la même que la première :

On retrouve bien une droite vectorielle, de dimension 1.
Comme base il ne faut donc qu’un seul vecteur vérifiant e système, on prend par exemple :

\Huge  Z = \begin{pmatrix} 1 \\ -2 \\ 1 \end{pmatrix}

A partir de cela, on peut former la matrice diagonale D ainsi que la matrice de passage P à partir des bases trouvées, à savoir les vecteurs X, Y et Z :

\Huge  P = \begin{pmatrix} 1 & 0 & 1\\ 0 & 1 & -2 \\ -1 & 0 & 1 \end{pmatrix}

Comme les deux premiers vecteurs appartiennent à E4, les deux premiers coefficients de D seront 4, et comme le troisième vecteur appartient à E2, le 3ème coefficient de D sera 2 :

\Huge  D = \begin{pmatrix} 4 & 0 & 0\\ 0 & 4 & 0 \\ 0 & 0 & 2 \end{pmatrix}

Le schéma ci-dessous représente la correspondance entre les colonnes de P et les coefficients de D :

On aurait très bien pu mettre Z en premier puis X et Y dans P, mais alors l’ordre des coefficients de D aurait changé :
Si

\Huge  P = \begin{pmatrix} 1 & 1 & 0\\ -2 & 0 & 1 \\ 1 & -1 & 0 \end{pmatrix}

Alors

\Huge  D = \begin{pmatrix} 2 & 0 & 0\\ 0 & 4 & 0 \\ 0 & 0 & 4 \end{pmatrix}

Dans les deux cas, on a la relation M = PDP -1, ce qui termine la diagonalisation de la matrice !

EN RÉSUMÉ :
Pour diagonaliser une matrice :
1) On commence par calculer le polynôme caractéristique en le factorisant au maximum : les racines correspondent aux valeurs propres.
2) S’il n’est pas scindé, la matrice n’est pas diagonalisable.
S’il est scindé, on calcule les sous-espaces propres de chaque valeur propre, en terminant par celles dont la multiplicité est 1 (car elles ne posent pas problème) : on obtient des bases de chaque sous-espace.
3) Si la multiplicité de chaque racine correspond à la dimension du sous-espace propre, alors la matrice est diagonalisable et en regroupant les bases obtenues précédemment on forme la matrice P. On forme ensuite la matrice D comme vu ci-dessus.
Si en revanche on trouve qu’un sous-espace propre n’a pas la même dimension que la multiplicité de la racine, alors cela ne sert à rien de continuer car la matrice ne sera pas diagonalisable (enfin tu peux continuer évidemment mais tout dépend de la question de l’énoncé : si tu cherches juste à savoir si la matrice est diagonalisable ou non, cela ne sert à rien de continuer).

Ces trois étapes forment la méthode générale pour diagonaliser une matrice, mais il existe des cas particuliers plus rapides permettant de savoir si une matrice est diagonalisable ou non et qu’il faut impérativement connaître !



Récapitulatif des cas particuliers

Haut de page

Nous avons regroupé ici tous les cas particuliers que tu peux rencontrer dans les exercices.
Certains ont déjà été évoqués précédemment mais il a paru bon de les rappeler afin de te faire une idée précise de ces différents cas particuliers qui se retrouvent très souvent en exercice !!

1er cas particulier :


Si une matrice est diagonale ou triangulaire, alors les valeurs propres sont les éléments diagonaux de la matrice.

Exemple :

\Huge  A = \begin{pmatrix} 4 & 5 & 9 \\ 0 & 3 & 5 \\ 0 & 0 & 4 \end{pmatrix}

Il s’agit d’une matrice triangulaire, donc les valeurs propres sont 4 et 3.

2ème cas particulier :


Si une matrice A a autant de valeurs propres que la dimension de l’espace, alors A est diagonalisable.
Cela peut aussi se dire : si le polynôme caractéristique de A est scindé à racines simples, alors A est diagonalisable (la multiplicité de chaque racine est 1).

Exemple : A est une matrice 4 x 4 et det(A – λ Id) = 4(λ – 2)(λ – 7)(λ + 9)(λ – 12)
det(A – λ Id) est scindé à racines simples donc A est diagonalisable.

On peut combiner les 2 cas particuliers !
Exemple : A est une matrice 4 x 4 et :

\Huge  A = \begin{pmatrix} 1 & 2 & 3 & 4 \\ 0 & 5 & 9 & 6 \\ 0 & 0 & 8 & 4 \\ 0 & 0 & 0& 7 \end{pmatrix}

A est triangulaire, ses valeurs propres sont ses coefficients diagonaux : 1, 5, 8 et 7 : A possède 4 valeurs propres et est une matrice d’un espace de dimension 4, donc A est diagonalisable.

3ème cas particulier :
C’est le cas que l’on a vu précédemment :


Une matrice M ayant une unique valeur propre n’est diagonalisable que si elle est déjà diagonale avec cette unique valeur propre sur toute sa diagonale.

Mais c’est plus la contraposée qui est intéressante ici :


Si une matrice M non diagonale a une unique valeur propre, alors elle n’est pas diagonalisable.

Autrement dit, si une matrice M a une unique valeur propre k, et qu’elle n’est pas égale à k Id, alors elle n’est pas diagonalisable.

Encore une fois on peut combiner avec les cas particuliers précédents.
Exemple :

\Huge  A = \begin{pmatrix} 8 & 5 & 2 \\ 0 & 8 & 6 \\ 0 & 0 & 8 \end{pmatrix}

A est triangulaire, ses valeurs propres sont ses coefficients diagonaux : 8.
Il n’y a donc qu’une seule valeur propre, mais A n’est pas égal à 8 Id donc A n’est pas diagonalisable.

4ème cas particulier :


Si une matrice A est symétrique et réelle, alors elle est diagonalisable.

ATTENTION il faut que les coefficients de la matrice soient réels !!! Sinon cela ne marche pas…
On rappelle que matrice est symétrique si elle est égale à sa transposée : tA = A.

Il faut faire beaucoup d’exercices sur ce chapitre pour bien le maîtriser, d’autant plus qu’il est très important.

Exercices

Haut de page

Tu trouveras sur cette page tous les exercices sur la diagonalisation de matrices !

Retour au sommaireHaut de la page