Les matrices

Sommaire

Introduction
Taille d’une matrice
L’addition de matrices
La multiplication de matrices
Autres propriétés
Puissance de matrices : binôme de Newton
Matrices nilpotentes
La transposée
La matrice inverse
Matrice et système linéaire
Trace d’une matrice
Exercices

Introduction

Ce chapitre va traiter d’un domaine très important : les matrices !
Ce chapitre sera traité sous l’angle post-bac, donc si tu es en Terminale, certaines notions ci-dessous ne te seront pas utiles si ce n’est pour ta culture personnelle. Ne t’inquiète pas, les choses que tu dois savoir faire en Terminale te seront précisées
Si en revanche tu es en études post-bac, tout ce qui suit doit être absolument su ! Les matrices se retrouvent en effet dans de nombreux autres chapitres (espaces vectoriels, polynômes etc…).
Ce chapitre constitue la base des matrices, mais d’autres chapitres traiteront également des matrices sous un autre angle (diagonalisation, calcul de déterminant etc…).

Taille d’une matrice

Tout d’abord, qu’est-ce qu’une matrice ?
Une matrice est en fait un tableau, par exemple ce qui suit est une matrice :

\Huge  \begin{pmatrix} 2 & 5 & 4 \\ 7 & -6 & 1\end{pmatrix}

Cette matrice est composée de lignes et de colonnes, ici on a 2 lignes et 3 colonnes. On dit alors que c’est une matrice 2 x 3 : cela correspond à la taille de la matrice, on parle aussi de dimension de la matrice.


Quand on parle de la taille d’une matrice, le premier chiffre correspond toujours au nombre de lignes et le deuxième au nombre de colonnes.
Il en va de même pour les coefficients (voir ci-dessous)

L’ensemble des matrices est noté M_{n,p}(\mathbb{K}) , où \mathbb{K} est un corps (souvent \mathbb{R} ou \mathbb{C}).
Cela correspond donc aux matrices de n lignes et p colonnes. Et tous les coefficients de la matrice appartiennent au corps \mathbb{K}
Ainsi la matrice de l’exemple ci-dessus appartient à M_{2,3}(\mathbb{R})
Remarque : dans tout le chapitre on prendra \mathbb{R} pour plus de simplicité mais cela ne change absolument rien aux propriétés.

Quand le nombre de lignes est égal au nombre de colonnes, on dit que la matrice est carrée. Pour le notation, on n’écrit pas deux fois le même chiffre mais une seule fois puisqu’il s’agit du même : ainsi on n’écrira pas M_{3,3}(\mathbb{R}) mais M_{3}(\mathbb{R}) , on n’écrira pas M_{7,7}(\mathbb{R}) mais M_{7}(\mathbb{R}) etc…
On parle alors de matrice de dimension 3 si elle appartient à M_{3,3}(\mathbb{R}) par exemple.

De plus une matrice est souvent notée par une lettre majuscule, par exemple :

\Huge A = \begin{pmatrix} 2 & 5 & 4 \\ 7 & -6 & 1\end{pmatrix}

Les coefficients se notent avec la même lettre mais en minuscule, avec en indice le numéro de la ligne et de la colonne correspondante (évidemment la ligne en premier et la colonne en second).
Ainsi, a1,3 correspond au coefficient de la matrice A de la 1ère ligne et de la 3ème colonne, qui correspond ici à 4, donc a1,3 = 4.
De même, a1,2 = 5, a2,1 = 7, a2,2 = – 6 etc…

Pour une matrice carrée de dimension 3 (cas que l’on retrouve souvent dans les exercices), cela donne :

\Huge \begin{pmatrix} a_{1,1} & a_{1,2} & a_{1,3} \\ a_{2,1} & a_{2,2} & a_{2,3} \\ a_{3,1} & a_{3,2} & a_{3,3} \end{pmatrix}

Si la matrice s’était appelée B, on aurait noté b1,1, b2,3, b2,2

Deux cas particuliers : les matrices lignes et les matrices colonnes.
Une matrice ligne est une matrice composée d’une seule ligne, et une matrice colonne… d’une seule colonne !

Matrice colonne :
\Huge  \begin{pmatrix} 2 \\ 8 \\ 7 \end{pmatrix}

Matrice ligne :
\Huge  \begin{pmatrix} 2 & 8 & 7 \end{pmatrix}

Maintenant que l’on a vu comment noter des matrices, nous allons pouvoir commencer à faire des opérations sur les matrices.

Opérations sur les matrices : addition et soustraction

Haut de page

On peut en effet additionner, soustraire et multiplier des matrices sous certaines conditions.
En revanche, on ne divise jamais des matrices !!!
Ainsi si on a deux matrices A et B, faire A/B ne veut rien dire ! C’est presque aussi grave d’écrire ça que de diviser par 0…

Nous verrons en revanche plus loin que la matrice A-1 a une signification…

Pour faire des opérations sur des matrices, il y a en revanche certaines conditions.


Pour pouvoir additionner ou soustraire 2 matrices, il faut qu’elles soient de même dimension !

Ainsi si l’on a :

\Huge  A = \begin{pmatrix} 1 & 3 & 4\\ -5 & 8 & 2\end{pmatrix} et B = \begin{pmatrix} -7 & 8 & 9 \\ 2 & 3 & 1 \end{pmatrix}

on peut les additionner ou les soustraire car elles sont toutes les deux de dimension 2 x 3.
Pour se faire c’est très simple, on additionne ou on soustrait terme à terme :

\Huge  A + B = \begin{pmatrix} 1 & 3 & 4\\ -5 & 8 & 2\end{pmatrix} + \begin{pmatrix} -7 & 8 & 9 \\ 2 & 3 & 1 \end{pmatrix}

\Huge  A + B = \begin{pmatrix} 1 - 7 & 3 + 8 & 4 + 9\\ -5+2 & 8+3 & 2+1\end{pmatrix}

\Huge  A + B = \begin{pmatrix} -6 & 11 & 13 \\ -3 & 11 & 3\end{pmatrix}

Idem pour la soustraction :

\Huge  A - B = \begin{pmatrix} 1 & 3 & 4\\ -5 & 8 & 2\end{pmatrix} - \begin{pmatrix} -7 & 8 & 9 \\ 2 & 3 & 1 \end{pmatrix}

\Huge  A - B = \begin{pmatrix} 1 + 7 & 3 - 8 & 4 - 9\\ -5-2 & 8-3 & 2-1\end{pmatrix}

\Huge  A - B = \begin{pmatrix} 8 & -5 & -5\\ -7 & 5 & 1 \end{pmatrix}


Remarque : on ne peut donc pas additionner un nombre avec une matrice : A + 3 ne veut rien dire.
Par contre nous verrons plus loin que l’on peut multiplier un nombre avec une matrice.

Cas particulier : la matrice nulle.


La matrice nulle est une matrice composée uniquement de 0 !

En fait il existe plusieurs matrices nulles puisqu’elle peut être de taille différente.
Ainsi la matrice nulle de dimension 2 x 3 est :

\Huge  \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}

Souvent, une telle matrice est notée avec un grand zéro, ou encore mieux O2,3 pour préciser que c’est la matrice nulle avec 2 lignes et 3 colonnes.
Dans la plupart des exercices on utilise des matrices carrées. On ne mettra alors qu’une seul chiffre :

\Huge  O_2 = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}

\Huge  O_3 = \begin{pmatrix} 0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}

\Huge  O_4 = \begin{pmatrix} 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{pmatrix}  etc...

Ce qu’il faut savoir, c’est que quand on additionne (ou soustrait) une matrice avec la matrice nulle, cela ne change rien, exactement comme quand on fait + 0 ou – 0 avec un nombre !
Prenons par exemple une matrice A carrée de dimension 3.
Alors A + O3 = A et A – O3 = A

Ce qui est totalement logique puisque l’on ajoute ou on soustrait 0 à chaque coefficient de la matrice A, ce qui ne change pas ses coefficients.

On dit que la matrice nulle est l’élément neutre des matrices pour l’addition.



Opérations sur les matrices : multiplication

Haut de page

Pour multiplier en revanche, c’est un peu plus complexe.
Saches tout d’abord que la multiplication de matrices n’est pas commutative. Cela signifie que A x B et B x A ne donne pas forcément le même résultat ! Si c’est le cas, on dit que A et B sont commutatives.


Si A x B = B x A, on dit que A et B sont commutatives.

Mais encore faut-il que A x B existe… en effet, pour que A x B existe, il faut que le nombre de colonnes de la matrice de gauche soit égal au nombre de lignes de la matrice de droite !
Par exemple si A \in M_{n,p}(\mathbb{R}) et B \in M_{q,r}(\mathbb{R}) , on peut faire A x B uniquement si p = q, sinon c’est impossible !
Et le résultat sera une matrice appartenant à… M_{n,r}(\mathbb{R})

En fait c’est un peu comme le théorème de Chasles : \vec{AB} + \vec{BC} = \vec{AC} : les lettres du milieu, identiques, disparaissent et il ne reste plus que les deux autres lettres.
Ici, (n,p) x (p,r) = (n,r) (attention cette notation n’est pas du tout bonne mathématiquement, c’est juste pour t’expliquer le fonctionnement).

Ainsi, si A \in M_{4,9}(\mathbb{R}) et B \in M_{9,7}(\mathbb{R}) , on peut faire A x B et le résultat sera une matrice appartenant à M_{4,7}(\mathbb{R})
En revanche, on ne peut PAS faire B x A car B \in M_{9,7}(\mathbb{R}) et A \in M_{4,9}(\mathbb{R}) , et 7 et 4 ne sont pas égaux…


On peut donc très bien avoir A x B qui existe et B x A qui n’existe pas.

Dans le cas particulier de matrices carrées de même dimension, on pourra toujours faire A x B et B x A, et le résultat sera une matrice carrée de même dimension.
Par exemple si A \in M_{4}(\mathbb{R}) et B \in M_{4}(\mathbb{R}) , on peut faire A x B et B x A, et le résultat sera une matrice carrée de M_{4}(\mathbb{R}) (mais A x B ne sera pas forcément égal à B x A).

Mais d’où vient cette règle que le nombre de colonnes de gauche doit être égal au nombre de lignes de droite ?
Cela vient tout simplement de la manière de calculer la matrice résultante.

Imaginons que l’on note C la matrice A x B : C = A x B.
Le coefficient ci,j de la matrice C sera calculé en multipliant le ième ligne de la matrice de gauche avec la jème colonne de la matrice de droite.
On multiplie tout simplement terme à terme chaque coefficient de la ligne et de la colonne.

Prenons par exemple deux matrices A et B et calculons A x B :

\Huge A = \begin{pmatrix} 3 & 1 \\ 2 & 4 \end{pmatrix} et B = \begin{pmatrix} 1 & 5 \\ 7 & 8 \end{pmatrix}

Par souci d’efficacité, on met souvent la matrice de droite au-dessus du résultat. Ainsi le coefficient de la matrice C se calcule avec la ligne et la colonne correspondante :

\Huge \begin{array}{c@{\ }c}  &  \left(\begin{array}{cc}  1 & 5 \\ 7 & 8  \end{array} \right)  \\[0.5cm]  \left(\begin{array}{cc}  3 & 1 \\ 2 & 4  \end{array} \right)  &  \left(\begin{array}{cc}  10 & 23 \\ 30 & 42  \end{array} \right)\\  \end{array}

Ainsi :

\Huge A \times B = \begin{pmatrix} 10 & 23 \\ 30 & 42 \end{pmatrix}

Chaque coefficient a été calculé à partir de la ligne située à sa gauche et de la colonne située au-dessus.
Le 10 a été calculé en faisant 3 x 1 + 1 x 7.
Le 23 a été calculé en faisant 3 x 5 + 1 x 8
Le 30 a été calculé en faisant 2 x 1 + 4 x 7
Le 42 a été calculé en faisant 2 x 5 + 4 x 8.

Pour t’aider à comprendre, regarde cet exercice sur la multiplication de matrices.

On voit donc assez facilement que la ligne de la matrice de gauche doit avoir autant de coefficients que la colonne de la matrice de droite, d’où la règle énoncée ci-dessus

L’intérêt de cette méthode est qu’elle limite le nombre d’erreurs, mais il faut prendre plus de place sur la copie^^
Dans la suite nous n’utiliserons pas cette écriture par souci d’économie de place (et puis pour t’habituer à faire les calculs )

Prenons un autre exemple en détaillant les calculs :

\Huge  A = \begin{pmatrix} 1 & 3 & 4\\ -5 & 8 & 2\end{pmatrix} et B = \begin{pmatrix} -7 & 8 \\ 2 & 3 \\ 5 & -4 \end{pmatrix}

A \in M_{2,3}(\mathbb{R}) et B \in M_{3,2}(\mathbb{R}) donc A x B existe et le résultat sera une matrice 2 x 2.

\Huge  \begin{pmatrix} 1 & 3 & 4\\ -5 & 8 & 2\end{pmatrix} \times \begin{pmatrix} -7 & 8 \\ 2 & 3 \\ 5 & -4 \end{pmatrix}  = \begin{pmatrix} 1\times(-7)+3\times2+4\times5 & 1\times8+3\times3+4\times(-4)\\ -5\times(-7)+8\times2+2\times5 & -5\times8+8\times3+2\times(-4)\end{pmatrix}

\Huge  \begin{pmatrix} 1 & 3 & 4\\ -5 & 8 & 2\end{pmatrix} \times \begin{pmatrix} -7 & 8 \\ 2 & 3 \\ 5 & -4 \end{pmatrix}  = \begin{pmatrix} 19 & 1 \\ 61 & -24 \end{pmatrix}

Plus tu t’entraîneras, plus cela te paraîtra facile ! (il ne s’agit ici que de calcul, ce sont des points gagnés facilement dans un contrôle !).

De manière générale, on a dit que le coefficient ci,j de la matrice C sera calculé en multipliant le ième ligne de la matrice de gauche avec la jème colonne de la matrice de droite.
On peut donc en déduire la formule suivante :

\(\displaystyle c_{i,j} = \sum_{k=1}^n a_{i,k}b_{k,j} \)

Dans cette formule, n est le nombre de colonnes de A, et de lignes de B (car il y a autant de colonnes dans A que de lignes dans B comme vu précédemment).
Nous parlerons en détails de cette formule dans les exercices.
Seule remarque à faire sur cette formule : pour la retenir facilement, tu remarqueras que là encore il y a une sorte de formule de Chasles, car on calcule c_{i,j} et on a dans la somme a_{i,k}\,b_{k,j} : {i,j} donne {i,k} {k,j}, c’est un bon moyen mnémotechnique pour se souvenir de la formule

Par ailleurs, de la même manière que la matrice nulle est l’élément neutre pour l’addition, il existe un élément neutre pour la multiplication : la matrice identité.

Cette matrice est nécessairement carrée (contrairement à la matrice nulle) et possède uniquement des 1 sur sa diagonale, les autres coefficients étant 0.
Cette matrice est notée Id, ou I, ou I suivie du chiffre correspondant à sa dimension. Ainsi :

\Huge  I_2 = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}

\Huge  I_3 = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{pmatrix}

\Huge  I_4 = \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} etc...


Remarque importante : quand on parle de la diagonale d’une matrice, on parle toujours de celle qui part du haut à gauche et qui arrive en bas à droite, pas de celle qui va du bas à gauche au haut à droite.

En fait, la matrice identité est un cas particulier des matrices dites diagonales, qui sont des matrices qui ont des chiffres quelconques sur la diagonale mais des 0 ailleurs ! Ainsi, les matrices suivantes sont des matrices diagonales :

\Huge  \begin{pmatrix} 2 & 0 \\ 0 & -5 \end{pmatrix}

\Huge  \begin{pmatrix} 4 & 0 & 0 \\ 0 & -3 & 0 \\ 0 & 0 & 6 \end{pmatrix}

\Huge  \begin{pmatrix} -6 & 0 & 0 & 0 \\ 0 & 8 & 0 & 0 \\ 0 & 0 & -5 & 0 \\ 0 & 0 & 0 & 9 \end{pmatrix}


Remarque : la matrice nulle et la matrice identité sont des matrices diagonales particulières !
Dans tous les cas, une matrice diagonale est forcément carrée (une matrice non carrée n’a pas vraiment de diagonale…).
De plus, les coefficients diagonaux peuvent être nuls : la matrice suivante est une matrice diagonale :
\Huge  \begin{pmatrix} 4 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 6 \end{pmatrix}

Oui mais quel lien avec la multiplication ??
On y vient !
Multiplier une matrice par I, c’est comme multiplie un nombre par 1, ça ne change rien !
Ainsi si l’on a une matrice A, A x Id = A et Id x A = A (en supposant que ces produits existent).

\(\displaystyle A \times Id = A \, et \, Id \times A = A \)


D’après la formule précédente, cela signifie que la matrice identité est commutative avec n’importe quelle matrice A.
On se servira parfois de cette propriété dans les exercices.

Comme tu le vois ce n’est pas trop compliqué

Mais ce n’est pas fini !
Deux choses encore concernant la multiplication avant de passer à la suite.
Tout d’abord, saches que si l’on ne peut pas additionner un nombre avec une matrice (comme vu ci-dessus), on peut multiplier un nombre par une matrice. Le résultat est tout simplement une matrice de même dimension, mais tous ses coefficients sont multipliés par le nombre :

Prenons \Huge A =  \begin{pmatrix} 2 & 0 & 3 \\ 3 & -2 & 7 \\ 0 & 6 & 9 \end{pmatrix}

\Huge 3A =  3 \times \begin{pmatrix} 2 & 0 & 3 \\ 3 & -2 & 7 \\ 0 & 6 & 9 \end{pmatrix}

\Huge 3A =  \begin{pmatrix} 6 & 0 & 9 \\ 9 & -6 & 21 \\ 0 & 18 & 27 \end{pmatrix}

De même avec un nombre négatif :

\Huge -5A =  \begin{pmatrix} -10 & 0 & -15 \\ -15 & 10 & -35 \\ 0 & -30 & -45 \end{pmatrix}

Mais si on peut multiplier, on peut aussi… factoriser !

\Huge \begin{pmatrix} 6 & 0 & 9 \\ 12 & -6 & 18 \\ 0 & 24 & -3 \end{pmatrix} = 3 \times \begin{pmatrix} 2 & 0 & 3 \\ 4 & -2 & 6 \\ 0 & 8 & -1 \end{pmatrix}

De la même manière, on peut factoriser les matrices :
3A6 – 6A3 + 7A2 = A(3A5 – 6A2 + 7A)
Ici on a factorisé à gauche, mais on peut très bien factoriser à droite :
3A6 – 6A3 + 7A2 = (3A5 – 6A2 + 7A)A

Attention cependant, cela n’est pas toujours possible de factoriser à gauche et à droite :
AB + AC = A(B + C)
MAIS AB + AC ≠ (B + C)A.
En effet, (B + C)A = BA + CA, ce qui n’est pas égal à AB + AC car, on le rappelle, la multiplication n’est pas commutative…

Par contre il y a un autre piège beaucoup plus important dans lequel tombent de nombreux élèves !!
Imaginons que l’on veuille factoriser 3A6 – 6A3 + 7A.
La plupart des élèves écrivent :
3A6 – 6A3 + 7A = A(3A5 – 6A2 + 7) : et là c’est faux car on additionne des matrices avec un chiffre !!
La bonne réponse est : 3A6 – 6A3 + 7A = A(3A5 – 6A2 + 7Id), et là c’est bon car 7Id est une matrice


Retiens donc que quand tu factorises par une matrice, le résultat ne peut pas être un chiffre seul, ce chiffre doit être multiplié par Id :
… + kA = A(… + kId) avec k réel (ou complexe)

Et pour clôturer cette partie sur les multiplications : un piège à éviter.
Si l’on a deux matrice A et B et que l’on a A x B = O ou B x A = O, cela ne signifie pas que A ou B = O !!
Cette règle qui est vraie pour les réels ne l’est pas pour les matrices…

Prenons un exemple :

\Huge  A = \begin{pmatrix} 1 & 2 \\ 3 & 6 \end{pmatrix}  et  B = \begin{pmatrix} 2 & 8 \\ -1 & -4 \end{pmatrix}

\Huge A \times B =  \begin{pmatrix} 2 - 2 & 8 - 8\\ 6 - 6 & 24 - 24 \end{pmatrix}

\Huge A \times B =  \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}

On a donc A x B = O et pourtant ni A ni B ne correspond à la matrice nulle…


ATTENTION !! Si A x B = O ou B x A = O (matrice nulle), cela ne veut pas dire que A ou B est la matrice nulle…

La partie sur les multiplications n’est pas terminée (et non…) mais nous allons y revenir dans les parties qui suivent.



Autres propriétés

Haut de page

Il y a d’autres propriétés concernant les opérations sur les matrices mais qui ne nécessitent pas beaucoup d’explications donc nous allons juste les donner avec leur nom afin de se concentrer sur l’essentiel (car le chapitre est dense !!)

Associativité : quand on multiplie des matrices entre elles, on peut mettre des parenthèses où l’on veut :

\(\displaystyle ABC = (AB)C = A(BC) \)

Pour calculer ABC, on peut ainsi d’abord calculer A x B puis multiplier par C, ou d’abord calculer BC puis multiplier par A.
Idem si on multiplie 4, 5, 6, 7 matrices ou plus ensemble.

Linéarité à gauche et à droite : si on a deux réels λ et β :

\(\displaystyle A(\lambda B + \beta C) = \lambda AB + \beta AC \)

\(\displaystyle (\lambda A + \beta B)C = \lambda AC + \beta BC \)

Puissance de matrices : binôme de Newton

Haut de page

Dans cette partie toutes les matrices seront des matrices carrées, afin qu’on puisse les multiplier entre elles.
En effet, nous allons parler de puissances de matrices, c’est-à-dire An, avec n entier naturel : si A est une matrice carrée on peut bien la multiplier par elle-même.


Remarque : dans toute cette partie sur les puissances, la puissance sera forcément positive, ce pourquoi on a précisé n entier naturel et non pas entier relatif.

On a les propriétés suivantes :

\(\displaystyle A^0 = Id \)

\(\displaystyle A^1 = A \)

La deuxième formule est assez évidente.
La première formule correspond, dans les réels, à x0 = 1. Or on a vu que l’équivalent de 1 pour les matrices est la matrice identité. Ainsi on a A0 = Id.

Par ailleurs, on a An = A x A x A x A x A x A x A x …. (n fois la matrice A)
Donc An+1 = A x A x A x A x A x A x A x …. (n + 1 fois la matrice A)
Par associativité, on a donc :

\(\displaystyle A^{n + 1} = A^n \times A = A \times A^n \)

Cela démontre que A est commutatif avec toute puissance de A.
On peut le montrer par récurrence (entraîne-toi à la faire) en utilisant le fait que A est commutatif avec lui-même.

On utilisera souvent le fait que An+1 = A x An = An x A dans les récurrences : on remplacera An+1 par A x An ou An x A selon l’exercice.

Bon c’est bien joli tout ça, mais comment calcule-t-on An quand on connaît A ?
Et bien… on ne peut pas le calculer directement !
En effet, prenons l’exemple suivant :

\Huge  A = \begin{pmatrix} 4 & 2 \\ 3 & 6 \end{pmatrix}

\Huge  A^n \ne \begin{pmatrix} 4^n & 2^n \\ 3^n & 6^n \end{pmatrix}

Et oui, sinon ce serait trop simple…

En revanche, il y a un cas particulier que l’on retrouve souvent et qui est simple : les matrices diagonales.


Si A est une matrice diagonale, An sera également une matrice diagonale, tous ses coefficients étant mis à la puissance n.
Exemple :
\Huge  A = \begin{pmatrix} 9 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & -2 \end{pmatrix}
\Huge  A^n = \begin{pmatrix} 9^n & 0 & 0 \\ 0 & 5^n & 0 \\ 0 & 0 & (-2)^n \end{pmatrix}

Comme tu le vois c’est très simple, mais cela ne marche que pour les matrices diagonales!!

Remarque : la matrice Id est une matrice diagonale dont tous les coefficients valent 1, et comme 1n = 1, on a :

\(\displaystyle Id^n = Id \)
pour tout entier naturel n

Dans les exercices où on demande de calculer la puissance d’une matrice, une des méthodes est de décomposer celle-ci en faisant apparaître une matrice diagonale, puis utiliser la formule du binôme de Newton pour les matrices.

Le binôme de Newton pour les matrices ??
Hé oui, ça existe !
Mais attention !!! Car il y a un gros piège dans lequel de nombreux élèves tombent…

La formule du binôme de Newton est en réalité la même que pour les réels mais avec une condition très importante : il faut que les matrices soient commutatives !!!!
Ainsi si on veut appliquer la formule du binôme de Newton pour calculer (A + B)n, il faut d’abord montrer que A et B commutent, c’est-à-dire que AB = BA.
Pour ce faire rien de plus simple, on calcule AB, puis on calcule séparément BA, et on voit qu’on trouve la même chose

Et seulement après avoir montré que les matrices commutent, on peut appliquer la formule :

\(\displaystyle (A + B)^n = \sum_{k=0}^n \displaystyle{n \choose k} A^kB^{n-k} \)

uniquement si A et B sont commutatives !

Comme tu le vois on retrouve exactement la même formule que pour les réels.

Mais pourquoi donc A et B doivent-ils être commutatives ?

Nous allons le montrer sur un exemple simple : (A + B)2
(A + B)2 = (A + B)(A + B)
(A + B)2 = A2 + AB + BA + B2

Et là, si A et B ne commutent pas, on ne peut rien faire de plus !!
En revanche, si A et B commutent, on peut remplacer BA par AB, d’où :
(A + B)2 = A2 + AB + AB + B2
(A + B)2 = A2 + 2AB + B2

On retrouve la formule de l’identité remarquable ! Qui correspond à la formule du binôme de Newton pour n = 2.

Tu peux t’entraîner en calculant (A + B)3 de deux manières différentes : avec la formule, et en faisant (A + B)(A + B)(A + B) : tu verras que les deux formules sont égales uniquement si A et B commutent.


Retiens bien que pour appliquer la formule du binôme de Newton pour les matrices, il faut d’abord démontrer que A et B commutent.
Sinon tu auras des points en moins…

Matrices nilpotentes

Haut de page

Il y a certaines matrices qui sont qualifiées de nilpotentes.
De telles matrices sont nulles à partir d’une certaine puissance, c’est-à-dire qu’il existe un entier naturel k tel que Ak = O (la matrice nulle, par zéro).

Exemple :

\Huge A =  \begin{pmatrix} 0 & 1 & 0\\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{pmatrix}

On va calculer les puissance successives de A (entraîne-toi à faire le calcul tout seul :

\Huge A^2 =  \begin{pmatrix} 0 & 0 & 1\\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}

\Huge A^3 =  \begin{pmatrix} 0 & 0 & 0\\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{pmatrix}

On remarque que A3 = O3 (la matrice nulle de dimension 3).

On pourrait ensuite calcul A4, A5, A6 etc… mais à chaque fois on retrouvera O3 !
En effet :
A4 = A3 x A = O3 x A = O3
A5 = A3 x A2 = O3 x A2 = O3
A6 = A3 x A3 = O3 x A3 = O3
etc…
De manière générale :
Ak = A3 x Ak-3 = O3 x Ak-3 = O3

Mais attention !! La puissance de A doit être positive, donc k – 3 ≥ 0, donc k ≥ 3.
Donc Ak = O3 pour tout k ≥ 3, ce qui normal car A3 = O3 mais A et A2 ne sont pas nulles.

Comme A3 = O3 mais A2 ≠ O2, 3 est appelé l’indice de nilpotence, car c’est à partir de k = 3 et pas avant (dans cet exemple) que Ak = O3.


Une matrice A est dite nilpotente s’il existe un entier naturel n tel que An = O.
Dans ce cas, Ak = O pour tout k ≥ n.
L’indice de nilpotence est le plus petit entier p à partir duquel Ap = O : Ap = O et Ap-1 ≠ O

Nous verrons que l’on retrouve souvent des matrices nilpotentes dans les exercices de calcul de puissances de matrices avec le binôme de Newton.

La transposée

Haut de page

La transposé d’une matrice A, notée tA, est une matrice où les lignes de A se transforment en colonnes et les colonnes de A se transforment en ligne. Ainsi :
la 1ère ligne de A devient la 1ère colonne de tA
la 2ème ligne de A devient la 2ème colonne de tA
la 3ème ligne de A devient la 3ème colonne de tA
etc…

Remarque : on peut parfois trouver la notation At mais elle ne sera pas utilisée dans la suite, nous noterons toujours tA.

Prenons un exemple :

\Huge A =  \begin{pmatrix} 2 & 8 & 7\\ 3 & 4 & 5 \\ 1 & 6 & 9 \end{pmatrix}

Alors :

\Huge {}^t A =  \begin{pmatrix} 2 & 3 & 1\\ 8 & 4 & 6 \\ 7 & 5 & 9 \end{pmatrix}

Comme tu le vois, rien de compliqué

Pour une matrice carrée, comme dans l’exemple ci-dessus, la dimension reste la même.
Mais pour une matrice non carrée ?
Et bien la taille de la matrice change puisque les lignes deviennent des colonnes et réciproquement : ainsi le nombre de lignes devient le nombre de colonnes et réciproquement.
Donc si A est de dimension 4 x 9, tA sera de dimension 9 x 4.

Prenons un exemple :

\Huge A =  \begin{pmatrix} 1 & 2 & 3\\ 4 & 5 & 6 \end{pmatrix}

A est une matrice de dimension 2 x 3, donc tA est de dimension 3 x 2 :

\Huge A =  \begin{pmatrix} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end{pmatrix}

Là encore rien de compliqué, la première ligne devient la première colonne etc…

Ainsi chaque terme ai,j de la matrice devient aj,i.
Par exemple :

\Huge A = \begin{pmatrix} a_{1,1} & a_{1,2} & a_{1,3} \\ a_{2,1} & a_{2,2} & a_{2,3} \\ a_{3,1} & a_{3,2} & a_{3,3} \end{pmatrix}

\Huge {}^t A = \begin{pmatrix} a_{1,1} & a_{2,1} & a_{3,1} \\ a_{1,2} & a_{2,2} & a_{3,2} \\ a_{1,3} & a_{2,3} & a_{3,3} \end{pmatrix}

Le calcul de la matrice transposée est donc simple, mais ce qui est important ce sont les propriétés de la transposée.

Tout d’abord, quelques formules :

\(\displaystyle {}^t({}^t A) = A \)

\(\displaystyle {}^t (AB) = {}^t B {}^t A \)

La première formule paraît assez évidente, la transposée de la transposée d’une matrice est… elle-même, puisque la 1ère ligne devient la 1ère colonne, puis redevient la 1ère ligne.

La deuxième formule en revanche est beaucoup plus piégeuse. En effet, on aurait tendance à dire t(AB) = tAtB, mais c’est faux !!

En effet, on le voit assez facilement avec les dimensions.
Si on fait t(AB), cela veut dire que AB existe.
On suppose donc que A et B sont de dimension respectives m x n et n x p.
AB est donc de dimension m x p, et donc t(AB) de dimension p x m.

Or tA est de dimension n x m et tB de dimension p x n, donc tAtB n’existe pas !! (sauf si m = p)
En revanche tBtA existe et est de dimension p x m (car tB est de dimension p x n et tA de dimension n x m)
Ainsi t(AB) et tBtA sont bien toutes les deux des matrices de même dimension.

Autre propriété de la transposée, ou plutôt définition :

Une matrice carrée est dite
symétrique si

\(\displaystyle {}^t A = A \)

Une matrice carrée est dite
antisymétrique si

\(\displaystyle {}^t A = -A \)

Par exemple :

\Huge A =  \begin{pmatrix} 1 & 2 & 3\\ 2 & 5 & 6 \\ 3 & 6 & 9 \end{pmatrix}

Alors

\Huge {}^t A =  \begin{pmatrix} 1 & 2 & 3\\ 2 & 5 & 6 \\ 3 & 6 & 9 \end{pmatrix}

On a tA = A donc A est une matrice symétrique.

Autre exemple :

\Huge A =  \begin{pmatrix} 0 & -6 & 7\\ 6 & 0 & -8 \\ -7 & 8 & 0 \end{pmatrix}

Alors

\Huge {}^t A =  \begin{pmatrix} 0 & 6 & -7\\ -6 & 0 & 8 \\ 7 & -8 & 0 \end{pmatrix}

On a tA = -A donc A est une matrice antisymétrique.


Remarque : pour une matrice symétrique, peu importe les coefficients de la diagonale car ils restent sur la diagonale, et ils sont égaux à eux mêmes.
En revanche, pour une matrice antisymétrique, il faut que les coefficients diagonaux soient nuls, car 0 et le seul nombre égal à moins lui-même.
Autre remarque : la symétrie ou l’antisymétrie ne concerne que les matrices carrées : là encore on le voit bien avec les dimensions : une matrice non carrée ne peut pas être égale à sa transposée puisqu’elle n’aurait même pas la même dimension.



La matrice inverse

Haut de page

La matrice inverse, qu’est-ce que c’est ?
C’est une matrice qui se calcule à partir d’une autre matrice. Mais la matrice inverse n’existe pas tout le temps !

Imaginons que l’on ait une matrice A. Si la matrice inverse de A existe, on dit que A est inversible et sa matrice inverse est notée A-1.


Pour les réels, x-1 signifie 1/x. Ainsi 2-1 = 1/2
Mais pour les matrices, A-1 ne signifie pas 1/A !! On a vu en effet qu’on ne peut pas diviser des matrices…
En revanche, nous verrons plus loin que cette notation A-1 n’est pas anodine et est liée à ce que l’on vient de dire…

Tu dois sûrement te demander : comment sait-on si une matrice est inversible ou non ??
Et bien c’est simple :


Une matrice est inversible si et seulement si son déterminant est non nul :
A est inversible ⇔ Det(A) ≠ 0

Oui mais comment calculer le déterminant d’une matrice ??
Cela fait l’objet d’un chapitre à part car le calcul d’un déterminant ne s’explique pas en 2 lignes…

Si A-1 existe, on a alors une (ou plutôt deux) formules fondamentales :

\(\displaystyle A \times A^{-1} = Id \)

\(\displaystyle A^{-1} \times A = Id \)


Ainsi A x A-1 = A-1 x A = Id : A et A-1 sont toujours commutatives.


Autre propriété importante : si A-1 existe, A-1 est unique !

Ainsi si A est inversible, sa matrice inverse est unique (c’est pourquoi on dit SA matrice inverse et non pas une de ses matrices inverses…)

Quel est l’intérêt de cette propriété ?
Et bien cela signifie que si on arrive à trouver une matrice B telle que A x B = Id, et bien B = A-1, et on sait au passage que A est inversible (si on ne l’avait pas déjà démontré auparavant en calculant le déterminant par exemple).
Evidemment si on a B x A = Id on a la même propriété.

On peut donc énoncer la propriété générale suivante :


A est inversible ⇔ il existe B tel que A x B = B x A = Id et B = A-1

Voyons un exemple d’utilisation de cette technique (exemple que l’on voit en Terminale en spé Maths notamment) :
On a 3A5 – 6A3 + 7A = Id.
Question : montrer que A est inversible et déterminer son inverse.

On factorise par A : A x (3A4 – 6A2 + 7Id) = Id
On a donc bien une matrice B telle que A x B = Id, donc A est inversible et A-1 = 3A4 – 6A2 + 7Id.

La matrice inverse sert également à isoler une matrice dans une équation.
Imaginons que l’on ait A x B = C et que l’on sache que A est inversible.
On demande d’isoler B.
Evidemment on ne fait pas B = A/C, car on a dit qu’on ne divisait pas des matrices…

Alors que faire ?
Et bien c’est tout simple, on multiplie par A-1 de part et d’autre de l’égalité (on a supposé A inversible donc A-1 existe, sinon il aurait d’abord fallu démontrer que A était inversible).

A x B = C
A-1 x A x B = A-1 x C
Id x B = A-1 x C
(car A-1 x A = Id)
B = A-1 x C
(car Id x B = B)

Et voilà, on a réussi à isoler B


Une remarque importante cependant : le A-1 doit nécessairement se trouver à côté du A pour pouvoir donner l’identité.
Comme on a A x B, il faut donc multiplier A GAUCHE par A-1, car si on avait multiplié à droite, cela aurait donné A x B x A-1 et on aurait rien pu faire d’autre car, on le rappelle, les matrices ne sont pas commutatives…
Ainsi, pour les matrices, il faut faire la distinction entre multiplier à gauche ou à droite, alors que pour les réels ou les complexes par exemple cela n’a pas d’importance.
De plus, comme on a multiplié par A-1 à gauche dans la partie gauche de l’équation, il faut faire de même dans la partie droite de l’égalité.
Ainsi, si A x B = C, on ne peut PAS dire A-1 x A x B = C x A-1, mais plutôt A-1 x C.

Les multiplications pour les matrices sont donc source de nombreuses erreurs possibles, donc fais bien attention quand tu multiplies des matrices !

Autre remarque importante : l’exemple précédent permet de comprendre la notation A-1 pour la matrice inverse.
En effet, imaginons que l’on ait un x réel avec l’équation 4x = 5, et on cherche à isoler x.
Au collège on apprend qu’il faut multiplier par 1/4 de part et d’autre :

\(\textstyle \frac{1}{4} \times 4x = \frac{1}{4} \times 5 \)

\(\textstyle x = \frac{5}{4} \)

Or 1/4 = 4-1 : pour passer le 4 de l’autre côté, on multiplie par son inverse qui est 1/4, soit 4-1.

Et bien c’est exactement la même chose pour les matrices, comme on l’a fait dans l’exemple ci-dessus, pour passer A de l’autre côté on multiplie par A-1.
Tout simplement parce que A-1 x A = Id et que 4-1 x 4 = 1 : l’identité est l’équivalent du 1 pour les réels (l’élément neutre pour la multiplication)

L’équation précédente peut en effet s’écrire :

\(\textstyle 4^{-1} \times 4x = 4^{-1} \times 5 \)

\(\textstyle x = 4^{-1} \times 5 \)

On retrouve exactement la même équation que pour les matrices avec 4 qui correspond à A, x à B et 5 à C.
Ainsi, de la même manière que multiplier par 4-1 revient à diviser par 4, multiplier par A-1 revient à diviser par A, sauf que pour les matrices on ne divise jamais par une matrice, on multiplie par son inverse

Toute cette remarque concernant la notation A-1 n’est pas à savoir à strictement parler, c’est juste pour que tu comprennes la notation et que tu penses bien à multiplier par A-1 si tu veux faire passer une matrice de l’autre côté de l’égalité, mais surtout ne pas diviser par une matrice !!

Matrice et système linéaire

Haut de page

Une application classique de la matrice inverse est la résolution de systèmes linéaires.
Prenons le système linéaire suivant :

\Huge    \begin{cases}  3x + 7y - 2z = 4 \\  5x - y + 9z = -8 \\  2x + 6y - 8z = 7  \end{cases}

Ce système peut s’écrire sous forme de matrice :

\(\textstyle AX = B \)

en posant :

\Huge A = \begin{pmatrix} 3 & 7 & -2 \\ 5 & -1 & 9 \\ 2 & 6 & -8 \end{pmatrix} X = \begin{pmatrix} x \\ y \\ z \end{pmatrix} B = \begin{pmatrix} 4 \\ -8 \\ 7 \end{pmatrix}

Résoudre le système revient à chercher x, y et z donc le vecteur colonne X.
Pour l’isoler, on multiplie par A-1 comme on a vu ci-dessus :

AX = B
A-1AX = A-1B
X = A-1B

Et voilà il ne reste plus qu’à calculer A-1B et on a X, c’est-à-dire x, y et z !
Et comme A-1 est unique, X est unique : il y a une unique solution !

Bien sûr il faut pour cela que A-1 existe, donc que A soit inversible.
Si ce n’est pas le cas, il y a soit une infinité de solutions, soit aucune solution.


Quand on résout un système linéaire avec une matrice A telle que AX = B :
Si A est inversible il y a une unique solution.
Si A n’est pas inversible, il y a soit une infinité de solutions, soit aucune solution.

Il faut cependant faire attention à bien poser la matrice A !
Pour cela, il faut bien disposer le système, c’est-à-dire mettre toutes les inconnues d’un côté et toutes les constantes de l’autre.
De plus, il faut garder le même ordre pour les variables (x, y, z par exemple) pour chaque ligne!

Imaginons que l’on ait le système suivant :

\Huge    \begin{cases}  3x + 5z -9 = 2y \\  3z - 6 = 4x \\  2z + 6x - 8y = 7  \end{cases}

Ici rien ne va !
– dans la première ligne, la constante -9 est à gauche, et la variable 2y à droite.
– dans la deuxième ligne -6 est à gauche et 4x à droite
– dans la troisième ligne les variables x, y et z ne sont pas dans l’ordre.
On transforme donc le système en mettant les variables x, y et z dans cet ordre :

\Huge    \begin{cases}  3x  -2y + 5z = 9 \\  -4x + 3z = 6 \\  6x - 8y + 2z= 7  \end{cases}

On pourrait penser que maintenant c’est bon… mais il reste encore un détail !
Dans la 2ème ligne, il n’y a pas de y… il est donc conseillé de mettre + 0y afin que les variables x, y et z soient alignées verticalement sur chaque ligne, cela permet de trouver la matrice A plus facilement :

\Huge    \begin{cases}  3x  -2y + 5z = 9 \\  -4x + 0y + 3z = 6 \\  6x - 8y + 2z= 7  \end{cases}

Maintenant c’est bon !
On pose donc :

\Huge A = \begin{pmatrix} 3 & -2 & 5 \\ -4 & 0 & 3 \\ 6 & -8 & 2 \end{pmatrix} X = \begin{pmatrix} x \\ y \\ z \end{pmatrix} B = \begin{pmatrix} 9 \\ 6 \\ 7 \end{pmatrix}

On résout alors comme vu précédemment.

Trace d’une matrice

Haut de page

La trace d’une matrice, c’est tout simplement la somme de ses coefficients diagonaux, c’est-à-dire les ai,i.
La trace d’une matrice A est notée Tr(A).
Evidemment comme on parle de diagonale il faut que la matrice soit carrée (une matrice non carrée n’a pas de diagonale). On a alors la formule :

\(\textstyle Tr(A) = \sum_{i=1}^n a_{i,i} \)

pour une matrice A carrée de dimension n

Exemple :

\Huge A = \begin{pmatrix} 3 & 7 & -2 \\ 5 & -1 & 9 \\ 2 & 6 & -8 \end{pmatrix}

\(\textstyle Tr(A) = 3 + (-1) + (-8) = -6 \)

Comme tu le vois c’est très simple !

Remarque : on a en particulier Tr(Id) = n, puisque Id est composée uniquement de 1 sur sa diagonale.

Oui mais… à quoi ça sert ??
Nous verrons cela dans les autres chapitres sur les matrices, notamment la diagonalisation.
Pour l’instant retiens juste les formules liées à la trace d’une matrice :

\(\textstyle Tr(AB) = Tr(BA) \)

\(\textstyle Tr(A + B) = Tr(A) + Tr(B) \)

\(\textstyle Tr(kA) = k\times Tr(A) \)
pour k réel

\(\textstyle Tr(^{t}A) = Tr(A) \)

Certaines se démontrent très facilement (tu peux t’amuser à le faire ! ).

Exercices

Haut de page

Tu trouveras sur cette page tous les exercices sur les matrices !

Retour au sommaire des coursRemonter en haut de la page