Chapitre 5 Vecteurs propres et valeurs propres

5.1 Vecteurs et valeurs propres

Définition 5.1 Soit \(f\) une application linéaire de \(\mathbf{K}^n\) dans \(\mathbf{K}^n\). Soit \(\lambda\in\mathbf{K}\). On dit que \(\lambda\) est une valeur propre de \(f\) s’il existe un vecteur non nul \(u\in \mathbf{K}^n\) tel que \(f(u)=\lambda u\).

Remarque. Si \(A\) est la matrice de \(f\) dans une certaine base, on dit aussi que \(\lambda\) est une valeur propre de \(A\). Ce qui correspond à l’existence d’un vecteur colonne \(X\) non nul tel que \(AX=\lambda X\).

Exemple 5.1 Si \[A=\begin{bmatrix}1&0&0\\0&2&0\\0&0&3\end{bmatrix}\]

Alors 1,2 et 3 sont des valeurs propres car \(A\begin{bmatrix}1\\0\\0\end{bmatrix}=\begin{bmatrix}1\\0\\0\end{bmatrix}\), \(A\begin{bmatrix}0\\1\\0\end{bmatrix}=2\begin{bmatrix}0\\1\\0\end{bmatrix}\) et \(A\begin{bmatrix}0\\0\\1\end{bmatrix}=3\begin{bmatrix}0\\0\\1\end{bmatrix}\).

Exemple 5.2 Si \(A=\begin{bmatrix}0&1\\1&0\end{bmatrix}\) alors 1 est valeur propre car \(A\begin{bmatrix}1\\1\end{bmatrix}=\begin{bmatrix}1\\1\end{bmatrix}\).

Définition 5.2 Soit \(\lambda\in\mathbf{K}\) et \(f\) une application linéaire de \(\mathbf{K}^n\) vers lui-même (ou la matrice \(A\) associée). L’espace propre associé à \(\lambda\) est \[E_\lambda=\{u\in\mathbf{K}^n,\ f(u)=\lambda u\}.\]

Un élément de \(E_\lambda\) est appelé vecteur propre de \(f\) (ou de \(A\)).

Remarque. Pour tout \(f\) et \(\lambda\), on a \(0\in E_{\lambda}\) et \(\lambda\) est une valeur propre si \(E_\lambda\neq\{0\}\).

Exemple 5.3 Pour \(A=\begin{bmatrix}0&1\\1&0\end{bmatrix}\), \((x,y)\in E_\lambda\) si seulement si \(y=\lambda x\) et \(x=\lambda y\).

Ainsi, \(E_1=\{(x,x),\ x\in\mathbf{R}\}\), \(E_{-1}=\{(x,-x),\ x\in\mathbf{R}\}\) et \(E_\lambda=\{0\}\) pour \(\lambda\ne\pm1\) (\(x=\lambda^2 x \implies x=0\) et \(y=\lambda^2 y \implies y=0\)).

Lemme 5.1 Pour toute application linéaire \(f\colon\mathbf{K}^n\to\mathbf{K}^n\) (ou \(A\) la matrice associée) et \(\lambda\in\mathbf{K}\), \(E_\lambda\) est un sous-espace vectoriel de \(\mathbf{K}^n\).

Preuve. Soit \(X,Y\in E_\lambda\) alors \(A(X+Y)=AX+AY=\lambda X+\lambda Y=\lambda (X+Y)\) et donc \(X+Y\in E_\lambda\).

Soit \(\mu\in\mathbf{K}\) et \(X\in E_\lambda\). Alors \(A(\mu X)=\mu AX=\mu\lambda X=\lambda(\mu X)\) et donc \(\mu X\in E_\lambda\).

Définition 5.3 Soit \(A\in\mathrm{M}_n(\mathbf{K})\) et \(E\) un sous-espace vectoriel de \(\mathbf{K}^n\). On dit que \(E\) est sous-espace invariant pour \(A\) si pour tout \(X\in E\), \(AX\in E\).

Lemme 5.2 Tout sous-espace propre d’une matrice \(A\in\mathrm{M}_n(\mathbf{K})\) est un sous-espace invariant pour \(A\).

Preuve. Soit \(\lambda\) une valeur propre pour \(A\) et \(X\in E_\lambda\). Alors \(AX=\lambda X\in E_\lambda\).

Remarque. L’idée derrière l’introduction des sous-espaces invariants et sous-espaces propres est du type “diviser pour régner”. On souhaite décomposer l’espace \(\mathbf{K}^n\) en une somme de sous-espaces invariants par \(A\) est sur lesquels la restriction de \(A\) est simple, dans le meilleur des cas est une simple homothétie, comme c’est le cas pour un sous-espace propre.

5.2 Polynôme caractéristique

Définition 5.4 Soit \(A\in\mathrm{M}_n(\mathbf{K})\). Le polynôme caractéristique de \(A\) est \(\det(A-XI_n)\). On le note \(\chi_A\).

Exemple 5.4 Si \(A=\begin{bmatrix}1&2\\2&1\end{bmatrix}\) alors \[\begin{align*} \chi_A(X)&=\det\left(\begin{bmatrix}1-X&2\\2&1-X\end{bmatrix}\right)\\ &=(1-X)^2-4\\ &=X^2-2X-3 \end{align*}\]

Lemme 5.3 Le polynôme caractéristique de \(A\) est un polynôme de degré \(n\).

Preuve. Le déterminant d’une matrice se calcule en faisant des produits et des sommes des coefficients. Ainsi, le polynôme caractéristique est obtenu avec des sommes de produit des termes \(a_{i,j}\) pour \(i\neq j\) et \(a_{i,i}-X\). C’est donc un polynôme. Parmi les coefficients de \(A-XI_n\), il y en a \(n\) avec un \(X\) donc le degré est au plus \(n\).

En développant les calculs (ou par récurrence), le coefficient devant \(X^n\) dans ce polynôme est \((-1)^n\neq0\). Le polynôme est donc bien de degré exactement \(n\).

Remarque. Le déterminant vérifie la propriété \(\det(AB)=\det(A)\det(B)\) pour \(A,B\in\mathrm{M}_n(\mathbf{K})\). De cela on en déduit que si \(P\) est une matrice inversible (\(PP^{-1}=I_n\)) alors \(\det(P)\det(P^{-1})=1\) et donc \(\det(P^{-1})=\frac{1}{\det(P)}\).

Ainsi, si \(A, A'\) sont deux matrices d’une même application linéaire \(f\) dans des bases \(\mathcal{B}\) et \(\mathcal{B}'\) et \(P\) est la matrice de passage de la base \(\mathcal{B}\) à \(\mathcal{B}'\) alors \(\det(A')=\det(P^{-1})\det(A)\det(P)=\det(A)\). Ainsi, pour une application linéaire, le calcul du déterminant pour la matrice associée ne dépend pas du choix de la base.

En particulier, c’est la même chose pour le polynôme caractéristique et on peut donc parler du polynôme caractéristique d’une application linéaire sans ambiguïté.

Lemme 5.4 Soit \(A\in\mathrm{M}_n(\mathbf{K})\) une matrice de polynôme caractéristique \(\chi_A\) et \(\lambda\in\mathbf{K}\).

Le nombre \(\lambda\) est une valeur propre de \(A\) si et seulement si \(\chi_A(\lambda)=0\).

Preuve. Le nombre \(\lambda\) est une valeur propre de \(A\) si et seulement s’il existe \(U\in\mathbf{K}^n\) tel que \(AU=\lambda U\), c’est-à-dire tel que \((A-\lambda I_n)U=AU-\lambda U=0\). C’est équivalent à \(A-\lambda I_n\) n’est pas injective, équivalent à \(\det(A-\lambda I_n)=0\iff \chi_A(\lambda)=0\).

Exemple 5.5 Si \(A=\begin{bmatrix}1&2\\2&1\end{bmatrix}\) alors \(\chi_A(X)=X^2-2X-1\) dont les racines sont \(-1\) et \(3\). Ainsi, \(A\) a deux valeurs propres \(-1\) et \(3\).

Proposition 5.1 Soit \(T\) une matrice triangulaire supérieure. Les valeurs propres de \(T\) sont exactement les termes diagonaux \(T_{1,1},\dots,T_{n,n}\) de \(T\).

Preuve. La matrice \(T_X I_n\) est aussi triangulaire supérieure. Son déterminant est le produit des termes diagonaux, c’est-à-dire

\[\chi_T(X)=\prod_{i=1}^n(T_{i,i}-X).\] Les racines de ce polynôme sont exactement les \(T_{i,i}\), qui sont donc les valeurs propres de \(T\).

5.3 Matrices diagonalisables

Définition 5.5 Une matrice \(A\in\mathrm{M}_n(\mathbf{K})\) est diagonale si \(A_{i,j}=0\) pour \(i\neq j\).

Exemple 5.6 La matrice \(\begin{bmatrix}1&0&0\\0&3&0\\0&0&5\end{bmatrix}\) est diagonale.

L’application linéaire associée à une matrice diagonale est très simple : il s’agit d’une multiplication le long de chacun des axes de la base canonique.

Remarque. Les matrices diagonales sont des cas particuliers de matrices triangulaires supérieures.

Définition 5.6 Une matrice \(A\in\mathrm{M}_n(\mathbf{K})\) est diagonalisable s’il existe une matrice inversible \(P\in\mathrm{M}_n(\mathbf{K})\) telle \(P^{-1}AP\) est diagonale.

Remarque. Une matrice (ou l’application linéaire associée) est diagonalisable si en changeant de base, c’est-à-dire en interprétant \(P\) comme une matrice de passage, la matrice de l’application linéaire est diagonale.

Exemple 5.7 On reprend l’Exemple 5.5 avec \(A=\begin{bmatrix}1&2\\2&1\end{bmatrix}\). On a vu que cette matrice a deux valeurs propres : -1 et 3. On cherche les vecteurs propres associés.

Espace propre \(E_{-1}\) :

On résoud le système \(AX=-X\) en posant \(X=\begin{bmatrix}x\\ y\end{bmatrix}\). On obtient le système

\[\left\{\begin{matrix}x+2y&=-x\\2x+y&=-y\end{matrix}\right.\]

Ce qui est équivalent à \(y=-x\). Un vecteur propre pour -1 est donc \(\begin{bmatrix}1\\-1\end{bmatrix}\).

Espace propre \(E_{3}\) :

On résoud le système \(AX=3X\) en posant \(X=\begin{bmatrix}x\\ y\end{bmatrix}\). On obtient le système

\[\left\{\begin{matrix}x+2y&=3x\\2x+y&=3y\end{matrix}\right.\]

Ce qui est équivalent à \(y=x\). Un vecteur propre pour 3 est donc \(\begin{bmatrix}1\\1\end{bmatrix}\).

En posant \(P=\begin{bmatrix}1&1\\-1&1\end{bmatrix}\), on a \(P^{-1}=\frac{1}{2}\begin{bmatrix}1&-1\\1&1\end{bmatrix}\) et on obtient \(P^{-1}AP=\begin{bmatrix}-1&0\\0&3\end{bmatrix}\). La matrice \(A\) est bien diagonalisable.

Définition 5.7 (Somme directe de sous-espaces vectoriels) Soit \(E\) un sous-espace vectoriel de \(\mathbf{R}^n\) et \(E_1,\dots, E_k\) des sous-espaces vectoriels inclus dans \(E\). On dit que \(E\) est la somme directe des \(E_i\) si pour tout \(v\in E\), il existe un unique \(k\)-uplet avec \(v_1\in E_1,\dots v_k\in E_k\) tels que \[v=v_1+\dots+v_k.\] On note \(E=E_1\oplus...\oplus E_n\).

Lemme 5.5 Soit \(E=E_1\oplus...\oplus E_n\) une somme directe de sous-espaces vectoriels alors \(\dim(E)=\sum_{i=1}^k\dim(E_k)\).

Preuve. On choisit une base \((e_1^i,\dots,e^i_{l_i})\) de \(E_i\) pour chaque \(i\) alors la concaténation de ces bases \((e_1^1,\dots,e_{l_1}^1,e_1^2,\dots,e_{l_k}^k)\) est une base de \(E\) à cause de l’existence et de l’unicité de l’écriture en somme \(v=v_1+\dots+v_k.\)

Proposition 5.2 Soit \(A\) une matrice de \(\mathrm{M}_n(\mathbf{R})\) et \(\lambda_1,\dots,\lambda_k\) ses valeurs propres alors

\[\mathrm{Vect}(E_{\lambda_1},\dots,E_{\lambda_k})=E_{\lambda_1}\oplus\dots\oplus E_{\lambda_k}.\]

Preuve. Comme \(\mathrm{Vect}(E_{\lambda_1},\dots,E_{\lambda_k})\) est engendré par les vecteurs propres de \(A\), il suffit de montrer qu’une famille de vecteurs propres associés à des vecteurs propres distincts forment une famille libre, autrement dit, il suffit de montrer que si \(v_i\in E_{\lambda_i}\) pour chaque \(i\) et \(v_1+\dots+v_k=0\) alors \(v_i=0\) pour tout \(i\).

On applique \(A,A^2,\dots,A^{k-1}\) à \(v_1+\dots+v_k\) et on obtient

\[v_1+\dots+v_k=0\] \[\lambda_1v_1+\dots+\lambda_kv_k=0\] \[\vdots\] \[\lambda_1^{k-1}v_1+\dots+\lambda_k^{k-1}v_k=0\] Comme les \(\lambda_i\) sont distincts deux-à-deux, le système (système de Vandermonde) possède une unique solution \(v_1=\dots=v_k=0\). Ainsi la somme est bien directe.

Théorème 5.1 Une matrice \(A\) d’espaces propres \(E_{\lambda_1},\dots,E_{\lambda_{k}}\) est diagonalisable si et seulement si \(\mathbf{R}^n=E_{\lambda_1}\oplus\dots\oplus E_{\lambda_k}\).

Preuve. Dire que \(A\) est diagonalisable signifie qu’il existe une base de vecteurs propres (dans laquelle la matrice est diagonale). On rassemble ces vecteurs propres par même valeur propre et on la décomposition en somme directe de \(\mathbf{R}^n\).

Réciproquement si \(\mathbf{R}^n=E_{\lambda_1}\oplus\dots\oplus E_{\lambda_k}\), on choisit une base de chaque \(E_{\lambda_i}\) et on concatène ces bases pour obtenir une base de \(\mathbf{R}^n\) dans laquelle la matrice est diagonale.

Exemple 5.8 On suppose qu’une application linéaire a pour matrice \[\begin{bmatrix}1&0&0&0&0\\0&\sqrt{2}&0&0&0\\0&0&\sqrt{2}&0&0\\0&0&0&5&0\\0&0&0&0&5\end{bmatrix}\] dans la base \((e_1,\dots,e_5)\) alors \(\mathbf{R}^5=E_1\oplus E_{\sqrt{2}}\oplus E_5\)\(E_1=\mathrm{Vect}(e_1)\), \(E_{\sqrt{2}}=\mathrm{Vect}(e_2,e_3)\) et \(E_5=\mathrm{Vect}(e_4,e_5)\).

Corollaire 5.1 Si \(A\) est une matrice d’espaces propres \(E_{\lambda_1},\dots,E_{\lambda_k}\) alors \(A\) est diagonalisable si et seulement si \(\sum_{i=1}^k\dim(E_{\lambda_i})=n\).

Preuve. Si \(A\) est diagonalisable alors \(\mathbf{R}^n\) est somme directe des \(E_{\lambda_i}\) et donc \(\sum_{i=1}^k\dim(E_{\lambda_i})=\dim(\mathbf{R}^n)=n\).

Réciproquement, on sait que \(\mathrm{Vect}(E_{\lambda_1},\dots,E_{\lambda_k})=E_{\lambda_1}\oplus\dots\oplus E_{\lambda_k}\) et comme \(\dim(\mathrm{Vect}(E_{\lambda_1},\dots,E_{\lambda_k}))=\sum_{i=1}^k\dim(E_{\lambda_i})=n\), nécessairement \(\mathrm{Vect}(E_{\lambda_1},\dots,E_{\lambda_k})=\mathbf{R}^n\) et donc \(\mathbf{R}^n=E_{\lambda_1}\oplus\dots\oplus E_{\lambda_k}\).

Exemple 5.9 Dans l’Exemple, 5.5, on a \(\dim(E_{-1})\geq 1\) et \(\dim(E_{3})\geq1\) donc la somme des ces dimensions est supérieure ou égale à 2. Ainsi, on peut en déduire tout de suite que \(A\) est diagonalisable.

5.4 Diagonalisation des matrices symétriques

Définition 5.8 Une matrice \(A\in\mathrm{M}_n(\mathbf{K})\) est symétrique si \(^tA=A\).

Remarque. Visuellement, une matrice est symétrique si la diagonale principale est un axe de symétrie pour ces coefficients.

L’équation \(^tA=A\) se traduit par \(\forall 1\leq i,j\leq n\), \(A_{i,j}=A_{j,i}\).

Exemple 5.10 La matrice \(\begin{bmatrix}1&4&2\\4&2&3\\2&3&5\end{bmatrix}\) est symétrique.

Exemple 5.11 Soit \(X_1,\dots,X_n\) des variables aléatoires réelles sur un même espace probabilisé. Alors la matrice de covariance

\(A=\begin{bmatrix}\mathrm{Cov(X_i,X_j)}\end{bmatrix}\) est une matrice symétrique de \(\mathrm{M}_n(\mathbf{R})\).

Lemme 5.6 Soit \(A\in\mathrm{M}_n(\mathbf{R})\), la matrice \(A\) est symétrique si et seulement si pour tout \(X,Y\in\mathbf{R}^n\), \(\left<AX,Y\right>=\left<X,AY\right>\).

Preuve. \[\left<AX,Y\right>=^t(AX)Y=^tX^tAY=^tXAY=\left<X,AY\right>\]

Définition 5.9 Une matrice \(A\in\mathrm{M}_n(\mathbf{R})\) est positive si pour tout \(X\in\mathbf{R}^n\), \(^tXAX\geq 0\).

Une matrice \(A\in\mathrm{M}_n(\mathbf{R})\) est définie positive si pour tout \(X\in\mathbf{R}^n\) non nul, \(^tXAX> 0\).

Lemme 5.7 Soit \(A\in\mathrm{M}_n(\mathbf{R})\) positive. Toute valeur propre de \(A\) est positive ou nulle.

De plus, \(A\) est définitive positive si et seulement \(0\) n’est pas valeur propre, c’est-à-dire si et seulement si \(A\) est inversible.

Preuve. Soit \(\lambda\) une valeur propre pour \(A\) et \(X\) un vecteur propre associé non nul, c’est-à-dire \(AX=\lambda X\).

Alors \(^tXAX=\lambda ^tXX=\lambda ||X||\). Comme \(||X||>0\) et \(^tXAX\geq0\), on a \(\lambda= ^tXAX/||X||\geq 0\) et si \(A\) est définie positive alors \(\lambda>0\).

Réciproquement, si 0 n’est pas valeur propre alors l’application linéaire associée à \(A\) est injective et donc inversible car la dimension de l’espace de départ coïncide avec celle de l’espace d’arrivée.

Lemme 5.8 Soit \(A\in\mathrm{M}_n(\mathbf{R})\) matrice symétrique. Si \(E\) est un sous-espace invariant pour \(A\) alors \(E^\bot\) est aussi un sous-espace invariant.

Preuve. Soit \(X\in E\) et \(Y\in E^\bot\), \(\left< AY,X\right>=^t(AY)X=^tY^tAX=^tY(AX)=\left<Y,AX\right>=0\) car \(AX\in E\).

Ainsi, \(AY\in E^\bot\).

Définition 5.10 (Somme orthogonale de sous-espaces) Soit \(E\) un sous-espace vectoriel de \(\mathbf{R}^n\) et \(E_1,\dots,E_k\) des sous-espaces vectoriels inclus dans \(E\). On dit que \(E\) est la somme orthogonale des \(E_i\) si pour \(i\neq j\), \(E_i\bot E_j\) et pour tout \(v\in E\), il existe pour chaque \(i\in\{1,\dots,k\}\), \(v_i\in E_i\) tels que \[v=v_1+\dots+v_k.\] On note alors \[E=E_1\oplus^\bot\dots\oplus^\bot E_k.\]

Remarque. Si \(E=E_1\oplus^\bot\dots\oplus^\bot E_k.\) est une somme orthogonale alors une écriture \(v=v_1+\dots+v_k\) est unique car chaque \(v_i\) est la projection orthogonale de \(v\) sur \(E_i\). Ainsi, une somme orthogonale est toujours une somme directe.

Proposition 5.3 Soit \(A\) une matrice symétrique et \(\lambda_1,\lambda_2\) deux valeurs propres distinctes de \(A\) alors \(E_{\lambda_1}\bot E_{\lambda_2}\).

Preuve. Soit \(X\in E_{\lambda_1}\) et \(Y\in E_{\lambda_2}\) alors

\[^tYAX=^tY(AX)=\lambda_1 ^tYX=\lambda_1\langle X,Y\rangle\] et

\[^tYAX=^t(AY)X=\lambda_2 ^tYX=\lambda_2\langle X,Y\rangle.\]

Ainsi \((\lambda_1-\lambda_2)\langle X,Y\rangle=0\) et comme \((\lambda_1-\lambda_2)\neq0\), on a bien \(\langle X,Y\rangle=0\).

Théorème 5.2 Soit \(A\in\mathrm{M}_n(\mathbf{R})\) matrice symétrique. Alors il existe \(P\in\mathrm{O}_n(R)\) telle que \(PAP^{-1}\) est diagonale.

Remarque. Le théorème signifie exactement qu’il existe une base orthogonale dans laquelle la matrice de l’application linéaire associée à \(A\) est diagonale ou encore que \(\mathbf{R}^n=E_{\lambda_1}\oplus\dots\oplus E_{\lambda_k}\) où les \(\lambda_i\) sont les valeurs propres de \(A\).

Preuve. On montre le résultat par récurrence sur \(n\).

Cas \(n=1\). En dimension 1, toute matrice est symétrique et diagonale en même temps. Il n’y a rien à démontrer.

Étape de récurrence. On suppose le résultat pour \(n-1\geq 1\).

On considère l’application \(\varphi\colon X\mapsto \left<X,AX\right>\) pour \(X\in\mathbf{S}^n\). Soit \(X\) un élément de \(\mathbf{S}^n\) réalisant le maximum (qui existe par “compacité” de la shpère unité). On fixe \(X\) et pour \(H\bot X\), on considère l’applicaton \[\begin{array}{rcl}f\colon\mathbf{R}&\to&\mathbf{R}\\ t&\mapsto&\varphi(X+tH)=\left<\frac{X+tH}{||X+tH||},A\left(\frac{X+tH}{||X+tH||}\right)\right>\end{array}.\]

On a \(f(t)=\frac{\left<X+tH,A\left(X+tH\right)\right>}{\left<X+tH,X+tH\right>}\) et donc \(f(t)=\frac{g(t)}{h(t)}\) avec

\[g(t)=\left<X+tH,A\left(X+tH\right)\right>\] et \[h(t)=\left<X+tH,X+tH\right>.\] Comme \(\varphi\) atteint son maximum en \(X\), \(f\) atteint aussi son maximum en \(t=0\).

En développant, on trouve \(g(t)=\left<X,AX\right>+2t\left<H,AX\right>+O(t^2)\) et \(h(t)=\left<X,X\right>+2t\left<X,H\right>+O(t^2)\).

Les dérivées en 0 sont donc \(g'(0)=2\left<H,AX\right>\) et \(h'(0)=2\left<X,H\right>=0\). En dérivant le quotient, on a \(f'(0)=\frac{g'(0)h(0)-g(0)h'(0)}{h(0)^2}\). Or \(h(0)=\left<X,X\right>=1\) donc

\[f'(0)=\left<H,AX\right>.\]

Comme \(f'(0)=0\), on a \(H\bot AX\). C’est vrai pour tout \(H\in X^\bot\) donc \(AX\in(X^\bot)^\bot=\mathbf{R}X\). Ainsi, il existe \(\lambda_0\in \mathbf{R}\) tel que \(X=\lambda_0 X\) et donc \(X\) est vecteur propre non nul. Soit \(A'\) la restriction de \(A\) à \(E_{\lambda_0}^\bot\). Par la caractérisation du Lemme 5.6, \(A'\) est aussi symétrique car pour tout \(X,Y\in E_{\lambda_0}^\bot\), \(\left<X,A'Y\right>=\left<X,AY\right>=\left<AX,Y\right>=\left<A'X,Y\right>\).

Comme \(\dim(E_{\lambda_0}^\bot)<n\) on peut appliquer l’hypothèse de réccurence à \(A'\) agissant sur l’espace \(E_{\lambda_0}^\bot\). On obtient alors que \(E_\lambda^\bot=E_{\lambda_1}\oplus^\bot\dots\oplus^\bot E_{\lambda_k}\) où les \(\lambda_i\) sont les valeurs propres de \(A'\). Au final, \(\mathbf{R}^n=E_{\lambda_0}\oplus ^\bot E_{\lambda_1}\oplus^\bot \dots\oplus^\bot E_{\lambda_k}\) et on a décomposé \(\mathbf{R}^n\) en somme directe orthogonale de sous-espaces propres.

On choisit une base orthonormée pour chacun des \(E_{\lambda_i}\) et on les concatène pour obtenir une base orthonormée \(\mathcal{B}\) de \(\mathbf{R}^n\). La matrice de passage de la base canonique à \(\mathcal{B}\) est donc une matrice orthogonale \(P\) et \(PAP^{-1}\) est donc une matrice diagonales avec les \(\lambda_i\) sur la dagonale.

Exemple 5.12 Dans l’Example 5.7, on a diagonalisé la matrice \(A\) mais pour avoir une matrice de passage orthogonale il faut normaliser les vecteurs de base (on sait déjà qu’ils sont orthogonaux par la Proposition 5.3 ). Ainsi, la matrice de passage \(P=\begin{bmatrix}\frac{1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\\\frac{-1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\end{bmatrix}\) est orthogonale, \(P^{-1}=^tP=\begin{bmatrix}\frac{1}{\sqrt{2}}&\frac{-1}{\sqrt{2}}\\\frac{1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\end{bmatrix}\) et on obtient

\[P^{-1}AP=\begin{bmatrix}-1&0\\0&3\end{bmatrix}.\]

5.5 Une application : calcul des puissances d’une matrice

Dans certains problèmes, il est utile de calculer les puissances d’une matrice. Pour une matrice diagonale les choses sont simples, pour une matrice diagonalisable on se ramène à ce cas simple.

Lemme 5.9 Soit \(D\) une matrice diagonale \(D=\begin{bmatrix}\lambda_1&0&\dots&0\\ 0&\lambda_2&0&0\\ 0&0&\ddots&0\\ 0&\dots&0&\lambda_n\end{bmatrix}\). Alors pour tout \(k\in\mathbf{N}\),

\[D^k=\begin{bmatrix}\lambda_1^k&0&\dots&0\\ 0&\lambda_2^k&0&0\\ 0&0&\ddots&0\\ 0&\dots&0&\lambda_n^k\end{bmatrix}.\]

Preuve. On montre le résultat par récurrence sur \(k\geq1\). Pour \(k=1\), le résultat est évident et pour passer de \(k\) à \(k+1\) celui suit du calcul matriciel

\[D^{k+1}=D^kD=\begin{bmatrix}\lambda_1^k&0&\dots&0\\ 0&\lambda_2^k&0&0\\ 0&0&\ddots&0\\ 0&\dots&0&\lambda_n^k\end{bmatrix}\cdot\begin{bmatrix}\lambda_1&0&\dots&0\\ 0&\lambda_2&0&0\\ 0&0&\ddots&0\\ 0&\dots&0&\lambda_n\end{bmatrix}=\begin{bmatrix}\lambda_1^{k+1}&0&\dots&0\\ 0&\lambda_2^{k+1}&0&0\\ 0&0&\ddots&0\\ 0&\dots&0&\lambda_n^{k+1}\end{bmatrix}.\]

Proposition 5.4 Soit \(A\) une matrice diagonalisable où \(A=PDP^{-1}\) avec \(D\) diagonale et \(P\) matrice de passage alors

\[A^k=PD^kP^{-1}.\]

Preuve. En fait le calcul est vrai dès que \(A=PDP^{-1}\) que \(D\) soit une matrice diagonale ou non et on montre le résultat par récurrence sur \(k\in\mathbf{N}\). Pour \(k=1\), le résultat est immédiat. Le passage de \(k\) à \(k+1\) suit du calcul.

\[A^{k+1}=AA^k=PDP^{-1}PD^kP^{-1}=PDD^kP^{-1}=PD^{k+1}P^{-1}.\]

Exemple 5.13 On reprend l’Exemple 5.7 avec \(P^{-1}AP=\begin{bmatrix}-1&0\\0&3\end{bmatrix}\)\(P=\begin{bmatrix}\frac{1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\\\frac{-1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\end{bmatrix}\)

On a donc

\[\begin{align*}A^k&=\begin{bmatrix}\frac{1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\\\frac{-1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\end{bmatrix}\begin{bmatrix}(-1)^k&0\\0&3^k\end{bmatrix}\begin{bmatrix}\frac{1}{\sqrt{2}}&\frac{-1}{\sqrt{2}}\\\frac{1}{\sqrt{2}}&\frac{1}{\sqrt{2}}\end{bmatrix}\\ &=\begin{bmatrix}\frac{(-1)^k+3^k}{2}&\frac{(-1)^{k+1}+3^k}{2}\\\frac{(-1)^{k+1}+3^k}{2}&\frac{(-1)^k+3^k}{2}\end{bmatrix} \end{align*}\]

5.6 Exercices

Exercice 5.1 Soit \(A\) la matrice \(\begin{bmatrix}2&1&2\\1&2&2\\2&2&1\end{bmatrix}\)

  1. Justifier a priori que la matrice est diagonalisable en base orthonormée.
  2. Calculer le polynôme caractéristique de \(A\).
  3. En déduire les valeurs propres de \(A\).
  4. Faire la diagonalisation de \(A\) en base orthonormée, c’est-à-dire trouver une matrice diagonale \(D\) et une matrice orthogonale \(P\) telle que \(A=PDP^{-1}\).
  5. En déduire \(A^k\) pour \(k\in\mathbf{N}\).

Exercice 5.2 Considérons l’application linéaire donnée par la matrice \[A=\begin{bmatrix} 1&-1& 1\\ -2& 0& -1\\ -2 & -2 &1 \end{bmatrix}.\]

  1. Déterminer son polynôme caractéristique.
  2. Calculer ses valeurs propres.
  3. Donner une base des sous-espaces propres.
  4. Diagonaliser \(A\).

Exercice 5.3 Considérons l’application linéaire donnée par la matrice \[A=\begin{bmatrix} -1&1& 1\\ 1& -1& 1\\ 1 & 1 &-1 \end{bmatrix}.\]

  1. Justiifer que \(A\) est diagonalisable.
  2. Calculer le polynôme caractéristique de \(A\) et trouver ses racines.
  3. Quelle est la dimension de \(E_{1}\)? Donner une base de cet sous-espace vectoriel.
  4. Déterminer une base de \(E_{-2}\) et en déduire une matrice de passage orthogonale vers une base de diagonalisation de \(A\).

Exercice 5.4 Soit \(A\) une matrice de \(\mathrm{M}_n(\mathbf{R})\). On considère la matrice \(S=^tAA\).

  1. Montrer que \(S\) est symétrique positive.
  2. Démontrer que \(S\) est définie positive si et seulement si \(A\) est inversible.
  3. Justifier que réciproquement si on a une matrice symétriqe positive \(S\) alors il existe une matrice \(A\) tel que \(S=^tAA\). On pourra traiter le cas où \(S\) est diagonale en premier.