Chapitre 3 Changements de bases
3.1 Matrice inversible
Définition 3.1 Une matrice carrée \(A\in\mathrm{M}_{n}(\mathbf{K})\) est inversible s’il existe \(B\in\mathrm{M}_{n}(\mathbf{K})\) telle que \(AB=BA=I_n\).
Dans ce cas, on appelle \(B\) l’inverse de \(A\) et on la note \(A^{-1}\).
Exemple 3.1 Voici quelques exemples simples.
- La matrice \(I_n\) est inversible, d’inverse elle-même car \(I_n^2=I_n\).
- La matrice \(\begin{bmatrix}1&1\\0&1\end{bmatrix}\) est inversible d’inverse \(\begin{bmatrix}1&-1\\0&1\end{bmatrix}\).
Proposition 3.1 Une matrice carrée \(A\in\mathrm{M}_{n}(\mathbf{K})\) est inversible si et seulement si l’application linéaire associée est bijective.
Preuve. Soit \(f\) l’application linéaire associée à la matrice \(A\). Alors \(f\) est bijective si et seulement s’il existe une application réciproque \(g\colon\mathbf{K}^n\to\mathbf{K}^n\) telle que \(f\circ g=g\circ f=\mathrm{id}\). Montrons que dans ce cas, \(g\) est linéaire :
Soit \(v_1,v_2\in\mathbf{K}^n\), posons \(u_1=g(v_1)\) et \(u_2=g(v_2)\) alors \(f(u_i)=f\circ g(v_i)=v_i\). Ainsi
\[\begin{align*} g(v_1+v_2)&=g(f(u_1)+f(u_2))\\ &=g(f(u_1+u_2))\\ &=u_1+u_2\\ &=g(v_1)+g(v_2). \end{align*}\]
De même pour \(\lambda\in\mathbf{K}\),
\[\begin{align*} g(\lambda v_1)&=g(\lambda f(u_1))\\ &=g(f(\lambda u_1))\\ &=\lambda u_1\\ &=\lambda g(v_1). \end{align*}\]
Ce qui montre que \(g\) est bien linéaire.
Soit \(B=\mathrm{Mat}_{\mathcal{B}}(g)\) où \(\mathcal{B}\) est la base canonique de \(\mathbf{K}^n\). Alors
\[\begin{align*} I_n &=\mathrm{Mat}_{\mathcal{B}}(\mathrm{id})\\ &=\mathrm{Mat}_{\mathcal{B}}(f\circ g)\\ &=\mathrm{Mat}_{\mathcal{B}}(f)\mathrm{Mat}_{\mathcal{B}}(g)\\ &=AB \end{align*}\]
De manière analogue, en utilisant \(g\circ f\), on montre que \(BA=I_n\).
Réciproquement, s’il existe \(B\in\mathrm{Mat}_n(\mathbf{K})\) telle que \(AB=BA=I_n\) alors en notant \(g\) l’application linéaire associée à \(B\), le même calcul que ci-dessus montre que \(f\circ g=\mathrm{id}\) et \(g\circ f=\mathrm{id}\).
Proposition 3.2 Soit \(A\in\mathrm{M}_n(\mathbf{K})\) une matrice carrée. La matrice \(A\) est inversible si seulement si l’image d’une base est aussi une base.
Preuve. On suppose \(A\) inversible. Soit \((e_1,\dots,e_n)\) une base de \(\mathbf{K}^n\). Comme \(A\) est surjective, pour tout vecteur \(Y\), il existe \(X=[x_i]\) tel que \(Y=AX\), ce qui donne \[Y=\sum_{i=1}^n x_iAe_i\] et donc la famille \((Ae_i)_{i=1}^n\) est une famille génératrice. Comme son cardinal est égal à la dimension, c’est une base. Ainsi l’image d’une base par une matrice inversible est une base.
Réciproquement, on suppose que l’image d’une base est une base. Par exemple, la famille des vecteurs colonne de \(A\) est l’image de la base canonique, c’est une base donc tout vecteur \(Y\) s’écrit de manière unique \(Y=\sum_{i=1}^n x_iA_i\) où \(x_i\) sont les coordonnées dans la base des vecteurs colonnes \((A_1,\dots,A_n)\) de la matrice \(A\). En posant \(X\) le vecteur colonne \([x_i]_{i=1}^n\), cela se traduit en \(Y=AX\). L’équation \(Y=AX\) d’inconnue \(X\) possède une unique solution donc \(A\) est bijective.
Corollaire 3.1 Soit \(A\in\mathrm{M}_n(\mathbf{K})\) une matrice carrée. La matrice \(A\) est inversible si seulement si la famille des vecteurs colonnes de \(A\) est une base de \(\mathbf{K}^n\).
Preuve. En effet, la famille des colonnes de \(A\) est l’image de la base canonique par l’application linéaire associée à \(A\).
Proposition 3.3 Soit \(A\) une matrice carrée de taille \(n\). L’équation \(AX=B\) d’équation \(X\in\mathbf{K}^n\) possède une unique solution pour tout \(B\in\mathbf{K}^n\) si et seulement \(A\) est inversible.
Dans ce cas, la solution est donnée par \(X=A^{-1}B\)
Preuve. Dire que l’équation \(AX=B\) d’équation \(X\in\mathbf{K}^n\) possède une unique solution pour tout \(B\in\mathbf{K}^n\), signifie exactement que l’application linéaire associée est bijective et on a vu que cela signifie que \(A\) est inversible.
Dans ce cas, on a
\[X=I_nX=A^{-1}AX=A^{-1}B.\]
Le calcul de l’inverse nous permettra donc de résoudre les systèmes linéaires dans le cas où \(A\) est inversible.
Définition 3.2 Une matrice carrée \(T=[T_{i,j}]\in\mathrm{M_n}(\mathbf{K})\) est triangulaire supérieure si \(T_{i,j}=0\) pour tout \(i>j\).
Visuellement, cela signifie que les termes sous la diagonale sont nuls.
Exemple 3.2 La matrice \[A=\begin{bmatrix}1&5&4\\0&2&2\\0&0&1\end{bmatrix}\] est triangulaire supérieure.
Proposition 3.4 Une matrice triangulaire supérieure \(T=[T_{i,j}]\in\mathrm{M_n}(\mathbf{K})\) est inversible si et seulement si les termes diagonaux \(T_{i,i}\) sont tous non nuls.
Preuve. On a vu que \(T\) est inversible si et seulement si pour tout \(Y\in\mathbf{K}^n\), le système \(TX=Y\) possède une unique solution. On montre le résultat annoncé par récurrence sur \(n\).
Cas \(n=1\) : Le système \(TX=Y\) est simplement \(t_{1,1}x_1=y_1\) qui possède une solution pour tout \(y_1\) si et seulement si \(t_{1,1}\neq0\). Dans ce cas la solution est \(x_1=\frac{y_1}{t_{1,1}}\).
Cas \(n>1\) : On suppose le résultat pour \(n-1\). Le système \(TX=Y\) s’écrit
\[\left\{\begin{matrix}t_{1,1}x_1&+&t_{1,2}x_2&+&\dots&+&t_{1,n}x_n&=&y_1\\ &&t_{2,2}x_2&+&\dots&+&t_{2,n}x_n&=&y_2\\ &&&&\ddots&&\vdots&=&\ \vdots\\ &&&&&&t_{n,n}x_n&=&y_n\\ \end{matrix}\right.\] Pour que ce système ait une solution pour tout \(Y\), on a nécessairement \(t_{n,n}\neq0\) et dans ce cas \(x_n=\frac{y_n}{t_{n,n}}\). On pose \[T'=\begin{bmatrix}t_{1,1}&\dots&\dots&t_{1,n-1}\\0&\ddots&&\vdots\\\vdots&\ddots&\ddots&\vdots\\0&\cdots&0&t_{n-1,n-1}\end{bmatrix},\] \[X'=\begin{bmatrix}x_1\\\vdots\\x_{n-1}\end{bmatrix},\] et \[Y'=\begin{bmatrix}y_1-t_{1,n}x_n\\\vdots\\y_{n-1}-t_{n-1,n}x_n\end{bmatrix}=\begin{bmatrix}y_1-t_{1,n}\frac{y_n}{t_{n,n}}\\\vdots\\y_{n-1}-t_{n-1,n}\frac{y_n}{t_{n,n}}\end{bmatrix}.\] Le système \(TX=Y\) est alors équivalent à
\[\left\{\begin{matrix} x_n&=\frac{y_n}{t_{n,n}}\\ T'X'&=Y' \end{matrix}\right.\]
Ainsi, \(TX=Y\) a unique solution pour tout \(Y\) si seulement si \(t_{n,n}\neq0\) et \(T'X'=Y'\) a une solution unique pour tout \(Y'\in\mathbf{K}^{n-1}\). Par hypothèse de récurrence, c’est équivalent à \(t_{n,n}\neq0\) et les coefficients diagonaux sont tous non nuls. Comme les coefficients de \(T'\) sont \(t_{1,1},\dots,t_{n-1,n-1}\), on a bien que \(TX=Y\) possède une unique solution pour tout \(Y\) si et seulement tous les coefficients diagonaux de \(T\) sont non nuls.
Remarque. Dans la preuve de la Proposition 3.4, on a résolu le système \(TX=Y\) par substitutions. Grâce à la dernière ligne, on trouve la valeur de \(x_n\) puis on injecte cette valeur dans l’avant-dernière ligne et on trouve ainsi la valeur de \(x_{n-1}\). On remonte ainsi le système jusqu’à obtenir la valeur de \(x_1\).
Exemple 3.3 On reprend l’exemple de la matrice
\[A=\begin{bmatrix}1&5&4\\0&2&2\\0&0&1\end{bmatrix}\] Cette matrice a des coefficients diagonaux tous non nuls, elle est donc inversible. Le système \(AX=Y\) s’écrit
\[\left\{\begin{matrix}x_1&+&5x_2&+&4x_3&=&y_1\\ &&2x_2&+&2x_3&=&y_2\\ &&&&x_3&=&y_3\end{matrix}\right.\] On résout le système en partant de la dernière ligne et on remonte
\[\left\{\begin{matrix}x_1+5x_2&=&y_1-4y_3\\ x_2&=&\frac{1}{2}y_2-y_3\\ x_3&=&y_3\end{matrix}\right.\]
\[\left\{\begin{matrix}x_1&=&y_1&-&\frac{5}{2}y_2&+&y_3\\ x_2&=&&&\frac{1}{2}y_2&-&y_3\\ x_3&=&&&&&y_3\end{matrix}\right.\]
Ainsi, l’inverse de la matrice \(A\) est
\[A^{-1}=\begin{bmatrix}1&-\frac{5}{2}&1\\0&\frac{1}{2}&-1\\0&0&1\end{bmatrix}.\]
Remarque. D’un point de vue pratique, le calcul de l’inverse d’une matrice est très important. Pour les matrices triangulaires, ce calcul est assez simple avec la méthode de substitutions qui intervient dans la preuve de la Proposition 3.4.
Pour une matrice non triangulaire, une méthode consiste à s’y ramener, c’est la méthode du pivot de Gauss (que vous avez vue) qui permet dans une première étape d’obtenir une matrice triangulaire puis de résoudre par substitutions.
Le déterminant d’une matrice est un outil calculatoire qui permet, entre autres, de savoir si une matrice carrée est inversible.
3.2 Déterminant
Pour une matrice carrée (ce qui correspond à une application de \(\mathbf{K}^n\) dans lui-même), on peut vérifier de manière calculatoire si l’application associée est injective et surjective, c’est-à-dire bijective, grâce à son déterminant.
Définition 3.3 (Déterminant d'une matrice carée) Soit \(A=[a_{i,j}]\in\mathrm{M}_n(\mathbf{K})\) une matrice carrée. On définit récursivement sur \(n\) le nombre \(\det(A)\in\mathbf{K}\) appelé déterminant de \(A\).
Cas \(n=1\) \[\det(A)=a_{1,1}.\] Cas \(n\geq2\)
On appelle cofacteur d’indices \((i,j)\) le nombre \(C_{i,j}\) défini comme étant le produit \((-1)^{i+j}\det(\overline{A}_{i,j})\) où \(\overline{A}_{i,j}\) est la comatrice d’indices \((i,j)\) obtenue en retirant la \(i\)-ième ligne et \(j\)-ième colonne à \(A\). Le déterminant de \(A\) est pour un \(j\) fixé.
\[\det(A)=\sum_{i=1}^na_{i,j}C_{i,j}\]
Remarque. Le résultat de la formule du déterminant ne dépend pas de \(j\). La formule pour un \(j\) fixé s’appelle le développement par rapport à la \(j\)-ième colonne.
Remarque. Si \(n=2\), la formule donne pour \[A=\begin{bmatrix}a_{1,1}&a_{1,2}\\a_{2,1}&a_{2,2}\end{bmatrix}\]
\[\det(A)=a_{1,1}a_{2,2}-a_{1,2}a_{2,1}.\]
Exemple 3.4 Si \(A=\begin{bmatrix}1&2\\3&6\end{bmatrix}\) alors \[\det(A)=1\times 6-2\times 3=0.\]
Si \[A=\begin{bmatrix}1&2&4\\0&2&1\\1&0&2\end{bmatrix}\] alors en développant par rapport à la première colonne
\[\begin{align*}\det(A)&=1\times\det\left(\begin{bmatrix}2&1\\0&2\end{bmatrix}\right)+0\times\det\left(\begin{bmatrix}2&4\\0&2\end{bmatrix}\right)+1\times\det\left(\begin{bmatrix}2&4\\2&1\end{bmatrix}\right)\\ &=1\times(2\times 2 -0\times 1)+0+1\times(2\times 1-2\times 4)\\ &=-2 \end{align*}\]
Proposition 3.5 Pour une matrice triangulaire supérieure \(T=\left[t_{i,j}\right]\), le déterminant de \(T\) est le produit des coefficients diagonaux, c’est-à-dire \[\det(T)=t_{1,1}\times\cdots\times t_{n,n}.\]
Preuve. On prouve le résultat par récurrence sur \(n=1\).
Pour \(n=1\), le résultat est évident puisqu’il n’y a qu’un seul coefficient qui est diagonal.
On suppose le résultat pour \(n-1\geq 1\). On développe le déterminant de \(T\) par rapport à la première colonne. Le seul terme non nul est \(t_{1,1}\det(T')\) où \(T'=\left[t_{i,j}\right]_{2\leq i,j\leq n}\). Comme \(T'\) est triangulaire de taille \(n-1\), par hypothèse de récurrence \(\det(T')=t_{2,2}\times \dots\times t_{n,n}\) et donc \(\det{T}=t_{1,1}\times t_{2,2}\times\dots\times t_{n,n}\).
Par principe de récurrence, le résultat est acquis pour tout \(n\in\mathbf{N}\).
Théorème 3.1 Soit \(A\) une matrice carrée. La matrice \(A\) est inversible si et seulement si \(\det(A)\neq0\).
Nous ne démontrerons pas ce théorème qui est un résultat assez technique.
Remarque. La définition du déterminant est récursive : pour calculer un déterminant de taille \(n\), on se ramène à \(n\) problèmes de taille \(n-1\). Le problème de taille 1, se résout en temps constant donc par récurrence, la complexité du calcul du déterminant est \(n\times(n-1)\times\dots2\times1=n!\).
Le calcul de l’inverse d’une matrice de taille \(n\) se fait en \(O(n^3)\) avec la méthode du pivot de Gauss.
Ainsi, il est bien plus efficace de calculer l’inverse d’une matrice que de calculer son déterminant en utilisant la définition ! En pratique, pour calculer le déterminant, on n’utilise pas la définition, mais plutôt d’autres méthodes. Par exemple, dans la méthode du pivot de Gauss, on peut s’arrêter lorsque l’on obtient une matrice triangulaire supérieure. À ce moment-là, le déterminant est simplement le produit des termes diagonaux et cela donne une méthode de complexité \(O(n^3)\).
Remarque. Pour une matrice triangulaire supérieure, le déterminant est le produit des termes diagonaux. Le théorème ci-dessus permet alors de retrouver le résultat précédant : une matrice triangulaire est inversible si et seulement ses termes diagonaux sont tous non nuls.
3.3 Matrice de passage
Définition 3.4 (matrice de passage) Soit \(\mathcal{B}=(e_i)_{1\leq j\leq n}\) et \(\mathcal{B}'=(e'_j)_{1\leq j\leq n}\) deux bases de \(\mathbf{K}^n\). Soit \((p_{i,j})_{1\leq i\leq n}\) les coefficients de \(e'_j\) dans la base \(\mathcal{B}\). La matrice de passage de la base \(\mathcal{B}\) à la base \(\mathcal{B}'\) est la matrice
\[P=\left[p_{i,j}\right]_{1\leq i,j\leq n}.\]
Remarque. On note parfois cette matrice de passage de \(\mathcal{B}\) à \(\mathcal{B}'\), \(P_\mathcal{B}^\mathcal{B'}\).
Remarque. Dans la Définition 3.4, on a
\[e'_j=p_{1,j}e_1+\dots+p_{n,j}e_n.\] Ce qui signifie que les colonnes de \(P\) sont constituées des vecteurs \(e'_1,\dots,e'_n\) exprimées dans la base initiale \(\mathcal{B}\).
Si \(X'\) est un vecteur contenant les coordonnées \((X'_j)_{1\leq j\leq n}\) d’un vecteur \(u\) dans la base \(\mathcal{B}'\) alors le vecteur colonne \(X=PX'\) contient les coordonnées de \(u\) dans la base \(\mathcal{B}\).
En effet, on a \(u=\sum_{j=1}^n X'_je'_j\) ce qui donne
\[\begin{align*} u&=\sum_{j=1}^nX'_j\left(\sum_{i=1}^np_{i,j}e_i\right)\\ &=\sum_{i=1}^n\left(\sum_{j=1}^np_{i,j}X'_j\right)e_i\\ &=\sum_{i=1}^nX_ie_i. \end{align*}\]
Ainsi, \((X_i)\) sont les coordonnées de \(u\) dans la base \(\mathcal{B}\).
Une autre manière d’exprimer la même chose est de dire que \(P=\mathrm{Mat}_{\mathcal{B}',\mathcal{B}}(\mathrm{id})\). On prendra bien garde à l’ordre des bases !
Remarque. Toute matrice inversible \(A\in\mathrm{M}_n(\mathbf{K})\) peut être interprétée comme une matrice de passage, c’est la matrice de passage de la base canonique \(\mathcal{B}\) de \(\mathbf{K}^n\) vers l’image de \(\mathcal{B}\) par \(A\). En effet, les colonnes de \(A\) sont les images des vecteurs de la base canonique par \(A\). On sait que c’est aussi une base par la Proposition 3.2.
Exemple 3.5 Si \(\mathcal{B}\) est la base canonique de \(\mathbf{R}^2\) et \(\mathcal{B}'\) est la base constituée des vecteurs \(e'_1=\begin{bmatrix}1\\1\end{bmatrix}\) et \(e'_2=\begin{bmatrix}1\\-1\end{bmatrix}\) alors la matrice de passage de \(\mathcal{B}\) à \(\mathcal{B}'\) est
\[P=\begin{bmatrix}1&1\\1&-1\end{bmatrix}.\] Un vecteur de coordonnées \(X'=(x',y')\) dans la base \(\mathcal{B}'\) a pour coordonnées \(X=(x,y)=PX'\) dans la base \(\mathcal{B}\), c’est-à-dire que les coordonnées sont liées par les relations
\[\left\{\begin{matrix} x&=x'+y'\\ y&=x'-y' \end{matrix}.\right.\] Par exemple, le vecteur de coordonnées \((5,1)\) dans la base canonique a pour coordonnées \((3,2)\) dans la base \(\mathcal{B}'\).
Proposition 3.6 Si \(P\) est la matrice de passage de la base de la base \(\mathcal{B}\) à la base \(\mathcal{B}'\) alors \(P\) est inversible et la matrice de passage de la base de la base \(\mathcal{B}'\) à la base \(\mathcal{B}\) est la matrice \(P^{-1}\).
Preuve. On a vu que \(P=\mathrm{Mat}_{\mathcal{B}',\mathcal{B}}(\mathrm{id})\) et comme l’identité est une bijection, on a bien que \(P\) est inversible.
Comme l’inverse de l’identité est l’identité, on a \[P^{-1}=\mathrm{Mat}_{\mathcal{B},\mathcal{B}'}(\mathrm{id})\] et ainsi on reconnaît que la matrice de passage de \(\mathcal{B}'\) à \(\mathcal{B}\) est \(P^{-1}\).
Exemple 3.6 On reprend les bases de l’Exemple 3.5. La matrice de passage de la base \(\mathcal{B}'\) à la base \(\mathcal{B}\) est \[\begin{align*} P^{-1}&=\frac{-1}{2}\begin{bmatrix}-1&-1\\-1&1\end{bmatrix}\\ &=\begin{bmatrix}\frac{1}{2}&\frac{1}{2}\\ \frac{1}{2}&-\frac{1}{2}\end{bmatrix} \end{align*}\]
Exemple 3.7 On se donne le vecteur \(u\) de coordonnées \((2,1)\) dans la base \(\mathcal{B}'\). Quelles sont ses coordonnées dans la base \(\mathcal{B}\) ?
Pour cela on effectue le calcul \[P\begin{bmatrix}2\\1\end{bmatrix}=\begin{bmatrix}1&1\\1&-1\end{bmatrix}\begin{bmatrix}2\\1\end{bmatrix}=\begin{bmatrix}3\\1\end{bmatrix}.\] Les coordonnées de \(u\) dans la base \(\mathcal{B}\) sont donc (3,1).
Réciroquement, on se donne \(v\) de coordonnées \((2,4)\) dans la base \(\mathcal{B}\). Quelles sont ses coordonnées dans la base \(\mathcal{B}'\).
Pour cela on effectue le calcul \[P^{-1}\begin{bmatrix}2\\4\end{bmatrix}=\begin{bmatrix}\frac{1}{2}&\frac{1}{2}\\ \frac{1}{2}&-\frac{1}{2}\end{bmatrix}\begin{bmatrix}2\\4\end{bmatrix}=\begin{bmatrix}1\\-1\end{bmatrix}.\]
3.4 Formule de changement de bases
Soit \(f\) une application linéaire de \(\mathbf{K}^n\) dans lui-même. Si on connaît la matrice \(A\) de \(f\) dans une base \(\mathcal{B}\), quelle est la matrice de \(f\) dans une autre base \(\mathcal{B}'\) ? La formule de changement de bases ci-dessous donne la réponse à cette question.
Proposition 3.7 Soit \(f\) une application linéaire de \(\mathbf{K}^n\) dans lui-même et \(\mathcal{B},\mathcal{B}'\) deux bases de \(\mathbf{K}^n\). Si \(A'=\mathrm{Mat}_{\mathcal{B}'}(f), A=\mathrm{Mat}_\mathcal{B}(f)\) et \(P\) est la matrice de passage de \(\mathcal{B}\) vers \(\mathcal{B}'\). Alors
\[A=PA'P^{-1},\]
ou de manière équivalente,
\[A'=P^{-1}AP.\]
Remarque. On peut apprendre cette formule par coeur (et l’oublier) et on peut aussi lui donner du sens pour la retrouver.
- La matrice \(A'\) mange des vecteurs exprimés dans la base \(\mathcal{B}'\) et retourne des vecteurs exprimés dans la base \(\mathcal{B}'\).
- La matrice \(A\) mange des vecteurs exprimés dans la base \(\mathcal{B}\) et retourne des vecteurs exprimés dans la base \(\mathcal{B}\).
- La matrice \(P\) mange des vecteurs exprimés dans la base \(\mathcal{B}'\) et retourne des vecteurs exprimés dans la base \(\mathcal{B}\).
- La matrice \(P^{-1}\) mange des vecteurs exprimés dans la base \(\mathcal{B}\) et retourne des vecteurs exprimés dans la base \(\mathcal{B}'\).
Ainsi, en lisant la formule de changement de bases de la droite vers la gauche, on obtient le diagramme suivant :
\[\mathcal{B}\overset{A}{\longleftarrow}\mathcal{B}=\mathcal{B}\overset{P}{\longleftarrow}\mathcal{B}'\overset{A'}{\longleftarrow}\mathcal{B}'\overset{P^{-1}}{\longleftarrow}\mathcal{B}.\]
Preuve. Soit \(u\) vecteur de \(\mathbf{K}^n\). Soit \(X\) le vecteur colonne de ses coordonnées dans la base \(\mathcal{B}'\). Ainsi \(P^{-1}X\) est le vecteur colonne des coordonnées de \(u\) dans la base \(\mathcal{B}\). Le vecteur colonne \(AP^{-1}X\) est donc le vecteur colonne des coordonnées de \(f(u)\) dans la base \(\mathcal{B}\). Finalement, \(PAP^{-1}X\) est le vecteur colonne des coordonnées de \(f(u)\) dans la base \(\mathcal{B}'\). Ainsi, \(PAP^{-1}\) est bien la matrice de l’application linéaire \(f\) dans la base \(\mathcal{B}'\).
Exemple 3.8 On reprend les bases \(\mathcal{B}\) et \(\mathcal{B}'\) de \(\mathbf{R}^2\) où \(\mathcal{B}\) est la base canonique et \(\mathcal{B}'\) est la base de vecteurs \(e'_1=(1,1)\) et \(e'_2=(1,-1)\).
Soit \(A'=\begin{bmatrix}1&0\\0&2\end{bmatrix}\) la matrice d’une application linéaire \(f\colon\mathbf{R}^2\to\mathbf{R}^2\) dans la base \(\mathcal{B}'\). La matrice \(A\) de \(f\) dans la base \(\mathcal{B}\) est donc
\[\begin{align*} A=PA'P^{-1}&=\begin{bmatrix}1&1\\1&-1\end{bmatrix}\begin{bmatrix}1&0\\0&2\end{bmatrix}P^{-1}\\ &=\begin{bmatrix}1&2\\1&-2\end{bmatrix}P^{-1}\\ &=\begin{bmatrix}1&2\\1&-2\end{bmatrix}\times\frac{1}{2}\begin{bmatrix}1&1\\1&-1\end{bmatrix}\\ &=\begin{bmatrix}3/2&-1/2\\-1/2&3/2\end{bmatrix} \end{align*}\]
Dans la base \(\mathcal{B}'\), la matrice de \(f\) est bien plus simple que celle dans la base canonique. Si on fait des calculs avec \(f\), on aura intérêt à les faire dans la base \(\mathcal{B}'\).
Exemple 3.9 On continue avec le même changement de bases. Maintenant, si \(A=\begin{bmatrix}3/2&-1/2\\1/2&1/2\end{bmatrix}\) alors on calcule \(A'\) de la manière suivante.
\[\begin{align*} A'&=P^{-1}AP\\ &=\frac{1}{2}\begin{bmatrix}1&1\\1&-1\end{bmatrix}\begin{bmatrix}3/2&-1/2\\1/2&1/2\end{bmatrix}\begin{bmatrix}1&1\\1&-1\end{bmatrix}\\ &=\frac{1}{2}\begin{bmatrix}2&0\\1&-1\end{bmatrix}\begin{bmatrix}1&1\\1&-1\end{bmatrix}\\ &=\frac{1}{2}\begin{bmatrix}2&2\\0&2\end{bmatrix}\\ &=\begin{bmatrix}1&1\\0&1\end{bmatrix} \end{align*}\]
3.5 Exercices
Exercice 3.1 Soit \(A=\begin{bmatrix}a&b\\c&d\end{bmatrix}\in\mathrm{M}_2(\mathbf{K})\).
- Montrer que si \(ad-bc\neq0\) alors \(A\) est inversible d’inverse \[A^{-1}=\frac{1}{ad-bc}\begin{bmatrix}d&-b\\-c&a\end{bmatrix}.\]
- Calculer l’inverse de la matrice \[\begin{bmatrix}1&3\\5&7\end{bmatrix}.\]
- Bonus : Reprendre la devinette de l’introduction du cours et résoudre le problème en inversant une certaine matrice.
Exercice 3.2 Calculer les déterminants des matrices suivantes et dire si elles sont inversibles ou non.
- \(\begin{bmatrix}1&2&3\\0&1&-1\\ 1&0&2\end{bmatrix}\)
- \(\begin{bmatrix}1&2&1&0\\0&1&-1&1\\ 1&0&2&1\\ 0&1&2&0\end{bmatrix}\)
- \(\begin{bmatrix}1&0&1\\1&1&0\\0&1&1\end{bmatrix}\) (on distinguera le cas \(\mathbf{K}=\mathbf{R}\) et \(\mathbf{K}=\mathbf{F}_2\)).
Exercice 3.3 On considère les trois vecteurs \(\mathbf{R}^{3}\) suivant: \[u_{1}=\begin{pmatrix} 1\\ -2\\ 1 \end{pmatrix}\quad u_{2}=\begin{pmatrix} -1\\ 3\\ 1 \end{pmatrix}\quad u_{3}=\begin{pmatrix} 1\\ 1\\ 1 \end{pmatrix}\]
- Montrer que \(\mathcal{B}'=(u_{1},u_{2},u_{3})\) est une base de \(\mathbf{R}^{3}\)
- Déterminer \(P_{\mathcal{B}}^{\mathcal{B}'}\) la matrice de passage de la base canonique \(\mathcal{B}\) à la base \(\mathcal{B}'\).
- Calculer la matrice de passage de \(\mathcal{B}'\) à \(\mathcal{B}\).
- Soit \(v=u_{1}+2u_{2}+3u_{3}\). Quelles sont les coordonnées de \(v\) dans la base canonique.
- Soit \(w=e_{1}+2e_{2}+3e_{3}\) dans la base canonique. Quelles sont les coordonnées de \(w\) dans la base \(\mathcal{B}'\).
Exercice 3.4 On considère l’espace \(\mathbf{R}^3\) muni de la base canonique \(\mathcal{B}=(e_1,e_2,e_3)\).
- Montrez que les vecteurs \(e'_1=(2,-1,-2)\), \(e'_2=(1,0,-1)\) et \(e'_3=(-2,1,3)\) forment une base \(\mathcal{B}'\) de \(\mathbf{R}^3\).
- Donner les matrices de passage d’une base à l’autre.
- Soit \(f\) l’application linéaire associée à la matrice \(A=\begin{bmatrix}9&-6&10\\-5&2&-5\\-12&6&-13\end{bmatrix}\). Calculer la matrice de \(f\) dans la base \(\mathcal{B}'\).
Exercice 3.5 (Lights Out) Lights out est un jeu de réflexion constitué d’une grille carrée de taille \(n\times n\) où les cases sont allumées ou éteintes. En appuyant sur une case, on change l’état (allumée ou éteinte) de la case et de ses voisines verticalement ou horizontalement. Le but est d’éteindre toutes les lampes à partir d’une configuration initiale. Vous pouvez jouer en ligne à cette adresse : https://daattali.com/shiny/lightsout/ ou https://www.artbylogic.com/puzzles/gridLights/gridLights.htm. Il existe aussi des versions sur les stores pour iOS et Android.
On représentera une configuration par une matrice de \(\mathrm{M}_n(\mathbf{F}_2)\) où un 1 signifiera que la case correspondante est allumée et un 0 que la case est éteinte. On commence par étudier le jeu en dimension \(n\in\mathbf{N}\) quelconque puis on se concentrera sur le cas \(n=2\). Les deux premières questions sont là pour se rappeler comment représenter une matrice par un vecteur colonne.
- Donner le vecteur colonne dans la base canonique de \(\mathrm{M}_2(\mathbf{F}_2)\) associé aux matrices suivantes. \[\begin{bmatrix}1&0\\0&0\end{bmatrix},\ \begin{bmatrix}1&0\\1&0\end{bmatrix},\ \begin{bmatrix}1&1\\1&1\end{bmatrix}.\]
- Réciproquement, donner la matrice correspondant aux vecteurs colonnes suivants. \[\begin{bmatrix}0\\1\\0\\1\end{bmatrix},\ \begin{bmatrix}1\\1\\1\\0\end{bmatrix}.\]
On note \(C_{i,j}\) la matrice de \(\mathrm{M}_n(\mathbf{F}_2)\) avec des zéros partout sauf en position \((i,j),(i\pm1,j),(i,j\pm1)\) tant que \(i\pm1,j\pm1\in\{1,\dots,n\}\).
- Justifier que si le jeu est dans la configuration \(A\in\mathrm{M}_n(\mathbf{F}_2)\) alors après avoir appuyé sur la case de coordonnées \((i,j)\), la nouvelle configuration est \(A+C_{i,j}\).
- Justifier que l’ordre dans lequel on appuie sur les cases n’a pas d’importance. Quelle propriété avez-vous utilisée ?
- Justifier que pour résoudre le problème, il suffit d’appuyer au plus une fois sur une case.
Soit \(A\in\mathrm{M}_n(\mathbf{F}_2)\) une configuration initiale. On appelle solution pour \(A\), une matrice \(S=[s_{i,j}]\in\mathrm{M}_n(\mathbf{F}_2)\) telle qu’en appuyant sur les cases \((i,j)\) telles que \(s_{i,j}=1\) on éteint toutes les lampes.
Vérifier que si \(A=\begin{bmatrix}1&1\\1&0\end{bmatrix}\) et alors \(S=\begin{bmatrix}1&0\\0&0\end{bmatrix}\) est une solution pour \(A\). De même si \(A=\begin{bmatrix}0&0&0\\1&1&1\\1&0&1\end{bmatrix}\) alors \(S=\begin{bmatrix}0&1&0\\1&1&1\\1&1&1\end{bmatrix}\) est une solution pour \(A\).
Montrer que si \(S\) est une solution pour \(A\) quelconque alors \(A=\sum_{1\leq i,j\leq n}s_{i,j}C_{i,j}\).
Justifier que l’on peut résoudre le jeu pour toute configuration initiale \(A\in\mathrm{M}_n(\mathbf{F}_2)\) si et seulement si l’espace vectoriel engendré par \(\{C_{i,j}\}_{1\leq i,j\leq n}\) est \(\mathrm{M}_n(\mathbf{F}_2)\) tout en entier.
Donner la matrice \(P\in\mathrm{M}_4(\mathbf{F}_2)\) dont les colonnes sont les vecteurs colonnes \(C_{1,1},C_{2,1},C_{1,2},C_{2,2}\) exprimés dans la base canonique de \(\mathrm{M}_2(\mathbf{F}_2)\).
Calculer \(P^2\).
Justifier que la matrice \(P\) est inversible et donner son inverse.
Comment interpréter \(P\) en tant que matrice de passage ?
Montrer que pour toute configuration initiale \(A\in \mathrm{M}_n(\mathbf{F}_2)\), il existe une unique solution. Comment l’obtenir à partir avec \(P\) ?
Donner la solution pour les configurations initiales suivantes :
\[\begin{bmatrix}1&0\\0&0\end{bmatrix},\ \begin{bmatrix}1&0\\1&0\end{bmatrix},\ \begin{bmatrix}1&1\\1&1\end{bmatrix}.\]
Exercice 3.6 Soit \(A\) une matrice carrée inversible de taille \(n\). En partant de la relation \(AA^{-1}=I_n\), démontrer que \(^tA\) est aussi inversible et que \(^t(A^{-1})=(^tA)^{-1}\).
En déduire qu’une matrice carrée \(A\) est inversible si et seulement \(^tA\) est inversible si et seulement si la famille des lignes de \(A\) forment une base de \(\mathbf{K}^n\).
Exercice 3.7 Soit trois vecteurs \(e_1,e_2,e_3\) formant une base de \(\mathbf{R}^3\). On note \(\phi\) l’application linéaire définie par \(\phi(e_1)=e_3\), \(\phi(e_2)=-e_1+e_2+e_3\) et \(\phi(e_3)=e_3\).
- Écrire la matrice \(A\) de \(\phi\) dans la base \((e_1,e_2,e_3)\).
- On pose \(f_1=e_1-e_3\), \(f_2=e_1-e_2\), \(f_3=-e_1+e_2+e_3\). Calculer \(e_1,e_2,e_3\) en fonction de \(f_1,f_2,f_3\). Les vecteurs \(f_1,f_2,f_3\) forment-ils une base de \(\mathbf{R}^3\) ?
- Calculer \(\phi(f_1), \phi(f_2), \phi(f_3)\) en fonction de \(f_1,f_2,f_3\). Écrire la matrice \(B\) de \(\phi\) dans la base \((f_1,f_2,f_3)\) et trouver la nature de l’application \(\phi\).
- On pose \(P=\begin{pmatrix}1&1&-1\cr 0&-1&1\cr-1&0&1\cr\end{pmatrix}\). Pourquoi \(P\) est-elle inversible ? Quelle matrice reconnaissez-vous ?
- Calculer \(P^{-1}\). Quelle relation lie \(A\), \(B\), \(P\) et \(P^{-1}\) ?