Pour ce qui suivre, il est important de poser les définitions suivantes :
Soit deux matrices \((A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2\) de même taille.
Autrement dit, on additionne chaque élément de la matrice de gauche avec l'élément de même position de celle de droite :
$$A + B = \begin{pmatrix} a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1, p} \\ a_{2,1} & a_{2,2} & a_{2,3} & \dots & a_{2, p} \\ \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\ a_{n,1} & a_{n,2} & a_{n,3} & \dots & a_{n, p} \end{pmatrix} + \begin{pmatrix} b_{1,1} & b_{1,2} & b_{1,3} & \dots & b_{1, p} \\ b_{2,1} & b_{2,2} & b_{2,3} & \dots & b_{2, p} \\ \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\ b_{n,1} & b_{n,2} & b_{n,3} & \dots & b_{n, p} \end{pmatrix} $$
$$A + B = \begin{pmatrix} a_{1,1} + b_{1,1} & a_{1,2} + b_{1,2} & a_{1,3} + b_{1,3} & \dots & a_{1, p} + b_{1, p} \\ a_{2,1} + b_{2,1} & a_{2,2} + b_{2,2} & a_{2,3} + b_{2,3} & \dots & a_{2, p} + b_{2,p} \\ \hspace{2em} \vdots & \hspace{2em} \vdots & \hspace{2em} \vdots & \ddots & \hspace{2em} \vdots \\ a_{n,1} + b_{n,1} & a_{n,2} + b_{n,2} & a_{n,3} + b_{n,3} & \dots & a_{n, p} + b_{n,p} \end{pmatrix} $$
Soit deux matrices \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\) et \(B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\).
Pour multiplier deux matrices, on a besoin que le matrice de gauche ait le même nombre de colonnes que le nombre de lignes de la matrice de droite (ici \(p\)). Le résultat est une matrice \(AB \in \hspace{0.03em} \mathcal{M}_{n,q} (\mathbb{K})\), donc avec \(n\) lignes et \(q\) colonnes.
Par exemple :
$$A \times B = \begin{pmatrix} a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1, p} \\ a_{2,1} & a_{2,2} & a_{2,3} & \dots & a_{2, p} \\ \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\ a_{n,1} & a_{n,2} & a_{n,3} & \dots & a_{n, p} \end{pmatrix} \times \begin{pmatrix} b_{1,1} & b_{1,2} & b_{1,3} & \dots & b_{1, q} \\ b_{2,1} & b_{2,2} & b_{2,3} & \dots & b_{2, q} \\ \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\ b_{p,1} & b_{p,2} & b_{p,3} & \dots & b_{p, q} \end{pmatrix} $$
$$A \times B = \begin{pmatrix} \Bigl[a_{1,1} b_{1,1} + a_{1,2} b_{2,1} \ + \ ... \ + \ a_{1,p} b_{p,1} \Bigr] & \Bigl[a_{1,1} b_{1,2} + a_{1,2} b_{2,2} \ + \ ... \ + \ a_{1,p} b_{p,2}\Bigr] & \hspace{1em} \dots \dots \dots \hspace{1em} & \Bigl[a_{1,1} b_{1,q} + a_{1,2} b_{2,q} \ + \ ... \ + \ a_{1,p} b_{p,q}\Bigr] \\ \Bigl[a_{2,1} b_{1,1} + a_{2,2} b_{2,1} \ + \ ... \ + \ a_{2,p} b_{p,1}\Bigr] & \Bigl[a_{2,1} b_{1,2} + a_{2,2} b_{2,2} \ + \ ... \ + \ a_{2,p} b_{p,2}\Bigr] & \hspace{1em} \dots \dots \dots \hspace{1em} & \Bigl[a_{2,1} b_{1,q} + a_{2,2} b_{2,q} \ + \ ... \ + \ a_{2,p} b_{p,q}\Bigr] \\ \hspace{8em} \vdots & \hspace{8em} \vdots & \hspace{1em} \ddots & \hspace{8em} \vdots \\ \hspace{8em} \vdots & \hspace{8em} \vdots & \hspace{1em} \ddots & \hspace{8em} \vdots \\ \Bigl[a_{n,1} b_{1,1} + a_{n,2} b_{2,1} \ + \ ... \ + \ a_{n,p} b_{p,1}\Bigr] & \Bigl[a_{n,1} b_{1,2} + a_{2,2} b_{2,2} \ + \ ... \ + \ a_{n,p} b_{p,2}\Bigr] & \hspace{1em} \dots \dots \dots \hspace{1em} & \Bigl[a_{n,1} b_{1,q} + a_{n,2} b_{2,q} \ + \ ... \ + \ a_{n,p} b_{p,q}\Bigr] \end{pmatrix} $$
Attention, de manière générale le produit matriciel n'est pas commutatif : \( (A \times B) \neq (B \times A) \).
Soit une matrice \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\).
Lorsque l'on multiplie une matrice par un scalaire, cela affecte tous ses éléments.
Par exemple :
$$A = \begin{pmatrix} a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1, p} \\ a_{2,1} & a_{2,2} & a_{2,3} & \dots & a_{2, p} \\ \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\ a_{n,1} & a_{n,2} & a_{n,3} & \dots & a_{n, p} \end{pmatrix} $$
$$\lambda A = \begin{pmatrix} \lambda \ a_{1,1} & \lambda \ a_{1,2} & \lambda \ a_{1,3} & \dots & \lambda \ a_{1, p} \\ \lambda \ a_{2,1} & \lambda \ a_{2,2} & \lambda \ a_{2,3} & \dots & \lambda \ a_{2, p} \\ \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\ \lambda \ a_{n,1} & \lambda \ a_{n,2} & \lambda \ a_{n,3} & \dots & \lambda \ a_{n, p} \end{pmatrix} $$
Soit deux matrices \((A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2\) de même taille et \((\lambda, \mu) \in \hspace{0.05em} \mathbb{R}^2\).
Avec les propriétés précédentes d'addition et de multiplication par un scalaire, on peut créer des combinaisons linéaires de matrices et alors :
Soit la matrice \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\).
La transposition d'une matrice consiste à inverser les indices de lignes et de colonnes de chaque élément. On note \(A^T\) (ou parfois \(^t A\)) la transposée de la matrice \(A\).
Par exemple :
$$A = \begin{pmatrix} a_{1,1} & \textcolor{#8E5B5B}{a_{1,2}} & \textcolor{#8E5B5B}{a_{1,3}} & \textcolor{#8E5B5B}{\dots} & \textcolor{#8E5B5B}{a_{1, n}} \\ \textcolor{#446e4f}{a_{2,1}} & a_{2,2} & \textcolor{#8E5B5B}{a_{2,3}} & \textcolor{#8E5B5B}{\dots} & \textcolor{#8E5B5B}{a_{2, n}} \\ \textcolor{#446e4f}{a_{3,1}} & \textcolor{#446e4f}{a_{3,2}} & a_{3,3} & \textcolor{#8E5B5B}{\dots} & \textcolor{#8E5B5B}{a_{3, n}} \\ \hspace{1em} \textcolor{#446e4f}{\vdots} & \hspace{1em} \textcolor{#446e4f}{\vdots} & \hspace{1em} \textcolor{#446e4f}{\vdots} & \ddots & \hspace{1em} \textcolor{#8E5B5B}{\vdots} \\ \textcolor{#446e4f}{a_{n,1}} & \textcolor{#446e4f}{a_{n,2}} & \textcolor{#446e4f}{a_{n,3}} & \textcolor{#446e4f}{\dots} & a_{n, n} \\ \end{pmatrix} $$
Alors, sa transposée est :
$$A^T = \begin{pmatrix} a_{1,1} & \textcolor{#446e4f}{a_{2,1}} & \textcolor{#446e4f}{a_{3,1}} & \textcolor{#446e4f}{\dots} & \textcolor{#446e4f}{a_{n, 1}} \\ \textcolor{#8E5B5B}{a_{1,2}} & a_{2,2} & \textcolor{#446e4f}{a_{3,2}} & \textcolor{#446e4f}{\dots} & \textcolor{#446e4f}{a_{n, 2}} \\ \textcolor{#8E5B5B}{a_{1,3}} & \textcolor{#8E5B5B}{a_{2,3}} & a_{3,3} & \textcolor{#446e4f}{\dots} & \textcolor{#446e4f}{a_{n, 3}} \\ \hspace{0.8em} \textcolor{#8E5B5B}{\vdots} & \hspace{0.8em} \textcolor{#8E5B5B}{\vdots} & \hspace{0.8em} \textcolor{#8E5B5B}{\vdots} & \ddots & \hspace{0.8em} \textcolor{#446e4f}{\vdots} \\ \textcolor{#8E5B5B}{a_{1,n}} & \textcolor{#8E5B5B}{a_{2,n}} & \textcolor{#8E5B5B}{a_{3,n}} & \textcolor{#8E5B5B}{\dots} & a_{n, n} \\ \end{pmatrix} $$
Seule la diagonale reste intacte, car si \(i = j\), alors \(a_{i,j} = a_{j,i}\).
Soit la matrice carrée \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) de taille \(n\).
L'inverse de la matrice \(A\) est la matrice notée \(A^{-1}\) telle que : \(A A^{-1} = I_n\)
Une matrice est inversible si et seulement si \(det(A) \neq 0\).
Un système d'équations linéaires \( (S)\), où les inconnues sont les variables \(x_{i,j}\), peut s'écrire sous forme de système de produit matriciel :
$$ (S) \enspace \left \{ \begin{gather*} a_1 x_{1,1} + a_2 x_{1,2} + a_3 x_{1,3} + \hspace{0.1em}... \hspace{0.1em}+ a_n x_{1,p} = b_1 \\ a_1 x_{2,1} + a_2 x_{2,2} + a_3 x_{2,3} + \hspace{0.1em}... \hspace{0.1em}+ a_n x_{2,p} = b_2 \\ ........................ ............. \ = \ ..\\ a_1 x_{n,1} + a_2 x_{n,2} + a_3 x_{n,3} + \hspace{0.1em}... \hspace{0.1em}+ a_n x_{n,p} = b_n \\ \end{gather*} \right \} $$
$$ \underbrace{ \begin{pmatrix} x_{1,1} & x_{1,2} & x_{1,3} & \dots & x_{1, p} \\ x_{2,1} & x_{2,2} & x_{2,3} & \dots & x_{2, p} \\ \hspace{0.8em} \vdots & \hspace{0.8em} \vdots & \hspace{0.8em} \vdots & \ddots & \hspace{0.8em} \vdots \\ x_{n,1} & x_{n,2} & x_{n,3} & \dots & x_{n, p} \\ \end{pmatrix} } _\text{X} \times \underbrace{ \begin{pmatrix} a_1 \\ a_2 \\ \hspace{0.3em}\vdots \\ a_n \end{pmatrix} } _\text{A} = \underbrace{ \begin{pmatrix} b_1 \\ b_2 \\ \hspace{0.3em}\vdots \\ b_n \end{pmatrix} } _\text{B} \ \Longleftrightarrow \ MA = B, \ avec \enspace \Biggl \{ \begin{gather*} X \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) \\ A \in \hspace{0.03em} \mathcal{M}_{1,p} (\mathbb{K}) \\ B \in \hspace{0.03em} \mathcal{M}_{1,p} (\mathbb{K}) \end{gather*} $$
Soit la matrice carrée \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) de taille \(n\).
On appelle la trace d'une matrice la somme des éléments diagonaux :
$$ A = \begin{pmatrix} \textcolor{#606B9E}{a_{1,1}} & a_{1,2} & a_{1,3} & \dots & a_{1,n} \\ a_{2,1} & \textcolor{#606B9E}{a_{2,2}} & a_{2,3} & \dots & a_{2,n} \\ a_{3,1} & a_{3,2} & \textcolor{#606B9E}{a_{3,3}} & \dots & a_{3,n} \\ \hspace{0.1em}\vdots & \hspace{0.1em} \vdots & \hspace{0.1em} \vdots & \textcolor{#606B9E}{\ddots} & \hspace{0.1em} \vdots \\ a_{n,1} & a_{n,2} & a_{n,3} & \dots & \textcolor{#606B9E}{a_{n,n}} \end{pmatrix} $$
Une matrice diagonale est une matrice carrée où tous les éléments sont nuls en dehors de la diagonale principale :
$$D_n = \begin{pmatrix} \textcolor{#606B9E}{d_{1,1}} & 0 & 0 & \dots & 0 \\ 0 & \textcolor{#606B9E}{d_{2,2}} & 0 & \dots & 0 \\ 0 & 0 & \textcolor{#606B9E}{d_{3,3}} & \dots & 0 \\ \hspace{0.1em}\vdots & \hspace{0.1em} \vdots & \hspace{0.1em} \vdots & \textcolor{#606B9E}{\ddots} & \hspace{0.1em} \vdots \\ 0 & 0 & 0 & \dots & \textcolor{#606B9E}{d_{n,n}} \end{pmatrix} $$
On note aussi la matrice diagonale \(D_n\) uniquement en fonction des éléments de sa diagonale : \(D_n = diag(\lambda_1, \lambda_2, \ ..., \lambda_n)\).
La matrice identité \(I_n\) est définie par :
$$I_n = \begin{pmatrix} \textcolor{#606B9E}{1} & 0 & 0 & \dots & 0 \\ 0 & \textcolor{#606B9E}{1} & 0 & \dots & 0 \\ 0 & 0 & \textcolor{#606B9E}{1} & \dots & 0 \\ \vdots & \vdots & \vdots & \textcolor{#606B9E}{\ddots} & \vdots \\ 0 & 0 & 0 & \dots & \textcolor{#606B9E}{1} \\ \end{pmatrix} $$
C'est la matrice carrée de taille \(n\) avec la valeur \(1\) sur sa diagonale principale, et \(0\) partout ailleurs. C'est un cas particulier de matrice diagonale. Par exemple,
$$I_3 = \begin{pmatrix} \textcolor{#606B9E}{1} & 0 & 0 \\ 0 & \textcolor{#606B9E}{1} & 0 \\ 0 & 0 & \textcolor{#606B9E}{1} \end{pmatrix} $$
$$ (A \times B) \times C = A \times (B \times C) $$
$$ A \times (B + C) = A \times B + A \times C $$
$$ (A + B) \times C = A \times C + B \times C $$
$$ (\lambda A) \times B = A \times (\lambda B) = \lambda (A \times B) $$
$$ I_n \times A = A \times I_p = A $$
Produit de matrices diagonales
$$ D_1 \times D_2 = D_2 \times D_1 = diag \left(\lambda_1 \mu_1, \lambda_2 \mu_2, \ ..., \lambda_n \mu_n \right) $$
$$ D^m = diag \left(\lambda_1^m, \lambda_2^m, \ ..., \lambda_n^m \right) $$
$$ (\lambda A + \mu B)^T = \lambda A^T + \mu B^T $$
$$ (A \times B)^T = B^T \times A^T $$
$$ A \ est \ inversible \Longrightarrow A^{-1} \ est \ inversible \Longrightarrow (A^{-1})^{-1} = A $$
$$ A \ est \ inversible \Longrightarrow A^{T} \ est \ inversible \Longrightarrow \ \left(A^T \right)^{-1} = (A^{-1})^T$$
$$ A \ et \ B \ sont \ inversibles \Longrightarrow (A \times B) \ est \ inversible \Longrightarrow \ \left(A \times B\right)^{-1} = B^{-1} \times A^{-1} $$
Par ailleurs, les expressions \((3)\) et \((6)\) se comportent de la même manière :
$$ \forall (A ,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2, \enspace \Biggl \{ \begin{align*} (A \times B)^T = B^T \times A^T \hspace{1em}\qquad (3) \\ \left(A \times B\right)^{-1} = B^{-1} \times A^{-1} \qquad (6) \end{align*} $$
Alors, l'ordre de transposition ou d'inversion n'a pas d'importance,
$$ \left((A \times B)^T \right)^{-1} = \hspace{0.03em} \left((A \times B)^{-1} \right)^T = \hspace{0.03em} \left(A^T\right)^{-1} \times \hspace{0.05em} \left(B^T\right)^{-1} = \hspace{0.03em} \left(A^{-1}\right)^T \times \hspace{0.05em} \left(B^{-1}\right)^T $$
$$ Tr(\lambda A + \mu B) = \lambda \ Tr(A) + \mu \ Tr(B) $$
$$ Tr(A \times B) = Tr(B \times A)$$
Tableau récapitulatif des propriétés des matrices
Soit trois matrices \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\), \(B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\) et \(C \in \hspace{0.03em} \mathcal{M}_{q,r} (\mathbb{K})\).
Par définition, on a :
Or, le facteur \((ab)_{i,k}\) vaut lui :
Alors on le remplace dans l'expression et :
Comme le facteur \(c_{k,j}\) ne dépent pas de \(l\), il est considéré comme étant une constante et peut être intégré à la somme interne.
Calculons maintenant le produit \(A \times (B \times C)\).
De la même mainière que précédemment, on remplace \((bc)_{k,j}\) par son expression et :
Dans les expressions \((1)\) et \((2)\), les variables \(k\) et \(l\) sont des variables muettes :
Alors, elles peuvent donc être interverties, et à ce moment \((1)\) et \((2)\) sont égales et :
Soit finalement,
$$ (A \times B) \times C = A \times (B \times C) $$
Soit une matrice \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\) et deux matrices \((B, C) \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})^2\).
Avec la définition du produit matriciel, on a :
Soit finalement,
$$ A \times (B + C) = A \times B + A \times C $$
Soit deux matrices \((A, B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2 \) et une matrice \( C \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\).
De la même manière que plus haut, on a :
Soit finalement,
$$ (A + B) \times C = A \times C + B \times C $$
Soit deux matrices \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\) et \(B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\) et \(\lambda \in \mathbb{R}\) un réel.
Avec la définition du produit matriciel, on a :
De la même manière :
Soit finalement,
$$ (\lambda A) \times B = A \times (\lambda B) = \lambda (A \times B) $$
Soit une matrice \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\).
Avec la définition du produit matriciel, on a :
Mais le facteur \((I_n)_{i,k}\) vaut :
$$ (I_n)_{i,k} = \Biggl \{ \begin{align*} 1, \ si \ (i = k) \\ 0 \ sinon \end{align*} $$
Alors,
C'est la matrice de départ inchangée.
Idem, de l'autre côté :
De la même manière et pour tout \((i,j)\), dans cette somme de produits lorque \((k = j)\), on obtient \(a_{i,j}\) puisque tous les autres termes valent \(0\) et par conséquent :
Et finalement,
$$ I_n \times A = A \times I_p = A $$
Soit deux matrices diagonales \(\Bigl[ D_1 = diag(\lambda_1, \lambda_2, \ ..., \lambda_n), \ D_2 = diag(\mu_1, \mu_2, \ ..., \mu_n) \Bigr] \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2 \).
Avec la définition du produit matriciel, on a :
En reprenant la définition d'une matrice diagonale, dans chacun de produits internes de ces sommes :
$$ \Biggl \{ \begin{align*} \forall (i, k) \in [\![1, n]\!]^2, \ (i \neq k) \Longrightarrow (d_1)_{i,k} = 0 \\ \forall (k, j) \in [\![1, n]\!]^2, \ (k \neq j) \Longrightarrow (d_2)_{k,j} = 0 \end{align*} $$
Alors, pour tout \(k\), le produit \( \Bigl[ (d_1)_{i,k} \times (d_2)_{k,j} \Bigr] \neq 0 \) seulement si :
On a alors :
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (D_1 \times D_2)_{i,j} = \Biggl \{ \begin{align*} (d_1)_{i,j} \times (d_2)_{i,j}, \ si \ (i = j) \\ 0 \ sinon \end{align*} $$
Soit,
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (D_1 \times D_2)_{i,j} = \Biggl \{ \begin{align*} (d_1)_{k,k} \times (d_2)_{k,k} = \lambda_k \ \mu_k, \ si \ (i = j = k) \\ 0 \ sinon \end{align*} $$
$$ (D_1 \times D_2) = \begin{pmatrix} \textcolor{#606B9E}{\lambda_1 \ \mu_1} & 0 & 0 & \dots & 0 \\ 0 & \textcolor{#606B9E}{\lambda_2 \ \mu_2} & 0 & \dots & 0 \\ 0 & 0 & \textcolor{#606B9E}{\lambda_3 \ \mu_3} & \dots & 0 \\ \hspace{0.1em}\vdots & \hspace{0.1em} \vdots & \hspace{0.1em} \vdots & \textcolor{#606B9E}{\ddots} & \hspace{0.1em} \vdots \\ 0 & 0 & 0 & \dots & \textcolor{#606B9E}{\lambda_n \ \mu_n} \end{pmatrix} $$
De la même manière, si l'on effectue le produit dans l'autre sens :
Et par le même raisonnement, on obtient aussi que :
$$ \forall (i, j) \in [\![1, n]\!]^2, \ (D_1 \times D_2)_{i,j} = \Biggl \{ \begin{align*} (d_2)_{k,k} \times (d_1)_{k,k} = \mu_k \ \lambda_k, \ si \ (i = j = k) \\ 0 \ sinon \end{align*} $$
Les produits de nombres sur le corps \(\mathbb{K}\) étant commutatif, les deux résultats des produits \((D_1 \times D_2)\) et \((D_2 \times D_1)\) sont égaux.
Et finalement,
$$ D_1 \times D_2 = D_2 \times D_1 = diag \left(\lambda_1 \mu_1, \lambda_2 \mu_2, \ ..., \lambda_n \mu_n \right) $$
Soit la matrice diagonale \(\Bigl[ D = diag(\lambda_1, \lambda_2, \ ..., \lambda_n) \Bigr] \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}) \).
En suivant le même raisonnement que précédemment, par une récurrence directe il est évident que :
$$ D^m = diag \left(\lambda_1^m, \lambda_2^m, \ ..., \lambda_n^m \right) $$
Soit deux matrices \((A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2\) de même taille et \((\lambda, \mu) \in \hspace{0.05em} \mathbb{R}^2\) deux nombres réels.
On a vu avec la multiplication d'une matrice par un scalaire que tous ces indices étaient affectés.
De même, la somme deux matrices (de même taille) est l'addition de chacun des éléments de mêmes indices \((i,j)\) ensemble.
Alors grâce à des deux propriétés, on peut prendre une combinaison linéaire de matrices :
En prenant maintenant la transposée, cela inverse tous les indices \(i\) et \(j\) :
Et finalement,
$$ (\lambda A + \mu B)^T = \lambda A^T + \mu B^T $$
Soit deux matrices \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\) et \(B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\).
Avec la définition du produit matriciel, on a :
En prenant maintenant la transposée, cela inverse tous les indices \(i\) et \(j\) :
Or, le produit des transposées en inversant l'ordre vaut la même chose :
Alors,
$$ (A \times B)^T = B^T \times A^T $$
Soit \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) une matrice carrée de taille \(n\).
La relation qui lie une matrice inversible à son déterminant est la suivante :
Mais on a aussi la relation suivante :
Alors, si \(A\) est inversible, alors \(A^{-1}\) l'est aussi. On a alors la relation suivante :
Mais aussi :
En multipliant cette relation de chaque côté à gauche par \(A\), on a :
Soit finalement,
$$ A \ est \ inversible \Longrightarrow A^{-1} \ est \ inversible \Longrightarrow (A^{-1})^{-1} = A $$
Soit \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) une matrice carrée de taille \(n\).
La matrice \(A\) est inversible si et seulement si \(det(A) \neq 0\). Mais les matrices \(A\) et \(A^T\) ont le même déterminant :
Alors, si \(A\) est inversible, alors \(A^T\) l'est aussi.
Par ailleurs, on a vu plus que :
Alors, dans notre cas :
Or, la matrice transposée de la matrice identité est invariante. Alors :
En multipliant chaque côté à droite par \(\left(A^T \right)^{-1}\), on a :
Et finalement,
$$ A \ est \ inversible \Longrightarrow A^{T} \ est \ inversible \Longrightarrow \ \left(A^T \right)^{-1} = (A^{-1})^T$$
Soit \((A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) deux matrices carrées de même taille \(n\).
Si les deux matrices \(A\) et \(B\) sont inversibles, alors :
$$ A \ et \ B \ sont \ inversibles \Longleftrightarrow \Biggl \{ \begin{align*} det(A) \neq 0 \\ det(B) \neq 0 \end{align*} \qquad(4) $$
Or, par les propriétés du déterminant, on sait que:
En combinant les expressions \((4)\) et \((5)\), on a :
Alors, le produit \((A \times B)\) est lui aussi inversible et :
En multipliant cette relation de chaque côté à gauche par \((B^{-1} A^{-1})\), on a :
Par ailleurs, on a vu plus haut que :
Soit finalement,
$$ A \ et \ B \ sont \ inversibles \Longrightarrow (A \times B) \ est \ inversible \Longrightarrow \ \left(A \times B\right)^{-1} = B^{-1} \times A^{-1} $$
Les expressions \((3)\) et \((6)\) se comportent de la même manière :
$$ \forall (A ,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2, \enspace \Biggl \{ \begin{align*} (A \times B)^T = B^T \times A^T \hspace{1em}\qquad (3) \\ \left(A \times B\right)^{-1} = B^{-1} \times A^{-1} \qquad (6) \end{align*} $$
Alors, l'ordre de transposition ou d'inversion n'a pas d'importance.
On en déduit que :
$$ \left((A \times B)^T \right)^{-1} = \hspace{0.03em} \left((A \times B)^{-1} \right)^T = \hspace{0.03em} \left(A^T\right)^{-1} \times \hspace{0.05em} \left(B^T\right)^{-1} = \hspace{0.03em} \left(A^{-1}\right)^T \times \hspace{0.05em} \left(B^{-1}\right)^T $$
Soit \((A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2\) deux matrices carrées de taille \(n\) et \((\lambda, \mu) \in \hspace{0.05em} \mathbb{R}^2\) deux nombres réels.
Par définition de la trace et par combinaison linéaire, on a :
Alors, on a directement que :
Et finalement,
$$ Tr(\lambda A + \mu B) = \lambda \ Tr(A) + \mu \ Tr(B) $$
Soit \((A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2\) deux matrices carrées de taille \(n\).
Par définition de la trace, on a :
Or, avec la définition du produit matriciel, on a :
Soit, en remplaçant dans l'expression précédente :
Les variables \(k\) et \(l\) étant des variables muettes, on peut les inverser :
Les produits de nombres étant commutatif sur le corps \(\mathbb{K}\), on peut écrire que :
Or, c'est la même chose que \(Tr(B \times A)\), si l'on reprend l'expression \((7)\) en inversant \(A\) et \(B\).
Et finalement,
$$ Tr(A \times B) = Tr(B \times A)$$