French flag Arrows English flag
Sun Arrows Moon
Return Index

Les propriétés des matrices

Pour ce qui suivre, il est important de poser les définitions suivantes :

  1. Opérations sur les matrices
    1. Addition de matrices
    2. Soit deux matrices \((A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2\) de même taille.

      $$ \forall (i, j) \in [\![1, n]\!] \times [\![1, p]\!],$$

      $$(A + B)_{i,j} = a_{i,j} + b_{i,j} $$

      Autrement dit, on additionne chaque élément de la matrice de gauche avec l'élément de même position de celle de droite :

      $$A + B = \begin{pmatrix} a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1, p} \\ a_{2,1} & a_{2,2} & a_{2,3} & \dots & a_{2, p} \\ \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\ a_{n,1} & a_{n,2} & a_{n,3} & \dots & a_{n, p} \end{pmatrix} + \begin{pmatrix} b_{1,1} & b_{1,2} & b_{1,3} & \dots & b_{1, p} \\ b_{2,1} & b_{2,2} & b_{2,3} & \dots & b_{2, p} \\ \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\ b_{n,1} & b_{n,2} & b_{n,3} & \dots & b_{n, p} \end{pmatrix} $$

      $$A + B = \begin{pmatrix} a_{1,1} + b_{1,1} & a_{1,2} + b_{1,2} & a_{1,3} + b_{1,3} & \dots & a_{1, p} + b_{1, p} \\ a_{2,1} + b_{2,1} & a_{2,2} + b_{2,2} & a_{2,3} + b_{2,3} & \dots & a_{2, p} + b_{2,p} \\ \hspace{2em} \vdots & \hspace{2em} \vdots & \hspace{2em} \vdots & \ddots & \hspace{2em} \vdots \\ a_{n,1} + b_{n,1} & a_{n,2} + b_{n,2} & a_{n,3} + b_{n,3} & \dots & a_{n, p} + b_{n,p} \end{pmatrix} $$

    3. Produit matriciel
    4. Soit deux matrices \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\) et \(B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\).

      Pour multiplier deux matrices, on a besoin que le matrice de gauche ait le même nombre de colonnes que le nombre de lignes de la matrice de droite (ici \(p\)). Le résultat est une matrice \(AB \in \hspace{0.03em} \mathcal{M}_{n,q} (\mathbb{K})\), donc avec \(n\) lignes et \(q\) colonnes.

      $$ \forall (i, j) \in [\![1, n]\!] \times [\![1, q]\!],$$

      $$(A \times B)_{i,j} = \sum_{k = 1}^p a_{i,k} \times b_{k,j} $$

      Par exemple :

      $$A \times B = \begin{pmatrix} a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1, p} \\ a_{2,1} & a_{2,2} & a_{2,3} & \dots & a_{2, p} \\ \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\ a_{n,1} & a_{n,2} & a_{n,3} & \dots & a_{n, p} \end{pmatrix} \times \begin{pmatrix} b_{1,1} & b_{1,2} & b_{1,3} & \dots & b_{1, q} \\ b_{2,1} & b_{2,2} & b_{2,3} & \dots & b_{2, q} \\ \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\ b_{p,1} & b_{p,2} & b_{p,3} & \dots & b_{p, q} \end{pmatrix} $$

      $$A \times B = \begin{pmatrix} \Bigl[a_{1,1} b_{1,1} + a_{1,2} b_{2,1} \ + \ ... \ + \ a_{1,p} b_{p,1} \Bigr] & \Bigl[a_{1,1} b_{1,2} + a_{1,2} b_{2,2} \ + \ ... \ + \ a_{1,p} b_{p,2}\Bigr] & \hspace{1em} \dots \dots \dots \hspace{1em} & \Bigl[a_{1,1} b_{1,q} + a_{1,2} b_{2,q} \ + \ ... \ + \ a_{1,p} b_{p,q}\Bigr] \\ \Bigl[a_{2,1} b_{1,1} + a_{2,2} b_{2,1} \ + \ ... \ + \ a_{2,p} b_{p,1}\Bigr] & \Bigl[a_{2,1} b_{1,2} + a_{2,2} b_{2,2} \ + \ ... \ + \ a_{2,p} b_{p,2}\Bigr] & \hspace{1em} \dots \dots \dots \hspace{1em} & \Bigl[a_{2,1} b_{1,q} + a_{2,2} b_{2,q} \ + \ ... \ + \ a_{2,p} b_{p,q}\Bigr] \\ \hspace{8em} \vdots & \hspace{8em} \vdots & \hspace{1em} \ddots & \hspace{8em} \vdots \\ \hspace{8em} \vdots & \hspace{8em} \vdots & \hspace{1em} \ddots & \hspace{8em} \vdots \\ \Bigl[a_{n,1} b_{1,1} + a_{n,2} b_{2,1} \ + \ ... \ + \ a_{n,p} b_{p,1}\Bigr] & \Bigl[a_{n,1} b_{1,2} + a_{2,2} b_{2,2} \ + \ ... \ + \ a_{n,p} b_{p,2}\Bigr] & \hspace{1em} \dots \dots \dots \hspace{1em} & \Bigl[a_{n,1} b_{1,q} + a_{n,2} b_{2,q} \ + \ ... \ + \ a_{n,p} b_{p,q}\Bigr] \end{pmatrix} $$


      Attention, de manière générale le produit matriciel n'est pas commutatif : \( (A \times B) \neq (B \times A) \).

    5. Multiplication d'une matrice par un scalaire \(\lambda\)
    6. Soit une matrice \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\).

      Lorsque l'on multiplie une matrice par un scalaire, cela affecte tous ses éléments.

      $$ \forall (i, j) \in [\![1, n]\!] \times [\![1, p]\!],$$

      $$(\lambda A)_{i,j} = \lambda \ a_{i,j} $$

      Par exemple :

      $$A = \begin{pmatrix} a_{1,1} & a_{1,2} & a_{1,3} & \dots & a_{1, p} \\ a_{2,1} & a_{2,2} & a_{2,3} & \dots & a_{2, p} \\ \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\ a_{n,1} & a_{n,2} & a_{n,3} & \dots & a_{n, p} \end{pmatrix} $$

      $$\lambda A = \begin{pmatrix} \lambda \ a_{1,1} & \lambda \ a_{1,2} & \lambda \ a_{1,3} & \dots & \lambda \ a_{1, p} \\ \lambda \ a_{2,1} & \lambda \ a_{2,2} & \lambda \ a_{2,3} & \dots & \lambda \ a_{2, p} \\ \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \hspace{0.5em} \vdots & \ddots & \hspace{0.5em} \vdots \\ \lambda \ a_{n,1} & \lambda \ a_{n,2} & \lambda \ a_{n,3} & \dots & \lambda \ a_{n, p} \end{pmatrix} $$

    7. Combinaison linéaire de matrices
    8. Soit deux matrices \((A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2\) de même taille et \((\lambda, \mu) \in \hspace{0.05em} \mathbb{R}^2\).

      Avec les propriétés précédentes d'addition et de multiplication par un scalaire, on peut créer des combinaisons linéaires de matrices et alors :

      $$(\lambda A + \mu B)_{i,j} = \lambda \ a_{i,j} + \mu \ b_{i,j} $$

    9. Transposition de matrice
    10. Soit la matrice \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\).

      La transposition d'une matrice consiste à inverser les indices de lignes et de colonnes de chaque élément. On note \(A^T\) (ou parfois \(^t A\)) la transposée de la matrice \(A\).

      $$ \forall (i, j) \in [\![1, n]\!]^2,$$

      $$(A)_{i,j} = a_{i,j} \ \Longleftrightarrow \ \left(A^T \right)_{i,j} \hspace{0.03em} = a_{j,i} $$

      Par exemple :

      $$A = \begin{pmatrix} a_{1,1} & \textcolor{#A65757}{a_{1,2}} & \textcolor{#A65757}{a_{1,3}} & \textcolor{#A65757}{\dots} & \textcolor{#A65757}{a_{1, n}} \\ \textcolor{#446e4f}{a_{2,1}} & a_{2,2} & \textcolor{#A65757}{a_{2,3}} & \textcolor{#A65757}{\dots} & \textcolor{#A65757}{a_{2, n}} \\ \textcolor{#446e4f}{a_{3,1}} & \textcolor{#446e4f}{a_{3,2}} & a_{3,3} & \textcolor{#A65757}{\dots} & \textcolor{#A65757}{a_{3, n}} \\ \hspace{1em} \textcolor{#446e4f}{\vdots} & \hspace{1em} \textcolor{#446e4f}{\vdots} & \hspace{1em} \textcolor{#446e4f}{\vdots} & \ddots & \hspace{1em} \textcolor{#A65757}{\vdots} \\ \textcolor{#446e4f}{a_{n,1}} & \textcolor{#446e4f}{a_{n,2}} & \textcolor{#446e4f}{a_{n,3}} & \textcolor{#446e4f}{\dots} & a_{n, n} \\ \end{pmatrix} $$

      Alors, sa transposée est :

      $$A^T = \begin{pmatrix} a_{1,1} & \textcolor{#446e4f}{a_{2,1}} & \textcolor{#446e4f}{a_{3,1}} & \textcolor{#446e4f}{\dots} & \textcolor{#446e4f}{a_{n, 1}} \\ \textcolor{#A65757}{a_{1,2}} & a_{2,2} & \textcolor{#446e4f}{a_{3,2}} & \textcolor{#446e4f}{\dots} & \textcolor{#446e4f}{a_{n, 2}} \\ \textcolor{#A65757}{a_{1,3}} & \textcolor{#A65757}{a_{2,3}} & a_{3,3} & \textcolor{#446e4f}{\dots} & \textcolor{#446e4f}{a_{n, 3}} \\ \hspace{0.8em} \textcolor{#A65757}{\vdots} & \hspace{0.8em} \textcolor{#A65757}{\vdots} & \hspace{0.8em} \textcolor{#A65757}{\vdots} & \ddots & \hspace{0.8em} \textcolor{#446e4f}{\vdots} \\ \textcolor{#A65757}{a_{1,n}} & \textcolor{#A65757}{a_{2,n}} & \textcolor{#A65757}{a_{3,n}} & \textcolor{#A65757}{\dots} & a_{n, n} \\ \end{pmatrix} $$

      Seule la diagonale reste intacte, car si \(i = j\), alors \(a_{i,j} = a_{j,i}\).

    11. Inversion d'une matrice
    12. Soit la matrice carrée \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) de taille \(n\).

      L'inverse de la matrice \(A\) est la matrice notée \(A^{-1}\) telle que : \(A A^{-1} = I_n\)


      Une matrice est inversible si et seulement si \(det(A) \neq 0\).

    13. Écriture matricielle d'un système d'équations linéaires
    14. Un système d'équations linéaires \( (S)\), où les inconnues sont les variables \(x_{i,j}\), peut s'écrire sous forme de système de produit matriciel :

      $$ (S) \enspace \left \{ \begin{gather*} a_1 x_{1,1} + a_2 x_{1,2} + a_3 x_{1,3} + \hspace{0.1em}... \hspace{0.1em}+ a_n x_{1,p} = b_1 \\ a_1 x_{2,1} + a_2 x_{2,2} + a_3 x_{2,3} + \hspace{0.1em}... \hspace{0.1em}+ a_n x_{2,p} = b_2 \\ ........................ ............. \ = \ ..\\ a_1 x_{n,1} + a_2 x_{n,2} + a_3 x_{n,3} + \hspace{0.1em}... \hspace{0.1em}+ a_n x_{n,p} = b_n \\ \end{gather*} \right \} $$

      $$ \Longleftrightarrow$$

      $$ \underbrace{ \begin{pmatrix} x_{1,1} & x_{1,2} & x_{1,3} & \dots & x_{1, p} \\ x_{2,1} & x_{2,2} & x_{2,3} & \dots & x_{2, p} \\ \hspace{0.8em} \vdots & \hspace{0.8em} \vdots & \hspace{0.8em} \vdots & \ddots & \hspace{0.8em} \vdots \\ x_{n,1} & x_{n,2} & x_{n,3} & \dots & x_{n, p} \\ \end{pmatrix} } _\text{X} \times \underbrace{ \begin{pmatrix} a_1 \\ a_2 \\ \hspace{0.3em}\vdots \\ a_n \end{pmatrix} } _\text{A} = \underbrace{ \begin{pmatrix} b_1 \\ b_2 \\ \hspace{0.3em}\vdots \\ b_n \end{pmatrix} } _\text{B} \ \Longleftrightarrow \ MA = B, \ avec \enspace \Biggl \{ \begin{gather*} X \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) \\ A \in \hspace{0.03em} \mathcal{M}_{1,p} (\mathbb{K}) \\ B \in \hspace{0.03em} \mathcal{M}_{1,p} (\mathbb{K}) \end{gather*} $$

    15. Trace d'une matrice
    16. Soit la matrice carrée \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) de taille \(n\).

      On appelle la trace d'une matrice la somme des éléments diagonaux :

      $$ A = \begin{pmatrix} \textcolor{#606B9E}{a_{1,1}} & a_{1,2} & a_{1,3} & \dots & a_{1,n} \\ a_{2,1} & \textcolor{#606B9E}{a_{2,2}} & a_{2,3} & \dots & a_{2,n} \\ a_{3,1} & a_{3,2} & \textcolor{#606B9E}{a_{3,3}} & \dots & a_{3,n} \\ \hspace{0.1em}\vdots & \hspace{0.1em} \vdots & \hspace{0.1em} \vdots & \textcolor{#606B9E}{\ddots} & \hspace{0.1em} \vdots \\ a_{n,1} & a_{n,2} & a_{n,3} & \dots & \textcolor{#606B9E}{a_{n,n}} \end{pmatrix} $$

      $$Tr(A) = \sum_{k = 1}^n a_{k,k} = a_{1,1} + a_{2,2} \ + \ ... \ + a_{n,n}$$

  2. Matrices spécifiques
    1. Matrice diagonale
    2. Une matrice diagonale est une matrice carrée où tous les éléments sont nuls en dehors de la diagonale principale :

      $$D_n = \begin{pmatrix} \textcolor{#606B9E}{d_{1,1}} & 0 & 0 & \dots & 0 \\ 0 & \textcolor{#606B9E}{d_{2,2}} & 0 & \dots & 0 \\ 0 & 0 & \textcolor{#606B9E}{d_{3,3}} & \dots & 0 \\ \hspace{0.1em}\vdots & \hspace{0.1em} \vdots & \hspace{0.1em} \vdots & \textcolor{#606B9E}{\ddots} & \hspace{0.1em} \vdots \\ 0 & 0 & 0 & \dots & \textcolor{#606B9E}{d_{n,n}} \end{pmatrix} $$

      $$ \forall (i, j) \in [\![1, n]\!]^2, \ (i \neq j) \Longrightarrow d_{i,j} = 0$$


      On note aussi la matrice diagonale \(D_n\) uniquement en fonction des éléments de sa diagonale : \(D_n = diag(\lambda_1, \lambda_2, \ ..., \lambda_n)\).

    3. Matrice identité
    4. La matrice identité \(I_n\) est définie par :

      $$I_n = \begin{pmatrix} \textcolor{#606B9E}{1} & 0 & 0 & \dots & 0 \\ 0 & \textcolor{#606B9E}{1} & 0 & \dots & 0 \\ 0 & 0 & \textcolor{#606B9E}{1} & \dots & 0 \\ \vdots & \vdots & \vdots & \textcolor{#606B9E}{\ddots} & \vdots \\ 0 & 0 & 0 & \dots & \textcolor{#606B9E}{1} \\ \end{pmatrix} $$

      C'est la matrice carrée de taille \(n\) avec la valeur \(1\) sur sa diagonale principale, et \(0\) partout ailleurs. C'est un cas particulier de matrice diagonale. Par exemple,

      $$I_3 = \begin{pmatrix} \textcolor{#606B9E}{1} & 0 & 0 \\ 0 & \textcolor{#606B9E}{1} & 0 \\ 0 & 0 & \textcolor{#606B9E}{1} \end{pmatrix} $$


Le produit matriciel

Associativité

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), \ \forall C \in \hspace{0.03em} \mathcal{M}_{q,r} (\mathbb{K}), $$

$$ (A \times B) \times C = A \times (B \times C) $$


Distributivité

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall (B, C) \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})^2, $$

$$ A \times (B + C) = A \times B + A \times C $$


$$ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2, \ \forall C \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$

$$ (A + B) \times C = A \times C + B \times C $$


Bilinearité

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$

$$ (\lambda A) \times B = A \times (\lambda B) = \lambda (A \times B) $$


Multiplication par l'identité

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}),$$

$$ I_n \times A = A \times I_p = A $$


Produit de matrices diagonales

  1. Produit de deux matrices diagonales
  2. $$ \forall \Bigl[ D_1 = diag(\lambda_1, \lambda_2, \ ..., \lambda_n), \ D_2 = diag(\mu_1, \mu_2, \ ..., \mu_n) \Bigr] \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2, $$

    $$ D_1 \times D_2 = D_2 \times D_1 = diag \left(\lambda_1 \mu_1, \lambda_2 \mu_2, \ ..., \lambda_n \mu_n \right) $$


  3. Puissance de matrice diagonale
  4. $$ \forall \Bigl[ D = diag(\lambda_1, \lambda_2, \ ..., \lambda_n) \Bigr] \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}), $$

    $$ D^m = diag \left(\lambda_1^m, \lambda_2^m, \ ..., \lambda_n^m \right) $$

Transposition de matrices


Linéarité de la transposée

$$ \forall (\lambda, \mu) \in \hspace{0.05em} \mathbb{R}^2, \ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2, $$

$$ (\lambda A + \mu B)^T = \lambda A^T + \mu B^T $$


Transposée d'un produit

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$

$$ (A \times B)^T = B^T \times A^T $$

$$(3)$$


Inversion de matrices

Inverse de l'inverse

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}),$$

$$ A \ est \ inversible \Longrightarrow A^{-1} \ est \ inversible \Longrightarrow (A^{-1})^{-1} = A $$


Inverse de la transposée

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}),$$

$$ A \ est \ inversible \Longrightarrow A^{T} \ est \ inversible \Longrightarrow \ \left(A^T \right)^{-1} = (A^{-1})^T$$


Inverse du produit

$$ \forall (A ,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$

$$ A \ et \ B \ sont \ inversibles \Longrightarrow (A \times B) \ est \ inversible \Longrightarrow \ \left(A \times B\right)^{-1} = B^{-1} \times A^{-1} $$

$$(6)$$


Par ailleurs, les expressions \((3)\) et \((6)\) se comportent de la même manière :

$$ \forall (A ,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2, \enspace \Biggl \{ \begin{align*} (A \times B)^T = B^T \times A^T \hspace{1em}\qquad (3) \\ \left(A \times B\right)^{-1} = B^{-1} \times A^{-1} \qquad (6) \end{align*} $$


Alors, l'ordre de transposition ou d'inversion n'a pas d'importance,

$$ \forall (A ,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$

$$ \left((A \times B)^T \right)^{-1} = \hspace{0.03em} \left((A \times B)^{-1} \right)^T = \hspace{0.03em} \left(A^T\right)^{-1} \times \hspace{0.05em} \left(B^T\right)^{-1} = \hspace{0.03em} \left(A^{-1}\right)^T \times \hspace{0.05em} \left(B^{-1}\right)^T $$


Traces de matrices

Linéarité de la trace

$$ \forall (\lambda \mu) \in \hspace{0.05em} \mathbb{R}^2, \ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$

$$ Tr(\lambda A + \mu B) = \lambda \ Tr(A) + \mu \ Tr(B) $$


Trace d'un produit

$$ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$

$$ Tr(A \times B) = Tr(B \times A)$$


Tableau récapitulatif des propriétés des matrices


Démonstrations

Le produit matriciel

Associativité

Soit trois matrices \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\), \(B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\) et \(C \in \hspace{0.03em} \mathcal{M}_{q,r} (\mathbb{K})\).

  1. Calcul de \((A \times B) \times C\)
  2. Par définition, on a :

    $$ \forall (i, j) \in [\![1, n]\!] \times [\![1, r]\!],$$

    $$\Bigl( (A \times B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^q (ab)_{i,k} \times c_{k,j} $$

    Or, le facteur \((ab)_{i,k}\) vaut lui :

    $$ \forall (i, k) \in [\![1, n]\!] \times [\![1, q]\!],$$

    $$ (ab)_{i,k} = \sum_{l = 1}^p a_{i,l} \times b_{l,k} $$

    Alors on le remplace dans l'expression et :

    $$\Bigl( (A \times B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^q \left[ \sum_{l = 1}^p a_{i,l} \times b_{l,k} \right] \times c_{k,j} $$

    Comme le facteur \(c_{k,j}\) ne dépent pas de \(l\), il est considéré comme étant une constante et peut être intégré à la somme interne.

    $$\Bigl( (A \times B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^q \sum_{l = 1}^p \Bigl[ a_{i,l} \times b_{l,k} \times c_{k,j} \Bigr] \qquad (1) $$


  3. Calcul de \( A \times (B \times C)\)
  4. Calculons maintenant le produit \(A \times (B \times C)\).

    $$ \forall (i, j) \in [\![1, n]\!] \times [\![1, r]\!],$$

    $$\Bigl( A \times (B \times C) \Bigr)_{i,j} = \ \sum_{k = 1}^p a_{i,k} \times (bc)_{k,j} $$

    De la même mainière que précédemment, on remplace \((bc)_{k,j}\) par son expression et :

    $$\Bigl( A \times (B \times C) \Bigr)_{i,j} = \ \sum_{k = 1}^p a_{i,k} \times \left[ \sum_{l = 1}^q b_{k,l} \times c_{l,j} \right] $$

    $$\Bigl( A \times (B \times C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \sum_{l = 1}^q \Bigl[ a_{i,k} \times b_{k,l} \times c_{l,j} \Bigr] \qquad (2) $$


    Dans les expressions \((1)\) et \((2)\), les variables \(k\) et \(l\) sont des variables muettes :

    $$\Bigl( (A \times B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^q \sum_{l = 1}^p \Bigl[ a_{i,l} \times b_{l,k} \times c_{k,j} \Bigr] \qquad (1) $$

    $$\Bigl( A \times (B \times C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \sum_{l = 1}^q \Bigl[ a_{i,k} \times b_{k,l} \times c_{l,j} \Bigr] \qquad (2) $$

    Alors, elles peuvent donc être interverties, et à ce moment \((1)\) et \((2)\) sont égales et :

    $$\Bigl( (A \times B) \times C \Bigr)_{i,j} = \Bigl( A \times (B \times C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \sum_{l = 1}^q \Bigl[ a_{i,l} \times b_{l,k} \times c_{k,j} \Bigr] $$


Soit finalement,

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), \ \forall C \in \hspace{0.03em} \mathcal{M}_{q,r} (\mathbb{K}), $$

$$ (A \times B) \times C = A \times (B \times C) $$


Distributivité

  1. Distributivité à gauche
  2. Soit une matrice \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\) et deux matrices \((B, C) \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})^2\).

    Avec la définition du produit matriciel, on a :

    $$ \forall (i, j) \in [\![1, n]\!] \times [\![1, q]\!],$$

    $$\Bigl( A \times (B + C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[ a_{i,k} \times (b + c)_{k,j}\Bigr] $$

    $$\Bigl( A \times (B + C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[ a_{i,k} \times (b_{k,j} + c_{k,j})\Bigr]$$

    $$\Bigl( A \times (B + C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[ a_{i,k} \times b_{k,j} + a_{i,k} \times c_{k,j} \Bigr]$$

    $$\Bigl( A \times (B + C) \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[ a_{i,k} \times b_{k,j}\Bigr] + \sum_{k = 1}^p \Bigl[a_{i,k} \times c_{k,j}\Bigr] $$


    Soit finalement,

    $$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall (B, C) \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})^2, $$

    $$ A \times (B + C) = A \times B + A \times C $$


  3. Distributivité à droite
  4. Soit deux matrices \((A, B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2 \) et une matrice \( C \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\).

    De la même manière que plus haut, on a :

    $$ \forall (i, j) \in [\![1, n]\!] \times [\![1, q]\!],$$

    $$\Bigl( (A + B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[(a + b)_{i,k} \times c_{k,j}\Bigr] $$

    $$\Bigl( (A + B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[(a_{i,k} + b_{i,k}) \times c_{k,j}\Bigr] $$

    $$\Bigl( (A + B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[a_{i,k} \times c_{k,j} + b_{i,k} \times c_{k,j}\Bigr] $$

    $$\Bigl( (A + B) \times C \Bigr)_{i,j} = \ \sum_{k = 1}^p \Bigl[a_{i,k} \times c_{k,j}\Bigr] + \sum_{k = 1}^p \Bigl[ b_{i,k} \times c_{k,j}\Bigr] $$


    Soit finalement,

    $$ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2, \ \forall C \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$

    $$ (A + B) \times C = A \times C + B \times C $$


Bilinearité

Soit deux matrices \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\) et \(B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\) et \(\lambda \in \mathbb{R}\) un réel.


Avec la définition du produit matriciel, on a :

$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, q]\!],$$

$$(\lambda A \times B)_{i,j} = \sum_{k = 1}^p \lambda a_{i,k} \times b_{k,j} = \lambda \sum_{k = 1}^p a_{i,k} \times b_{k,j} $$

De la même manière :

$$( A \times \lambda B)_{i,j} = \sum_{k = 1}^p a_{i,k} \times \lambda b_{k,j} = \lambda \sum_{k = 1}^p a_{i,k} \times b_{k,j} $$

Soit finalement,

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$

$$ (\lambda A) \times B = A \times (\lambda B) = \lambda (A \times B) $$


Multiplication par l'identité

Soit une matrice \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\).


  1. Calcul de \(I_n \times A\)
  2. Avec la définition du produit matriciel, on a :

    $$ \forall (i, j) \in [\![1, n]\!] \times [\![1, p]\!],$$

    $$(I_n \times A)_{i,j} = \sum_{k = 1}^n (I_n)_{i,k} \times a_{k,j} $$

    Mais le facteur \((I_n)_{i,k}\) vaut :

    $$ (I_n)_{i,k} = \Biggl \{ \begin{align*} 1, \ si \ (i = k) \\ 0 \ sinon \end{align*} $$

    Alors,

    $$(I_n \times A)_{i,j} = a_{i,j} = (A)_{i,j} $$

    C'est la matrice de départ inchangée.


  3. Calcul de \(A \times I_p\)
  4. Idem, de l'autre côté :

    $$ \forall (i, j) \in [\![1, n]\!] \times [\![1, p]\!],$$

    $$(A \times I_p)_{i,j} = \sum_{k = 1}^p a_{i,k} \times (I_p)_{k,j} $$

    De la même manière et pour tout \((i,j)\), dans cette somme de produits lorque \((k = j)\), on obtient \(a_{i,j}\) puisque tous les autres termes valent \(0\) et par conséquent :

    $$(A \times I_p)_{i,j} = a_{i,j} = (A)_{i,j} $$


Et finalement,

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}),$$

$$ I_n \times A = A \times I_p = A $$


Produit de matrices diagonales

  1. Produit de deux matrices diagonales
  2. Soit deux matrices diagonales \(\Bigl[ D_1 = diag(\lambda_1, \lambda_2, \ ..., \lambda_n), \ D_2 = diag(\mu_1, \mu_2, \ ..., \mu_n) \Bigr] \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2 \).

    Avec la définition du produit matriciel, on a :

    $$ \forall (i, j) \in [\![1, n]\!]^2,$$

    $$(D_1 \times D_2)_{i,j} = \sum_{k = 1}^n (d_1)_{i,k} \times (d_2)_{k,j} $$

    En reprenant la définition d'une matrice diagonale, dans chacun de produits internes de ces sommes :

    $$ \Biggl \{ \begin{align*} \forall (i, k) \in [\![1, n]\!]^2, \ (i \neq k) \Longrightarrow (d_1)_{i,k} = 0 \\ \forall (k, j) \in [\![1, n]\!]^2, \ (k \neq j) \Longrightarrow (d_2)_{k,j} = 0 \end{align*} $$

    Alors, pour tout \(k\), le produit \( \Bigl[ (d_1)_{i,k} \times (d_2)_{k,j} \Bigr] \neq 0 \) seulement si :

    $$ \Bigl[ (i = k) \land (k = j) \Bigr] \Longleftrightarrow (i = k = j) $$

    On a alors :

    $$ \forall (i, j) \in [\![1, n]\!]^2, \ (D_1 \times D_2)_{i,j} = \Biggl \{ \begin{align*} (d_1)_{i,j} \times (d_2)_{i,j}, \ si \ (i = j) \\ 0 \ sinon \end{align*} $$

    Soit,

    $$ \forall (i, j) \in [\![1, n]\!]^2, \ (D_1 \times D_2)_{i,j} = \Biggl \{ \begin{align*} (d_1)_{k,k} \times (d_2)_{k,k} = \lambda_k \ \mu_k, \ si \ (i = j = k) \\ 0 \ sinon \end{align*} $$

    $$ (D_1 \times D_2) = \begin{pmatrix} \textcolor{#606B9E}{\lambda_1 \ \mu_1} & 0 & 0 & \dots & 0 \\ 0 & \textcolor{#606B9E}{\lambda_2 \ \mu_2} & 0 & \dots & 0 \\ 0 & 0 & \textcolor{#606B9E}{\lambda_3 \ \mu_3} & \dots & 0 \\ \hspace{0.1em}\vdots & \hspace{0.1em} \vdots & \hspace{0.1em} \vdots & \textcolor{#606B9E}{\ddots} & \hspace{0.1em} \vdots \\ 0 & 0 & 0 & \dots & \textcolor{#606B9E}{\lambda_n \ \mu_n} \end{pmatrix} $$


    De la même manière, si l'on effectue le produit dans l'autre sens :

    $$ \forall (i, j) \in [\![1, n]\!]^2,$$

    $$(D_2 \times D_1)_{i,j} = \sum_{k = 1}^n (d_2)_{i,k} \times (d_1)_{k,j} $$

    Et par le même raisonnement, on obtient aussi que :

    $$ \forall (i, j) \in [\![1, n]\!]^2, \ (D_1 \times D_2)_{i,j} = \Biggl \{ \begin{align*} (d_2)_{k,k} \times (d_1)_{k,k} = \mu_k \ \lambda_k, \ si \ (i = j = k) \\ 0 \ sinon \end{align*} $$

    Les produits de nombres sur le corps \(\mathbb{K}\) étant commutatif, les deux résultats des produits \((D_1 \times D_2)\) et \((D_2 \times D_1)\) sont égaux.


    Et finalement,

    $$ \forall \Bigl[ D_1 = diag(\lambda_1, \lambda_2, \ ..., \lambda_n), \ D_2 = diag(\mu_1, \mu_2, \ ..., \mu_n) \Bigr] \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2, $$

    $$ D_1 \times D_2 = D_2 \times D_1 = diag \left(\lambda_1 \mu_1, \lambda_2 \mu_2, \ ..., \lambda_n \mu_n \right) $$


  3. Puissance de matrice diagonale
  4. Soit la matrice diagonale \(\Bigl[ D = diag(\lambda_1, \lambda_2, \ ..., \lambda_n) \Bigr] \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}) \).

    En suivant le même raisonnement que précédemment, par une récurrence directe il est évident que :


    $$ \forall \Bigl[ D = diag(\lambda_1, \lambda_2, \ ..., \lambda_n) \Bigr] \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}), $$

    $$ D^m = diag \left(\lambda_1^m, \lambda_2^m, \ ..., \lambda_n^m \right) $$


Transposition de matrices

Linéarité de la transposée

Soit deux matrices \((A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2\) de même taille et \((\lambda, \mu) \in \hspace{0.05em} \mathbb{R}^2\) deux nombres réels.


On a vu avec la multiplication d'une matrice par un scalaire que tous ces indices étaient affectés.

De même, la somme deux matrices (de même taille) est l'addition de chacun des éléments de mêmes indices \((i,j)\) ensemble.


Alors grâce à des deux propriétés, on peut prendre une combinaison linéaire de matrices :

$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, p]\!],$$

$$(\lambda A + \mu B)_{i,j} = \lambda \ a_{i,j} + \mu \ b_{i,j}$$

En prenant maintenant la transposée, cela inverse tous les indices \(i\) et \(j\) :

$$(\lambda A + \mu B)^T_{i,j} = \lambda \ a_{j,i} + \mu \ b_{j,i}$$


Et finalement,

$$ \forall (\lambda, \mu) \in \hspace{0.05em} \mathbb{R}^2, \ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})^2, $$

$$ (\lambda A + \mu B)^T = \lambda A^T + \mu B^T $$


Transposée d'un produit

Soit deux matrices \(A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K})\) et \(B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K})\).


Avec la définition du produit matriciel, on a :

$$ \forall (i, j) \in [\![1, n]\!] \times [\![1, q]\!],$$

$$(A \times B)_{i,j} = \sum_{k = 1}^p a_{i,k} \times b_{k,j} $$

En prenant maintenant la transposée, cela inverse tous les indices \(i\) et \(j\) :

$$ \forall (i, j) \in [\![1, q]\!] \times [\![1, n]\!],$$

$$(A \times B)^T_{i,j} = \sum_{k = 1}^p a_{j,k} \times b_{k,i} $$

Or, le produit des transposées en inversant l'ordre vaut la même chose :

$$(B^T \times A^T)_{i,j} = \sum_{k = 1}^p b_{k,i} \times a_{j,k} $$


Alors,

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$

$$ (A \times B)^T = B^T \times A^T $$

$$(3)$$


Inversion de matrices

Inverse de l'inverse

Soit \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) une matrice carrée de taille \(n\).

La relation qui lie une matrice inversible à son déterminant est la suivante :

$$ A \ est \ inversible \Longleftrightarrow det(A) \neq 0 $$

Mais on a aussi la relation suivante :

$$ det(A^{-1}) = det(A)^{-1}$$

Alors, si \(A\) est inversible, alors \(A^{-1}\) l'est aussi. On a alors la relation suivante :

$$ A A^{-1} = I_n$$

Mais aussi :

$$ A^{-1} (A^{-1})^{-1} = I_n$$

En multipliant cette relation de chaque côté à gauche par \(A\), on a :

$$ \underbrace {A A^{-1}} _\text{ \(= \ I_n\)} \ (A^{-1})^{-1} = \ \underbrace {A I_n} _\text{ \(= \ A\)}$$


Soit finalement,

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}),$$

$$ A \ est \ inversible \Longrightarrow A^{-1} \ est \ inversible \Longrightarrow (A^{-1})^{-1} = A $$


Inverse de la transposée

Soit \(A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) une matrice carrée de taille \(n\).

La matrice \(A\) est inversible si et seulement si \(det(A) \neq 0\). Mais les matrices \(A\) et \(A^T\) ont le même déterminant :

$$ det(A) = det(A^T)$$

Alors, si \(A\) est inversible, alors \(A^T\) l'est aussi.


Par ailleurs, on a vu plus que :

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$

$$ (A \times B)^T = B^T \times A^T $$

Alors, dans notre cas :

$$ \left(A \times A^{-1}\right)^T = \ \left(A^{-1} \right)^T \times \ A^T $$

$$ I_n^T = \ \left(A^{-1} \right)^T \times \ A^T $$

Or, la matrice transposée de la matrice identité est invariante. Alors :

$$ I_n = \ \left(A^{-1} \right)^T \times \ A^T $$

En multipliant chaque côté à droite par \(\left(A^T \right)^{-1}\), on a :

$$ I_n \times \left(A^T \right)^{-1} = \ \left(A^{-1} \right)^T \times \ \underbrace { A^T \left(A^T \right)^{-1}} _\text{ \(= \ I_n\)} \ $$


Et finalement,

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}),$$

$$ A \ est \ inversible \Longrightarrow A^{T} \ est \ inversible \Longrightarrow \ \left(A^T \right)^{-1} = (A^{-1})^T$$


Inverse du produit

Soit \((A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})\) deux matrices carrées de même taille \(n\).

Si les deux matrices \(A\) et \(B\) sont inversibles, alors :

$$ A \ et \ B \ sont \ inversibles \Longleftrightarrow \Biggl \{ \begin{align*} det(A) \neq 0 \\ det(B) \neq 0 \end{align*} \qquad(4) $$

Or, par les propriétés du déterminant, on sait que:

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n,p} (\mathbb{K}) , \ \forall B \in \hspace{0.03em} \mathcal{M}_{p,q} (\mathbb{K}), $$

$$ det(A \times B) = det(A) \times det(B) \qquad(5) $$

En combinant les expressions \((4)\) et \((5)\), on a :

$$ A \ et \ B \ sont \ inversibles \Longleftrightarrow det(A \times B) \neq 0$$

Alors, le produit \((A \times B)\) est lui aussi inversible et :

$$ (AB) \times \ \left(AB\right)^{-1} \hspace{0.01em} = I_n$$

En multipliant cette relation de chaque côté à gauche par \((B^{-1} A^{-1})\), on a :

$$ (B^{-1} A^{-1}) \times (AB) \times \hspace{0.01em} \left(AB\right)^{-1} \hspace{0.01em} = (B^{-1} A^{-1}) \times I_n $$

$$ B^{-1} \times (A^{-1} A) \times B \times \hspace{0.01em} \left(AB\right)^{-1} \hspace{0.01em} = B^{-1} A^{-1}$$

Par ailleurs, on a vu plus haut que :

$$ \forall A \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K}),$$

$$ A \ est \ inversible \Longrightarrow A^{-1} \ est \ inversible \Longrightarrow (A^{-1})^{-1} = A $$

$$ B^{-1} \times \ \underbrace{ \left(A^{-1} (A^{-1})^{-1}\right)} _\text{\(= \ I_n\)} \hspace{0.03em} \times B \times \hspace{0.03em} \left(AB\right)^{-1} = B^{-1} A^{-1}$$

$$ \underbrace{ \left(B^{-1} (B^{-1})^{-1}\right)} _\text{\(= \ I_n\)} \ \times \ \left(AB\right)^{-1} = B^{-1} A^{-1}$$


Soit finalement,

$$ \forall (A ,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$

$$ A \ et \ B \ sont \ inversibles \Longrightarrow (A \times B) \ est \ inversible \Longrightarrow \ \left(A \times B\right)^{-1} = B^{-1} \times A^{-1} $$

$$(6)$$


Les expressions \((3)\) et \((6)\) se comportent de la même manière :

$$ \forall (A ,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2, \enspace \Biggl \{ \begin{align*} (A \times B)^T = B^T \times A^T \hspace{1em}\qquad (3) \\ \left(A \times B\right)^{-1} = B^{-1} \times A^{-1} \qquad (6) \end{align*} $$

Alors, l'ordre de transposition ou d'inversion n'a pas d'importance.

On en déduit que :

$$ \forall (A ,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$

$$ \left((A \times B)^T \right)^{-1} = \hspace{0.03em} \left((A \times B)^{-1} \right)^T = \hspace{0.03em} \left(A^T\right)^{-1} \times \hspace{0.05em} \left(B^T\right)^{-1} = \hspace{0.03em} \left(A^{-1}\right)^T \times \hspace{0.05em} \left(B^{-1}\right)^T $$


Traces de matrices

Linéarité de la trace

Soit \((A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2\) deux matrices carrées de taille \(n\) et \((\lambda, \mu) \in \hspace{0.05em} \mathbb{R}^2\) deux nombres réels.

Par définition de la trace et par combinaison linéaire, on a :

$$Tr(\lambda A + \mu B) = \sum_{k = 1}^n (\lambda \ a + \mu \ b)_{k,k}$$

Alors, on a directement que :

$$Tr(\lambda A + \mu B) = \sum_{k = 1}^n \lambda \ a_{k,k} + \sum_{k = 1}^n b_{k,k}$$


Et finalement,

$$ \forall (\lambda \mu) \in \hspace{0.05em} \mathbb{R}^2, \ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$

$$ Tr(\lambda A + \mu B) = \lambda \ Tr(A) + \mu \ Tr(B) $$


Trace d'un produit

Soit \((A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2\) deux matrices carrées de taille \(n\).

Par définition de la trace, on a :

$$Tr( A \times B) = \sum_{k = 1}^n (a \times b)_{k,k}$$

Or, avec la définition du produit matriciel, on a :

$$ \forall k \in [\![1, n]\!],$$

$$(a \times b)_{k,k} = \sum_{l = 1}^n a_{k,l} \times b_{l,k} $$

Soit, en remplaçant dans l'expression précédente :

$$Tr( A \times B) = \sum_{k = 1}^n \sum_{l = 1}^n \Bigl[ a_{k,l} \times b_{l,k} \Bigr] \qquad (7)$$

Les variables \(k\) et \(l\) étant des variables muettes, on peut les inverser :

$$Tr( A \times B) = \sum_{l = 1}^n \sum_{k = 1}^n \Bigl[ a_{l,k} \times b_{k,l} \Bigr] $$

Les produits de nombres étant commutatif sur le corps \(\mathbb{K}\), on peut écrire que :

$$Tr( A \times B) = \sum_{l = 1}^n \sum_{k = 1}^n \Bigl[ b_{k,l} \times a_{l,k} \Bigr] $$

Or, c'est la même chose que \(Tr(B \times A)\), si l'on reprend l'expression \((7)\) en inversant \(A\) et \(B\).


Et finalement,

$$ \forall (A,B) \in \hspace{0.03em} \mathcal{M}_{n}(\mathbb{K})^2,$$

$$ Tr(A \times B) = Tr(B \times A)$$


Tableau récapitulatif des propriétés des matrices

Return Index
Scroll top Retour en haut de page