Exponentielle de Matrice

L’exponentielle d’une matrice est un outil fondamental pour résoudre les équations différentielles linéaires. Elle généralise la notion d’exponentielle des nombres réels aux matrices.

Définition

On définit l’exponentielle d’une matrice A \in \mathcal{M}_n(\mathbb{R}) par :

\exp(A) \coloneqq \sum_{k=0}^{\infty} \frac{A^k}{k!} \in \mathcal{M}_n(\mathbb{R}).

Pour montrer que cette série converge absolument pour toute matrice A \in \mathcal{M}_n(\mathbb{R}), nous allons utiliser une norme sous-multiplicative. Soit \|\cdot\| une norme sous-multiplicative sur \mathcal{M}_n(\mathbb{R}), par exemple la norme de Frobenius ou n’importe quelle norme subordonnée (ou norme d’algèbre). Une norme sous-multiplicative satisfait pour toutes matrices \ A, B \in \mathcal{M}_n(\mathbb{R}) la propriété suivante :

\|A B\| \leq \|A\| \|B\|.

Dans ce cas, nous pouvons majorer la norme de chaque terme de la série :

\left\| \frac{A^k}{k!} \right\| = \frac{\|A^k\|}{k!} \leq \frac{\|A\|^k}{k!}.

La série \sum_{k=0}^{\infty} \frac{\|A\|^k}{k!} est simplement l’exponentielle scalaire de la norme \|A\| :

\sum_{k=0}^{\infty} \frac{\|A\|^k}{k!} = e^{\|A\|}.

Puisque la série de droite converge, il en découle que la série de matrices \sum_{k=0}^{\infty} \frac{A^k}{k!} converge absolument. Enfin, une série absolument convergente dans un espace vectoriel normé de dimension finie est convergente.

Continuité

L’application exponentielle (de matrice) :

\begin{array}{rcll} \exp \colon & \mathcal{M}_n(\mathbb{R}) & \longrightarrow & \mathcal{M}_n(\mathbb{R}) \\ & A & \longmapsto & \displaystyle\exp(A) = \sum_{k=0}^{\infty} \frac{A^k}{k!} \end{array}

est continue. En effet, la série est normalement convergente sur tout compact de \mathcal{M}_n(\mathbb{R}) et donc uniformément convergente sur tout compact. Par conséquent, l’application \exp est continue sur \mathcal{M}_n(\mathbb{R}).

Remarque

L’exponentielle de A s’écrit aussi e^A.

Propriétés

Matrice Nulle

On note 0_n la matrice nulle de \mathcal{M}_n(\mathbb{R}) et I_n la matrice identité. On a alors : e^{0_n} = I_n.

Matrice Diagonale

Si \Sigma est une matrice diagonale avec des éléments diagonaux \lambda_1, \lambda_2, \dots, \lambda_n, c’est-à-dire :

\Sigma = \text{diag}(\lambda_1, \lambda_2, \dots, \lambda_n) = \begin{pmatrix} \lambda_1 & 0 & \cdots & 0 \\ 0 & \lambda_2 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda_n \end{pmatrix},

alors l’exponentielle de \Sigma est simplement la matrice diagonale des exponentielles des éléments diagonaux :

e^\Sigma = \text{diag}(e^{\lambda_1}, e^{\lambda_2}, \dots, e^{\lambda_n}) = \begin{pmatrix} e^{\lambda_1} & 0 & \cdots & 0 \\ 0 & e^{\lambda_2} & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & e^{\lambda_n} \end{pmatrix}.

Matrice Semblable

Soit A \in \mathcal{M}_n(\mathbb{R}) et P \in \mathrm{GL}_n(\mathbb{R}), c’est-à-dire P est inversible. Alors

e^{PAP^{-1}} = P e^A P^{-1}.

Nous avons : e^{PAP^{-1}} = \sum_{k=0}^{\infty} \frac{\left(PAP^{-1}\right)^k}{k!}.

Montrons par récurrence que \left(PAP^{-1}\right)^k = P A^k P^{-1}.

  • Pour k=0, nous avons I_n = \left(PAP^{-1}\right)^0 et P A^0 P^{-1} = P P^{-1} = I_n donc la propriété est vraie.
  • Supposons cette propriété vraie pour k > 0. Alors \left(PAP^{-1}\right)^{k+1} = \left(PAP^{-1}\right)^k PAP^{-1} = P A^k P^{-1} PAP^{-1} = P A^{k+1} P^{-1} et donc la propriété est vraie pour k+1.

Ainsi, on a : \begin{align} e^{PAP^{-1}} &= \sum_{k=0}^{\infty} \frac{\left(PAP^{-1}\right)^k}{k!} = \sum_{k=0}^{\infty} \left( P \frac{A^k}{k!} P^{-1} \right) \notag \\[1.5em] &= P \left( \sum_{k=0}^{\infty} \frac{A^k}{k!} \right) P^{-1} \tag*{(par continuité de la conjugaison)} \\[1.5em] &= P e^A P^{-1}. \notag \end{align}

Remarque

Si la matrice A est diagonalisable, on peut facilement calculer son exponentielle en se ramenant au calcul de l’exponentielle d’une matrice diagonale. En effet, si A = P \Sigma P^{-1}, avec \Sigma diagonale, alors e^A = P e^\Sigma P^{-1}, avec e^\Sigma diagonale.

Matrice Transposée

La transposée d’une matrice A de taille m \times n est notée A^T et s’obtient en échangeant les lignes et les colonnes de A. Autrement dit, l’élément (i, j) de A^T est l’élément (j, i) de A :

(A^T)_{ij} = A_{ji}

Concernant l’exponentielle de matrice, nous avons :

e^{A^T} = (e^A)^T.

Remarque

La preuve est laissée en exercice. On pourra s’inspirer de la preuve ci-avant.

Matrice Nilpotente

Une matrice carrée A est dite nilpotente s’il existe un entier k tel que :

A^k = 0.

Dans ce cas, l’exponentielle de A s’écrit sous forme de somme finie :

e^A = \sum_{n=0}^{k-1} \frac{A^n}{n!}.

Par exemple, pour la matrice

A = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix},

on a A^2 = 0, donc son exponentielle est :

e^A = I_2 + A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}.

Matrices Commutantes

Si les matrices A et B commutent, c’est-à-dire si AB = BA, alors l’exponentielle de leur somme est le produit des exponentielles :

e^{A + B} = e^A\, e^B.

Soit A et B deux matrices dans \mathcal{M}_n(\mathbb{R}) qui commutent, c’est-à-dire telle que AB = BA.

En développant (A+B)^k à l’aide du binôme de Newton, on obtient puisque A et B commutent :

(A + B)^k = \sum_{j=0}^{k} \binom{k}{j} A^j B^{k-j}.

En utilisant le produit de Cauchy et le résultat précédent, nous avons :

e^A\, e^B = \sum_{k=0}^{\infty} c_k, \quad c_k = \sum_{j=0}^{k} \frac{A^j}{j!} \frac{B^{k-j}}{(k-j)!} = \frac{(A + B)^k}{k!}.

Ainsi, au final nous obtenons :

e^A\, e^B = \sum_{k=0}^{\infty} \frac{(A + B)^k}{k!} = e^{A+B}.

Cela conclut la démonstration.

Important

La commutativité des matrices A et B est une condition nécessaire pour que cette propriété soit vraie. Voir la formule de Baker-Campbell-Hausdorff pour plus de détails.

Contre-exemple. Soient

A = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}, \quad B = \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix}.

Alors, pusique A^2 = B^2 = 0_2, on a :

e^A = \begin{pmatrix} 1 & 1 \\ 0 & 1 \end{pmatrix}, \quad e^B = \begin{pmatrix} 1 & 0 \\ 1 & 1 \end{pmatrix}

mais par ailleurs (A + B)^2 = I_2 donc

\begin{aligned} e^{A+B} &= \left( \sum_{k=0}^{\infty} \frac{1}{2k!} \right) I_2 + \left( \sum_{k=0}^{\infty} \frac{1}{(2k+1)!} \right) (A+B) \\[1.5em] &= \cosh(1) I_2 + \sinh(1) (A + B) \\[0.5em] &\ne e^A e^B = \begin{pmatrix} 2 & 1 \\ 1 & 1 \end{pmatrix}. \end{aligned}

Inversibilité et Dérivabilité

Soit A \in \mathcal{M}_n(\mathbb{R}). En corollaire de ce qui précède, nous avons les propriétés suivantes :

  1. Inversibilité : e^A est toujours une matrice inversible et son inverse est donné par :

    (e^A)^{-1} = e^{-A}.

  2. Dérivabilité : L’application t \mapsto e^{tA} est dérivable par rapport à t, et sa dérivée est donnée par :

    \frac{\mathrm{d}}{\mathrm{d} t} e^{tA} = A\, e^{tA} = e^{tA} A.

  1. Inversibilité :

    Pour prouver que e^A est inversible et que son inverse est e^{-A}, nous utilisons la commutativité des matrices A et -A. En effet, il est évident que les matrices A et -A commutent, donc on peut écrire :

    e^{-A} e^A = e^A e^{-A} = e^{A + (-A)} = e^{0_n} = I_n.

    Ainsi, e^A est inversible et son inverse est e^{-A}.

  2. Dérivabilité :

    Fixons un t \in \mathbb{R}. Pour étudier la dérivée de e^{tA} par rapport à t, nous commençons par utiliser la définition de la dérivée :

    \frac{\mathrm{d}}{\mathrm{d}t} e^{tA} = \lim_{h \to 0} \frac{e^{(t+h)A} - e^{tA}}{h}.

    En remarquant que tA et hA commutent, nous réécrivons la différence comme suit :

    e^{(t+h)A} - e^{tA} = e^{tA} e^{hA} - e^{tA} = e^{tA} (e^{hA} - I_n).

    Divisons par h :

    \frac{e^{(t+h)A} - e^{tA}}{h} = e^{tA} \frac{e^{hA} - I_n}{h} = e^{tA} \left( \sum_{k=1}^{\infty} \frac{h^{k-1}A^k}{k!} \right).

    Or,

    \sum_{k=1}^{\infty} \frac{h^{k-1}A^k}{k!} = A + h \sum_{k=2}^{\infty} \frac{h^{k-2}A^k}{k!} = A + h A^2 \sum_{k=0}^{\infty} \frac{h^{k}A^k}{(k+2)!}

    et la série de termes {h^{k}A^k}/{(k+2)!} est convergente puisque ceux-ci sont majorés pas ceux de l’exponentielle de hA. On note B(h) la limite de la série. L’application h \mapsto B(h) est continue en 0 (par convergence normale) et B(0) = I_n / 2. Ainsi, on a :

    \lim_{h \to 0} \frac{e^{(t+h)A} - e^{tA}}{h} = \lim_{h \to 0} e^{tA} \left( A + h A^2 B(h) \right) = e^{tA} A.

    Donc, la dérivée de e^{tA} est :

    \frac{\mathrm{d}}{\mathrm{d}t} e^{tA} = e^{tA} A.

    Par commutativité de A avec ses puissances, on peut aussi écrire cette dérivée comme :

    \frac{\mathrm{d}}{\mathrm{d}t} e^{tA} = A\, e^{tA}.

Cela conclut la démonstration des deux propriétés.

Remarque

On pourra préférer la notation \exp. Ces deux derniers résultats nous indique que l’on a \exp \colon \mathcal{M}_n(\mathbb{R}) \to \mathrm{GL}_n(\mathbb{R}) et que \frac{\mathrm{d}}{\mathrm{d}t} \exp(tA) = A \exp(tA) = \exp(tA) A. Nous savons que \exp est continue sur \mathcal{M}_n(\mathbb{R}). Nous pourrions montrer que cette application est de classe \mathscr{C}^\infty sur son domaine de définition. L’application exponentielle est même surjective, c’est-à-dire \exp(\mathcal{M}_n(\mathbb{R})) = \mathrm{GL}_n(\mathbb{R}).

Exercices

Question

Pour chaque matrice A ci-dessous, calculez son exponentielle (\alpha, \beta, \lambda \in \mathbb{R}) :

\begin{aligned} A &= \begin{pmatrix} 0 & 1 \\ -1 & 0 \end{pmatrix}, \quad A = \begin{pmatrix} 2 & -1 \\ 1 & 2 \end{pmatrix}, \quad A = \begin{pmatrix} -1 & 1 \\ 0 & 1 \end{pmatrix}, \quad A = \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}, \\[1.5em] A &= \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix}, \quad A = \begin{pmatrix} \alpha & \beta \\ -\beta & \alpha \end{pmatrix}, \quad A = \begin{pmatrix} \lambda & 1 \\ 0 & \lambda \end{pmatrix}. \end{aligned}

Back to top