Convergence
Définition
Étant donnée une subdivision, on souhaite avoir x_i \approx x(t_i) pour tout i \in \llbracket 0\,,\, N \rrbracket où {(x_i)}_{1 \le i \le N} est la solution de la méthode (discrétisée) à un pas explicite et où x(\cdot) est la solution du problème de Cauchy.
Enfin, on souhaite que x_i tende vers x(t_i) quand le pas de discrétisation tend vers 0. On introduit la définition suivante.
Condition Suffisante de Convergence
Par définition de l’erreur de consistance on a
x(t_{i+1}) = x(t_i) + h_i\, \Phi(t_i, x(t_i), h_i) + e_i.
Si la méthode est stable, nous en déduisons que l’erreur globale de convergence vérifie
\max_{0 \le i \le N}\, \lVert x(t_i) - x_i\rVert \le S \left( \lVert x(t_0) - x_0\rVert + \sum_{i=0}^{N-1} \lVert e_i\rVert \right).
Nous en déduisons.
Si de plus la méthode est consistante d’ordre p et si l’on peut majorer les constantes C_i par une constante C indépendante de {(h_i)}_i, on obtient \begin{aligned} \max_{1 \le i \le N}\, \lVert x(t_i) - x_i\rVert &\le S \sum_{i=0}^{N-1} \lVert e_i\rVert \le S \sum_{i=0}^{N-1} C_i\, {h_i}^{p+1} \\ &\le S\, C\, h_{\max}^p \sum_{i=0}^{N-1} h_i \le S\, C\, h_{\max}^p (t_f - t_0) \le M h_{\max}^p \end{aligned} pour une certaine constante M positive indépendante de {(h_i)}_i. Ainsi, l’ordre de convergence est donné par l’ordre de consistance.
Illustration de la convergence
Considérons un pas uniforme, c’est-à-dire h_i = h = (t_f - t_0) / N, avec N le nombre de pas. Notons l’erreur de convergence E. Faisons l’hypothèse que E = M h^p pour un certain M \ge 0. En passant au logarithme, on obtient
\log(E) = \log(M) + p\, \log(h).
Nous en déduisons que si on trace \log(E) en fonction de \log(h), on doit obtenir une droite de pente p. La figure ci-dessous illustre les ordres de convergence de méthodes de Runge-Kutta pour l’exemple suivant :
x'(t) = (1-2t) x(t), \quad x(0) = 1,
sur l’intervalle [0, 3].