177 views
--- title: VISI601_CMI (2b) Calcul scientifique II type: slide slideOptions: transition: slide progress: true slideNumber: true --- # Calcul scientifique II > [name=Jacques-Olivier Lachaud][time=Decembre 2021][color=#907bf7] > (Les images peuvent être soumises à des droits d'auteur. Elles sont utilisées ici exclusivement dans un but pédagogique) ###### tags: `visi601` Retour à [VISI601_CMI (Main) Algorithmique numérique](https://codimd.math.cnrs.fr/s/IWTaBkA9m) --- ## Méthode numérique :::success Pour résoudre un problème bien posé, $F(x,d)=0$, on résoud une suite de problèmes approchés $F_n(x_n,d_n)=0$. On cherche $x_n \rightarrow x$ quand $n \rightarrow \infty$. ::: :::info Une méthode est **consistante** ssi la méthode tend bien vers la solution avec la bonne donnée $d$ et la bonne solution $x$, i.e. $\forall n, F_n(x,d) = F_n(x,d) - F(x,d) \rightarrow 0$ lorsque $n \rightarrow \infty$. ::: :::info Une méthode est **fortement consistante** ssi $\forall n, F_n(x,d)=0$. ::: ==Note== Souvent $F_n$ utilise des résultats précédents, on note $F_n(x_n,x_{n-1},\ldots, d_n)$. --- ## Exemple : méthode de Newton :::warning * Soit $f:\mathbb{R} \rightarrow \mathbb{R}$ la donnée, on cherche une racine $f(x)=0$, donc $F(x,f):= f(x)$ * On choisit $x_0$, et $\forall n > 0, x_n := x_{n-1} - \frac{f(x_{n-1})}{f'(x_{n-1})}$ * Donc on résoud $\forall n >0$, $F_n(x_n, x_{n-1}, f) := x_n - x_{n-1} + \frac{f(x_{n-1})}{f'(x_{n-1})}$ ::: On vérifie que $F_n$ est *fortement consistante*: Si $\alpha$ est racine simple, i.e. $f(\alpha)=0$, $f'(\alpha)\neq 0$, on a bien $F_n(\alpha,\alpha,f)=0$. --- ## Exercices (résoudre f(x)=0) Soit la méthode $F_n$ paramétrée par un coefficient $\lambda>0$, t.q. On choisit $x_0$, et $\forall n > 0, x_n := x_{n-1} - \lambda \frac{f(x_{n-1})}{f'(x_{n-1})}$ Ecrire $F_n$. Est-ce que $F_n$ est consistante ? fortement consistante ? --- ## Exercices (résoudre f(x)=0) Soit la méthode $F_n(a_n,b_n,...,f):= f((a_n+b_n)/2)$ (dite **bissection** ou **dichotomie**), avec $a_0$ et $b_0$ choisis tels que $f(a_0)f(b_0)\le 0$ (de signe contraire), et $$ \begin{bmatrix} a_n \\ b_n \end{bmatrix} := \left\{ \begin{array}{l} \begin{bmatrix} a_{n-1}\\ (a_{n-1}+b_{n-1})/2 \end{bmatrix} \quad\text{si}\quad f\left(\frac{a_{n-1}+b_{n-1}}{2}\right)f(a_n) \le 0\\ \begin{bmatrix} (a_{n-1}+b_{n-1})/2 \\ b_{n-1} \end{bmatrix} \quad \text{sinon.}\end{array}\right. $$ Est-ce que $F_n$ est consistante ? fortement consistante ? --- ## Exercices (trouver un minimum) On cherche le minimum $\alpha$ d'une fonction $g : \mathbb{R} \rightarrow \mathbb{R}$. Quels méthode(s) numérique(s) proposez-vous d'utiliser ? Dans quels cas chacune fonctionnera ? --- ## Stabilité d'une méthode numérique :::info Une méthode numérique est **stable** s'il existe, pour tout $n$, une unique solution $x_n$ correspondant à une donnée $d_n$ et si $x_n$ varie continûment en fonctions des données. ::: ==continuité== : pour une petite variation $\delta d_n$, il existe une petite variation $\delta x_n$, telle que $F_n(x_n + \delta x_n, d_n + \delta d_n ) = 0$ --- ## Convergence d'une méthode numérique :::info La méthode numérique $F_n$ est dite **convergente** vers le problème $F$ ssi: $\forall \epsilon > 0, \exists n_0 = n_0(\epsilon), \exists \delta = \delta(n_0,\epsilon)$ tels que $\forall n \ge n_0, \forall \delta_n : \| \delta_n \| \le \delta \Rightarrow \| x(d) - x_n(d+\delta_n) \| \le \epsilon$, où $d$ est une donnée possible du problème $F(x,d)=0$, $x(d)$ est la solution correspondante et $x_n(d+\delta_n)$ est la solution de $F_n(x,d+\delta_n)$. ::: :::success Pour toute suite de données $d_n$ tendant vers $d$, $\lim_{n \rightarrow +\infty} x_n(d_n) = x(d)$. ::: --- ## Exemple: approximation par boîtes d'une intégrale ![left-riemann](https://codimd.math.cnrs.fr/uploads/upload_717591c1e6753e0e7223ac7b6a60be86.png =x180) $\int_a^b f(t)dt \approx \sum_{i=0}^{n-1} f(c_i)h$, avec $h=\frac{b-a}{n}$ et $c_i:=a+ih$. --- ## Exemple: approximation par boîtes d'une intégrale (II) 1. On a $d=(f,a,b)$ et on écrit $F(x,(f,a,b)):=x-\int_a^b f(t)dt$ 2. La méthode numérique est $F_n(x_n,(f,a,b)):=x_n-\sum_{i=0}^{n-1}f(c_i)h$ 3. La méthode numérique est **stable** ou **bien posée** si $f$ est continue sur $[a,b]$ 4. La méthode numérique **n'est pas fortement consistante** 5. La méthode numérique est **consistante** si $f$ est dérivable. On montre $\left|\int_{c_i}^{c_{i+1}} f(t)dt-hf(c_i) \right| \le |f'(c_i)|\frac{h^2}{2}+o(h^2)$ $F_n$ consistante ssi $F_n(x,(f,a,b)) \rightarrow 0$ lorsque $n \rightarrow 0$ Or $\left| \int_a^b f(t)dt - \sum_{i=0}^{n-1} h f(c_i) \right| \le \sum_{i=0}^{n-1} \left|\int_{c_i}^{c_{i+1}} f(t)dt - h f(c_i) \right| \le K n \frac{h^2}{2} +o(nh^2)$ qui tend vers 0 lorsque $n$ tend vers l'infini car $h=(b-a)/n$ 6. La méthode numérique est aussi **convergente**, (ici idem consistance) --- ## Relation stabilité, consistance et convergence Si $F$ est **bien posé au sens de Hadamard** (résolution d'équations diff. linéaires ) :::success **Convergence** de $F_n$ implique **stabilité** de $F_n$ ::: :::success Si $F_n$ **consistante** avec $F$, alors **stabilité** de $F_n$ implique **convergence** de $F_n$ ::: :::success (Théorème de Lax-Richtmyer pour problème évolutif linéaire) Si $F_n$ **consistante** avec $F$, alors **stabilité** et **convergence** sont équivalents ::: Plus facile en général de montrer **consistance** et **stabilité** que **convergence**.