Introduction à l'analyse numérique
Introduction à l'analyse numérique
L'analyse numérique est une discipline carrefour, ce qui en fait l'intérêt et la difficulté. L'étude et la résolution d'un problème d'analyse numérique en vraie grandeur passe par plusieurs phases :
-
Le problème provient tout d'abord en général, de la mécanique, de la physique, des sciences de l'ingénieur. Il y a ainsi un travail de modélisation, se traduisant par une mise en équations. Le plus souvent cette modélisation est non triviale. Elle est faite, ou du moins engagée par celui qui pose le problème (physicien, mécanicien, ingénieur).
-
L'étape précédente conduit à un modèle. C'est alors le travail du mathématicien d'en étudier la cohérence. Il propose un cadre fonctionnel adéquat et s'efforce de montrer que le problème posé, ou du moins la traduction mathématique qui en a été construite, admet une solution unique. Malheureusement, dans de nombreuses situations réelles, cette étude ne peut être menée à son terme, soit du fait de la difficulté mathématique soit du fait du manque de temps ou de moyens. Ainsi, l'étude mathématique de certaines équations de la mécanique des fluides connues depuis plusieurs siècles, est loin d'être achevée.
-
Le pas suivant consiste à définir une approximation du modèle, afin de permettre une résolution numérique du problème posé. Là commence le travail proprement dit de l'analyste numéricien. Il lui faut construire un algorithme de calcul et, lorsque faire ce peut, démontrer que l'algorithme définit bien une solution approchée du problème.
-
Enfin, il reste à écrire un logiciel implantant l'algorithme et à valider les résultats fournis en bout de chaîne par la machine.
Tout au long de ce processus, les sources d'erreur sont multiples :
-
Le modèle construit a-t-il pris en compte les phénomènes physiques essentiels, ne négligeant que ce qui est négligeable ?
-
Le modèle construit est-il mathématiquement cohérent ? Définit-il une seule solution ? En admet-il au moins une ?
-
L'approximation est-elle bonne ? Quelle est la sensibilité du modèle aux erreurs ?
-
Le logiciel d'implantation est-il correct ? Dans un logiciel de plusieurs dizaines, voire centaines, de milliers d'instructions, il y a toujours des erreurs de programmation.
-
Enfin chaque opération arithmétique est effectuée avec une erreur d'arrondi. Quand un super calculateur en effectue des milliards à la seconde et mouline, disons vingt minutes, on peut légitimement craindre que cela donne lieu à une accumulation catastrophique, suffisante à elle seule à enlever toute validité aux résultats.
On voit ainsi l'intérêt essentiel d'une validation des résultats. On voit aussi que l'on n'aura jamais de certitudes, mais seulement au mieux un faisceau de présomptions de validité. Les méthodes à utiliser peuvent se classer sommairement de la manière suivante :
-
Étude des propriétés qualitatives de la solution calculée et de sa vraisemblance physique. Ici intervient de manière essentielle le physicien qui saura à quoi doit ressembler la solution cherchée (on sait par exemple que les contraintes mécaniques dans un solide deviennent très grandes près des arêtes).
-
Calcul de solutions analytiques, dans des cas particuliers. Avant que les ordinateurs ne deviennent disponibles, tout un arsenal de fonctions spéciales (fonctions de Bessel, harmoniques sphériques, polynômes orthogonaux) avaient été construits pour exprimer les solutions de problèmes aux limites dans le cas de géométries simples. Cet arsenal est précieux et doit être utilisé chaque fois que possible.
-
On peut souvent se donner une solution arbitraire, construire un jeu de données, puis lancer le logiciel sur ce jeu de données et voir si l'on retrouve la solution de départ.
-
Comparaison de ses résultats à ceux fournis par d'autres logiciels.