Différence finie
En mathĂ©matiques, et plus prĂ©cisĂ©ment en analyse, une diffĂ©rence finie est une expression de la forme f(x + b) â f(x + a) (oĂč f est une fonction numĂ©rique) ; la mĂȘme expression divisĂ©e par b â a s'appelle un taux d'accroissement (ou taux de variation), et il est possible, plus gĂ©nĂ©ralement, de dĂ©finir de mĂȘme des diffĂ©rences divisĂ©es. L'approximation des dĂ©rivĂ©es par des diffĂ©rences finies joue un rĂŽle central dans les mĂ©thodes des diffĂ©rences finies utilisĂ©es pour la rĂ©solution numĂ©rique des Ă©quations diffĂ©rentielles, tout particuliĂšrement pour les problĂšmes de conditions aux limites.
Les opérateurs mettant en jeu des différences finies, appelés opérateurs de différence, font l'objet d'une branche de l'analyse mathématique possédant de nombreux points communs avec la théorie des opérateurs différentiels ; certaines de ces analogies ont été systématisées et exploitées par le calcul ombral.
Opérateurs de différence finie
On considÚre en général uniquement les différences « en avant », « en arriÚre » et « centrées ».
L'opérateur de différence avant, , est défini par
- , oĂč h est le plus souvent une constante, qu'on appelle le pas.
De mĂȘme, l'opĂ©rateur de diffĂ©rence arriĂšre, , est dĂ©fini par
- .
Enfin, l'opérateur de différence centrée, , est défini par
- .
Relation avec les dérivées
Le nombre dérivé d'une fonction f en un point x est défini par la limite
- .
Si h a une valeur fixée (non nulle), le terme de droite est
- .
Ainsi, la diffĂ©rence avant divisĂ©e par h approxime le nombre dĂ©rivĂ© quand h est petit. L'erreur de cette approximation peut ĂȘtre dĂ©terminĂ©e Ă l'aide de la formule de Taylor. Supposant que f est continument dĂ©rivable,
- (oĂč O est une notation de Landau).
La mĂȘme formule est valable pour la diffĂ©rence arriĂšre :
- .
Cependant, la différence centrale donne une approximation plus précise ; son erreur est proportionnelle au carré du pas (si f est de classe ) :
- .
En analyse non standard, on dĂ©finit directement la dĂ©rivĂ©e comme lâombre (le rĂ©el standard le plus proche) dâune diffĂ©rence finie de pas infinitĂ©simal.
Différences d'ordre supérieur
De maniÚre analogue, on peut obtenir des approximations de dérivées d'ordre supérieur. Ainsi, appliquant la formule de différence centrale précédente à la dérivée de en x, et utilisant les différences centrales pour et , on obtient une approximation (par différences centrales) de la dérivée seconde de :
Plus gĂ©nĂ©ralement, les diffĂ©rences avant, arriĂšre et centrale d'ordre n (oĂč la notation , par exemple, correspond au n-iĂšme itĂ©rĂ© de , c'est-Ă -dire que n fois), sont respectivement donnĂ©es par
- ,
- ,
On le déduit facilement (par récurrence) de la formule de Pascal sur les coefficients binomiaux .
Il faut remarquer que dans le cas des diffĂ©rences centrales, pour tout impair, est multipliĂ© par des non-entiers ; ce qui peut ĂȘtre un problĂšme dans des applications oĂč cela change l'intervalle de discrĂ©tisation ; dans ce cas, une solution peut ĂȘtre de prendre la moyenne de et de .
Il est enfin possible d'utiliser les diffĂ©rences itĂ©rĂ©es pour approximer des dĂ©rivĂ©es de tout ordre, et mĂȘme d'employer un nombre de termes dissymĂ©trique autour de la valeur centrale, ce qui est utile lorsqu'on effectue des calculs sur une grille, pour compenser les effets de bord[1]. La relation entre les diffĂ©rences itĂ©rĂ©es et les dĂ©rivĂ©es d'ordre correspondant est trĂšs simple :
Les diffĂ©rences d'ordre supĂ©rieur peuvent ĂȘtre Ă©galement utilisĂ©es pour obtenir de meilleures approximations. Comme on l'a vu, les diffĂ©rences du premier ordre approximent les dĂ©rivĂ©es (premiĂšres) Ă un terme d'ordre h prĂšs. Mais la combinaison
est une approximation de f'(x) à un terme d'ordre h2 prÚs ; ceci peut se montrer en développant l'expression précédente par la formule de Taylor, ou en utilisant le calcul symbolique des différences finies (voir infra).
La suite des diffĂ©rences avant de au point est la transformĂ©e binomiale de la suite ; elle a diverses propriĂ©tĂ©s combinatoires remarquables. Ces diffĂ©rences avant peuvent notamment ĂȘtre Ă©valuĂ©es en utilisant l'intĂ©grale de Nörlund-Rice. La reprĂ©sentation intĂ©grale de ce type de suites est importante car l'intĂ©grale peut souvent ĂȘtre Ă©valuĂ©e en utilisant un dĂ©veloppement asymptotique ou une mĂ©thode du point col alors que ces suites peuvent ĂȘtre trĂšs difficiles Ă Ă©valuer numĂ©riquement, car les coefficients binomiaux croissent rapidement avec n.
Ces différences itérées possÚdent des propriétés formelles utiles :
- Pour tous k et n entiers positifs
- Formule de Leibniz :
Méthodes des différences finies
En analyse numérique, une importante application des différences finies est la résolution numérique des équations différentielles et des équations aux dérivées partielles : l'idée est de remplacer les dérivées apparaissant dans l'équation par des différences finies qui les approximent. Les diverses méthodes qui en résultent sont appelées méthodes des différences finies.
De nombreuses applications de ces méthodes se rencontrent en théorie du calcul numérique, ainsi que dans des disciplines scientifiques trÚs variées, telles que la mécanique des fluides, et ses applications à la météorologie ou à l'aérodynamique.
SĂ©ries de Newton
Le développement en série de Newton[2] d'une fonction au point est la série suivante :
- , oĂč
désigne le coefficient binomial généralisé et
est la « factorielle descendante », le produit vide (x)0 étant par convention égal à 1.
D'aprÚs le théorÚme d'interpolation de Newton et le lien entre différences finies et différences divisées, la somme partielle jusqu'à est le polynÎme d'interpolation de Lagrange de aux points . Par conséquent :
Toute fonction polynomiale est égale à sa série de Newton.
Cette égalité permet par exemple de démontrer l'involutivité de la transformation binomiale.
Elle est valide aussi pour certaines fonctions analytiques, mais pas toutes[3].
Ce développement en série de Newton correspond au cas des différences finies de pas h = 1. Si l'on itÚre un opérateur ayant un pas quelconque, la formule devient
On notera une similarité de ce développement de Newton avec le théorÚme de Taylor ; ce fut historiquement cette observation, ainsi que l'identité de Chu-Vandermonde, , qui en dérive, qui amenÚrent au calcul ombral.
Pour illustrer comment l'on peut utiliser ce développement de Newton, considérons les trois points (1, 2), (2, 2) et (3, 4). On peut trouver leur polynÎme d'interpolation en calculant d'abord une table de différences, et en substituant alors les différences qui correspondent à (les valeurs soulignées de la table) dans la formule, comme suit :
En analyse p-adique, le thĂ©orĂšme de Mahler affirme que l'hypothĂšse que f soit un polynĂŽme peut ĂȘtre relĂąchĂ©e, et il suffit que f soit continue.
Le théorÚme de Carlson fournit une condition nécessaire et suffisante pour que la série de Newton soit unique, si elle existe (car il est possible que la série de Newton n'existe pas).
Cette formule d'interpolation de Newton, comme celles de Stirling et de Selberg, sont un cas spécial de suites de différences (en), toutes définies en termes de différences avant renormalisées.
Le calcul symbolique des différences finies
L'opĂ©rateur de diffĂ©rence avant envoie la fonction f vers Îh[f]. Cet opĂ©rateur vĂ©rifie , oĂč est l'opĂ©rateur de translation de pas , dĂ©fini par , et est l'identitĂ© (, et ). est un opĂ©rateur linĂ©aire, et il satisfait Ă la rĂšgle du produit (on dit parfois que c'est une dĂ©rivation ; voir aussi Ă ce sujet l'article « Corps diffĂ©rentiel »). Les opĂ©rateurs de diffĂ©rence arriĂšre et centrale obĂ©issent Ă des rĂšgles similaires.
On a , , et , expressions qui peuvent se développer par la formule du binÎme (appliquée à l'algÚbre des opérateurs), puisque et commutent. On vérifie alors que les formules données plus haut pour les différences d'ordre supérieur coïncident avec ces développements, ce qui justifie les notations choisies.
Appliquant le théorÚme de Taylor (par rapport à h), on obtient
oĂč D dĂ©signe l'opĂ©rateur de dĂ©rivation usuel, envoyant f vers sa dĂ©rivĂ©e f'. Inversant (formellement) l'exponentielle, on peut donc penser que
Cette formule est correcte quand on l'applique Ă une fonction f polynomiale, car alors la sĂ©rie se rĂ©duit Ă une somme finie. En revanche, mĂȘme si f est analytique, il n'est pas garanti que la sĂ©rie converge : ce pourrait n'ĂȘtre qu'un dĂ©veloppement asymptotique. Elle peut cependant ĂȘtre utilisĂ©e pour obtenir des approximations plus prĂ©cises de la dĂ©rivĂ©e de f. Ainsi, les deux premiers termes de la sĂ©rie donnent l'approximation du second ordre Ă mentionnĂ©e Ă la fin de la section sur les diffĂ©rences d'ordre supĂ©rieur.
On a des formules analogues pour les différences arriÚre et centrale :
Toutes ces formules se généralisent encore à celles du calcul ombral et à d'autres formules de l'analyse combinatoire ; ainsi, l'opérateur inverse de l'opérateur de différence avant est celui de somme indéfinie (en), ce qui a permis à Lagrange une « démonstration » abstraite de la formule d'Euler-Maclaurin, en l'interprétant comme l'inverse symbolique de la formule de Taylor[4].
Généralisations
Une différence finie généralisée est d'habitude définie par
oĂč est le vecteur de coefficients qui lui est associĂ©. Une diffĂ©rence infinie en est une gĂ©nĂ©ralisation supplĂ©mentaire, oĂč la somme finie prĂ©cĂ©dente est remplacĂ©e par une sĂ©rie (infinie). Une autre sorte de gĂ©nĂ©ralisation consiste Ă faire dĂ©pendre les coefficients du point : , on parle alors de diffĂ©rences finies pondĂ©rĂ©es ; on peut aussi faire dĂ©pendre le pas du point : . Toutes ces gĂ©nĂ©ralisations sont utiles pour construire diffĂ©rents modules de continuitĂ©.
Différences finies à plusieurs variables
Il est possible de calculer des différences finies dans le cas de fonctions à plusieurs variables ; elles sont l'analogue discret des dérivées partielles. On obtient ainsi les approximations suivantes :
- .
Notes et références
- Les détails sont analysés dans cette série de notes (en).
- (en) Isaac Newton, Philosophiae naturalis principia mathematica, (lire en ligne), Book III, Lemma V, Case 1.
- Pour plus de précisions, voir (en) Francis B. Hildebrand (en), Introduction to Numerical Analysis, Dover, , 2e éd. (1re éd. 1956) (lire en ligne), p. 157.
- Joseph-Louis Lagrange, Ćuvres, vol. 3, p. 441 et suivantes.
Voir aussi
Article connexe
Bibliographie
- (en) William F. Ames, Numerical Methods for Partial Differential Equations, New York, Academic Press, , 365 p. (ISBN 0-12-056760-1), Section 1.6
- (en) Francis B. Hildebrand (en), Finite-Difference Equations and Simulations, Englewood Cliffs, New Jersey, Prentice-Hall, , Section 2.2
- (en) George Boole, A Treatise On The Calculus of Finite Differences, Macmillan and Company, , 2e Ă©d. [Voir aussi : Dover edition 1960]
- (en) Robert D. Richtmyer et K. W. Morton, Difference Methods for Initial Value Problems, New York, Wiley, , 2e Ă©d.
- (en) E. T. Whittaker et G. Robinson, The Calculus of Observations : a Treatise on Numerical Mathematics, (lire en ligne), « Interpolation with equal intervals of the argument », p. 1-19