These Doctorat Spectral PR Ls Edps
These Doctorat Spectral PR Ls Edps
These Doctorat Spectral PR Ls Edps
Ismahène Sehili
Titre
2018
On Numerical Resolution of Boundary Value
Problems Using Spectral Methods.
Abstrait. Dans ce travail, nous introduisons une nouvelle base polynomiale bidi-
mensionnelle pour l’approximation des fonctions bivariées. Nous commençons cette
construction en recherchant les valeurs propres de l’équation différentielle de Le-
gendre en 2D, puis cette base a été construite en utilisant une formule de Rodrigues.
Des résultats numériques efficaces sont obtenus par l’approximation de certaines
fonctions bivariées dans cette base, et comparés par la méthode des moindres carrés
avec les polynômes de Chebychev. Nous proposons, aussi, une généralisation de la
méthode spectrale Tau en dimension 2, cette méthode est généralisée par l’utilisa-
tion d’une nouvelle base polynomiale bidimensionnelle construite par une relation
de récurrence à trois termes. Nous présentons également une estimation de l’erreur
commise par la méthode proposée.
Je tiens tout d’abord à remercier Allah de m’avoir donné la patience pour ac-
complir ce petit travail.
Je voudrais remercier vivement mon promoteur Dr.Abdelhamid ZERROUG
pour avoir accepté de diriger ce travail, pour sa gentillesse, sa bonne volonté, sa dis-
ponibilité et sa patience ainsi ces orientations et ces guidances avisés et son soutient
indéfectible durant la préparation de ce travail, dès le début de sa confiance à mon
égard et à mon travail m’a donnée une énergie et une inspiration de soulever toutes
les difficultés.
J’adresse mes remerciements les plus sincères à mon co-encadreur Dr.Azedine
RAHMOUNE pour les conseils qu’il m’a prodigué durant mon parcourt universi-
taire et le temps précieux qu’il m’a consacré durant ce travail.
J’adresse mes sincères remerciements à monsieur Pr.Zohir MOKHTARI, qui
m’a fait l’honneur d’accepter de présider ce jury.
Je remercie chaleureusement, monsieur Pr.Abdelbaki MEROUANI, et Dr.Khelil
NACER de m’avoir fait l’honneur d’accepter de faire partie de ce jury.
Mes remerciements vont à tous ceux qui ont contribué à la réalisation de ce travail
et plus particulièrement à monsieur Naziheddine BELKACEM et monsieur Adel
ABESS.
Merci à toutes les personnes qui sont venues assister à ma soutenance.
Dédicace
1 Préliminaires 5
1.1 Généralités sur les équations aux dérivées partielles . . . . . . . . . . 5
1.1.1 Exemples d’équations aux dérivées partielles . . . . . . . . . . 8
1.1.2 Conditions de Dirichlet, de Neumann et de Robin . . . . . . . 10
1.1.3 Modélisation, discrétisation et simulation numérique . . . . . 12
1.1.4 Consistance, convergence et stabilité . . . . . . . . . . . . . . 13
1.1.5 Notion de stabilité . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Exemples de fonctions de base . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 Polynômes orthogonaux de Chebychev . . . . . . . . . . . . . 15
1.2.2 Polynômes de Legendre . . . . . . . . . . . . . . . . . . . . . . 20
1.2.3 Polynômes de Laguerre . . . . . . . . . . . . . . . . . . . . . . 21
1.2.4 Polynômes de Hermite . . . . . . . . . . . . . . . . . . . . . . 22
1.3 Fondements des méthodes spectrales . . . . . . . . . . . . . . . . . . 23
1.3.1 Pourquoi les méthodes spectrales ? . . . . . . . . . . . . . . . 26
1.3.2 Décomposition spectrale . . . . . . . . . . . . . . . . . . . . . 26
1.3.3 Choix des fonctions de base . . . . . . . . . . . . . . . . . . . 28
1.3.4 Les deux royaumes . . . . . . . . . . . . . . . . . . . . . . . . 30
1.3.5 La non-linéarité . . . . . . . . . . . . . . . . . . . . . . . . . . 30
II
3.3 Méthode de Tau-Legendre pour l’équation de Poison . . . . . . . . . 58
3.4 Méthode spectrale de collocation pour les (EDP) paraboliques avec
des conditions aux limites de Neumann . . . . . . . . . . . . . . . . . 61
3.4.1 Méthode pseudo-spectrale de Chebychev . . . . . . . . . . . . 61
3.4.2 Résolution d’une équation parabolique . . . . . . . . . . . . . 63
3.4.3 Résultats numériques . . . . . . . . . . . . . . . . . . . . . . . 65
Bibliographie 103
III
Table des figures
4.1 P0,1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.2 P0,2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
IV
4.3 P0,3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.4 P1,0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.5 P1,1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.6 P1,2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.7 P1,3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.8 P2,0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.9 P2,1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.10 P2,2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.11 P2,3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.12 P3,0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.13 P3,1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.14 P3,2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.15 P3,3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.16 Premiers polynômes bidimensionnels de Legendre . . . . . . . . . . . 74
4.17 Approx avec N = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.18 Approx avec N = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.19 Approx avec N = 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.20 Approx avec N = 2, N = 3 et N = 4 . . . . . . . . . . . . . . . . . . 80
4.21 f (x, y) = y ex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.22 Approx avec N = 12 . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.23 f (x, y) = y 2 ex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.24 Approx avec N = 11 . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.25 f (x, y) = xy cos(y) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.26 Approx avec N = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.27 f (x, y) = y ex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.28 Approx avec N = 11 . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.29 f (x, y) = exp(x + y) . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.30 Approx avec N = 23 . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
V
Liste des tableaux
VI
Introduction générale
1
d’ordre arbitrairement élevé pouvant s’appliquer à des problèmes de géométrie arbi-
traire. À cet égard, la trajectoire des méthodes spectrales au cours des 20 dernières
années converge vers celle des méthodes d’éléments finis hp.
Ce processus de migration des méthodes spectrales mono-domaine vers multi-
domaines a nécessité l’injection de nouveaux outils mathématiques et stimulé les
directions d’investigation originales. Les mathématiques ont eu un impact profond
sur la conception et l’interprétation correctes des méthodes, et dans certains cas,
elles ont inspiré le développement de méthodes spectrales discontinues (telles que la
méthode discontinue de Galerkin) même pour des problèmes continues.
L’un des changements les plus prononcés est que la forme forte des équations
différentielles a perdu sa primauté en tant qu’ancre de la discrétisation du problème.
Les méthodes spectrales multi-domaines sont abordées plus facilement et de manière
fiable, à la fois algorithmiquement et théoriquement, à partir de formulations faibles
des équations différentielles. De plus, l’utilisation de nombreux sous-domaines a
motivé l’utilisation de degrés polynomiaux modérés dans chaque sous-domaine -
petits du point de vue des méthodes spectrales classiques, mais larges du point de
vue des méthodes des différences finies et des éléments finis. D’un point de vue
théorique, de nouvelles estimations d’erreur ont été établies pour lesquelles les rôles
du degré polynomial local et la taille géométrique des éléments locaux sont tous
deux capturés. D’un point de vue algorithmique, le rôle des matrices a été étudié en
détail.
Malgré ce changement de perspective majeur, les nouvelles méthodes spectrales
multidomaines conservent certaines des caractéristiques (les plus souhaitables) des
méthodes spectrales classiques - formules d’intégration gaussiennes, la dispersion
faible et la facilité de pré-conditionnement par des matrices de discrétisation d’ordre
bas.
Au cours des vingt dernières années, l’attrait des méthodes spectrales pour des
applications telles que la dynamique des fluides computationnelle s’est développé, à
la mesure de l’érosion de la plupart des obstacles à leur application plus large. Au-
delà des techniques spécifiques, la culture des méthodes de haut niveau est entrée
dans la connaissance de base des analystes numériques. Les méthodes spectrales ont
été traditionnelles dans l’enseignement académique depuis les années 1990 et ont
commencé à pénétrer les applications industrielles cette décennie. En effet, les mé-
thodes spectrales sont aujourd’hui utilisées avec succès pour des applications très
diverses, telles que la propagation des ondes (acoustiques, élastiques, sismiques et
électromagnétiques), l’analyse solide et structurale, l’ingénierie marine, la biomé-
canique, l’astrophysique et même l’ingénierie financière. Dans l’environnement in-
dustriel (extra-académique), les codes spectraux sont appréciés, et souvent préférés,
en raison des faibles erreurs de dissipation et de dispersion, de la manière soignée
de traiter les conditions aux limites et, aujourd’hui, de la disponibilité de solveurs
algébriques efficaces. un compromis favorable entre précision et coût de calcul.
Le but de ce travail est d’insister sur la pluridisciplinarité des méthodes rencon-
trées que l’on peut regrouper selon quatre axes :
La modélisation mathématique, essentiellement la modélisation d’un pro-
blème de la physiques, la mécanique des fluides, . . . , sous forme d’une équa-
tion différentielle.
La théorie mathématique, essentiellement l’analyse fonctionnelle des équa-
tions différentielles qui permet d’analyser le problème et d’exhiber des mé-
2
thodes efficaces d’approximation.
L’analyse numérique, qui étudie ces méthodes, principalement dans le cadre
des mathématiques discrètes (approximation des quantités qui se présentent
sous le signe de différentiation via une décomposition spectrale, puis l’ap-
proximation numériques des systèmes différentielles.
La programmation sur machine, qui retranscrit ses méthodes sous forme d’al-
gorithmes efficaces.
Suivant ces axes normaux, ce travail est partagé en cinq parties
Chapitre 1 : Un petit rappel sur les équations différentielles aux dérivées par-
tielles. Ce chapitre est une introduction à la terminologie et à la classification des
équations différentielles aux dérivées partielles, qui a pour objectif, de familiariser le
lecteur de cette thèse avec le concept d’équation différentielles aux dérivées partielles.
Ainsi, nous y exposons certains modèles typiques pour voir où de telles équations
sont issues. il est destiné aussi à fournir les outils de base nécessaire à la recherche
sur les méthodes de résolution approchée.
Le deuxième chapitre fixe le cadre théorique de notre étude, représentant une
introduction générale aux méthodes spectrales, notamment on verra l’aspect d’une
méthode spectrale. Nous y discutons notamment les avantages de ces méthodes par-
rapport aux autres méthodes, les inconvénients, le principe général des méthodes
spectrales, les méthodes spectrales et pseudo-spectrales, . . .
Dans le troisième chapitre, on décrit quelques méthodes spectrales (la méthodes
de Galerkin et la méthode de Lanczos) et d’autres méthodes qu’on appelle les mé-
thodes pseudo-spectrales (la méthode de collocation et de Tau-collocation). Ces
techniques sont couramment utilisées pour la résolution d’un large éventail d’équa-
tions aux dérivées partielles. On essaye d’exposer à la fois la formulation intrinsèque
de ces méthodes et leur application pratique à l’aide d’exemples.
Le quatrième chapitre traite l’application de certaines méthodes pour la résolu-
tion numérique des équations aux dérivées partielles, dans lequel nous illustrons la
validation de ces méthodes par des exemples instructifs. Ainsi, une nouvelle méthode
pour la résolution numérique des EDP paraboliques avec des conditions aux limites
de Neumann, en utilisant une formule de collocation pour le calcul d’une matrice
de différenciation dans les points de Chebychev-Gauss-Lobatto. Les résultats numé-
riques obtenus par cette technique sont comparées avec la solution exacte pour voir
l’efficacité de cette méthode.
Dans le dernier chapitre, nous introduisons une nouvelle base polynomiale bidi-
mensionnelle pour l’approximation des fonctions bivariées. Nous commençons cette
construction en recherchant les valeurs propres de l’équation différentielle de Le-
gendre en 2D, puis cette base a été construite en utilisant une formule de Rodrigues.
Des résultats numériques efficaces sont obtenus par l’approximation de certaines
fonctions bivariées dans cette base, et comparés par la méthode des moindres car-
rés avec les polynômes de Chebychev. ce travail est publié sous le titre "Creation of
two-dimensional Legendre basis and some properties" [Asian Journal of Mathematics
and Computer Research].
Un autre article publié a la revue [Journal of Applied Computer Science & Ma-
thematics], intitulé par "Two-dimensional Spectral Approximation", Nous présentons
dans cet article une étude théorique de la stabilité et une estimation de l’erreur de
la méthode spectrale polynômiale Tau dans la base bidimensionnelle construite.
On a aussi proposé une nouvelle formule pour la construction de la base bidi-
3
mensionnelle de Legendre par une relation de récurrence a trois termes, ainsi des
formules des coefficients spectraux des dérivées d’ordre n d’une fonction a deux va-
riables développée dans la base construite, se travail est publié sous le titre Bivariate
Legendre approximation [International Journal of Applied Mathematical Research].
4
Chapitre
1 Préliminaires
5
nécessaire. Un pas de géant a été accompli par L. Schwartz lorsqu’il a fait naître la
théorie des distributions (autour des années 1950), et un progrès au moins compa-
rable est du à L. Hörmander pour la mise au point du calcul pseudo-différentiel (au
début des années 1970).
Il est certainement bon d’avoir à l’esprit que l’étude des (EDP) reste un domaine
de recherche très actif en ce début de 21ème siècle. D’ailleurs ces recherches n’ont
pas seulement un retentissement dans les sciences appliquées, mais jouent aussi un
rôle très important dans le développement actuel des mathématiques elles-mêmes
[9, 10].
Définitions
En calcul différentielles, une équation aux dérivées partielles (EDP) est une
équation dont les solutions sont des fonctions vérifiant certaines conditions concer-
nant leurs dérivées partielles.
Le caractère particulier d’une équation aux dérivées partielles (EDP) est de mettre
en jeu des fonctions de plusieurs variables
Une (EDP) est alors une relation entre les variables et les dérivées partielles de u.
— Une (EDP) à souvent de très nombreuses solutions, les conditions aux limites
restreignent l’ensemble des solutions.
Une équation différentielle très simple est : ∂u
∂x = 0, oú u est une fonction inconnue
de x et y, cette relation implique que les valeurs u(x, y) sont indépendantes de x.
Les solutions de cette équation sont u(x, y) = f (y).
L’équation ordinaire : du
dx = 0 a pour solution u(x) = c, avec c une valeur constante
(indépendante de x).
— Ces deux exemples illustrent qu’en général, la solution d’une (EDO) met
en jeu une constante arbitraire, tandis que les (EDP) mettent en jeu des
fonctions arbitraires.
— Dans le cas de deux variables, une (EDP) d’ordre 1 s’écrit sous la forme
∂u ∂u
F (x, y, u(x, y), (x, y), (x, y)) = 0. (1.1.1)
∂x ∂y
— Une équation du second ordre s’écrit comme
∂u ∂u ∂ 2u ∂ 2u ∂ 2u
F (x, y, u(x, y), (x, y), (x, y), 2 (x, y), (x, y), 2 (x, y) = 0.
∂x ∂y ∂x ∂x∂y ∂y
(1.1.2)
Plus généralement, on peut considérer des équations mettant en jeu des dé-
m n
rivées ∂x j ∂y j u
— L’ordre d’une (EDP) est alors le plus grand ordre de dérivation mj + nj qui
apparaît dans l’équation.
— Résoudre une (EDP) dans un domaine Ω de Rd (d est le nombre de va-
riables), c’est de trouver une fonction suffisamment différentiable dans Ω,
telle que l’équation soit satisfaite pour toutes les valeurs des variables dans
Ω.
— Comme pour les (EDO), on parle d’(EDP) linéaires ou non-linéaires. Pour
mieux comprendre de quoi il s’agit, il est commode de parler de l’opérateur
6
aux dérivées partielles associé à une (EDP). Il s’agit de l’application qui à
une fonction u associe le membre de gauche de l’(EDP).
On dit que l’(EDP) est linéaire lorsque l’opérateur P qui lui est associé l’est,
c’est à dire que, pour toutes fonctions u, v « gentilles » et
∂ 2u ∂ 2u ∂ 2u ∂u ∂u
A + B + C + D + E + F u = G(x, y),
∂x2 ∂x∂y ∂y 2 ∂x ∂y
Remarque 1.1
la terminologie utilisée dans cette définition est basée sur la classification des co-
niques du plan. On rappelle que la conique d’équation
ax2 + bxy + cy 2 + dx + ey + f = 0,
est une hyperbole (resp. une parabole, une ellipse) si et seulement si B 2 − 4AC est
positif (resp. nul, négatif) [21].
7
Équations elliptiques
Les équations elliptiques régissent les problèmes stationnaires, d’équilibre, générale-
ment définis sur un domaine spatial borné Ω de frontière Γ sur laquelle l’inconnue est
soumise à des conditions aux limites, le plus souvent de type Dirichlet ou Neumann.
Le problème elliptique type est celui fourni par l’équation de Laplace (ou de Poisson)
soumise à des conditions aux limites, par exemple de Dirichlet
−∆u =f dans Ω,
u = u0 dans Γ.
Équations paraboliques
Les équations paraboliques régissent les problèmes d’évolution ou instationnaires
dans lesquels intervient le mécanisme de diffusion ou de dissipation. Ces problèmes
sont généralement définis sur un domaine spatial borné Ω de frontière Γ sur laquelle
l’inconnue est soumise à des conditions aux limites du même type qu’en elliptique
(quelquefois elles-mêmes instationnaires), ainsi qu’à des conditions initiales.
Le problème elliptique type est celui fourni par l’équation de la chaleur soumise à des
conditions aux limites, par exemple de Dirichlet, ainsi qu’à des conditions initiales :
2
∂T = ν ∂ T2 dans Ω,
∂t
∂x
T = T0 dans Γ,
T (x, 0) = f (x) dans Ω.
Équations hyperboliques
Les équations hyperboliques modélisent la propagation d’ondes sans dissipation.
En linéaire, c’est par exemple la propagation du son dans un milieu homogène.
En électromagnétisme, les équations de Maxwell sont hyperboliques et linéaires.
En non linéaire, les équations hyperboliques sont l’expression de lois de conser-
vation. Par exemple, les équations d’Euler expriment la conservation de la masse, de
la quantité de mouvement et de l’énergie totale dans un fluide parfait compressible.
∂ 2u ∂ 2u ∂ 2u 1 ∂ 2u
+ + = ,
∂x2 ∂y 2 ∂z 2 c2 ∂t2
le nombre c représente la vitesse de propagation de l’onde u.
8
En notation d’analyse vectoriel, en utilisant l’opérateur Laplacien ∆ ; Soit
ψ ≡ u(x, y, z) fonction d’onde, alors l’EDP de Laplace sera :
∆ψ = 0,
et l’équation de propagation sera :
1 ∂ 2ψ
∆ψ = .
c2 ∂t2
3. Équation de Fourier
∂ 2u ∂ 2u ∂ 2u 1 ∂u
+ + = ,
∂x2 ∂y 2 ∂z 2 ν ∂t
cette EDP est également appelée équation de la chaleur. La fonction u re-
présente la température, la dérivée d’ordre 1 par rapport au temps traduit
l’irréversibilité du phénomène. Le nombre ν appelé diffusivité thermique du
milieu.
On notation d’analyse vectoriel l’équation de la chaleur est :
1 ∂ψ
∆ψ = .
ν ∂t
4. Équation de Poisson
En analyse vectorielle, l’équation de Poisson 1 est l’équation aux dérivées
partielles du second ordre suivante
∆u = f,
9
6. Équation de Schrödinger
L’équation de Schrödinger, conçue par le physicien autrichien Erwin Schrö-
dinger en 1925, est une équation fondamentale en mécanique quantique. Elle
décrit l’évolution dans le temps d’une particule massive non relativiste, et
remplit ainsi le même rôle que la relation fondamentale de la dynamique en
mécanique classique. La forme générale de l’équation de Schrödinger est :
∂ψ h2
ih = [− δ + V ]ψ.
∂t 2m
Conditions de Dirichlet
En mathématiques, une condition aux limites de Dirichlet est imposée à une
équation différentielle ordinaire ou à une équation aux dérivées partielles lorsque
l’on spécifie les valeurs que la solution doit vérifier sur les frontières/limites du
domaine.
Pour une équation différentielle ordinaire, par exemple
y 00 + y = 0
la condition aux limites de Dirichlet sur l’intervalle [a, b] s’exprime par :
y(a) = α, y(b) = β.
où α et β sont deux nombres donnés.
Pour une équation aux dérivées partielles, par exemple
∆y + y = 0,
où ∆ est le Laplacien (opérateur différentiel), la condition aux limites de Dirichlet
sur un domaine Ω ⊂ Rn s’exprime par
y(x) = f (x) ∀x ∈ ∂Ω.
Conditions de Neumann
En mathématiques, une condition aux limites de Neumann 2 est imposée à une
équation différentielle ou à une équation aux dérivées partielles lorsque l’on spécifie
les valeurs des dérivées que la solution doit vérifier sur les frontières/limites du
domaine.
Pour une équation différentielle, par exemple
y 00 + y = 0,
10
où α et β sont deux nombres donnés.
Pour une équation aux dérivées partielles, par exemple
∆y + y = 0,
Conditions de Robin
En mathématique, une condition aux limites de Robin 3 (ou de troisième type)
est un type de condition aux limites .
Elle est également appelée condition aux limites de Fourier. Imposée à une équation
différentielle ordinaire ou à une équation aux dérivées partielles, il s’agit d’une rela-
tion linéaire entre les valeurs de la fonction et les valeurs de la dérivée de la fonction
sur le bord du domaine [33].
Une condition aux limites de Robin est une combinaison pondérée d’une condition
aux limites de Dirichlet et d’une condition aux limites de Neumann. Ceci contraste
avec la condition aux limites mêlée, constituée de conditions aux limites de types
différents imposées chacune sur une partie du bord du domaine. La condition aux
limites de Robin est aussi appelée condition d’impédance, en raison de son rôle dans
les problèmes d’électromagnétisme [33, 34].
Si O est un domaine dans lequel une équation doit être résolue, et si ∂O désigne
le bord du domaine, la condition aux limites de Robin est de la forme
∂u
au + b =g sur ∂O,
∂n
où a, b et g sont des fonctions définies sur ∂O. Ici, u est la solution définie dans
∂u désigne la dérivée par rapport à la normale
O que l’on cherche à déterminer et ∂n
extérieure sur le bord.
En dimension un, si, par exemple, O = [0, 1], la condition aux limites de Robin
s’écrit sous la forme
Remarquons que le signe devant le terme dérivé change selon la partie du bord
considérée : la raison est que le vecteur normal à [0, 1] au point 0 pointe vers la
direction négative (gauche), tandis qu’en 1 ce vecteur pointe vers les positifs.
3. portant le nom du mathématicien français Victor Gustave Robin (1855 − 1897)
11
1.1.3 Modélisation, discrétisation et simulation numérique
Dans la nature, les systèmes et les phénomènes physiques les plus intéressants
sont aussi les plus complexes à étudier. Ils sont souvent régis par un grand nombre
de paramètres non-linéaires interagissant entre eux (la météorologie, la turbulence
des fluides. . . ).
La solution exacte d’un problème d’(EDO) ou d’(EDP) est une fonction continue.
Les ordinateurs ne connaissent que le fini et le discret. En effectuant un calcul numé-
rique, un ordinateur ne peut retenir qu’un nombre fini de chiffres pour représenter les
opérandes et les résultats des calculs intermédiaires. Les solutions approchées seront
calculées comme des ensembles de valeurs discrètes sous la forme de composantes
d’un vecteur solution d’un problème matriciel. La représentation des nombres dans
un ordinateur introduit la notion d’erreur d’arrondi ou de troncature. Ces erreurs
peuvent se cumuler sur un calcul et la solution numérique finale pourra s’avérer très
éloignée de la solution exacte.
12
EDP Equation discrètisée
Consistance
Solution Solution
exacte descrète
Convergence Stabilité
Solution
numérique
Définition 1.1
Un problème est dit chaotique si une petite variation des données initiales entraîne
une variation totalement imprévisible des résultats. Cette notion de chaos, liée à la
physique d’un problème, est indépendante du modèle mathématique utilisé et encore
plus de la méthode numérique utilisée pour résoudre ce problème mathématique. De
nombreux problèmes sont chaotiques, par exemple la turbulence des fluides.
13
Stabilité d’un problème mathématique : sensibilité
Définition 1.2
Un problème est dit sensible ou mal conditionné si une petite variation des don-
nées ou des paramètres entraîne une grande variation des résultats. Cette notion de
conditionnement, liée au problème mathématique, est indépendante de la méthode
numérique utilisée pour le résoudre. Pour modéliser un problème physique qui n’est
pas chaotique, on construira un modèle mathématique qui sera le mieux conditionné
possible.
Définition 1.3
Une méthode est dite instable si elle est sujette à une propagation importante des
erreurs numériques de discrétisation et d’arrondi. Un problème peut être bien condi-
tionné alors que la méthode numérique choisie pour le résoudre est instable. Dans
ce cas, il est impératif de changer de méthode numérique. Par contre, si le problème
de départ est mal conditionné, aucune méthode numérique ne pourra y remédier. Il
faudra alors essayer de trouver une formulation mathématique différente du même
problème.
1. Polynômes orthogonaux
Une grande partie de l’analyse numérique des méthodes spectrales fait appel à une
base de polynômes orthogonaux dont on rappelle ici leurs principales propriétés et
quelques exemples.
Définition 1.4
Une suite de polynôme orthogonaux 4 est une suite infinie de polynômes P0 (x), P1 (x),
P2 (x), . . . à coefficients réels, dans laquelle chaque Pn (x) est de degré n, et tell que
les polynômes de la suite sont orthogonaux deux à deux pour un produit scalaire
donné.
4. Le domaine des polynômes orthogonaux a été développé durant le XIX e siècle par Stieltjes,
comme outil de la théorie analytique des fractions continues. De multiples applications en ont
découlé en mathématiques et en physique.
14
Plus généralement, on peut introduire "une fonction poids" w(x) dans l’intégrale (sur
un intervalle d’intégration ]a, b[ w doit être à valeurs finies et strictement positives,
et l’intégral du produit de la fonction poids par un polynôme doit être fini, les bornes
a, b peuvent être infinies).
Z b
hf, gi = f (x)g(x)w(x)dx, (1.2.2)
a
avec cette définition du produit scalaire, deux fonctions sont orthogonaux entre elles
si leur produit scalaire est égale à zéro. L’intervalle d’intégration est appelé intervalle
d’orthogonalité.
∀θ ∈ R, Tn (cos θ) = cos(nθ).
Unicité
Tn est déterminé sur [−1, 1] qui est infini et donc uniquement déterminé.
Existence
Soient n un entier naturel et θ un réel.
cos(nθ) = Re(einθ )
= Re((cos θ + i sin θ)n )
n
!
Cnk (cos θ)n−k (i sin θ)k
X
= Re
k=0
E(n/2)
(−1)p Cn2p (cos θ)n−2p (sin θ)2p )
X
=
p=0
E(n/2)
(−1)p Cn2p (cos θ)n−2p (1 − cos2 θ)p ,
X
=
p=0
E(n/2)
(−1)p Cn2p (X)n−2p (1 − X2 )p convient.
X
et le polynôme
p=0
E(n/2)
(−1)p Cn2p (X)n−2p (1 − X2 )p .
X
∀n ∈ N, Tn =
p=0
5. Pafnoutïi Lvovich Tchebychev, mathématicien russe, (né à Borovsk en 1821 et mort à Saint-
Pétersbourg en 1894).
15
Figure 1.2: Premiers polynômes de Chebychev pair de la première espèce
Propriétés simples
— Tn (1) = 1,
— Tn (−1) = (−1)n ,
— Tn est une fonction paire si n est pair, impaire si n est impair,
— Tn0 (1) = n2 ,
— Tn0 (−1) = (−1)n−1 n2 .
En effet
dθ d sin nθ
Tn0 (x) = cos nθ = n .
dx dθ sin θ
Orthogonalité
x ≤ −1,
0
√ 1
w(x) = −1 < x < 1,
1 − x2
0 x ≥ 1.
T0 (x) = 1, T1 (x) = x.
16
Relations de récurrence entre les polynômes Tn
1.
cn Tn+1 (x) + dn−1 Tn−1 (x) = 2xTn (x), n ∈ N.
Cette relation résume les égalités suivantes :
(
Tn+1 (x) + Tn−1 (x) = 2xTn (x) n ≥ 1.
2T1 (x) = 2xT0 (x)
2. 0
Tn+1 (x) T 0 (x)
cn + dn−2 n−1 = 2xTn (x) n ∈ N.
n+1 n−1
Cette relation résume les égalités suivantes :
0 0
Tn+1 (x) Tn−1 (x)
n0 + 1 − n − 1 = 2Tn (x) n ≥ 2
T2 (x)
20 = 2T1 (x)
2T1 (x) = 2T0 (x).
17
Polynômes de Chebychev de la second espèce Un .
Soit n un entier naturel non nul. Il existe un et un seul polynôme noté Un tel
que
∀θ ∈ R, sin θ × Un (cos θ) = sin(nθ).
Unicité
Un est déterminé sur [−1, 1] qui est infini et donc uniquement déterminé.
Existence
Soient n un entier naturel et θ un réel.
sin(nθ) = Im(einθ )
= Im((cos θ + i sin θ)n )
n
!
Cnk (cos θ)n−k (i sin θ)k
X
= Im
k=0
E((n−1)/2)
(−1)p Cn2p+1 (cos θ)n−(2p+1) (sin θ)(2p+1) )
X
=
p=0
E((n−1)/2)
(−1)p Cn2p+1 (cos θ)n−2p−1 (1 − cos2 θ)p ),
X
= sin θ
p=0
E((n−1)/2)
(−1)p Cn2p+1 (X)n−2p−1 (1 − X2 )p convient.
X
et le polynôme
p=0
E((n−1)/2)
∀n ∈ N∗ , Un = (−1)p Cn2p+1 (X)n−2p−1 (1 − X2 )p .
X
p=0
Orthogonalité
18
Figure 1.7: Premiers polynômes de Chebychev impair de la second espèce.
Relation entre Tn et Un
Soit n un entier naturel non nul. Pour tout réel θ, on a Tn (cos θ) = cos(nθ).
En dérivant cette relation, pour tout réel θ on obtient
−sinθTn0 (cos θ) = −n sin(nθ),
ou encore 0
1
∀θ ∈ R, sin θ Tn (cos θ) = sin(nθ).
n
Par unicité de Un , on a donc
1 0
∀n ∈ N∗ , Un = T
n n
19
Polynômes de Chebyshev du quatrième espèce
20
Figure 1.9: Premiers polynômes de Legendre impair
21
1.2.4 Polynômes de Hermite
d2 y dy
2
− 2x + 2nx = 0,
dx dx
définit sur l’intervalle ] − ∞, ∞[, tel que n = 0, 1, 2, . . .
— Formule de Rodrigues pour les Hn
Les polynômes de Hermite Hn (x) de degré n sont donnés par la formule de
Rodrigues
n
2 d −x2
Hn (x) = (−1)n ex [e ].
dxn
— Relation d’orthogonalité pour les Hn
2
La fonction poids pour les polynômes de Hermite de degree n est w(x) = e−x ,
et la relation d’orthogonalité est
Z ∞
2
0 pour m 6= n,
e−x Hm (x)Hn (x)dx = √ n
−∞ π2 n! pour m = n.
d [H (x)] + x d [H (x)].
3. nHn (x) = −n dx n−1
dx n
d [H (x)].
4. 2xHn−1 (x) − dx n−1
2. Séries de Fourier
La série de Fourier d’une fonction générale u(x) est
∞
X ∞
X
u(x) = a0 + an cos(nx) + bn sin(nx). (1.2.3)
n=1 n=1
Première note
puisque les sinus et cosinus sont des fonctions périodiques de période 2π, on peut
aussi calculer le développement de Fourier dans un intervalle x ∈ [0, 2π]. La seule
modification est que les limites de l’intégration (4.3.4) sont également modifiés de
[−π, π] à [0, 2π].
22
Deuxième note
La série générale de Fourier peut aussi s’écrire sous forme complexe
∞
X
u(x) = cn exp(inx), (1.2.5)
n=−∞
Les identités
montrer que (1.2.3) et (1.2.5) sont parfaitement équivalentes et nous utilisons celui
qui est commode.
Les coefficients des deux formes sont liées par
c 0 = a0 , n=0
(a
n − ibn )/2, n>0
cn =
(an + ibn )/2, n<0
Tour d’horizon
Dans les applications pratiques, la résolution des équations aux dérivées par-
tielles d’un problème aux limites ne peut être réalisée qu’au moyen de techniques
numériques. Les principales techniques utilisées sont les éléments finis (EF), les vo-
lumes finis (VF) et les différences finies (DF), Ces techniques sont applicables à un
23
très grand nombre de problèmes. Et plus récemment est apparue l’utilisation de
techniques spectrales (TS), qui se sont pas elles aussi largement applicables.
Les deux critères principaux de choix d’une approche numérique sont souvent,
d’une part la complexité de la géométrie du domaine, et d’autre part le niveau
de précision requis.
La technique la plus adaptée pour les géométrie les plus complexes est la méthode
des élément finis ; les différences finies quant à elles ont un comportement intéressant
dans une large gamme de niveaux de précision requis, et pour des domaines pouvant
être relativement complexes.
Les techniques spectrales ne sont cependant applicables qu’à des résolutions dans
des domaines de formes simples, où elles peuvent en revanche apporter des niveaux
de précision supérieurs à toutes les autres méthodes.
Même si toutes ces approches sont en relation, une nette distinction sépare les
(TS) des autres approches dans son application. En effet les (EF),(VF) et les (DF)
sont des méthodes locales, i.e. l’approximation des dérivées des quantités en un
point du domaine n’est obtenue qu’à partir des valeurs dans un voisinage proche de
ce point. L’idée sous-jacente est que la dérivée d’une fonction étant une propriété
justement définie localement (sur un voisinage de taille limite nulle), il est ’raison-
nable’ de reproduire cela dans des techniques numériques discrètes, l’information à
l’autre bout du domaine n’étant d’aucune utilité.
Or justement, les techniques spectrales prennent le contre-pied de ce raisonnement,
car elles sont globales et l’idée qui préside à leur utilisation est tout à fait différente.
Quand on travaille avec des méthodes locales, la géométrie du domaine ailleurs
qu’à l’endroit où l’on se trouve ne revêt aucune importance. En revanche, pour
les (TS) la géométrie du domaine est capitale, puisqu’elles reposent en effet sur un
changement d’espace entre l’espace physique du domaine de calcul, et un espace de
fonctions qui :
• sont définies sur tout le domaine de calcul,
• sont connues analytiquement et le plus régulières possible, de manière à pou-
voir être différenciées exactement,
• et enfin, forment une base de représentation convergente des fonctions de
l’espace physique.
Ainsi, une fonction u de l’espace physique peut-être exprimée sous forme
N
X
u(x) = ũk ϕk (x), (1.3.1)
k=0
où les ϕk seront par exemple des fonctions trigonométriques ou bien des polynômes
orthogonaux.
Dans le contexte de la résolution d’équations aux dérivées partielles dépendantes du
temps, cette approche présente des atouts notables :
• elle présente une erreur qui décroît rapidement avec N , jusqu’à un taux ex-
ponentiel pour les fonctions les plus régulières,
• elle conserve un comportement remarquable dans le cas ou la solution est non
régulière (discontinue par exemple),
• et spécialement dans un espace à plusieurs dimensions, des discrétisations
relativement grossières lui suffisent à satisfaire des niveaux de précision requis
élevés, permettant des simulations efficaces à coûts de calcul et de mémoire
faible.
24
Bien sûr, ces (TS) sont nettement limitées par la nécessité d’obtenir le jeu de fonc-
tions de base précédent, qui est intimement dépendant de la simplicité et de la
régularité géométriques du domaine de calcul. Les autres facteurs limitant de ces
méthodes sont :
• l’impossibilité d’avoir des niveaux de résolution différents dans parties diffé-
rentes du domaine (pas de raffinement local de la discrétisation, d’augmen-
tation locale du niveau de précision de la modélisation, etc),
• une mauvaise tolérance aux chocs,
• et une compréhension théorique encore seulement partielle.
Historiquement, ces méthodes n’ont connu un essor qu’à partir des années 1970,
après que Cooley & Tukey ont proposé en 1965 le premier algorithme (FFT) de
résolution rapide des transformées de Fourier (TF).
Maintenant qu’on a exposé que ces techniques spectrales consistent en une dé-
composition en série sur une base de fonction globales, restent à déterminer d’une
part les classe de fonctions ϕk qu’il est possible, et d’autre part de quelle manière
on procédera pour obtenir les coefficients d’amplitude ũk affectés à cette base pour
qu’elle représente notre fonction u. Pour ce qui est de la classe de fonctions choisie,
elle doit être telle que :
• la série précédente (1.3.1) converge rapidement vers la fonction u(x) en tout
point x, au mois pour des fonctions u suffisamment régulières,
• les coefficients ũk étant donnés, on doit pouvoir calculer facilement des coef-
ficients αk tels que
N N
!
d X X
∀ x, ũk ϕk (x) = αk ϕk (x). (1.3.2)
dx k=0 k=0
25
1.3.1 Pourquoi les méthodes spectrales ?
Il y a plusieurs avantages des méthodes spectrales par rapport aux approches
alternatives, telles que les éléments finis ou les différences finies.
Principalement on peut dire que :
La discrétisations spectrales des équations différentielles, basées par exemple sur
les bases de Fourier ou les polynômes orthogonaux de (Chebychev, Legendre, Her-
mite, . . . ) fournis des erreurs d’approximations très faibles. Dans de nombreux cas,
ces approches peuvent convergent de façon exponentielle pour un développement
spectral d’ordre N , la différence entre la solution analytique (exacte) et la solution
numérique tend vers zéros rapidement avec l’augmentation de l’ordre de développe-
ment spectrale.
Deuxièmement, puisque la précision numérique des méthodes spectrales est tel-
lement élevée, le nombre de points de grille nécessaires pour atteindre une précision
souhaitée est très petit, donc une méthode spectrale nécessite moins de mémoire que
les autres méthodes. Cette minimisation est vraiment crucial, surtout pour l’exécu-
tion d’algorithmes.
Il existe une haute performance d’implémentations des algorithmes nécessaires à
la transformation de base pour la plupart des méthodes spectrales, et le développeur
d’une méthode spectrale n’a pas besoin d’appliquer ces codes.
Les méthodes spectrales peuvent être utilisées pour la résolution d’équations
différentielles ordinaires (EDO), des équations aux dérivées partielles (EDP) et des
problèmes de valeurs propres concernant les équations différentielles.
Lorsqu’on applique les méthodes spectrales sur des (EDP) dépendantes du temps,
la solution est généralement écrite comme une somme de fonctions de base avec des
coefficients dépendants du temps, la substitution dans l’(EDP) fournit un système
d’(EDO) qui peuvent être résolus soit analytiquement, soit en utilisant un schéma
numérique pour les (EDO)(Euler, Hain, Range-Kutta,. . . )
Les méthodes spectrales sont moins coûteuse que les éléments finis, mais de-
viennent moins précises pour des problèmes avec des géométries complexes et des
coefficients discontinus. Cette augmentation de l’erreur est une conséquence du phé-
nomène de Gibbs.
Lu = f (x), (1.3.4)
26
où L représente un opérateur de différentiation, alors le résultat est appelé « la
fonction résiduelle »
R(x, ũ0 , ũ1 , . . . , ũN ) = LuN − f. (1.3.5)
Telle-que la fonction de résidu R(x, ũk ) est identiquement égal à zéro pour la solu-
tion exacte, alors le défi est de choisir les coefficients {ũk }k=0,...,N qui minimises la
fonction résiduelle.
Les différentes méthodes spectrales et pseudo-spectrales diffèrent principalement
par leur stratégies de minimisation.
Ces idées abstraites peuvent être concrétisée par des problèmes simples comme
l’exemple suivant.
Premier exemple
∂2
u(x) − (x6 + 3x2 )u = 0, (1.3.6)
∂x2
u(−1) = u(1) = 1. (1.3.7)
La solution exacte est :
u(x) = exp([x4 − 1]/4). (1.3.8)
Des approximations polynomiales sont recommandés pour la plupart des problèmes,
alors nous choisirons une solution spectrale pour cette équation. Afin de satisfaire
les conditions aux limites indépendamment des coefficients spectraux inconnus, il
est commode d’écrire l’approximation comme
∂2
R(x, ũ0 , ũ1 , ũ2 ) = u2 (x) − (x6 + 3x2 )u2 (x).
∂x2
R(x, ũ0 , ũ1 , ũ2 ) = (2ũ2 + 2ũ0 ) − 6ũ1 x − (3 + 3ũ0 + 12ũ2 )x2 − 3ũ1 x3 + 3(ũ0 − ũ2 )x4
+ 3ũ1 x5 + (−1 − ũ0 + 3ũ2 )x6 − ũ1 x7 + (ũ0 − ũ2 )x8 + ũ1 x9 + 10ũ2 x10 .
27
784
ũ0 = − , ũ1 = 0, ũ2 = ũ0 .
3807
La figure (1.12) montre que cette approximation faible est tout à fait exacte.
28
de propriétés, un calcul facile, une convergence rapide, et qu’elle soit complet. Ce qui
signifie que toute solution peut être représentée avec une précision arbitrairement
grande en prenant la troncature N suffisamment grande.
Bien que nous discuterons de nombreux types de fonctions de base, le meilleur
choix pour 95% d’applications est les bases de Fourier, ou bien les bases de Fourier
cachées. Où "caché" signifier un changement de variable qui transforme les sinus et
les cosinus d’une série de Fourier en fonctions différentes. Le déguisement le plus
important est celui porté par les polynôme de Chebychev, qui sont définis par :
tel que les Tn (x) sont des polynôme en x, et sont généralement considéré comme des
espèces distinctes de fonctions de base. Une série de Chebychev est vraiment juste
un développement de cosinus de Fourier avec un changement de variables.
29
1.3.4 Les deux royaumes
Les méthodes spectrales se répartissent en deux grandes catégories, la plupart
de ces derniers peuvent être classés comme des méthodes d’interpolation et de non-
interpolation. La classification mathématique peut être ambiguë, parce que certains
algorithmes mélangent les idées des deux royaumes.
Les méthodes d’interpolation ou les méthodes « pseudo-spectral » associent une
grille de points avec chaque ensemble de base. Les coefficients d’une fonction u se
trouvent en exigeant que la série tronquée soit identique avec u en chaque point de la
grille. De même, les coefficients ũk d’un rapprochement pseudo-spectral à la solution
d’une équation différentielle se trouvent en exigeant que la fonction résiduelle soit
nulle dans les points de la grille
R(xi , ũ0 , ũ1 , . . . , ũN ) = 0, i = 0, 1, . . . , N.
1.3.5 La non-linéarité
La non-linéarité n’est pas la complication majeure des méthodes spectrales en
soi. Par souci de simplicité d’exposé, nous allons concentrer généralement sur des
algorithmes linéaires, en particulier pour l’explication des idées de base. L’extension
aux problèmes non linéaires généralement ne nécessite que des petites modifications.
Pour illustrer cela, nous ferons un problème de valeurs aux limites non linéaire
très simple. Dans cet exemple, on applique une méthode spectrale. La seule diffé-
rence à partir d’un problème linéaire est que le système d’équations algébriques des
coefficients est non linéaire [27].
Le problème aux limites non linéaire est
! !2 !
∂ 2u ∂u ∂ 2u
2
+α + αu = 0. (1.3.11)
∂x ∂x ∂x2
30
Sous les conditions aux limites
u(0) = 0, u(1) = 1.
Nous prendrons la solution approchée u2 (x) comme étant un polynôme quadratique.
Le polynôme quadratique le plus général qui satisfait les conditions aux limites est
u2 = x + ũ2 (x2 − x).
Comme il n’y a qu’un seul coefficient ũ2 indéterminée, un seul point de collocation
est nécessaire. Le choix évident, le point milieu de l’intervalle.
La fonction résiduelle est
R(x, ũ2 ) = ũ22 α[6x2 − 6x + 1] + 2ũ2 [3αx + 1 − α] + α.
Figure 1.13: Comparaison de solutions exacte et approximative (équation de diffusion non linéaire).
31
Chapitre
32
2.1 Méthode de Galerkin
En mathématiques, dans le domaine de l’analyse numérique, les méthodes de
Galerkin forment une classe de méthodes permettant de transformer un problème
continu (par exemple une équation différentielle) en un problème discret. Cette ap-
proche est attribuée aux ingénieurs russes Ivan Boubnov 1 (1911) et Boris Galer-
kin 2 (1913)[28]-[45].
Principe de la méthode :
La méthode de Galerkin est applicable pour les équations avec des conditions
aux limites périodiques ou homogènes.
Soit B = {ν ∈ H, Bν = 0} le sous-espace des fonctions de H vérifiant les
conditions aux limites. Dans cette méthode les (ϕk )k=1...∞ forment une base de B.
En cherchant ∞ X
uN = ũk ϕk ,
n=1
dans BN engendré par les (ϕk )k=1...N , on est sûr de trouver une fonction (une solu-
tion) vérifiant les conditions aux limites.
Soit PN⊥ la projection orthogonale de H sur BN . La méthode de Galerkin consiste à
résoudre le problème approché suivant
N
tel que PN⊥ RN = 0
X
uN = ũk ϕk ∈ BN
k=1
∂uN
avec RN = − F (uN ) − f.
∂t
Exemple 1
Équation de la chaleur avec des conditions périodiques aux bords (de type Dirichlet).
∂u = ν ∂ 2 u + f
x ∈ [0, π],
∂t ∂x2
u(0, t) = u(π, t) = 0 ∀t > 0,
u(x, 0) = u0 (x).
1. Ivan Grigorievitch Boubnov (18 janvier 1872 à Nijni Novgorod - 13 mars 1919 à Pétrograd),
ingénieur naval de la marine militaire russe, est le principal concepteur des premiers sous-marins
russes.
2. Boris Galerkine (Boris Grigorievitch Galiorkin), né le 20 février 1871 à Polotsk (Biélorussie)
et mort le 12 juillet 1945, est un mathématicien et un ingénieur russe. Son nom reste lié à une
méthode de résolution approchée des structures élastiques.
33
et on cherche
N
X
uN (x, t) = ũk (t) sin kx.
k=1
Calculons le résidu
∂uN ∂ 2 uN
RN = −ν −f
∂t ∂x2
N N
dũk
+ k 2 ũk ) sin kx −
X X
= ( fk sin kx.
k=1 dt k=1
[l:[],v:[]],
(
print ("Entrer une base qui vérifie les conditions aux bords")
)
else
(
print ("f_N = ", ’sum(f(k)* sin (k*x),k,1,N) = nusum(f(k)* sin (k*x),k,1,N)),
print ("u_N = ", ’sum(u(k)* sin (k*x),k,1,N) = nusum(u(k)* sin (k*x),k,1,N)),
34
print ("R_N = ", ’diff(’sum(u(k)* sin (k*x),k,1,N),t) -
c* ’diff(’sum(u(k)* sin (k*x),k,1,N),x,2) - (’sum(f(k)* sin (k*x),k,1,N))
Remarque 2.1
Remarquons que la vraie solution
∞
X
u(x, t) = ũk sin nx,
k=1
Exemple 2
Équation de Burgers périodique
∂u + u ∂u = ν ∂ 2 u + f
x ∈ Γ cercle unité [0, 2π]
∂t ∂x ∂x2
u(x, 0) = u0 (x).
i qap aq ei(p+q)x .
X
=
(p,q)∈ϕ
35
q
Dk
−k k
p
−k
Dk
2K
∂uN
iq ap aq )eikx .
X X
uN = (
∂x k=−2K (p,q)∈DK
Ak (t)eikx
X
u(x, t) =
k∈Z
qui vérifient :
dAk
i qAp Aq = −νk 2 Ak + fk
X
+ k ∈ Z.
dt (p,q)∈Dk
36
Problèmes non périodiques
Pour des problèmes non périodiques, les ensembles de fonctions choisies comme
bases des solutions pour certaines équations différentielles, les solutions des pro-
blèmes de Sturm-Liouville singulier[ voir [44], Chap 2].
Par exemple, l’ensemble des polynômes de Chebyshev définis par
avec Z 1
ũk = u(x)Tk (x)w(x)dx,
−1
et
1
w(x) = (1 − x2 ) 2 .
Notez que, après le changement de variable x = cos(θ), Les polynômes de Chebyshev
devenir des fonctions cosinus.
Si une fonction u est développée dans la base de Chebyshev comme
∞
X
u(x) = ũk Tk (x),
k=0
(1)
dont les coefficients ũk sont calculés à l’aide de la relation de récurrence
1 0 1
2Tk (x) = Tk+1 (x) − T 0 (x), k ≥ 1. (2.1.1)
k+1 k − 1 k−1
Pour plus d’informations [voir l’annexe].
Par exemple, lorsque l’on considère une approximation uN comme ci-dessus, nous
avons de (2.1.1) que
(1) (1)
2kũk = ck−1 ũk−1 − ũk+1 , pour k ≥ 1
37
avec ck = 2 pour k = 0, . . . , N et 1 sinon.
(1)
Nous avons aussi ũk = 0, pour k ≥ N , et les coefficients restants peuvent être
calculées par ordre décroissant
(1) (1)
2kũk = ck−1 ũk−1 − ũk+1 , pour 0 ≤ k ≤ N − 1
Cette relation peut être facilement généralisée pour obtenir des dérivés d’ordre su-
périeur.
Un autre ensemble d’une grande utilité est l’ensemble des polynômes de Legendre,
définis comme les solutions du problème de Sturm-Liouville
où la fonction de poids w(x) = 1 rend beaucoup plus facile à démontrer des théo-
rèmes pour cet ensemble que pour les polynômes de Chebyshev.
Principe de la méthode :
La méthode Tau de Lanczos 3 est applicable pour les équations avec des condi-
tions aux limites non périodiques.
Si F (l’opérateur de différentiation) contient des dérivations d’ordre k les condi-
tions aux limites sont au nombre de k : Bu = g (g ayant k composantes).
Soit (ϕn )n=1...∞ une base orthogonale ne vérifiant pas les conditions aux limites.
La méthode consiste à chercher
∞
X
uN = an ϕ n ,
n=1
PN⊥−k RN = 0 N − k équations
BuN = 0 k équations
3. Cornelius Lanczos, (né le 2 février 1893 à Székesfehérvár et décédé le 25 juin 1974 à Budapest)
est un mathématicien et physicien hongrois.
38
Exemple 3
Équation de la chaleur avec des conditions non périodiques
∂u = ν ∂ 2 u + f
x ∈ [−1, 1] t ≥ 0
∂t ∂x2
u(−1, t) = g1 ; u(1, t) = g2 t > 0
u(x, 0) = u0 (x).
√
H = L2 ([−1, 1], dx/ 1 − x2 ), avec comme fonctions de base les polynômes de Che-
bychev (Tn )n∈N .
On cherche
N
X
uN = an (t)Tn (x),
n=0
dans BN de dimension N + 1.
On pose
−1
∂ 2 u NX
= a(2)
n (t)Tn (x).
∂x2 n=0
N
2 X
a(2)
n = pap avec c0 = 2 et cn = 1.
cn p=n+1
step2
Tau(EDP,N,k,t0,u0,c):=block(
[l:[],v:[],a2:[] ],
39
print("L’approximation du second membre est donnée par f_N =",
’sum(f[n]* cos(n*acos(x)),n,1,N)= nusum(f[n]* cos(n*acos(x)),n,1,N)),
a2:endcons(S0,a2),
for n:1 thru N-1 do (
S:0,
for p:n+1 step 2 thru N do (
S:S+p*a[p](t)
),
a2: endcons(2*S,a2)
),
e1:0,e2:0,
for n:1 thru N do (
e1:e1+((-1)^n)*a[n](t),
e2:e2+a[n](t)
),
E1:e1-g1,
E2:e2-g2,
40
/*Formulation du système final*/
l:endcons(diff(E1,t),l),
l:endcons(diff(E2,t),l),
Principe de la méthode :
Comme la méthode de Galerkin, elle est applicable pour les problèmes où les
conditions aux limites sont périodiques ou bien homogènes. Et comme pour la mé-
thode de Galerkin les (ϕk )k=1,...,∞ forment une base complète de B, et vérifiant donc
les conditions aux limites.
On se donne de plus (xi )i=1,··· ,N (N points) dits de collocation dans Ω tels que la
matrice (ϕn (xi ))N ×N soit inversible.
La méthode consiste à chercher
N
X
uN = an ϕ n ,
n=1
dans BN (engendré par les N fonctions de base) tel que son résidu
∂uN
RN = + F (uN ) − f,
∂t
vérifier les N conditions
RN (xi ) = 0 i = 1, · · · , N.
Ces N conditions s’écrivent encore
PNc RN = 0
où PNc désigne la projection de collocation définit comme suit :
Soit v ∈ H, et
vi = v(xi ), i = 1, · · · , N
41
les valeurs de cette fonction aux points de collocation.
Il existe une seule fonction PNc de BN prenant les mêmes valeurs aux mêmes points
de collocation.
En pratique cette projection s’effectue simplement à condition de savoir inverser
la matrice
M = (ϕn (xi )).
Pour en bien comprendre le mécanisme introduisant deux isomorphismes
Φsp : BN −→ δp = CN
N
X
w= bn ϕn 7−→ (b1 , b2 , · · · , bN )
n=1
Φph : BN −→ =h = CN
w 7−→ (w1 , w2 , · · · , wN ) avec wi = wxi .
δp =h
δ1 m v1 = v(x1 )
| |
| |
| |
w
δ vN = v(xN )
Φsp Φph
BN
PNc v
PNc
42
sin v par sin(vi )i=1,··· ,N etc · · · .
De plus toute fonction de BN se projette en elle même.
On calcule donc facilement la projection de collocation du résidu RN en effectuant
des allers et retours entre l’espace spectral où sont calculées les dérivations et l’espace
physique où sont projetés les termes non linéaires.
Exemple 4
Équation de Burgers périodique
∂u + u ∂u = ν ∂ 2 u + f,
x ∈ Γ(cercle unité [0, 2π]), t≥0
∂t ∂x ∂x2
u(x, 0) = u0 (x).
δp =h
m 1 uN ∂u N
(xi )
ak ∂x
2
m 3 ∂uN
(xi )
ikak ∂x
w 4
5
bk uN (xi )
Φph
BN
uN
∂uN
∂x
h i
∂uN
PNC uN ∂x
PcN
uN ∂u
∂x
N
∈H
43
Il faut calculer la projection du résidu
∂uN ∂ 2 uN ∂uN
RN = −ν − uN − f.
∂t ∂x2 ∂x
Les deux premiers termes appartiennent à BN et sont invariants par PNc .
Pour projeter uN ∂u N
∂x qui n’est pas un élément de BN on procède comme suit :
Des (ak )−K≤k≤K coefficients spectraux de uN on déduit très simplement (ikak )−K≤k≤K
coefficients de ∂u N
∂x .
En appliquant la matrice M à ces deux vecteurs on en déduit
[uN (xi )]i=1,··· ,N
et " #
∂uN
(xi )
∂x i=1,··· ,N
les coefficients de uN et ∂u N
∂x dans l’espace physique.
Les coefficients de !
∂uN
PNc uN .
∂x
dans l’espace physique sont
" #
∂uN
uN (xi ) (xi ) .
∂x i=1,··· ,N
Cas d’applications :
Sont les mêmes que pour la méthode Tau. Conditions aux limites non pério-
diques.
Principe de la méthode
• Comme pour la méthode Tau (ϕn )n=1,··· ,∞ est une base orthogonale ne vérifiant
pas les k conditions aux limites.
• Comme pour la méthode de collocation (xi )i=1,··· ,N sont les N points du do-
maine Ω et l’on sait appliquer rapidement M = (ϕn (xi )) et son inverse.
On calcule la projection PNc RN avec allers et retours entre l’espace spectral et l’es-
pace physique.
Soit PN⊥−k la projection orthogonale sur BN −k . Les N conditions déterminant uN ∈
BN par cette méthode sont
PN⊥−k PNc RN = 0
BuN = 0.
44
Exemple 5
Équation de Burgers non-périodique
∂u + u ∂u = ν ∂ 2 u + f
x ∈ [−1, 1] t ≥ 0
∂t ∂x ∂x2
u(−1, t) = g1 u(1, t) = g2 t > 0,
u(x, 0) = u0 (x)
H = L2 ([−1, 1], √ dx 2 ).
1−x
(Tn )n∈N base des polynômes de Chebychev.
En choisissant comme points de collocation les
2π
xj = cos j ,
N +1 j=0,...,N
n=0
N
X
an = g2
n=0
avec
N
a(2)
X
n = pap ,
p=n+1
step 2
et bn coefficients spectraux de PNc uN ∂u N
∂x .
Tableau 2.1 résume les conditions d’application des quatre méthodes spectrales
précédentes.
Tableau 2.2 donne une indication sur le choix d’une méthode. Ce tableau n’a rien
45
de catégorique et il sert juste à fixer les idées. Lorsque F est linéaire la méthode de
Galerkin (resp Tau) est identique à la méthode de collocation (resp Tau-collocation).
Lorsque F est non linéaire 4 ces dernières sont plus rapides en temps de calcul, à
condition de posséder un algorithme de transformation rapide entre espace spec-
tral et espace physique. Tableau 2.3 indique les principales fonctions de bases
HH F
HH
F linéaire à coefficients F quelconque
C.L HH
constant
Périodiques Galerkin (exemple : chaleur pério- Collocation (exemple : Burgers
dique) périodique)
Non pério- Tau ou Galerkin (exemple : cha- Tau-collocation (exemple : Bur-
diques leur non périodique) gers non périodique)
Table 2.2: Essai de classification du choix de la méthode pour des applications pratiques.
46
Chapitre
47
La solution approchée est représentée par
N/2
X
uN (x, t) = ak (t)φk (x). (3.1.2)
k=−N/2
Les φk sont des fonctions d’essai, tandis que les ak sont les coefficients du dévelop-
pement. En général, uN ne satisfait pas (3.1.1), i.e., le résidu
∂uN
− M(uN )
∂t
ne disparaitra pas partout. L’approximation est obtenue par la sélection d’un en-
semble de fonctions tests ψk et en exigeant que
Z 2π " #
∂uN
− M(uN ) ψk (x) dx = 0 pour k = −N/2, . . . , N/2, (3.1.3)
0 ∂t
oú les fonctions tests déterminent le poids du résidu.
La méthode spectrale la plus simple pour les problèmes avec conditions aux
limites périodique est basée sur les polynômes trigonométrique.
φk (x) = eikx , (3.1.4)
1 −ikx
eψk (x) =
. (3.1.5)
2π
Les fonctions d’essai et les fonctions test sont pratiquement les mêmes, et elles
satisfaisaient la condition de la bi-orthogonalité
Z 2π
φk (x)ψl (x)dx = δkl . (3.1.6)
0
être simplement les coefficients de Fourier. Pour une (EDP), cependant, u(x, t) n’est
pas connue. L’approximation (3.1.2) est déterminée par (3.1.3).
Pour le problème linéaire hyperbolique
∂u ∂u
− =0 (3.1.8)
∂t ∂x
i.e., pour
∂u
M(u) = , (3.1.9)
∂x
la condition (3.1.3) devient
N/2
1 Z 2π
∂ ∂
al (t)eilx e−ikx dx = 0.
X
( − )
2π 0 ∂t ∂x l=−N/2
Les deux étapes suivantes sont la différenciation analytique (spatiale) des fonctions
d’essai
1 Z 2π N/2
!
dal
− ilal eilx e−ikx dx = 0,
X
2π 0 l=−N/2
dt
48
et l’intégration analytique de cette expression, qui produit le système dynamique
dak
− ikak = 0, k = −N/2, . . . , N/2. (3.1.10)
dt
Les conditions initiales pour ce système d’équations différentielles ordinaires (EDO)
sont les coefficients de développement de la condition initiale. Pour l’approximation
de Galerkin, Z 2π
ak (0) = u(x, 0)ψk (x)dx (3.1.11)
0
Pour la méthode de Galerkin stricte, les intégrales telles que celles qui apparaissent
dans (3.1.11) doit être calculé analytiquement. La condition initiale
converge plus vite que toute puissance finie de 1/N . Cette propriété est souvent
appelée par la convergence spectrale. Une illustration de la précision supérieur dis-
ponible à partir d’une méthode spectrale est fourni dans (??).
La figure (3.2) illustre l’erreur maximale fourni par la méthode spectrale de Ga-
lerkin après une période à (t = 2π). La méthode des différences finies d’ordre 2, la
méthode (explicite) des différences finies d’ordre 4 et la méthode compact d’ordre 4
et 6.
L’entier N représente le degré du développement (3.1.17) pour la méthode de Fourier-
Galerkin et le nombre de points de grille pour les différences finies et la méthode
compact.
La discrétisation en temps est faite par la méthode de Runge-Kutta classique
d’ordre 4, et les coefficients exactes initiaux de Fourier ont été utilisés pour la mé-
thode spectrale. Dans tous les cas, le pas du temps à été choisi tel que l’erreur de la
discrétisation temporelle était négligeable.
49
Erreurs maximales pour le problème hyperbolique linéaire à t = 2π pour le
Figure 3.1:
schéma Fourier-Galerkin et plusieurs schémas des différences finie.
Figure 3.2: Solutions numériques pour le problème hyperbolique linéaire à t = 2π pour N = 16 par la méthode de
Fourier Galerkin et plusieurs schémas des différences finie.
SN = span{eikx / − N ≤ k ≤ N − 1}
qui est équivalente à (3.1.3) oú les ψk forment une base en SN , et, par la condition
initiale (3.1.11)
N −1
û0,k eikx .
X
uN (0) = PN u0 =
k=−N
50
Pour tout t > 0, on pose ν(x) = uN (x, t) en (3.1.19). Une intégration par partie
donne
Z 2π
∂uN 1
Re (x, t)ūN (x, t)dx = {|uN (2π, t)|2 − |uN (0, t)|2 } = 0
0 ∂x 2
par la condition de périodicité. Il en résulte que
1 d Z 2π 2
Z 2π
∂uN
|uN (x, t)| dx = Re (x, t)ūN (x, t)dx = 0,
2 dt 0 0 ∂t
i.e., la norme L2 (dans l’espace) de la solution spectrale est constante dans le temps.
Donc pour tout t > 0
Z 2π Z 2π Z 2π
|uN (x, t)|2 dx = |PN u0 (x)|2 dx ≤ |u0 (x)|2 dx.
0 0 0
∂u ∂ 2 u
− 2 = 0, (3.2.2)
∂t ∂x
i.e.,
∂ 2u
M(u) =, (3.2.3)
∂x2
dans [−1, 1] avec des conditions aux limites homogènes de Dirichlet,
51
et le choix des fonctions d’essai
Dans l’approximation de collocation, l’exigence est que (3.2.2) soit satisfaite exac-
tement par (3.2.6) sur un ensemble de points de collocation xj dans [−1, 1]
∂uN
− M(uN ) = 0, j = 1, . . . , N − 1. (3.2.7)
∂t
x=xj
et la condition initiale
accompagne (3.2.7)
Les équations (3.2.7) sont basés sur une formulation forte de l’équation diffé-
rentielle, puisque la solution approchée est nécessaire pour satisfaire exactement
l’équation différentielle à un ensemble de points discrets, dans ce cas appelés les
points de collocation. Formellement, les mêmes équations à partir d’une formula-
tion faible du problème en prenant comme fonctions test les fonctions delta-Dirac
(distributions) peut être obtenues.
πj
xj = cos . (3.2.12)
N
Ce choix non seulement produire des approximation de haute précision, mais il est
aussi économique, noter que
πjk
φk (xj ) = cos . (3.2.13)
N
Cela permet
d’utiliser la transformée de Fourier rapide (FFT) dans l’évaluation de
N
M(u ) . Cela est discuté en détail dans (Sec. 2, 4 [15])
x=xj
52
La solution exacte est
2
u(x, t) = e−π t sin πx. (3.2.15)
Elle a le développement infinie de Chebychev
∞
X
u(x, t) = bk (t)Tk (x), (3.2.16)
k=0
oú !
2 kπ 2
bk (t) = sin Jk (π)e−π t , (3.2.17)
ck 2
avec (
2, k = 0,
ck = (3.2.18)
1, k ≥ 1.
Á cause de la décomposition rapide du facteur Jk (π), la série tronquée converge
avec un rythme exponentiel. Une méthode de collocation bien conçue fera la même
chose (puisque la série infinie (3.2.6) n’est pas simplement la troncature de la série
infinie (3.2.16) à l’ordre N , les coefficients du développement ak (t) et bk (t) ne sont
pas identique).
Contrairement à la méthode de Galerkin, qui dans sa version classique est gé-
néralement mis en œuvre en termes de coefficients d’expansion ak (t), une méthode
de collocation est mis en œuvre en termes de valeurs nodales uj (t) = uN (xj , t). En
effet, en plus de (3.2.6), nous avons le développement
N
X
uN (x, t) = uj (t)φj (x),
j=0
oú (
2, k = 0 ou N,
c̄k = (3.2.20)
1, 1 ≤ k ≤ N − 1.
oú
(1) (1)
aN +1 (t) = 0, aN (t) = 0,
(1) (1) (3.2.22)
c̄k ak (t) = ak+2 + 2(k + 1)ak+1 (t) k = N − 1, N − 2, . . . , 0,
53
et
(2) (2)
aN +1 (t) = 0, aN (t) = 0,
(2) (2) (1)
c̄k ak (t) = ak+2 (t) + 2(k + 1)ak+1 (t) k = N − 1, N − 2, . . . , 0.
(3.2.23)
(2)
Les coefficients ak dépend de toute évidence de façon linéaire sur des valeurs nodales
2
ul ; par conséquence, il existe une matrice DN de telle sorte que
N N
∂ 2 uN X (2) πjk X 2
(t) = a k (t) cos = (DN )jl ul (t) (3.2.24)
∂x2
x=xj k=0 N l=0
(voir la section 2.4.2 [16] pour plus de détails). Par (3.2.8) nous avons effectivement
u0 (t) = uN (t) = 0. En substituant l’expression ci-dessus en (3.2.7), on aboutit à un
système d’équations différentielles ordinaires pour les inconnues nodales
N
duj X
2
(t) = (DN )jl ul (t), j = 1, . . . , N − 1 (3.2.25)
dt l=0
complété par un rapprochement compact de troisième ordre aux points limites, (voir
Lele (1992))
00 00 1
u0 + 11u1 = (13u0 − 27u1 + 15u2 − u3 ), i = 0. (3.2.27)
(∆x)2
avant de quitter cet exemple, voici une équation plus générale que (3.2.2),
∂u ∂ ∂u
− (κ ) = 0, (3.2.28)
∂t ∂x ∂x
oú κ est le coefficient de conductivité varie en [−1, 1] et peut même dépendre de
la solution u. Dans ce cas, il n’est pas commode d’appliquer le schéma de colloca-
tion (3.2.7) à l’équation (3.2.8) directement, comme cela exigerait la différentiation
∂uN
exacte du flux de chaleur F(uN ) = κ . Au lieu de cela, il faut calculé d’abord
∂x
les valeurs nodales Fl (t) = F(uN )(xl ), l = 0, . . . , N , de ce flux, applique ensuite
une transformation analogue à (3.2.19), et suit cela avec une différenciation du flux
comme dans (3.2.28) ; l’expansion résultante de la dérivée est ensuite évaluée aux
54
Figure 3.3:Erreurs maximales pour le problème de l’équation de la chaleur à t = 1 pour
la collocation de Chebyshev et plusieurs schémas de différence finie. Le résultat de la
troncature de Chebyshev est montré pour comparaison.
55
Le schéma collocation de Chebychev a été discuté pour ce problème dans la section
précédente pour t > 0, la solution spectrale uN est un polynôme algébrique de degré
N sur l’intervalle [−1, 1], il est défini par l’équation de collocation
∂uN ∂ 2 uN
(xk , t) − (xk , t) = 0, k = 1, . . . , N − 1 (3.2.34)
∂t ∂x2
et la condition initiale
il autorisé
! à inclure les points limites de la somme car uN disparaît là. Le produit
∂ 2u
uN est un polynôme de degré 2N − 2 ; par conséquent, par l’exactitude de la
∂x2
formule de quadrature,
N
∂ 2 uN
X Z 1 2
∂ uN
− 2
(xk , t)uN (xk , t)wk = − (x, t)uN (x, t)w(x)dx
k=0 ∂x −1 ∂x2
Dans la section 7.1.2 [15] il est prouvé, en tant que partie d’un résultat général, que
le membre droit est positif et domine en fait une "énergie" pondérée de la solution,
i.e, " #2
Z 1 2
∂ uN 1 Z 1 ∂uN
− (x, t)uN (x, t)w(x)dx ≥ (x, t) w(x)dx.
−1 ∂x2 4 −1 ∂x
Puis à partir de (3.2.36), il en résulte que
N h
" #2
1d X i 1 Z 1 ∂uN
uN (xk , t)2 wk + (x, t) w(x)dx ≤ 0;
2 dt k=0 4 −1 ∂x
d’oú
N
" #2 N
1 Z t Z 1 ∂uN
[u0 (xk )]2 wk .
X X
[uN (xk , t)]wk + (x, s) w(x)dxds ≤
k=0 2 0 −1 ∂x k=0
56
D’autre part, la somme sur le membre droit peut être fixé, par exemple, par deux
fois le carré du maximum des données sur l’intervalle [−1, 1]. Donc, pour tout t > 0
" #2
Z 1
2 1 Z t Z 1 ∂uN
[uN (x, t)] w(x)dx + (x, s) w(x)dxds ≤ 2max−1≤x≤1 | u0 (x) |2
−1 2 0 −1 ∂x
∂ ũ ∂ 2 ũ
(xk , t) − 2 (xk , t) = r(xk , t), t > 0, k = 1, . . . , N − 1 (3.2.37)
∂t ∂x
avec l’erreur de troncature R = (∂ 2 /∂x2 ) (u − ũ). Par conséquent, la différence
e = ũ − u, qui est un polynôme de degré N disparaît au niveau des points limites,
satisfait les équations
∂e ∂e2
(xk , t) − 2 (xk , t) = r(xk , t) t > 0, k = 1, . . . , N − 1 (3.2.38)
∂t ∂x
et la condition initiale, e(xk , 0) = 0 k = 0, . . . , N . La même analyse précédemment
utilisée des rendements
N
" #2
1d X 2 1 Z 1 ∂e
[e(xk , t)] wk + (x, t) w(x)dx
2 dt k=0 4 −1 ∂x
N
X
≤ r(xk , t)e(xk , t)wk
k=0
N N
1 1X
[r(xk , t)]2 wk + [e(xk , t)]2 wk
X
≤
2 k=0 2 k=0
Par conséquent, le schéma est converge pourvu que l’erreur de troncature disparaît
lorsque N tend vers l’infini.
57
Maintenant
N N
[r(xk , s)]2 wk = [IN r(xk , s)]2 wk
X X
k=0 k=0
Z 1
≤ 2 [IN r(x, s)]2 w(x)dx
−1
Z 1 " ! #2
∂ 2u ∂2
= 2 IN 2 − 2 (IN u) (x, s) w(x)dx
−1 ∂x ∂x
Z 1 " ! #2
∂ 2u ∂2
≤ 4 − IN (x, s) w(x)dx
−1 ∂x2 ∂x2
Z 1 " 2 #2
∂ u
+4 (u − IN u)(x, s) w(x)dx
−1 ∂x2
L’utilisation de (3.2.39) une fois de plus, donne une estimation de la dérivée spatiale
de l’erreur, i.e,
#2 1
Z t Z 1 "" # 2 Z t 1
∂u ∂uN 3−m t 2
− (x, s) w(x)dxds ≤ CN exp( ) | u(s) |H m;N ds
0 −1 ∂x ∂x 2 0 w [−1,1]
Cette inégalité prouve que l’approximation est convergente et l’erreur se décroit plus
vite que la manière algébrique lorsque la solution est infiniment régulière.
M(u) = f (3.3.1)
B(u) = 0. (3.3.2)
Comme un premier exemple d’étude des problèmes aux limites c’est l’équation de
Poisson sur [−1; 1] × [−1; 1] avec des conditions aux limites de Dirichlet homogènes.
Le choix de M et B dans (3.3.1) et (3.3.2) est comme suit :
!
∂ 2u ∂ 2u
M(u) = − + , (3.3.3)
∂x2 ∂y 2
58
β1 (u) = u(x, −1), (3.3.4)
β2 (u) = u(x, +1), (3.3.5)
β3 (u) = u(−1, y), (3.3.6)
β4 (u) = u(+1, y). (3.3.7)
Il est préférable d’utiliser le signe négatif pour les opérateurs de second dérivée tels
que (3.3.3) de sorte que M(u) soit un facteur positif au lieu que négatif.
Les polynômes de Legendre et de Chebychev sont des fonctions appropriées d’essai.
Un développement de Legendre bidimensionnelle est produit par le choix du produit
tensoriel
φkl (x, y) = Lk (x)Ll (y), k, l = 0, 1, . . . , N, (3.3.8)
oú Lk est le polynôme de Legendre de degré k. La solution approximative est
N X
X N
uN (x, y) = akl Lk (x)Ll (y). (3.3.9)
k=0 l=0
Les fonctions d’essai ne satisfont pas les conditions aux limites individuellement.
(Dans la plupart des méthodes de Galerkin, les fonctions d’essai satisfont les condi-
tions aux limites). Dans ce cas, deux ensembles distincts de fonctions test sont
utilisés pour vérifier l’EDP et les conditions aux limites. Pour l’EDP, les fonctions
test sont
ψkl (x, y) = Qk (x)Ql (y), k = 0, 1, . . . , N − 2,
oú
2k + 1
Qk (x) = Lk (x);
2
Pour les conditions aux limites, ils sont
i = 1, 2,
Xki (x) = Qk (x) (3.3.10)
k = 0, 1, . . . , N,
i = 3, 4,
Xli (y) = Ql (y) (3.3.11)
l = 0, 1, . . . , N.
Les conditions intégrales pour les équations différentielles sont
Z 1 Z 1
dy M(uN )ψkl (x, y)dx = 0, k, l = 0, 1, . . . , N − 2, (3.3.12)
−1 −1
Tandis que les équations pour les conditions aux limites sont
Z 1
i = 1, 2,
Bi (uN )Xki dx = 0
−1 k = 0, 1, . . . , N,
(3.3.13)
Z 1
i = 3, 4,
Bi (uN )Xli dy = 0
−1 l = 0, 1, . . . , N.
Les quatre conditions dans (3.3.13) sont linéairement dépendantes des autres ; En
effet, les conditions aux limites dans chacun des quatre points d’angle ont été ap-
pliquées deux fois. Pour l’équation de Poisson, les intégrales ci-dessus peuvent être
effectuées analytiquement. Le résultat est
(2,0) (0,2)
− akl + akl = fkl k, l = 0, 1, . . . , N − 2, (3.3.14)
59
N N
(−1)k akl = 0,
X X
akl = 0, l = 0, 1, . . . , N,
k=0 k=0
(3.3.15)
N N
(−1)l akl = 0,
X X
akl = 0, k = 0, 1, . . . , N,
l=0 l=0
où Z 1 Z 1
fkl = dy f (x, y)ψkl (x, y)dx, (3.3.16)
−1 −1
N
(2,0) 1 X
akl = (k + ) [p(p + 1) − k(k + 1)]apl , (3.3.17)
2 p=k+2
p+k paire
N
(0,2) 1 X
akl = (l + ) [q(q + 1) − l(l + 1)]akq . (3.3.18)
2 q=l+1
q+l paire
Les résultats sont donnés dans la figure (??), ainsi que les résultats pour un schéma
aux différences finies du second ordre. L’entier N désigne le degré d’expansion (3.3)
dans chaque dimension pour la méthode de Tau-Legendre et le nombre d’intervalles
uniformes dans chaque dimension pour la méthode des différences finies.
60
3.4 Méthode spectrale de collocation pour les (EDP)
paraboliques avec des conditions aux limites
de Neumann
Cette section, représente une méthode pour la résolution numérique des équations
différentielles aux dérivées partielles paraboliques avec des conditions aux limites de
Neumann [voir (1.1.2)], en utilisant une formule de collocation pour le calcul d’une
matrice de différenciation pour les points de Chebychev-Gauss-Lobatto.
Premièrement, la théorie de l’application d’une méthode de collocation sur les
(EDPs) paraboliques. Cette méthode donne un système d’équations ordinaires (EDOs).
Deuxièmement, les auteurs de [38] utilisent la formule de Runge-Kutta de qua-
trième ordre pour l’intégration numérique des système d’(ODEs). Des résultats nu-
mériques obtenus par cette technique sont comparées avec la solution exacte pour
voir l’efficacité de cette méthode.
Considérons l’équation parabolique de la forme (voir [13]) :
∂u ∂ 2u
(x, t) = (x, t) + f (t, x, u(x, t)), a ≤ x ≤ b, t ≥ 0, (3.4.1)
∂t ∂x2
61
l’équation différentielle, on utilise les dérivées de uN aux points de collocation. Une
implémentation directe des méthodes de collocation spectrale implique l’utilisation
de matrices de différenciation spectrale pour calculer les dérivées aux points de
collocation, dans lequel U ~ = {u(xi )} est le vecteur constitué de valeurs de uN aux
N + 1 points de collocation et U~ 0 = {u0 (xi )} contient les valeurs des dérivées aux
points de collocation, alors la matrice de dérivation de collocation D est la matrice
~ −→ U~ 0 . Les éléments de cette matrice peut être calculer analytiquement. Pour
U
obtenir une convergence optimale, il faut calculer bien ces matrices. Dans [26, 14,
19, 35] les auteurs décrivent très bien le sujet
Soit u(x) une fonction de [−1, 1]. On interpole u(x) par un polynôme uN (x) de degré
inférieur à N de la forme
N
X
uN (x) = lj (x)u(xj ). (3.4.4)
j=0
lj (xk ) = δjk , j, k = 0, 1, . . . , N.
ou en notation matricielle
U (n) = D(n) U, n = 1, 2, . . . ,
où
(n) (n) (n)
U (n) = [uN (x0 ), uN (x1 ), . . . , uN (xN )]T ,
U = [u(x0 ), u(x1 ), . . . , u(xN )]T .
où D(n) est une matrice (N + 1) × (N + 1) dont les entrées sont données par
(n) (n)
dkj = lj (xk ), j, k = 0, 1, . . . , N.
62
(−1)j+k
ck
− 2c k 6= j,
π .
π
j sin((k + J) ) sin((k − J) )
2N 2N
dkj = 1
2 cos kπ
N (1 + cot2 kπ
N
), k = j, j 6= 0, N,
2
d00 = −dN N = 2N 6+ 1 .
où
b−a b+a
c= , d= .
2 2
Alors par (3.4.1)
∂V 1 ∂ 2V
(X, t) = 2 (X, t) + f (t, cX + d, V (X, t)), −1 ≤ X ≤ 1, t ≥ 0, (3.4.7)
∂t c ∂X 2
avec les conditions initiales et aux limites suivantes
et
∂V ∂V
(−1, t) = cg1 (t), (1, t) = cg2 (t), t ≥ 0. (3.4.9)
∂X ∂X
Une discrétisation de (3.4.7) dans l’espace par la méthode des lignes remplaçant
∂V ∂ 2V
∂X (Xi , t) et ∂X 2 (Xi , t) par des approximations pseudo-spectrales données par
N
∂V X (1)
(Xi , t) ≈ dij V (Xj , t), i = 1, . . . , N − 1 (3.4.10)
∂X j=0
et
∂ 2V XN
(2)
2 (X i , t) ≈ dij V (Xj , t), i = 1, . . . , N − 1 (3.4.11)
∂X j=0
Ici
(n)
D(n) = [dij ]N
i,j=0 , n = 1, 2, . . .
63
sont les matrices de différentiation d’ordre n, posant Vi (t) = V (Xi , t). Par substitu-
tion de (3.4.10) et (3.4.11) dans (3.4.7) − (3.4.9)
N
1 X (2)
Vi0 (t) = 2 ( dij Vj (t)) + f (t, cX + d, Vi (t)), Vi (0) = ϕ(cXi + d), (3.4.12)
c j=0
N N
d1N j Vj (t) d10j Vj (t) = cg2 (t).
X X
= cg1 (t), (3.4.13)
j=0 j=0
N −1
−1
dN
X
dN 0 V0 (t) + dN N VN (t) = cg1 (t) − N j Vj (t) (3.4.14)
j=1
N −1
−1
dN
X
d00 V0 (t) + d0N VN (t) = cg2 (t) − 0j Vj (t).
j=1
N −1 N −1
X (1) X (1)
d0N (cg1 (t) − dN j Vj (t)) − dN N (cg2 (t) − d0j Vj (t))
j=1 j=1
= (3.4.16)
dN 0 d0N − d00 dN N
et
−1 (1)
cg1 − N
P
d j=1 dN j Vj (t) dN 0 dN N
VN (t) = N 0
P −1 (1) / (3.4.17)
d00 cg2 − N
j=1 d0j Vj (t)
d00 d0N
N −1 N −1
X (1) X (1)
dN 0 (cg2 (t) − d0j Vj (t)) − d00 (cg1 (t) − dN j Vj (t))
j=1 j=1
= (3.4.18)
dN 0 d0N − d00 dN N
Par substitution de (3.4.16) et (3.4.18) dans (3.4.12)
N −1 N −1
X (1) X (1)
d0N cg1 (t) − dN j Vj (t) − dN N cg2 (t) − d0j Vj (t)
1 j=1 j=1
Vi0 (t) = di0 ×
c2 dN 0 d0N − d00 dN N
N −1 N −1
X (1) X (1)
dN 0 cg2 (t) − d0j Vj (t) − d00 cg1 (t) − dN j Vj (t)
N −1
X (2) j=1 j=1
+ dij Vj (t) + diN ×
j=1 dN 0 d0N − d00 dN N
+ f (t, cX + d, Vi (t)), i = 1, 2, . . . , N − 1. (3.4.19)
64
où
V (t) = [V1 (t), V2 (t), . . . , VN −1 (t)]T , V0 = [V1 (0), V2 (0), . . . , VN −1 (0)]T ,
V 0 (t) = [V10 (t), V20 (t), . . . , VN0 −1 (t)]T ,
F (t, V (t)) = [F1 (t, V (t)), F2 (t, V (t)), . . . , FN −1 (t, V (t))]T ,
et
N −1 N −1
X (1) X (1)
d0N cg1 (t) − dN j Vj (t) − dN N cg2 (t) − d0j Vj (t)
1 j=1 j=1
Fi (t, V (t)) = di0 ×
c2 dN 0 d0N − d00 dN N
N −1 N −1
X (1) X (1)
dN 0 cg2 (t) − d0j Vj (t) − d00 cg1 (t) − dN j Vj (t)
N −1
X (2) j=1 j=1
+ dij Vj (t) + diN ×
j=1 dN 0 d0N − d00 dN N
+f (t, cX + d, Vi (t)). (3.4.21)
dans le point (xi , tj ), où Û (xi , tj ) est la solution obtenue par (3.4.20) résolu par la
méthode de Runge-Kutta d’ordre 4 et U (xi , tj ) est la solution exacte.
Pour des travaux de computation voici les problèmes suivants :
Problème 1. N = 16, ∆t = 0.0001
Problème 1.
Ce problème est l’équation de la chaleur avec des conditions de Neumann
∂U ∂ 2U
= , (x, t) ∈ [0, 1] × (0, 0.25], (3.4.22)
∂t ∂x2
65
xi /tj 0.05 0.10 0.15 0.20 0.25
x[2] 2.0327e − 11 1.2412e − 11 7.5695e − 12 4.6261e − 12 2.8301e − 12
x[5] 8.3306e − 13 5.0926e − 13 3.1007e − 13 1.8390e − 13 1.0635e − 13
x[8] 1.2568e − 13 6.7724e − 14 4.4048e − 14 3.3584e − 14 2.6673e − 14
x[11] 1.8952e − 13 1.2146e − 13 7.1665e − 14 3.7151e − 14 1.6487e − 14
x[14] 3.0196e − 12 1.8453e − 12 1.1260e − 12 6.9297e − 13 4.2917e − 13
x[16] 2.0330e − 11 1.2414e − 11 7.5716e − 12 4.6279e − 12 2.8314e − 12
xi /tj 1 10 20 35 50
x[1] 1.7186e-11 2.7669e-10 6.7247e-10 1.3729e-09 2.1506e-09
x[4] 1.1879e-13 7.9581e-13 2.3230e-12 8.5665e-12 2.1764e-11
x[7] 1.0236e-13 7.6605e-13 2.2857e-12 8.5238e-12 2.1718e-11
x[10] 8.5487e-14 7.3630e-13 2.2480e-12 8.4817e-12 2.1672e-11
x[13] 7.8160e-14 7.2475e-13 2.2311e-12 8.4661e-12 2.1652e-11
x[16] 8.7708e-14 7.2875e-13 2.2355e-12 8.4719e-12 2.1659e-11
x[17] 4.8586e-12 7.4457e-11 1.7924e-10 3.6948e-10 5.8987e-10
Problème 3 :
Le problème est
∂U ∂ 2U 2 −t −pt
= 2 + (π − 1)U − pU + (pe + e ) sin πx, (x, t) ∈ [0, 1] × (0, 1], (3.4.24)
∂t ∂x
66
Chapitre
4.1 Introduction
Généralement dans les applications de calcul, les fonctions à deux variables ont
souvent besoin d’être approchées par d’autres fonctions qui sont mieux comprises
ou plus facilement évaluées. Les polynômes sont parmi les fonctions mathématiques
les plus simples qui ont la flexibilité pour représenter les relations non linéaires très
généraux.
L’approximation des fonctions plus compliquées par des polynômes est un bloc
de construction de base pour de nombreuses techniques numériques [8].
L’approximation bidimensionnelle est une extension de l’approximation unidi-
mensionnelle pour les fonctions à deux variables. Généralement, l’idée principale
est d’effectuer l’approximation à une dimension d’abord pour une variable, puis à
nouveau pour l’autre variable. [9] Bien que chaque étape est une dimension.
Dans [1], les auteurs ont exprimés la fonction solution avec les polynômes bidi-
mensionnels de Legendre produits par un produit tensoriel. La solution approchée
est sous la forme
N X
X N
UN (x, y) = Ûi,j Li (x)Lj (y) i, j = 0, . . . , N. (4.1.1)
i=1 j=1
67
Mais avec l’avantage de la création des bases polynomiales multidimensionnelles,
la solution peut être développé à une fonction de base multidimensionnelle pour avoir
de bonnes approximations pour des solutions de problèmes multidimensionnels.
Dans une première partie, nous avons développé une nouvelle base de polynômes
orthogonaux par la résolution de l’EDP suivante
" #
∂ 2U ∂ 2U ∂U ∂U
(1 − x ) 2 (x, y) + (1 − y 2 ) 2 (x, y) − 2 x
2
(x, y) + y (x, y)
∂x ∂y ∂x ∂y
+ [l(l + 1) + k(k + 1)]U (x, y) = 0 (4.1.2)
où l, k = 0, 1, 2, 3, 4, . . .
Puis, nous avons créé cette base par la formule Rodrigues, et par une relation de
récurrence à trois termes.
Nous avons également démontrer l’orthogonalité de ces polynômes en utilisant
un produit scalaire bien défini sur l’espace des polynômes bidimensionnelles
Z 1Z 1
hPi,j , Pl,k i = Pi,j (x, y)Pl,k (x, y)dx dy. (4.1.3)
−1 −1
nous pouvons arrêter de prendre les dérivées parce que dans notre cas, nous avons
68
une équation du second ordre
N N −i N N −i N N −i
(1 − x2 ) i(i − 1)ai,j xi−2 y j − 2x iai,j xi−1 y j + (1 − y 2 ) j(j − 1)ai,j xi y j−2
X X X X X X
Nous avons besoin d’ajuster les exposants et les points de départ, de sorte qu’on
aura xi y j dans chaque terme.
Soit m = i − 2 et n = j − 2, alors,
N N −i N −2 N −(m+2)
i−2 j
(m + 2)(m + 1)am+2,j xm y j
X X X X
i(i − 1)ai,j x y =
i=0 j=0 m=−2 j=0
et
N N −i N N −(i+2)
j(j − 1)ai,j xi y j−2 = (n + 2)(n + 1)ai,n+2 xi y n
X X X X
Notez que nous pouvons commencer m, n de 0 puisque nous obtenons des zéros pour
m = n = −2 et m = n = −1 de toute façon.
Après la substitution dans l’équation différentielle
N −2 N −(i+2)
[(i + 2)(i + 1)ai+2,j − i(i − 1)ai,j − 2i ai,j + l(l + 1)ai,j ] xi y j
X X
i=0 j=0
N −2 N −(i+2)
[(j + 2)(j + 1)ai,j+2 − j(j − 1)ai,j − 2j ai,j + k(k + 1)ai,j ] xi y j = 0
X X
+
i=0 j=0
" #
i(i + 1) − l(l + 1)
ai+2,j = ai,j
(i + 2)(i + 1) #
then "
j(j + 1) − k(k + 1)
ai,j+2 = ai,j
(j + 2)(j + 1)
Pour chaque pair (l, k) nous avons un polynôme, cela correspond à U = U (x, y) où
i = j = 0, 1, 2, . . ., et ils sont désignés par Pi,j (x, y). Notez que lorsque i ou j est
pair, la série paire se termine à certains point, mais la série impaire ne se termine
pas. Nous allons donc culminer a1,j ou ai,1 à zéro, même pour les cas de i ou j. De
même, nous choisissons a0,j ou ai,0 pour être zéro pour les cas impairs de i ou j.
Enfin, par convention, nous avons choisi a0,j , a1,j , ai,0 ou ai,1 tel que Pi,j (1, 1) = 1.
— Pour (l, k) = (0, 0), nous avons mis a1,j = ai,1 = 0 et notez que a0,j et ai,0 6= 0
" # " #
i(i + 1) − 0(0 + 1) i(i + 1)
ai+2,j = ai,j = ai,j
" (i + 2)(i + 1) # " (i + 2)(i + 1) #
j(j + 1) − 0(0 + 1) j(j + 1)
ai,j+2 = ai,j = ai,j
(j + 2)(j + 1) (j + 2)(j + 1)
Nous sommes donc à la recherche de a2,j et ai,2 , nous faisons cela par
" #
0(0 + 1)
a0+2,j = a0,j
" (0 + 2)(0 + 1) #
0(0 + 1)
ai,0+2 = ai,0
(0 + 2)(0 + 1)
69
ce qui conduit à a2 , j = ai,2 = 0. Le polynôme de Legendre bidimensionnel d’ordre
zéro est P0,0 (x, y) = a0,0 , avec la convention que pour tout polynôme Pi,j , Pi,j (1, 1) =
1, nous avons a0,0 = 1 et donc
P0,0 (x, y) = 1
— Pour (l, k) = (0, 1), nous avons mis ai,0 = a1,j = 0 et notez que a0,j and
ai,1 6= 0
" #
i(i + 1)
ai+2,j = ai,j
" (i + 2)(i + 1) #
j(j + 1) − 2
ai,j+2 = ai,j
(j + 2)(j + 1)
Pour trouver a2,j et ai,3 ,
" #
0(0 + 1)
a0+2,j = a0,j
" (1 + 2)(1 + 1) #
1(1 + 1) − 2
ai,1+2 = ai,1
(1 + 2)(1 + 1)
ce qui conduit à a2,j = ai,3 = 0. Le polynôme de Legendre bidimensionnel est
P0,1 (x, y) = a0,0 x0 y 0 + a0,1 x0 y,
par la convention Pi,j (1, 1) = 1, nous avons a0,1 = 1, et donc P0,1 (x, y) = y. Avec le
même procédé, on obtient P1,0 (x, y) = x.
— Pour (l, k) = (1, 1), nous avons mis a0,j = ai,0 = 0 et notez que a1,j et ai,1 6= 0
" #
i(i + 1) − 2
ai+2,j = ai,j
" (i + 2)(i + 1) #
j(j + 1) − 2
ai,j+2 = ai,j
(j + 2)(j + 1)
Nous sommes donc à la recherche de a3,j et ai,3 , nous faisons cela par
" #
1(1 + 1) − 2
a1+2,j = a1,j
" (1 + 2)(1 + 1) #
1(1 + 1) − 2
ai,1+2 = ai,1
(1 + 2)(1 + 1)
ce qui conduit à a3,j = ai,3 = 0. Le polynôme bidimensionnel de Legendre est
P1,1 (x, y) = a0,0 x0 y 0 + a0,1 x0 y + a1,0 xy 0 + a1,1 xy,
par la convention que Pi,j (1, 1) = 1, on a a1,1 = 1 et par conséquent P1,1 (x, y) = xy.
— For(l, k) = (2, 2)," nous fixons ai,1 = #a1,j = 0," et notez que a #i,0 et a0,j 6= 0.
i(i + 1) − 2(2 + 1) i(i + 1) − 6
ai+2,j = ai,j = ai,j
" (i + 2)(i + 1) # " (i + 2)(i + 1) #
j(j + 1) − 2(2 + 1) j(j + 1) − 6
ai,j+2 = ai,j = ai,j
(j + 2)(j + 1) (j + 2)(j + 1)
Pour trouver a2,j et ai,2 , en mettant i = 0 et j = 0
" #
0(0 + 1) − 6
a0+2,j = a0,j = −3a0,j
"(0 + 2)(0 + 1) #
0(0 + 1) − 6
ai,j+2 = ai,0 = −3ai,0
(0 + 2)(0 + 1)
70
Ensuite, pour ai,4 et a4,j mis i = 2 et j = 2
" #
2(2 + 1) − 6
a4,j = a2,j = 0
" (2 + 2)(2 + 1) #
2(2 + 1) − 6
ai,4 = ai,2 = 0
(2 + 2)(2 + 1)
Par la convention que Pi,j (1, 1) = 1, nous avons P2,2 (1, 1) = 4 a0,0 = 1, et donc
9 2 2 3 2 3 2 1
P2,2 (x, y) = x y − x − y + .
4 4 4 4
Les autres polynômes de Legendre à deux dimensions sont obtenues par le même
procédé. Le tableau (4.1) ci-dessous résume les premiers polynômes de Legendre
bidimensionnels.
HH
i
H 0 1 2 3
j HH
H
3x2 1 5x3 3x
0 1 x − −
2 2 2 2
3x2 y y 5x3 y 3xy
1 y xy − −
2 2 2 2
3y 2 1 3xy 2 x 9x2 y 2 3x2 3y 2 1
2 − − − − + ···
2 2 2 2 4 4 4 4
3 3
5y 3y 5xy 3xy
3 − − ··· ···
2 2 2 2
35y 4 15y 2 3
4 − + ··· ··· ···
8 4 8
Table 4.1: Premiers polynômes de Legendre bidimensionnels
Le premier polynôme P0,0 est situé dans le coin supérieur gauche. Une évolution
dans la même colonne, ne varie pas le degré des polynômes en fonction de x. Une
évolution en fonction de la colonne de la même ligne varie le degré en fonction de y.
1 ∂i 2 i ∂
j
Pi,j (x, y) = (x − 1) (y 2 − 1)j
2i+j i! j! ∂xi ∂y j
71
Démonstration 4.1
On a démontré dans la section (4.2) que les polynômes de Legendre bidimensionnel
sont des solutions de l’équation suivante
∂ 2U 2
2 ∂ U ∂U ∂U
(1 − x2 ) 2
(1 − y ) 2
− 2x − 2y + [i(i + 1) + j(j + 1)]U = 0 (4.3.1)
∂x ∂y ∂x ∂y
Soit v1 = (x2 − 1)i et v2 = (y 2 − 1)j , alors
∂
(1 − x2 )
v1 + 2 i v1 x = 0 (4.3.2)
∂x
∂
(1 − y 2 ) v2 + 2 j v2 y = 0 (4.3.3)
∂y
Différencier (4.3.2) i + 1 fois et (4.3.3) j + 1 fois en utilisant la formule de Leibniz
[voir L’annexe], nous obtenons après les simplifications
∂ i+2 ∂ i+1 ∂i
(1 − x2 ) v1 − 2x v1 + i(i + 1) v1 = 0
∂xi+2 ∂xi+1 ∂xi
(4.3.4)
i+2 i+1 i
∂ ∂ ∂
(1 − x2 ) i+2
v2 − 2x i+1 v2 + i(i + 1) i v2 = 0
∂x ∂x ∂x
i i j
∂ 2 i ∂ ∂ 2 j ∂j
Soit u1 = (x − 1) = v1 et u 2 = (y − 1) = v2
∂xi ∂xi ∂y j ∂y j
Mettre U = u1 ×u2 , par sommation dans l’équation (4.3.4), nous avons (4.3.1), donc
72
4.4 Construction récursive
L’idée de la modélisation par les polynômes orthogonaux est d’approcher des
fonctions réelles par des combinaisons linéaires de fonctions polynomiales bidimen-
sionnels, par exemple ceux de Legendre. Nous utilisons les polynômes bivariés définis
dans R2 par
K X
L
ak,l (x)k (y)l ,
X
PK,L (x, y) =
k=0 l=0
avec Ω est le domaine de définition et ω(x, y) est la fonction poids du produit scalaire.
Nous pouvons construire une base bidimensionnelle de Legendre par la formule de
récurrence à trois termes suivante [54]
P−1,j (x, y) = 0
Pi,−1 (x, y) = 0
P0,0 (x, y) = 1
2i + 1 i
Pi+1,j (x, y) = x Pi,j (x, y) − Pi−1,j (x, y)
i+1 i+1
2j + 1 j
Pi,j+1 (x, y) = y Pi,j (x, y) − Pi,j−1 (x, y)
j+1 j+1
Il est important de noter que la fonction poids omega(x, y) du produit scalaire
est égal à 1, ce qui rend le calcul du produit scalaire plus facile et plus rapide,
improbable pour de nombreuses bases de polynômes orthogonaux qui ont fonctions
de poids qui nécessite beaucoup de temps pour le calcul. Le produit scalaire dans
la base des polynômes de Legendre peut être calculée en évaluant seulement deux
fonctions au lieu de trois.
74
formule est
∂Pi,j ∂Pi−1,j
iPi,j (x, y) = x (x, y) − (x, y)
∂x ∂x
∂Pi,j ∂Pi,j−1
jPi,j (x, y) = y (x, y) − (x, y).
∂x ∂x
4.6 Orthogonalité
Les polynômes de Legendre à deux dimensions satisfont à l’équation différentielle
suivante [54]
" # " #
∂ ∂Pi,j ∂ ∂Pi,j
(1 − x2 ) (x, y) + (1 − y 2 ) (x, y) +[i(i+1)+j(j +1)]Pi,j (x, y) = 0
∂x ∂x ∂y ∂y
(4.6.1)
Dans cette section, on va démontré l’orthogonalité des polynômes de Legendre bi-
dimensionnels, i e, on va démontre que
Démonstration 4.2
En utilisant le produit scalaire (4.1.3)
Soit Pi,j et Pl,k deux polynômes bidimensionnels de Legendre de degré i + j et l + k
respectivement, alors, ils satisfont l’équation (4.6.1)
" # " #
∂ ∂Pi,j ∂ ∂Pi,j
(1 − x2 ) (x, y) + (1 − y 2 ) (x, y) = − [i(i + 1) + j(j + 1)] Pi,j (x, y)
∂x ∂x ∂y ∂x
" # " # (4.6.2)
∂ ∂Pl,k ∂ ∂Pl,k
(1 − x2 ) (x, y) + (1 − y 2 ) (x, y) = − [l(l + 1) + k(k + 1)] Pl,k (x, y)
∂x ∂x ∂y ∂x
(4.6.3)
multipliant (4.6.2) par Pl,k et (4.6.3) par Pi,j et en soustrayant
[(l(l + 1) + k(k + 1)) − (i(i + 1) + j(j + 1))] Pi,j (x, y)Pl,k (x, y) =
" #
∂ 2 ∂Pi,j ∂ 2 ∂Pi,j
[(1 − x ) (x, y)] + [(1 − y ) (x, y)] Pl,k (x, y) − (4.6.4)
∂x ∂x ∂y ∂y
" #
∂ 2 ∂Pl,k ∂ 2 ∂Pl,k
[(1 − x ) (x, y)] + [(1 − y ) (x, y)] Pi,j (x, y)
∂x ∂x ∂y ∂y
Nous fixons
Par intégration des deux membres de (4.6.4) dans le domaine [−1, 1] × [−1, 1]
Z 1Z 1 Z 1 Z 1 "" # #
∂ ∂Pi,j ∂ ∂Pi,j
c Pi,j Pl,k dx dy = [(1 − x2 ) ]+ [(1 − y 2 ) ] Pl,k
−1 −1 −1 −1 ∂x ∂x ∂y ∂y
"" # #
∂ 2 ∂Pl,k ∂ 2 ∂Pl,k
− [(1 − x ) ]+ [(1 − y ) ] Pi,j dx dy
∂x ∂x ∂y ∂y
75
On commence par la première partie
Z 1 Z 1 "" # #
∂ ∂Pi,j ∂ ∂Pi,j
I1 = [(1 − x2 ) ]+ [(1 − y 2 ) ] Pl,k dxdy
−1 −1 ∂x ∂x ∂y ∂y
Z 1Z 1 " # Z 1Z 1 " #
∂ 2 ∂Pi,j ∂ 2 ∂Pi,j
= [(1 − x ) ] Pl,k dxdy + [(1 − y ) ] Pl,k dxdy
−1 −1 ∂x ∂x −1 −1 ∂y ∂y
On a
Z 1 "Z 1 " # #
∂ ∂Pi,j
I1,1 = (x, y)[(1 − x2 ) (x, y)] Pl,k (x, y) dx dy
−1 −1 ∂x ∂x
" #1
Z 1 Z 1
Pl,k (x, y)(1 − x2 )
∂Pi,j ∂Pl,k ∂Pi,j
= (x, y) − (x, y) (1 − x2 ) (x, y) dx dy
−1 ∂x −1 −1 ∂x ∂x
d’où Z 1 "Z 1 " ##
∂Pl,k ∂Pi,j
2
I1,1 = − (x, y) (1 − x ) (x, y) dx dy (4.6.5)
−1 −1 ∂x ∂x
De même
Z 1 "Z 1 " # #
∂ ∂Pi,j
I1,2 = [(1 − y 2 ) (x, y)] Pl,k (x, y) dy dx
−1 −1 ∂y ∂y
Z 1 "Z 1 #
∂Pl,k 2 ∂Pi,j
= − (x, y) (1 − y ) (x, y) dx dy (4.6.6)
−1 −1 ∂x ∂x
Pour la deuxième partie
Z 1Z 1 " #
∂ ∂Pl,k
I2 = [(1 − x2 ) ]Pi,j dxdy
−1 −1 ∂x ∂x
Z 1Z 1 " #
∂ 2 ∂Pl,k
+ [(1 − y ) ]]Pi,j dxdy
−1 −1 ∂y ∂y
Z 1 "Z 1 " # #
∂ ∂Pl,k
I2,1 = [(1 − x2 ) (x, y)] Pi,j (x, y) dx dy
−1 −1 ∂x ∂x
Z 1 "Z 1 #
∂Pi,j 2 ∂Pl,k
= − (x, y) (1 − x ) (x, y) dx dy (4.6.7)
−1 −1 ∂x ∂x
et aussi
Z 1 "Z 1 " # #
∂ ∂Pl,k
I2,2 = [(1 − y 2 ) (x, y)] Pi,j (x, y) dy dx
−1 −1 ∂y ∂y
Z 1 "Z 1 #
∂Pi,j 2 ∂Pl,k
= − (x, y) (1 − y ) (x, y) dy dx (4.6.8)
−1 −1 ∂y ∂y
par conséquent
Z 1 Z 1
c Pi,j (x, y)Pl,k (x, y)dxdy = I1 − I2
−1 −1
= [I1,1 + I1,2 ] − [I2,1 + I2,2 ]
= 0.
et puisque c 6= 0 pour chaque paire (i, j) 6= (l, k), alors
Z 1 Z 1
Pi,j (x, y)Pl,k (x, y)dxdy = 0
−1 −1
hPi,j , Pl,k i = 0, for (i, j) 6= (l, k).
d’où le résultat.
76
4.7 Différenciation d’un développement bidimen-
sionnel de Legendre
alors
77
X
i, j ≥ 0,
(2i + 1)
Ûi,j
,
p=i+1
(1) p+i impaire
Ûi,j =
X
(2j + 1) Ûi,j
, i, j ≥ 0,
p=j+1
p+j impaire
à partir duquel il est possible d’obtenir des expressions explicites pour les coefficients
de Legendre des dérivées d’ordre supérieur.
Pour la dérivée second, on a
1 X
[p(p + 1) − i(i + 1)]Ûi,j i, j ≥ 0,
(i + ) ,
2
p=i+2
(2) p+i paire
Ûi,j =
1 X
(j + ) [p(p + 1) − j(j + 1)]Ûi,j
, i, j ≥ 0,
2
p=j+1
p+j paire
Les extensions précédentes ne sont pas simplement formelle prévue U est assez ré-
gulière.
u(x, −1) = 0,
u(x, +1) = 0,
u(−1, y) = 0,
u(+1, y) = 0.
cela nous permet d’utiliser cette base pour résoudre de nombreux problèmes
aux limites en D2.
79
On note que pour N = 4 l’approximation polynômiale est identique au graphe
de la fonction.
Figure 4.17: Approx avec N = 2 Figure 4.18: Approx avec N = 3 Figure 4.19: Approx avec N = 4
80
Figure 4.23: f (x, y) = y 2 ex Figure 4.24: Approx avec N = 11
81
− Ω un domaine borné de Rn × Rn avec la frontière ∂Ω.
− X une paire (x, y), où x ∈ Rn et y ∈ Rn .
− U (X, t) fonction inconnue dans l’espace de Hilbert H, f élément de H.
− M, C des opérateurs de H dans H, où C définir les conditions aux limites.
Si M contient des dérivées partielles d’ordre k, les conditions aux limites sont aux
nombre k (g avec k Composants). Soit (Pi,j )i,j=1...∞ une base de Legendre orthogo-
nale bidimensionnelle qui ne satisfait pas les conditions aux limites.
Nous cherchons une approximation
N N
X X −i
UN (X, t) = Ûi,j Pi,j with Ûi,j = hUN , Pi,j i (4.9.1)
i=1 j=1
PN⊥−k RN = 0 N − k equations
C UN = 0 k equations
∀s ∈ S, RehP s, M si ≥ κ k s k2 (4.9.5)
82
et
Rehf, gi ≤k f k · k g k (4.9.6)
Nous définissons f˜n par
∂
f˜n = (P Ũn ) + M Ũn ,
∂t
où Un la solution du problème (4.9.3) et Ũn n’importe.
Sous les hypothèses (4.9.5) et (4.9.6), nous pouvons prouver le résultat suivant
1
k M(Un − Ũn ) k2 ≤k M(Un (0) − Ũn (0)) k2 +
Z t
κ
+ k M∗ (fn − f˜n (r)) k2 dr (4.9.7)
0
83
alors
1 κ ∂
k M∗ (fn − f˜n ) k2 + k (Un − Ũn ) k2
2κ 2 ∂t
1 √ ∂
≥ ( √ k M∗ (fn − f˜n ) k) · ( κ k (Un − Ũn ) k)
κ ∂t
∂
≥ (k M∗ (fn − f˜n ) k) · (k (Un − Ũn ) k)
∂t
alors nous avons
∂
RehM∗ (fn − f˜n ), (Un − Ũn )i
∂t
1 κ ∂
≤ k M∗ (fn − f˜n ) k2 + k (Un − Ũn ) k2 .
2κ 2 ∂t
La formule (4.9.9) devient
∂ 1∂
κk (Un − Ũn ) k2 + k M(Un − Ũn ) k2
∂t 2 ∂t
1 κ ∂
≤ k M (fn − f˜n ) k + k (Un − Ũn ) k2
∗ 2
2κ 2 ∂t
1 ∂
≤ k M∗ (fn − f˜n ) k2 +κ k (Un − Ũn ) k2 .
2κ ∂t
d’où
∂ 1
k M(Un − Ũn ) k2 ≤ k M∗ (fn − f˜n ) k2 .
∂t κ
par l’intégration des deux côtés de cette inégalité, nous avons
Z t
∂ 1Zt
2
k M(Un − Ũn )(r) k dr ≤ k M∗ (fn − f˜n )(r) k2 dr
0 ∂r κ 0
Démonstration 4.4 On a
84
on peut estimer k M(Un − Ũn )(t) k de (4.9.7)
alors
85
Conclusion
Les méthodes spectrales forment une classe de discrétisations spatiales pour les
équations différentielles. Les éléments clés pour leur formulation sont les fonctions
d’essai (également appelées fonctions d’expansion ou d’approximation) et les fonc-
tions de test (également appelées fonctions de poids). Les fonctions d’essai, qui sont
des combinaisons linéaires de fonctions de base d’essai appropriées, sont utilisées
pour fournir la représentation approximative de la solution. Les fonctions de test
sont utilisées pour s’assurer que l’équation différentielle et peut-être certaines condi-
tions aux limites sont satisfaites aussi étroitement que possible par l’expansion en
série tronquée. Ceci est réalisé en minimisant, par rapport à une norme appropriée,
le résidu produit en utilisant l’approximation tronquée au lieu de la solution exacte.
Les résidus représentent l’équation différentielle et parfois les conditions aux limites,
explicitement ou implicitement. Pour cette raison, ils peuvent être considérés comme
un cas particulier de la méthode des résidus pondérés (Finlayson et Scriven (1966)).
Une exigence équivalente est que le résidu satisfasse une condition d’orthogonalité
appropriée par rapport à chacune des fonctions de test. De ce point de vue, les mé-
thodes spectrales peuvent être considérées comme un cas particulier des méthodes
de Petrov-Galerkin (Zienkiewicz et Cheung (1967), Babuska (1972)).
Le choix des fonctions d’essai est l’une des caractéristiques qui distinguent les
premières versions des méthodes spectrales des méthodes d’éléments finis et de diffé-
rences finies. Les fonctions de base d’essai pour ce qu’on peut maintenant appeler des
méthodes spectrales classiques - des méthodes spectrales sur un seul domaine ten-
soriel - sont globales, infiniment différentiables et presque orthogonales, c’est-à-dire
que la matrice constituée de leurs produits internes a une très faible bande passante ;
dans de nombreux cas, cette matrice est diagonale. (Typiquement les fonctions de
base d’essai pour les méthodes spectrales classiques sont les produits tensoriels des
fonctions propres des problèmes singuliers de Sturm-Liouville). En revanche, pour
la version h des méthodes d’éléments finis, le domaine est divisé en petits éléments
et des fonctions d’essai de poids faible sont spécifiées dans chaque élément. Les fonc-
tions de base d’essai pour les méthodes d’éléments finis ont donc un caractère local et
sont encore presque orthogonales, mais pas infiniment différentiables. Les méthodes
de différences finies sont généralement considérées à partir d’une perspective d’ap-
proximation ponctuelle plutôt que d’une perspective de fonction d’essai/fonction de
test.
Le choix des fonctions de test distingue les trois types de schémas spectraux les
plus anciens, à savoir les versions de Galerkin, collocation et tau. Dans l’approche
de Galerkin (1915), les fonctions de test sont les mêmes que les fonctions d’essai. Ce
sont donc des fonctions infiniment continues qui satisfont individuellement certaines
ou toutes les conditions aux limites. L’équation différentielle est appliquée en exi-
geant que l’intégrale des temps résiduels de chaque fonction d’essai soit nulle, après
86
quelques intégrations par parties, en tenant compte dans le processus de toutes les
conditions aux limites restantes. Dans l’approche de collocation, les fonctions de test
sont traduites par des fonctions delta de Dirac centrées sur des points de collocation
spéciaux. Cette approche nécessite que l’équation différentielle soit satisfaite exac-
tement aux points de collocation. Les méthodes tau spectrales sont similaires aux
méthodes de Galerkin dans la manière dont l’équation différentielle est appliquée.
Cependant, aucune des fonctions de test ne doit satisfaire aux conditions aux limites.
Par conséquent, un ensemble d’équations supplémentaire est utilisé pour appliquer
les conditions aux limites.
L’approche de collocation semble avoir été utilisée pour la première fois par Sla-
ter (1934) et par Kantorovic (1934) dans des applications spécifiques. Frazer, Jones
et Skan (1937) l’ont développé comme une méthode générale pour résoudre les équa-
tions différentielles ordinaires. Ils ont utilisé une variété de fonctions d’essai et une
distribution arbitraire des points de collocation. Le travail de Lanczos (1938) a éta-
bli pour la première fois qu’un bon choix des fonctions d’essai et la distribution des
points de collocation est crucial pour l’exactitude de la solution. Peut-être devrait-
il être crédité de poser les bases de la méthode de collocation orthogonale. Cette
méthode a été relancée par Clenshaw (1957), Clenshaw et Norton (1963) et Wright
(1964). Ces études ont impliqué l’application d’expansions polynomiales de Cheby-
shev à des problèmes de valeur initiale. Villadsen et Stewart (1967) ont développé
cette méthode pour les problèmes aux limites.
Les premières applications de la méthode de collocation spectrale à des équations
différentielles partielles ont été faites pour des problèmes spatialement périodiques
par Kreiss et Oliger (1972) (qui l’ont appelée la méthode de Fourier) et Orszag (1972)
(qui l’a appelé pseudo-spectral). Cette approche est particulièrement intéressante
en raison de la facilité avec laquelle elle peut être appliquée à des problèmes à
coefficients variables et même non linéaires.
L’approche de Galerkin possède la caractéristique esthétique que les fonctions
d’essai et les fonctions de test sont les mêmes et que la discrétisation est dérivée d’une
forme faible du problème mathématique. Les méthodes d’éléments finis utilisent ha-
bituellement cette approche. De plus, la première application sérieuse des méthodes
spectrales aux EDP - celle de Silberman (1954) pour la modélisation météorologique
- était une méthode de Galerkin. Orszag (1969, 1970) et Eliasen, Machenhauer et
Rasmussen (1970) ont développé des méthodes de transformation pour évaluer les
sommes de convolution résultant des non linéarités quadratiques (les termes non
linéaires augmentent également le coût des méthodes des éléments finis, mais pas
autant que pour les méthodes spectrales de Galerkin.) Pour les problèmes conte-
nant des termes non linéaires plus compliqués, les méthodes spectrales de Galerkin
à haute résolution restent peu pratiques.
L’approche tau est une modification de la méthode de Galerkin applicable aux
problèmes avec conditions aux limites non périodiques. Elle peut être considérée
comme un cas particulier de la méthode dite de Petrov-Galerkin. Lanczos (1938)
a développé la méthode spectrale tau, et l’application de la méthode Chebyshev -
tau par Orszag (1971) pour produire des solutions très précises aux problèmes de
stabilité linéaire de la dynamique des fluides a inspirée une utilisation considérable
de cette technique pour le calcule des valeurs propres.
Au milieu des années 1980, de nouvelles méthodes spectrales, combinant l’ap-
proche de Galerkin avec des formules de quadrature gaussiennes, sont devenues
87
courantes. Ces méthodes partagent avec l’approche de Galerkin l’application faible
de l’équation différentielle et de certaines conditions aux limites. Dans leur version
originale, les inconnues sont les valeurs de la solution aux points de quadrature,
comme dans une méthode de collocation.
La première évaluation mathématique unificatrice de la théorie des méthodes
spectrales a été fournie dans la monographie de Gottlieb et Orszag (1977). La théorie
a été étendue pour couvrir une grande variété de problèmes, tels que le coefficient
variable et les équations non linéaires. Dans sa monographie, Mercier (1981) a avancé
la compréhension du rôle des points de quadrature gaussiens pour les polynômes
orthogonaux en tant que points de collocation pour les méthodes spectrales, comme
cela avait été observé en 1979 par Gottlieb. Des analyses de stabilité et de convergence
pour les méthodes spectrales ont été produites pour diverses approches. L’analyse
théorique des méthodes spectrales en termes de formulations faibles s’est révélée
très fructueuse. En fait, cela a ouvert la porte à l’utilisation de techniques d’analyse
fonctionnelle pour traiter des problèmes complexes et obtenir les meilleurs résultats.
Les développements des applications ont été tout aussi étendus, et à la fin des
années 1980, les méthodes spectrales étaient devenues l’outil numérique prédominant
pour les études de physique fondamentale de la transition et de la turbulence. Dans
l’ensemble, les 10 années qui ont suivi ont été extrêmement fructueuses pour le
développement théorique et le déploiement d’applications de méthodes spectrales.
Les développements des cinq premières années qui ont suivi Gottlieb et Orszag
(1977) ont été examinés dans les actes du symposium édités par Voigt, Gottlieb et
Hussaini (1984). En effet, ce même colloque en 1982 a inspiré les incarnations ju-
véniles des auteurs actuels pour produire leur premier texte sur ce sujet (Canuto,
Hussaini, Quarteroni et Zang (1988)). Par la suite, de nombreux autres textes et ar-
ticles de revue sur divers aspects des méthodes spectrales sont apparus. Boyd (1989,
et en particulier la deuxième édition de 2001) contient une mine de détails et de
conseils sur les algorithmes spectraux et est une référence particulièrement bonne
pour les problèmes sur les domaines non bornés et dans les systèmes de coordonnées
cylindriques et sphériques. Une référence solide pour les aspects théoriques des mé-
thodes spectrales pour les équations elliptiques a été fournie par Bernardi et Maday
(1992, 1997). Funaro (1992) et Guo (1998) ont discuté de l’approximation des équa-
tions différentielles par des expansions polynomiales. Fornberg (1996) est un guide
pour l’application pratique des méthodes de collocation spectrale, et il contient des
exemples illustratifs, des explications heuristiques, des segments de code Fortran de
base et un chapitre succinct sur les applications aux flux turbulents et aux prévi-
sions météorologiques. Trefethen (2000) est une introduction vivante aux méthodes
de collocation spectrale et inclut de nombreux exemples dans Matlab. Tadmor (1998)
et Gottlieb et Hesthaven (2001) pour les problèmes hyperboliques de premier ordre,
Cohen (2002) pour les équations d’onde, et Bernardi, Dauge et Maday (1999) ont
fourni des applications ciblées des méthodes spectrales sur des classes particulières
de problèmes. pour des problèmes dans les domaines axisymétriques. Peyret (2002)
a fourni une discussion assez complète des méthodes spectrales de Fourier et de
Chebyshev pour la résolution des équations de Navier-Stokes incompressibles, en
particulier dans les équations primitives et les formulations de tourbillon-flux.
À la fin des années 1980, les méthodes spectrales classiques étaient raisonnable-
ment matures et l’accent sur la recherche s’était clairement orienté vers l’utilisation
de méthodes de haut niveau pour les problèmes sur des domaines complexes. Funaro
(1997) traite les méthodes d’élasticité spectrale dans le contexte de problèmes de
88
valeurs limites elliptiques, en particulier les écoulements dominés par la convection,
et inclut un traitement multidomaine pour la géométrie complexe. Les premiers
textes complets sur les méthodes spectrales dans les domaines complexes sont appa-
rus vers l’an 2000. Karniadakis et Sherwin (1999) fournissent un cadre unifié pour
les méthodes d’éléments spectraux (introduites par Patera (1984)) et les méthodes
d’éléments finis hp (voir par exemple, Babuska, Szabo et Katz (1981)). Il comprend
des domaines structurés et non structurés, ainsi que des applications à la fois pour les
flux incompressibles et compressibles. Le texte de Deville, Fischer et Mund (2002)
se concentre sur les méthodes d’ordre supérieur dans l’espace physique (collocation
et méthodes d’éléments spectraux) avec des applications à des écoulements incom-
pressibles. Sa couverture des détails de mise en œuvre de ces méthodes sur les ordi-
nateurs vectoriels et parallèles le distingue des autres livres sur le sujet. Bien qu’il
soit spécifiquement consacré à la version hp des méthodes d’éléments finis, le livre
de Schwab (1998) fournit de nombreux résultats théoriques utiles sur les propriétés
d’approximation des polynômes d’ordre élevé dans des domaines complexes.
89
Notations
TS Techniques spectrale.
PN , PN Opérateurs de projection.
RN Fonction résiduelle.
90
uN (x) Approximation spectrale.
H Espace de Hilbert.
Ω Domaine borné de Rn .
∂Ω Frontière de Ω.
B Opérateur de trace.
δp Espace spectral.
=h Espace physique.
M Opérateurs d H dans H.
M∗ L’adjoint de l’opérateur M.
91
Annexe
La méthode des éléments finis (MEF, ou FEM pour finite element method en
anglais) est utilisée pour résoudre numériquement des équations aux dérivées par-
tielles. Celles-ci peuvent par exemple représenter analytiquement le comportement
dynamique de certains systèmes physiques (mécaniques, thermodynamiques, acous-
tiques, etc.).
Concrètement, cela permet par exemple de calculer numériquement le compor-
tement d’objets même très complexes, à condition qu’ils soient continus et décrits
par une équation aux dérivées partielles linéaire : mouvement d’une corde secouée
par l’un de ses bouts, comportement d’un fluide arrivant à grande vitesse sur un
obstacle, déformation d’une structure métallique, etc.
La méthode des volumes finis est utilisée pour résoudre numériquement des équa-
tions aux dérivées partielles, comme la méthode des différences finies et celle des
éléments finis.
Contrairement à la méthode des différences finies qui met en jeu des approxi-
mations des dérivées, les méthodes des volumes finis et des éléments finis exploitent
des approximations d’intégrales. Toutefois, la méthode des volumes finis se base di-
rectement sur la forme dite forte de l’équation à résoudre, alors que la méthode des
éléments finis se fonde sur une formulation variationnelle de l’équation (on parle
aussi de formulation faible).
L’équation aux dérivées partielles est résolue de manière approchée à l’aide d’un
maillage constitué de volumes finis qui sont des petits volumes disjoints (en 3D, des
surfaces en 2D, des segments en 1D) dont la réunion constitue le domaine d’étude.
92
Les volumes finis peuvent être construits autour de points d’un maillage initial, mais
ce n’est pas une nécessité.
Les méthodes de volumes finis ont été initialement mises au point pour des lois de
conservation hyperboliques, mais des développements récents permettent à présent
de les utiliser pour des équations elliptiques et paraboliques.
Ces équations aux dérivées partielles contiennent des termes de divergence. En
utilisant le théorème de flux-divergence, les intégrales de volume d’un terme de
divergence sont transformées en intégrales de surface et ces termes de flux sont
ensuite évalués aux interfaces entre les volumes finis. On utilise une fonction de
flux numérique pour élaborer une approximation des flux aux interfaces. Puisque le
flux entrant dans un volume donné est égal au flux sortant du volume adjacent, ces
méthodes sont conservatives, donc parfaitement adaptées à la résolution de lois de
conservation.
Un autre avantage de la méthode des volumes finis est qu’elle est facilement
utilisable avec des maillages non structurés car, en matière de discrétisation des lois
de conservation, sa formulation ne tient aucun compte de la complexité du maillage.
En revanche, les caractéristiques géométriques du maillage peuvent jouer un rôle
prépondérant lorsque des flux diffusifs entrent en jeu.
Formule de Leibniz
Les deux relations de récurrence décrites dans [le paragraphe Relation de récur-
rence entre les Tn dans le premier chapitre] vont permettre de calculer les coefficients
du développement X
F (u) = bn Tn (x),
n∈N
93
∞
b[1]
X
xu(x) = n Tn (x).
n=0
On se sert de la relation
On en déduit
∞
X ∞
X
2xu(x) = cn−1 an−1 Tn (x) + dn an+1 Tn (x)
n=0 n=0
X∞
= (cn−1 an−1 + an+1 )Tn (x).
n=0
4b[2]
n = cn−2 an−2 (cn + cn−1 )an + an+2 . (4.9.10)
∞
u0 (x) = a(1)
X
n Tn (x).
n=0
On se sert de la relation
0
Tn+1 T0
cn − dn−2 n−1 = 2Tn (x) n ∈ N,
n+1 n−1
94
dont la combinaison avec les a(1)
n donne
∞ 0 ∞ 0 ∞
Tn+1 (x) X Tn−1 (x)
cn a(1) dn−2 a(1) a(1)
X X
n − n = 2 n Tn (x).
n=0 n+1 n=0 n − 1 n=0
On en déduit
∞ ∞
Tn0 (x) X
(1)
0
(1) T (x)
2u0 (x) = dn−1 an+1 n
X
cn−1 an−1 −
n=1 n n=0 n
∞ 0
(1) (1) T (x)
[cn−1 an−1 − an+1 ] n .
X
=
n=1 n
n=1
(1) (1)
2nan = cn−1 an−1 − an+1 n∈N (4.9.11)
(1)
cn a(1)
n = 2(n + 1)an+1 + an+2
(1)
= 2(n + 1)an+1 + 2(n + 3)an+3 an+5
= ...
∞
X
= 2 pap ,
p=n+1
step 2
puis avec u0 et u
∞
a(1)
X
m = 2 pap m ≥ 1.
p=m+1
step 2
95
On a donc en regroupant ces égalités
∞ ∞
2 X
a(2)
X
n = mpap .
cn m=n+1 p=m+1
step 2 step 2
96
Or cn−1 cn−2 = cn−2 et cn peut être omis car n ≥ 2.
Donc
cn−2 (2) 1 (2) 1 (2)
an = an−2 − a + a . (4.9.14)
4n(n − 1) 2(n2 − 1) n
4n(n + 1) n+2
Soit ∞
X
u(x) = an Tn (x).
n=0
n=0
∞
n2 an .
X
=
n=0
•
∞
u0 (−1) = an Tn0 (−1)
X
n=0
∞
(−1)n−1 n2 an .
X
=
n=0
97
Algorithmes
Divers.
1 function [ Scal ] = Produit ( f , g )
2
3 % input : f, g : Deux fonctions sous forme symbolique.
4 % output : Scal : Variable réelle represente le produit scalire de f et g, définit par une intégrale sur
[-1,1].
5
6 syms x
7 S c a l = i n t ( f ∗g , x , − 1 , 1 ) ;
8 end
1 f u n c t i o n [ N ] = NormeL2 ( f , a , b )
2
3 format s h o r t
4 N= e v a l ( s q r t ( i n t ( f ^ 2 , a , b ) ) ) ;
5
6 end
1 f u n c t i o n [ T ] = Chebychev2 ( i , j )
2 % input : i, j : Pour la construiction d’un polynôme de Chebychev d’ordre N=i+j.
3 %output : P : un polyôme, sous forme symbolique, construit par un produit.
4
5 syms x y
6
7 T = s i m p l i f y ( cos ( i ∗( acos ( x ) ) ) ∗ cos ( j ∗( acos ( y ) ) ) ) ;
8
9 end
98
1 function [ P ] = Legendre1 ( n )
2 % input : n : Pour construire un polynôme d’ordre N=n.
3 %output : P : Un polyôme, sous forme symbolique,
4 %construit par la formule de Rodrigues.
5
6 syms x
7
8 P = s i m p l i f y ( 1 / ( 2 ^ ( n ) ∗ f a c t o r i a l ( n ) ) ∗ ( d i f f ( ( x ^2 −1)^n , x , n ) ) ) ;
9
10 end
1 function P = Legendre_Reccurence ( i , j )
2 %input : i,j : Indices, forment l’ordre N du polynôme, tq N=i+j.
3 %output : p : un polynôme sous forme symbolique, construit par une relation de rècuurence entre
les polynômes.
4 % left := P(i,j-1), rigth := P(i,j+1), top := P(i-1,j), low :=P(i+1,j), P := P(i,j) ;
5
6 syms x y
7 l e f t = 0;
8 top = 0;
9
10 i f ( i ==0 && j ==0)
11 P = sym ( 1 ) ;
12 else
13 if ( i ==−1 | | j ==−1) t h e n
14 P = 0;
15 else
16 P = 1;
17
18 for l = 0: i −1
19 right = ( 2 ∗ l + 1 ) / ( l +1)∗ x∗P − ( l ) / ( l +1)∗ l e f t ;
20 left = P;
21 P = right ;
22 end
23
24 f o r k = 0 : j −1
25 low = ( 2 ∗ k + 1 ) / ( k +1)∗ y∗ P − ( k ) / ( k +1)∗ t o p ;
26 top = P ;
27 P = low ;
28 end
29 end
30 end
31 end
1 function [ P ] = Legendre_Rodrigues ( i , j )
2 % input : i, j : Pour la construction d’un polynôme d’ordre N=i+j.
3 %output : P : Un polyôme bi-variables, sous forme symbolique, construit par la formule de Rodrigues.
4
5 syms x y
6
7 P= s i m p l i f y ( 1 / ( 2 ^ ( i + j ) ∗ ( f a c t o r i a l ( i ) ∗ f a c t o r i a l ( j ) ) )
8
9 ∗ ( d i f f ( ( x ^2 −1)^ i , x , i ) ) ∗ ( d i f f ( ( y ^2 −1)^ j , y , j ) ) ) ;
10
11 end
Différenciation.
1 f u n c t i o n [ D i r v 1 ] = D i f f e r e n t i a t i o n (N)
2
3 % input : L’ordre du polynôme de Legendre a dèrivè.
4 % output : La dèrivèe première.
5
6 %clear
7 %clc
8 D1 = [ ] ;
99
9
10 syms v00 v01 v02 v10 v11 v12 v20 v21 v22
11
12 %Création d’un vecteur pour les cefficients spectraux
13
14 %V=transpose(sym(’v’,[N N])) ;
15 V= [ v00 v01 v02 ; v10 v11 v12 ; v20 v21 v22 ] ;
16
17
18 %Calcule des coefficients D1 de la première dérivée par rapport a la variable x ou bien par rapport
a la variable y
19
20 f o r i = 0 :N
21 S=0;
22
23 f o r p= i + 1 :N
24 i f ( mod ( p+ i , 2 ) ~ = 0 )
25 S=S+V( p , 1 ) ;
26 end
27
28 end
29 D1= [D1 ( 2 ∗ i +1)∗ S ] ;
30 end
31
32 L=[];
33 f o r i = 1 :N+1
34 f o r j = 1 :N+1
35 L= [L R o d r i g u e s ( i −1, j − 1 ) ] ;
36 end
37 end
38
39 Dirv1 =0;
40 f o r i = 1 :N
41 D i r v 1 = D i r v 1 + D1 ( i ) ∗ L ( i ) ;
42 end
43 Dirv1= s i m p l i f y ( Dirv1 ) ;
Approximation fonctionnelle.
1 f u n c t i o n [ E , f_N ] = A p p r o x i m a t i o n _ L e g e n d r e ( f , N )
2
3 % input : f : Fonction a deux variables symboliques x et y (la fonction a approximé).
4 % : N : l’ordre du developpement en série de Legendre.
5
6 % output : fN : l’approximant d’ordre N de la fonction f.
7 % : Erreur : une variable réelle, mesure la diférence entre la fonction f et leur approximation fN .
8
9 syms x y
10 f_N = 0 ;
11
12 i f mod (N, 2 ) = = 0
13 K= f l o o r (N / 2 ) ;
14 else
15 K= f l o o r (N / 2 ) + 1 ;
16 end
17
18
19 f o r i = 0 :K
20 f o r j = 0 : f l o o r (N / 2 )
21 f_N=f_N+ R o d r i g u e s ( 0 , j ) ∗ R o d r i g u e s ( i , 0 ) ∗ ( ( 2 ∗ i + 1 ) / 2 ∗ ( 2 ∗ j + 1 ) / 2 )
22 ∗ Prod_Scal2 ( f , Rodrigues ( 0 , j )∗ Rodrigues ( i ,0 ) ) ;
23
24 %Ici on a divisé le polynôme (i, j) sur la constante de normalisation ((2∗i+1)/2∗(2∗j+1)/2),
pour avoir une base orthonormale.
25
26 end
100
27 end
28
29 E= Norme_Legendre ( f−f_N ) ; %calcul de la norme fonctionnelle 2 de f − fN .
30
31 end
Interface graphique.
1 function varargout = PolyOrthog ( v a r a r g i n )
2 syms x y
3 gui_Singleton = 1;
4 g u i _ S t a t e = s t r u c t ( ’ gui_Name ’ , mfilename , . . .
5 ’ gui_Singleton ’ , gui_Singleton , . . .
6 ’ g u i _ O p e n i n g F c n ’ , @PolyOrthog_OpeningFcn , . . .
7 ’ g u i _ O u t p u t F c n ’ , @PolyOrthog_OutputFcn , . . .
8 ’ gui_LayoutFcn ’ , [ ] , . . .
9 ’ gui_Callback ’ , []);
10 i f n a r g i n && i s c h a r ( v a r a r g i n { 1 } )
11 gui_State . gui_Callback = str2func ( varargin {1});
12 end
13
14 i f nargout
15 [ v a r a r g o u t { 1 : nargout } ] = g u i _ m a i n f c n ( g u i _ S t a t e , v a r a r g i n { : } ) ;
16 else
17 gui_mainfcn ( gui_State , varargin { : } ) ;
18 end
19 function PolyOrthog_OpeningFcn ( hObject , eventdata , handles , v a r a r g i n )
20 handles . output = hObject ;
21
22 g u i d a t a ( hObject , handles ) ;
23
24
25 v a r a r g o u t {1} = h a n d l e s . o u t p u t ;
26
27 function l i s t b o x 1 _ C a l l b a c k ( hObject , eventdata , handles )
28
29 i = str2num ( g e t ( h a n d l e s . e d i t 1 , ’ S t r i n g ’ ) ) ;
30 j = str2num ( g e t ( h a n d l e s . e d i t 2 , ’ S t r i n g ’ ) ) ;
31 X= g e t ( h a n d l e s . l i s t b o x 1 , ’ V a l u e ’ ) ;
32 i f (X== 1 )
33 pn = c h a r ( L e g e n d r e ( i , j ) ) ;
34 s e t ( h a n d l e s . e d i t 3 , ’ S t r i n g ’ , pn ) ;
35 e l s e i f (X==2)
36 pn = c h a r ( Chebychev ( i , j ) ) ;
37 s e t ( h a n d l e s . e d i t 3 , ’ S t r i n g ’ , pn ) ;
38 e l s e i f (X==3)
39 pn = c h a r ( L a g u e r r e ( i , j ) ) ;
40 s e t ( h a n d l e s . e d i t 3 , ’ S t r i n g ’ , pn ) ;
41 e l s e i f (X==4)
42 pn = c h a r ( H e r m i t e ( i , j ) ) ;
43 s e t ( h a n d l e s . e d i t 3 , ’ S t r i n g ’ , pn ) ;
44 end
45
46 function l i s t b o x 1 _ C r e a t e F c n ( hObject , eventdata , handles )
47
48 i f i s p c && i s e q u a l ( g e t ( h O b j e c t , ’ B a c k g r o u n d C o l o r ’ ) , g e t ( 0 , ’ d e f a u l t U i c o n t r o l B a c k g r o u n d C o l o r ’ ) )
49 set ( hObject , ’ BackgroundColor ’ , ’ white ’ ) ;
50 end
51
52 function e d i t 1 _ C a l l b a c k ( hObject , eventdata , handles )
53
54 function e d i t 1 _ C r e a t e F c n ( hObject , eventdata , handles )
55
56 i f i s p c && i s e q u a l ( g e t ( h O b j e c t , ’ B a c k g r o u n d C o l o r ’ ) , g e t ( 0 , ’ d e f a u l t U i c o n t r o l B a c k g r o u n d C o l o r ’ ) )
57 set ( hObject , ’ BackgroundColor ’ , ’ white ’ ) ;
58 end
101
59
60 function e d i t 2 _ C a l l b a c k ( hObject , eventdata , handles )
61
62 function e d i t 2 _ C r e a t e F c n ( hObject , eventdata , handles )
63
64 i f i s p c && i s e q u a l ( g e t ( h O b j e c t , ’ B a c k g r o u n d C o l o r ’ ) , g e t ( 0 , ’ d e f a u l t U i c o n t r o l B a c k g r o u n d C o l o r ’ ) )
65 set ( hObject , ’ BackgroundColor ’ , ’ white ’ ) ;
66 end
67
68 function e d i t 3 _ C a l l b a c k ( hObject , eventdata , handles )
69
70 function e d i t 3 _ C r e a t e F c n ( hObject , eventdata , handles )
71
72 i f i s p c && i s e q u a l ( g e t ( h O b j e c t , ’ B a c k g r o u n d C o l o r ’ ) , g e t ( 0 , ’ d e f a u l t U i c o n t r o l B a c k g r o u n d C o l o r ’ ) )
73 set ( hObject , ’ BackgroundColor ’ , ’ white ’ ) ;
74 end
75
76 function t o g g l e b u t t o n 1 _ C a l l b a c k ( hObject , eventdata , handles )
77 A= ’ ’;
78 s e t ( h a n d l e s . e d i t 3 , ’ S t r i n g ’ ,A ) ;
79 s e t ( h a n d l e s . e d i t 1 , ’ S t r i n g ’ ,A ) ;
80 s e t ( h a n d l e s . e d i t 2 , ’ S t r i n g ’ ,A ) ;
81 % ————————————————————-.
82 function pushbutton3_Callback ( hObject , eventdata , handles )
83 %i= str2num(get(handles.edit1,’String’)) ;
84 j = str2num ( g e t ( h a n d l e s . e d i t 2 , ’ S t r i n g ’ ) ) ;
85 X= g e t ( h a n d l e s . l i s t b o x 1 , ’ V a l u e ’ ) ;
86 i f (X== 1 )
87 P = PlotLeg ( i , j ) ;
88 s e t ( h a n d l e s . axes1 , P ) ;
89 e l s e i f (X==2)
90 P = ChebPlot ( i , j ) ;
91 s e t ( h a n d l e s . axes1 , P ) ;
92 e l s e i f (X==3)
93 P = LaguerPlot ( i , j ) ;
94 s e t ( h a n d l e s . axes1 , P ) ;
95 e l s e i f (X==4)
96 P = HertPlot ( i , j );
97 s e t ( h a n d l e s . axes1 , P ) ;
98
99 end
100 % ————————————————————-
101 function axes1_CreateFcn ( hObject , eventdata , handles )
102
Bibliographie
103
[17] C. Canuto, M. Yousuff Hussaini, Alfio Quarteroni, & Thomas A. Zang, Spectral
Methods in Fluid Dynamics. Springer Series in Computational Physics. Sprin-
ger, 1987.
[18] D.LE Touzé, Méthodes spectrales pour la modélisation non-linéaire d’écoule-
ments a surface libre in-stationnaire, Thèse de Doctorat, Le 20 octobre 2003, à
l’école centrale de Nantes.
[19] D. Funaro, Polynomial approximation of differential equations, Springerverlag,
Berlin (1992).
[20] E. Concalvès, Méthodes, analyse et calculs numérique, Septembre 2005.
[21] E. Goncalvès da Silva, Résolution numérique des équations d’Euler 1D, En-
gineering school. Institut Polytechnique de Grenoble, 2008, pp.59. < cel −
00556980 >
[22] F. Boyer, Analyse numérique des EDP elliptiques, Aix-Marseille universités 19
novembre 2011.
[23] F. Jedrzejewski, Introduction aux méthodes numériques, Deuxième édition, Pa-
ris, 2005.
[24] F. Paulin, Compléments de théorie spectrale et d’analyse harmonique, Cours
de deuxième année de magistère, Année 2012 − 2013.
[25] H. Brezis, Analyse Fonctionnelle, Dunod, Paris, 1999.
[26] J.P. Boyd, Chebyshev and Fourier spectral methods, Lecture notes in enginee-
ring, 49, Springer-verlag, Berlin (1989).
[27] J. Boyd, Chebyshev and Fourier Spectral Methods, Second Edition, University
of Michigan. 2000.
Available online : http ://www-personal.umich.edu/ jpboyd/BOOK Spec-
tral2000.html.
[28] J-C Cuillière, Introduction à la méthode des éléments finis - 2e édition, Dunod,
2016 (ISBN 978-2100742622), chap. 6.5 (« Hypothèse de Galerkine »), p. 104-
112
[29] J. Désidéri, Modèles mathématiques fondamentaux pour la mécanique, no-
vembre 1999.
[30] J. Novak, Introduction aux méthodes spectrales, Laboratoire Univers Théories
(LUTH)CNRS / Observatoire de Paris, France , décembre 2007.
[31] J. Weidmann, Linear Operators in Hilbert Spaces, edition Springer-Verlag,
1976.
[32] J.Lawson, M.Berzins and P.M. Dew, Balancing space and time errors in
the method of lines for parapolic equations, Siam J. Sci. Stat. Comput.,
12(3)(1991)573 − 594.
[33] K.Gustafson, Domain Decomposition, Operator Trigonometry, Robin Condi-
tion, Contemporary Mathematics, 218.432 − 437.(1998).
[34] Kendall E. Atkinson, Han, Weimin, Theoretical numerical analysis : a functio-
nal analysis framework, New York, New York : Springer, 2001(ISBN 978 − 0 −
387 − 95142 − 3, LCCN 00061920).
[35] L.N. Trefethen, Spectral methods in MATLAB, SIAM, Philadelphia (2000).
[36] M. Berzins, Global error estimation in the methods of linse for parabolic equa-
tions, Siam J. Sci. Stat. Comput.19(4)(1988)687 − 701.
104
[37] M. Druon, Modèlisation du mouvement par polynomes orthogonaux : applica-
tion á l’étude d’ćoulements fluides. PhD thesis, Universitè de Poitiers, 2009.
[38] M. Javidi & A. Golbabai Spectral Method for Parabolic Partial Differential
Equations with Newmann Boundary Conditions, Applied Mathematical Sciences,
Vol. 1, 2007, no.5, 211 − 218
[39] M. Javidi, Spectral collocation method for the solution of the generalized Burger-
Fisher equation, Appl. Math. Comput., 174, no.1(2006), 345 − 352.
[40] M. Sapagovas, Hypothesis on the solvability of parabolic equations with nonlocal
conditions, Nonlinear Analysis, Modeling and control,7(1), (2002)93 − 104.
[41] M.T. Darvishi, New algorithms for solving ODEs by pseudospectral method,
Korean J. Comput. and Appl. Math. 7N o.2(2000)319 − 331.
[42] M.T. Darvishi, Preconditioning and domain decomposition scheme to solve
PDEs, International. J. of pure and appl. Math, Vol. 15, N o.4(2004)419 − 439.
[43] M.T. Darvishi, M. Javidi, A numerical solution of Burger’s equation by
pseudospectral method and Darvishi’s preconditioning, Appl. Math. Comput.
173, no.1(2006)421 − 429.
[44] O. Thual, Introduction aux méthodes spectrales, département hydraulique et
mécaniques des fluides (Institue national polytechnique de Toulouse), version
1996.
[45] P. Ciarlet, The Finite Element Method for Elliptic Problems, avril 2002 (ISBN
9780898715149).
[46] P. Le Quéré & B. Podvin, Méthodes numériques pour les écoulements incom-
pressibles, Année 2010.
[47] R. Baltensperger, J.P. Berrut, The errors in calculating the pseudospectral dif-
ferentiation matrices for Chebyshev-Gauss- Lobatto point, Comput. Math. Appl.,
37(1999), 41 − 48.
[48] R. Baltensperger, M.R. Trummer, Spectral differencing with a twist, SIAM J.
of Sci. Comp., 24, no.5(2003), 1465 − 1487.
[49] S. Orszag, Spectral methods for problems in complex geometries, J. Comput.
Phys. 37, 70 − 92, 1980.
[50] S. Orszag, Numerical analysis of spectral methods, NSF-CBMS Monographe
no.26, Soc. Ind. and App1.Math., Philadelphia 1977.
[51] T.R. Hopkins and R.Wait, A comparsion of Galerkin collocation and the method
of linse for PDE’s, Int.J. for numerical methods in Engineering, 12(1978)1081 −
1107.
[52] Iserles.A A First Course in the Numerical Analysis of Differential Equations
2009.
[53] I.Sehili, A.Zerroug and A.Rahmoune, Creation of two-dimensional Legendre ba-
sis and some properties,Asian Journal of Mathematics and Computer Research,
Vol. : 18, Issue. : 3, P ages : 134 − 142.
[54] I.Sehili, A.Zerroug, Bivariate Legendre approximation, International Journal
of Applied Mathematical Research, V ol6, N o4(2017), P ages : 125 − 129.
[55] I.Sehili, A.Zerroug, Two-dimensional Spectral Approximation, Journal of Ap-
plied Computer Science & Mathematics, Issue 2/2017, vol.11, N o.24, Suceava.
105