These Doctorat Spectral PR Ls Edps

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 115

République Algérienne Démocratique et Populaire

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique

UNIVERSITÉ MOHAMED KHIDER, BISKRA


FACULTÉ des SCIENCES EXACTES et des SCIENCES de la NATURE et de la VIE
DÉPARTEMENT DE MATHÉMATIQUES

Thèse présentée en vue de l’obtention du Diplôme de


Doctorat en Mathématiques
Option : Analyse Numérique et Optimisation
Présentée par

Ismahène Sehili

Titre

Méthodes spectrales pour les problèmes aux


limites.
(Méthodes numériques pour la résolution des EDP avec conditions limites).

Soutenue devant le jury composé de :

Zohir Mokhtari Pr Univ.Biskra Président


Abdelhamid Zerroug MCA Univ.Biskra Directeur de thèse
Azedine Rahmoune MCA Univ.BBA Co-directeur de thèse
Abdelbaki Merouani Pr Univ.BBA Examinateur
Khelil Nacer MCA Univ.Biskra Examinateur

2018
On Numerical Resolution of Boundary Value
Problems Using Spectral Methods.

 Creation Of Two-Dimensional Legendre Basis And Some Proper-


ties.
 Bivariate Legendre Approximation.
 Two-dimensional Spectral Approximation.

AM Laboratory, University of Biskra, Algeria.


Abstract. In this work, we introduce a new two-dimensional polynomial basis
for approximating bivariate functions. We start this construction by searching the
eigenvalues of the Legendre differential equation in 2D, then this basis was construc-
ted using a Rodrigues formula.
Efficient numerical results are obtained by the approximation of some bivariate
functions in this basis, and compared by the least squares method with the Cheby-
chev polynomials. We propose, also, a generalization of the spectral Tau method in
dimension 2, this method is generalized by the use of a new two-dimensional poly-
nomial basis constructed by a three terms recurrence relation. We also present an
estimation of error committed by the proposed method.

Key words. Two-dimensional Legendre basis, Rodrigues construction, Recurrence


construction Approximation in 2D, Bi-spectral method, Error Estimation, Stability.

Abstrait. Dans ce travail, nous introduisons une nouvelle base polynomiale bidi-
mensionnelle pour l’approximation des fonctions bivariées. Nous commençons cette
construction en recherchant les valeurs propres de l’équation différentielle de Le-
gendre en 2D, puis cette base a été construite en utilisant une formule de Rodrigues.
Des résultats numériques efficaces sont obtenus par l’approximation de certaines
fonctions bivariées dans cette base, et comparés par la méthode des moindres carrés
avec les polynômes de Chebychev. Nous proposons, aussi, une généralisation de la
méthode spectrale Tau en dimension 2, cette méthode est généralisée par l’utilisa-
tion d’une nouvelle base polynomiale bidimensionnelle construite par une relation
de récurrence à trois termes. Nous présentons également une estimation de l’erreur
commise par la méthode proposée.

Mots clés. Base bidimensionnelle de Legendre, Construction de Rodrigues, Construc-


tion de récurrence, Approximation en 2D, Méthode bi-spectrale, Estimation d’erreur,
Stabilité.
Remerciement

Je tiens tout d’abord à remercier Allah de m’avoir donné la patience pour ac-
complir ce petit travail.
Je voudrais remercier vivement mon promoteur Dr.Abdelhamid ZERROUG
pour avoir accepté de diriger ce travail, pour sa gentillesse, sa bonne volonté, sa dis-
ponibilité et sa patience ainsi ces orientations et ces guidances avisés et son soutient
indéfectible durant la préparation de ce travail, dès le début de sa confiance à mon
égard et à mon travail m’a donnée une énergie et une inspiration de soulever toutes
les difficultés.
J’adresse mes remerciements les plus sincères à mon co-encadreur Dr.Azedine
RAHMOUNE pour les conseils qu’il m’a prodigué durant mon parcourt universi-
taire et le temps précieux qu’il m’a consacré durant ce travail.
J’adresse mes sincères remerciements à monsieur Pr.Zohir MOKHTARI, qui
m’a fait l’honneur d’accepter de présider ce jury.
Je remercie chaleureusement, monsieur Pr.Abdelbaki MEROUANI, et Dr.Khelil
NACER de m’avoir fait l’honneur d’accepter de faire partie de ce jury.
Mes remerciements vont à tous ceux qui ont contribué à la réalisation de ce travail
et plus particulièrement à monsieur Naziheddine BELKACEM et monsieur Adel
ABESS.
Merci à toutes les personnes qui sont venues assister à ma soutenance.
Dédicace

À mon papa, mon marie Diddine


et mon frère Ach.
À mes sœurs Loulou, Assoum
et Minou.
À l’âme de ma mère . . .
À ma petite Rahaf :)
Je dédie ce travail
Table des matières

1 Préliminaires 5
1.1 Généralités sur les équations aux dérivées partielles . . . . . . . . . . 5
1.1.1 Exemples d’équations aux dérivées partielles . . . . . . . . . . 8
1.1.2 Conditions de Dirichlet, de Neumann et de Robin . . . . . . . 10
1.1.3 Modélisation, discrétisation et simulation numérique . . . . . 12
1.1.4 Consistance, convergence et stabilité . . . . . . . . . . . . . . 13
1.1.5 Notion de stabilité . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Exemples de fonctions de base . . . . . . . . . . . . . . . . . . . . . . 14
1.2.1 Polynômes orthogonaux de Chebychev . . . . . . . . . . . . . 15
1.2.2 Polynômes de Legendre . . . . . . . . . . . . . . . . . . . . . . 20
1.2.3 Polynômes de Laguerre . . . . . . . . . . . . . . . . . . . . . . 21
1.2.4 Polynômes de Hermite . . . . . . . . . . . . . . . . . . . . . . 22
1.3 Fondements des méthodes spectrales . . . . . . . . . . . . . . . . . . 23
1.3.1 Pourquoi les méthodes spectrales ? . . . . . . . . . . . . . . . 26
1.3.2 Décomposition spectrale . . . . . . . . . . . . . . . . . . . . . 26
1.3.3 Choix des fonctions de base . . . . . . . . . . . . . . . . . . . 28
1.3.4 Les deux royaumes . . . . . . . . . . . . . . . . . . . . . . . . 30
1.3.5 La non-linéarité . . . . . . . . . . . . . . . . . . . . . . . . . . 30

2 Méthodes spectrales de base 32


2.1 Méthode de Galerkin . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Méthode Tau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3 Méthode de collocation . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.4 Méthode Tau-Collocation . . . . . . . . . . . . . . . . . . . . . . . . . 44

3 Exemples des méthodes spectrales 47


3.1 Méthode de Fourier-Galerkin pour l’équation d’onde . . . . . . . . . . 47
3.1.1 Stabilité et convergence . . . . . . . . . . . . . . . . . . . . . 50
3.2 Méthode de collocation Chebychev pour l’équation de la chaleur . . . 51
3.2.1 Stabilité et convergence . . . . . . . . . . . . . . . . . . . . . 55

II
3.3 Méthode de Tau-Legendre pour l’équation de Poison . . . . . . . . . 58
3.4 Méthode spectrale de collocation pour les (EDP) paraboliques avec
des conditions aux limites de Neumann . . . . . . . . . . . . . . . . . 61
3.4.1 Méthode pseudo-spectrale de Chebychev . . . . . . . . . . . . 61
3.4.2 Résolution d’une équation parabolique . . . . . . . . . . . . . 63
3.4.3 Résultats numériques . . . . . . . . . . . . . . . . . . . . . . . 65

4 Base bidimensionnelle de Legendre et Approximation 67


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2 Première construction . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.3 Construction de Rodrigues . . . . . . . . . . . . . . . . . . . . . . . . 71
4.4 Construction récursive . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.5 Formules de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.6 Orthogonalité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.7 Différenciation d’un développement bidimensionnel de Legendre . . . 77
4.8 Exemples illustratifs . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.9 Approximation de Tau-Legendre . . . . . . . . . . . . . . . . . . . . . 81
4.9.1 Contexte théorique . . . . . . . . . . . . . . . . . . . . . . . . 81
4.9.2 Estimation d’erreur . . . . . . . . . . . . . . . . . . . . . . . . 82

Bibliographie 103

III
Table des figures

1.1 Consistance, Convergence et Stabilité . . . . . . . . . . . . . . . . . . 13


1.2 Premiers polynômes de Chebychev pair de la première espèce . . . . . 16
1.3 Premiers polynômes de Chebychev impair de la première espèce . . . 16
1.4 La suite cn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5 La suite dn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6 Premiers polynômes de Chebychev pair de la second espèce. . . . . . 18
1.7 Premiers polynômes de Chebychev impair de la second espèce. . . . . 19
1.8 Premiers polynômes de Legendre pair . . . . . . . . . . . . . . . . . . 20
1.9 Premiers polynômes de Legendre impair . . . . . . . . . . . . . . . . 21
1.10 (solide) Solution exacte, (cercles) approximation à trois coefficients. . 28
1.11 u − u2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.12 Approximation de la solution du problème (1.3.6), (1.3.7) . . . . . . . 28
1.13 Comparaison de solutions exacte et approximative (équation de dif-
fusion non linéaire). . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.1 Segment de droite Dk dans le carré ϕ et la droite Dk . . . . . . . . . . 36


2.2 Projection de collocation d’une fonction ν ∈ H. . . . . . . . . . . . . 42
2.3 Calcul des bk connaissant les bK . . . . . . . . . . . . . . . . . . . . . . 43

3.1 Erreurs maximales pour le problème hyperbolique linéaire à t = 2π pour


le schéma Fourier-Galerkin et plusieurs schémas des différences finie. . . . 50
3.2 Solutions numériques pour le problème hyperbolique linéaire à t = 2π
pour N = 16 par la méthode de Fourier Galerkin et plusieurs schémas
des différences finie. . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3 Erreurs maximales pour le problème de l’équation de la chaleur à t = 1
pour la collocation de Chebyshev et plusieurs schémas de différence finie.
Le résultat de la troncature de Chebyshev est montré pour comparaison. . 55
3.4 Erreurs maximales pour le problème de Poisson avec la méthode de Tau-
Legendre et un schéma de différence finies du second ordre. . . . . . . . . 60

4.1 P0,1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.2 P0,2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

IV
4.3 P0,3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.4 P1,0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.5 P1,1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.6 P1,2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.7 P1,3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.8 P2,0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.9 P2,1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.10 P2,2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.11 P2,3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.12 P3,0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.13 P3,1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.14 P3,2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.15 P3,3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.16 Premiers polynômes bidimensionnels de Legendre . . . . . . . . . . . 74
4.17 Approx avec N = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.18 Approx avec N = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.19 Approx avec N = 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.20 Approx avec N = 2, N = 3 et N = 4 . . . . . . . . . . . . . . . . . . 80
4.21 f (x, y) = y ex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.22 Approx avec N = 12 . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.23 f (x, y) = y 2 ex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.24 Approx avec N = 11 . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.25 f (x, y) = xy cos(y) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.26 Approx avec N = 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.27 f (x, y) = y ex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.28 Approx avec N = 11 . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.29 f (x, y) = exp(x + y) . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.30 Approx avec N = 23 . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

V
Liste des tableaux

1.1 Choix des fonctions de base. . . . . . . . . . . . . . . . . . . . . . . . 29

2.1 Domaines d’application des méthodes spectrales. . . . . . . . . . . . . . 45


2.2 Essai de classification du choix de la méthode pour des applications pratiques. 46
2.3 Fonctions de bases usuelles. . . . . . . . . . . . . . . . . . . . . . . . . 46

3.1 Erreur absolue pour différentes valeurs de x et t, PB(1). . . . . . . . . 66


3.2 Erreur absolue pour différentes valeurs de x et t, PB(2). . . . . . . . . 66
3.3 Erreur absolue pour différentes valeurs de x et t, PB(3). . . . . . . . . 66

4.1 Premiers polynômes de Legendre bidimensionnels . . . . . . . . . . . 71


4.2 Erreur d’approximation absolue et relative. . . . . . . . . . . . . . . . 78
4.3 Erreur d’approximation quadratique. . . . . . . . . . . . . . . . . . . 79

VI
Introduction générale

Très peu d’équations différentielles sont solutionnées analytiquement. De plus


chaque type d’équations requit une méthode particulière de résolution. Par-suite, la
résolution de la plupart de ces équations nécessite l’utilisation de méthodes numé-
riques. Un aspect très intéressant de ces méthodes est que chacune d’elles peut-être
appliquée à la résolution d’un très grand nombre d’équations différentielles.
Les méthodes numériques de résolution des équations différentielles jouent un rôle
très important dans plusieurs domaines scientifiques. Avec l’avantage des machines
de computation numérique, notamment les ordinateurs, ces méthodes sont devenues
aujourd’hui un outil essentiel pour résoudre les différent problèmes fondamentaux
de notre assimilation des phénomènes scientifiques qui était difficiles a résoudre dans
le passé.
Comme un outil pour les calculs à grande échelle en dynamique des fluides, les
méthodes spectrales ont été initialement proposées en 1944 par Blinova, d’abord
mis en œuvre en 1954 par Silberman, pratiquement abandonné au milieu des années
1960, ressuscité en 1969−70 par Orszag et par Eliason, Machenhauer et Rasmussen,
développé pour des applications spécialisées dans les années 1970, doté des premières
fondements mathématiques par les travaux séminaux de Gottlieb et Orszag en 1977,
élargi à une classe plus large de problèmes dans les années 1980, et est entré dans
le courant dominant du calcul scientifique en 1990.
Les promoteurs originaux des méthodes spectrales étaient des météorologues qui
étudiaient la modélisation météorologique mondiale et des dynamistes des fluides
qui étudient la turbulence isotrope. Les convertis qui ont été inspirés par les succès
de ces pionniers sont restés, pour la plupart, confinés à ces domaines et étroitement
liés tout au long des années 1970. Au cours de cette décennie, les méthodes spec-
trales semblaient bien adaptées uniquement aux problèmes régis par des équations
différentielles ordinaires ou par des équations aux dérivées partielles avec des condi-
tions aux limites périodiques. Et, bien sûr, la solution elle-même devait être lisse.
La théorie et les algorithmes des méthodes spectrales classiques (domaine unique)
pour les problèmes lisses étaient déjà raisonnablement matures au milieu des années
1980. Du point de vue théorique, les résultats de la théorie d’approximation étaient
disponibles pour des problèmes périodiques et non périodiques, des analyses de sta-
bilité et de convergence étaient disponibles pour des problèmes linéaires stables et
instationnaires, et des analyses numériques détaillées avaient été produites pour di-
verses applications de dynamique des fluides, et en particulier pour les équations de
Navier-Stokes incompressibles.
Les progrès singuliers ont en effet été réalisés au cours des deux dernières décen-
nies dans l’extension des méthodes spectrales à des géométries arbitraires, permet-
tant ce que certains considéreraient comme le nirvana mathématique d’une méthode

1
d’ordre arbitrairement élevé pouvant s’appliquer à des problèmes de géométrie arbi-
traire. À cet égard, la trajectoire des méthodes spectrales au cours des 20 dernières
années converge vers celle des méthodes d’éléments finis hp.
Ce processus de migration des méthodes spectrales mono-domaine vers multi-
domaines a nécessité l’injection de nouveaux outils mathématiques et stimulé les
directions d’investigation originales. Les mathématiques ont eu un impact profond
sur la conception et l’interprétation correctes des méthodes, et dans certains cas,
elles ont inspiré le développement de méthodes spectrales discontinues (telles que la
méthode discontinue de Galerkin) même pour des problèmes continues.
L’un des changements les plus prononcés est que la forme forte des équations
différentielles a perdu sa primauté en tant qu’ancre de la discrétisation du problème.
Les méthodes spectrales multi-domaines sont abordées plus facilement et de manière
fiable, à la fois algorithmiquement et théoriquement, à partir de formulations faibles
des équations différentielles. De plus, l’utilisation de nombreux sous-domaines a
motivé l’utilisation de degrés polynomiaux modérés dans chaque sous-domaine -
petits du point de vue des méthodes spectrales classiques, mais larges du point de
vue des méthodes des différences finies et des éléments finis. D’un point de vue
théorique, de nouvelles estimations d’erreur ont été établies pour lesquelles les rôles
du degré polynomial local et la taille géométrique des éléments locaux sont tous
deux capturés. D’un point de vue algorithmique, le rôle des matrices a été étudié en
détail.
Malgré ce changement de perspective majeur, les nouvelles méthodes spectrales
multidomaines conservent certaines des caractéristiques (les plus souhaitables) des
méthodes spectrales classiques - formules d’intégration gaussiennes, la dispersion
faible et la facilité de pré-conditionnement par des matrices de discrétisation d’ordre
bas.
Au cours des vingt dernières années, l’attrait des méthodes spectrales pour des
applications telles que la dynamique des fluides computationnelle s’est développé, à
la mesure de l’érosion de la plupart des obstacles à leur application plus large. Au-
delà des techniques spécifiques, la culture des méthodes de haut niveau est entrée
dans la connaissance de base des analystes numériques. Les méthodes spectrales ont
été traditionnelles dans l’enseignement académique depuis les années 1990 et ont
commencé à pénétrer les applications industrielles cette décennie. En effet, les mé-
thodes spectrales sont aujourd’hui utilisées avec succès pour des applications très
diverses, telles que la propagation des ondes (acoustiques, élastiques, sismiques et
électromagnétiques), l’analyse solide et structurale, l’ingénierie marine, la biomé-
canique, l’astrophysique et même l’ingénierie financière. Dans l’environnement in-
dustriel (extra-académique), les codes spectraux sont appréciés, et souvent préférés,
en raison des faibles erreurs de dissipation et de dispersion, de la manière soignée
de traiter les conditions aux limites et, aujourd’hui, de la disponibilité de solveurs
algébriques efficaces. un compromis favorable entre précision et coût de calcul.
Le but de ce travail est d’insister sur la pluridisciplinarité des méthodes rencon-
trées que l’on peut regrouper selon quatre axes :
 La modélisation mathématique, essentiellement la modélisation d’un pro-
blème de la physiques, la mécanique des fluides, . . . , sous forme d’une équa-
tion différentielle.
 La théorie mathématique, essentiellement l’analyse fonctionnelle des équa-
tions différentielles qui permet d’analyser le problème et d’exhiber des mé-

2
thodes efficaces d’approximation.
 L’analyse numérique, qui étudie ces méthodes, principalement dans le cadre
des mathématiques discrètes (approximation des quantités qui se présentent
sous le signe de différentiation via une décomposition spectrale, puis l’ap-
proximation numériques des systèmes différentielles.
 La programmation sur machine, qui retranscrit ses méthodes sous forme d’al-
gorithmes efficaces.
Suivant ces axes normaux, ce travail est partagé en cinq parties
Chapitre 1 : Un petit rappel sur les équations différentielles aux dérivées par-
tielles. Ce chapitre est une introduction à la terminologie et à la classification des
équations différentielles aux dérivées partielles, qui a pour objectif, de familiariser le
lecteur de cette thèse avec le concept d’équation différentielles aux dérivées partielles.
Ainsi, nous y exposons certains modèles typiques pour voir où de telles équations
sont issues. il est destiné aussi à fournir les outils de base nécessaire à la recherche
sur les méthodes de résolution approchée.
Le deuxième chapitre fixe le cadre théorique de notre étude, représentant une
introduction générale aux méthodes spectrales, notamment on verra l’aspect d’une
méthode spectrale. Nous y discutons notamment les avantages de ces méthodes par-
rapport aux autres méthodes, les inconvénients, le principe général des méthodes
spectrales, les méthodes spectrales et pseudo-spectrales, . . .
Dans le troisième chapitre, on décrit quelques méthodes spectrales (la méthodes
de Galerkin et la méthode de Lanczos) et d’autres méthodes qu’on appelle les mé-
thodes pseudo-spectrales (la méthode de collocation et de Tau-collocation). Ces
techniques sont couramment utilisées pour la résolution d’un large éventail d’équa-
tions aux dérivées partielles. On essaye d’exposer à la fois la formulation intrinsèque
de ces méthodes et leur application pratique à l’aide d’exemples.
Le quatrième chapitre traite l’application de certaines méthodes pour la résolu-
tion numérique des équations aux dérivées partielles, dans lequel nous illustrons la
validation de ces méthodes par des exemples instructifs. Ainsi, une nouvelle méthode
pour la résolution numérique des EDP paraboliques avec des conditions aux limites
de Neumann, en utilisant une formule de collocation pour le calcul d’une matrice
de différenciation dans les points de Chebychev-Gauss-Lobatto. Les résultats numé-
riques obtenus par cette technique sont comparées avec la solution exacte pour voir
l’efficacité de cette méthode.
Dans le dernier chapitre, nous introduisons une nouvelle base polynomiale bidi-
mensionnelle pour l’approximation des fonctions bivariées. Nous commençons cette
construction en recherchant les valeurs propres de l’équation différentielle de Le-
gendre en 2D, puis cette base a été construite en utilisant une formule de Rodrigues.
Des résultats numériques efficaces sont obtenus par l’approximation de certaines
fonctions bivariées dans cette base, et comparés par la méthode des moindres car-
rés avec les polynômes de Chebychev. ce travail est publié sous le titre "Creation of
two-dimensional Legendre basis and some properties" [Asian Journal of Mathematics
and Computer Research].
Un autre article publié a la revue [Journal of Applied Computer Science & Ma-
thematics], intitulé par "Two-dimensional Spectral Approximation", Nous présentons
dans cet article une étude théorique de la stabilité et une estimation de l’erreur de
la méthode spectrale polynômiale Tau dans la base bidimensionnelle construite.
On a aussi proposé une nouvelle formule pour la construction de la base bidi-

3
mensionnelle de Legendre par une relation de récurrence a trois termes, ainsi des
formules des coefficients spectraux des dérivées d’ordre n d’une fonction a deux va-
riables développée dans la base construite, se travail est publié sous le titre Bivariate
Legendre approximation [International Journal of Applied Mathematical Research].

4
Chapitre

1 Préliminaires

Notre compréhension des phénomènes du monde réel et notre technologie sont


aujourd’hui en grande partie basées sur les équations différentielles aux dérivées par-
tielles. C’est en effet grâce à la modélisation de ces phénomènes au travers d’(EDP)
que l’on a pu les comprendre et aussi de comprendre le rôle de tel ou tel para-
mètre, et surtout obtenir des prévisions parfois extrêmement précises pour plusieurs
phénomènes [9].
L’une des choses qu’il faut avoir à l’esprit à propos des (EDP), c’est que la
plupart de ces équations ne sont pas soluble explicitement. Ce que les mathématiques
peuvent faire par contre, c’est à dire si une ou plusieurs solutions existent, on peut
avoir les approximés numériquement.
L’apparition d’ordinateurs extrêmement puissants permet néanmoins aujour-
d’hui d’obtenir des solutions approchées pour des équations différentielles aux déri-
vées partielles (même très compliquées). Et le rôle des mathématiciens sera alors de
construire des schémas numériques d’approximation.

1.1 Généralités sur les équations aux dérivées par-


tielles

Quand sont apparues les (EDP) ?


Elles ont été probablement formulées pour la première fois lors de la naissance de
la mécanique rationnelle au cours du 17 ème siècle (Newton, Leibniz, . . . ). Ensuite
le "catalogue" des (EDP) s’est enrichi au fur et à mesure du développement des
sciences et en particulier de la physique. S’il ne faut retenir que quelques noms, on
se doit de citer celui d’Euler, puis ceux de Navier et Stokes, pour les équations de
la mécanique des fluides, ceux de Fourier pour l’équation de la chaleur, de Maxwell
pour celles de l’électromagnétisme, de Schrödinger et Heisenberg pour les équations
de la mécanique quantique, et bien sûr d’Einstein pour les (EDP) de la théorie de
la relativité.
L’étude systématique des (EDP) est bien plus récente, et c’est seulement au
cours du 20ème siècle que les mathématiciens ont commencé à développer l’arsenal

5
nécessaire. Un pas de géant a été accompli par L. Schwartz lorsqu’il a fait naître la
théorie des distributions (autour des années 1950), et un progrès au moins compa-
rable est du à L. Hörmander pour la mise au point du calcul pseudo-différentiel (au
début des années 1970).
Il est certainement bon d’avoir à l’esprit que l’étude des (EDP) reste un domaine
de recherche très actif en ce début de 21ème siècle. D’ailleurs ces recherches n’ont
pas seulement un retentissement dans les sciences appliquées, mais jouent aussi un
rôle très important dans le développement actuel des mathématiques elles-mêmes
[9, 10].

Définitions
En calcul différentielles, une équation aux dérivées partielles (EDP) est une
équation dont les solutions sont des fonctions vérifiant certaines conditions concer-
nant leurs dérivées partielles.
Le caractère particulier d’une équation aux dérivées partielles (EDP) est de mettre
en jeu des fonctions de plusieurs variables

(x, y, . . .) 7−→ u(x, y, . . .).

Une (EDP) est alors une relation entre les variables et les dérivées partielles de u.
— Une (EDP) à souvent de très nombreuses solutions, les conditions aux limites
restreignent l’ensemble des solutions.
Une équation différentielle très simple est : ∂u
∂x = 0, oú u est une fonction inconnue
de x et y, cette relation implique que les valeurs u(x, y) sont indépendantes de x.
Les solutions de cette équation sont u(x, y) = f (y).
L’équation ordinaire : du
dx = 0 a pour solution u(x) = c, avec c une valeur constante
(indépendante de x).
— Ces deux exemples illustrent qu’en général, la solution d’une (EDO) met
en jeu une constante arbitraire, tandis que les (EDP) mettent en jeu des
fonctions arbitraires.
— Dans le cas de deux variables, une (EDP) d’ordre 1 s’écrit sous la forme
∂u ∂u
F (x, y, u(x, y), (x, y), (x, y)) = 0. (1.1.1)
∂x ∂y
— Une équation du second ordre s’écrit comme

∂u ∂u ∂ 2u ∂ 2u ∂ 2u
F (x, y, u(x, y), (x, y), (x, y), 2 (x, y), (x, y), 2 (x, y) = 0.
∂x ∂y ∂x ∂x∂y ∂y
(1.1.2)
Plus généralement, on peut considérer des équations mettant en jeu des dé-
m n
rivées ∂x j ∂y j u
— L’ordre d’une (EDP) est alors le plus grand ordre de dérivation mj + nj qui
apparaît dans l’équation.
— Résoudre une (EDP) dans un domaine Ω de Rd (d est le nombre de va-
riables), c’est de trouver une fonction suffisamment différentiable dans Ω,
telle que l’équation soit satisfaite pour toutes les valeurs des variables dans
Ω.
— Comme pour les (EDO), on parle d’(EDP) linéaires ou non-linéaires. Pour
mieux comprendre de quoi il s’agit, il est commode de parler de l’opérateur

6
aux dérivées partielles associé à une (EDP). Il s’agit de l’application qui à
une fonction u associe le membre de gauche de l’(EDP).
On dit que l’(EDP) est linéaire lorsque l’opérateur P qui lui est associé l’est,
c’est à dire que, pour toutes fonctions u, v « gentilles » et

∀α, β ∈ R, P (αu + βv) = αP (u) + βP (v).

— On parle également d’(EDP) linéaire homogène lorsque la fonction nulle u =


0 est solution. En d’autres termes tous les termes de l’équation contiennent
la fonction inconnue ou l’une de ses dérivées partielles.
— Comme pour les (EDO), les (EDP) linéaires homogènes ont une propriété
particulière, communément appelé principe de superposition : toute com-
binaison linéaire de solutions est encore une solution.
— Enfin lorsque l’on ajoute à une solution d’une (EDP) linéaire inhomogène
une solution quelconque de l’(EDP) homogène associée, on obtient encore
une solution de l’(EDP) inhomogène.

Classification des (EDP) linéaires du second ordre


Nous allons contenter d’(EDP) linéaires du second ordre.
On pose X = (x1 , x2 , . . . , xn ) ∈ Rn , une équation aux dérivées partielles du second
ordre sera de la forme
n
n X n
X ∂ 2u X ∂u
Ai,j (X) (X) + Bi (X) + Cu = G(X),
i=1 j=1 ∂xi ∂xj i=1 ∂xi

avec Ai,j , Bi , C, G des fonctions indépendantes de u ne s’annulant pas toutes


simultanément dans Rn . Si nous nous limitons dans R2 , c’est à dire X = (x, y) ∈ R2
l’égalité précédemment posée prend la forme de

∂ 2u ∂ 2u ∂ 2u ∂u ∂u
A + B + C + D + E + F u = G(x, y),
∂x2 ∂x∂y ∂y 2 ∂x ∂y

la classe d’une telle équation est déterminée par le calcul de

∆ = B 2 (x0 , y0 ) − 4A(x0 , y0 )C(x0 , y0 ).

1. Si ∆ < 0, on parle d’une équation elliptique.


2. Si ∆ = 0, l’(EDP) est dite parabolique.
3. Si ∆ > 0, on a une équation hyperbolique.

Remarque 1.1
la terminologie utilisée dans cette définition est basée sur la classification des co-
niques du plan. On rappelle que la conique d’équation

ax2 + bxy + cy 2 + dx + ey + f = 0,

est une hyperbole (resp. une parabole, une ellipse) si et seulement si B 2 − 4AC est
positif (resp. nul, négatif) [21].

7
Équations elliptiques
Les équations elliptiques régissent les problèmes stationnaires, d’équilibre, générale-
ment définis sur un domaine spatial borné Ω de frontière Γ sur laquelle l’inconnue est
soumise à des conditions aux limites, le plus souvent de type Dirichlet ou Neumann.
Le problème elliptique type est celui fourni par l’équation de Laplace (ou de Poisson)
soumise à des conditions aux limites, par exemple de Dirichlet

−∆u =f dans Ω,
u = u0 dans Γ.

Équations paraboliques
Les équations paraboliques régissent les problèmes d’évolution ou instationnaires
dans lesquels intervient le mécanisme de diffusion ou de dissipation. Ces problèmes
sont généralement définis sur un domaine spatial borné Ω de frontière Γ sur laquelle
l’inconnue est soumise à des conditions aux limites du même type qu’en elliptique
(quelquefois elles-mêmes instationnaires), ainsi qu’à des conditions initiales.
Le problème elliptique type est celui fourni par l’équation de la chaleur soumise à des
conditions aux limites, par exemple de Dirichlet, ainsi qu’à des conditions initiales :
 2
 ∂T = ν ∂ T2 dans Ω,
 ∂t


∂x


T = T0 dans Γ,


T (x, 0) = f (x) dans Ω.

Équations hyperboliques
Les équations hyperboliques modélisent la propagation d’ondes sans dissipation.
En linéaire, c’est par exemple la propagation du son dans un milieu homogène.
En électromagnétisme, les équations de Maxwell sont hyperboliques et linéaires.
En non linéaire, les équations hyperboliques sont l’expression de lois de conser-
vation. Par exemple, les équations d’Euler expriment la conservation de la masse, de
la quantité de mouvement et de l’énergie totale dans un fluide parfait compressible.

1.1.1 Exemples d’équations aux dérivées partielles


Voici quelques exemples d’équations sur lesquelles peuvent facilement être testées
les méthodes dont il sera question dans les chapitres suivants [34]
1. Équation de Laplace
∂ 2u ∂ 2u ∂ 2u
+ + = 0,
∂x2 ∂y 2 ∂z 2
oú u(x, y, z) désigne la fonction inconnue.
2. Équation de propagation (ou équation des cordes vibrantes)
Cette EDP, appelée équation de propagation des ondes, décrit les phénomènes
de propagation des ondes sonores et les ondes électromagnétiques.
La fonction d’onde inconnue est notée par u(x, y, z, t), t représente le temps :

∂ 2u ∂ 2u ∂ 2u 1 ∂ 2u
+ + = ,
∂x2 ∂y 2 ∂z 2 c2 ∂t2
le nombre c représente la vitesse de propagation de l’onde u.

8
En notation d’analyse vectoriel, en utilisant l’opérateur Laplacien ∆ ; Soit
ψ ≡ u(x, y, z) fonction d’onde, alors l’EDP de Laplace sera :
∆ψ = 0,
et l’équation de propagation sera :
1 ∂ 2ψ
∆ψ = .
c2 ∂t2
3. Équation de Fourier
∂ 2u ∂ 2u ∂ 2u 1 ∂u
+ + = ,
∂x2 ∂y 2 ∂z 2 ν ∂t
cette EDP est également appelée équation de la chaleur. La fonction u re-
présente la température, la dérivée d’ordre 1 par rapport au temps traduit
l’irréversibilité du phénomène. Le nombre ν appelé diffusivité thermique du
milieu.
On notation d’analyse vectoriel l’équation de la chaleur est :
1 ∂ψ
∆ψ = .
ν ∂t
4. Équation de Poisson
En analyse vectorielle, l’équation de Poisson 1 est l’équation aux dérivées
partielles du second ordre suivante
∆u = f,

où ∆ est l’opérateur laplacien et f est une fonction généralement donnée.


Sur un domaine borné de Rn et de frontière régulière, le problème de trouver
u à partir de f et satisfaisant certaines conditions aux limites appropriées est
un problème bien posé (la solution existe et unique).
L’équation de Poisson étant insensible à l’ajout sur u d’une fonction satis-
faisant l’équation de Laplace, une condition aux limites est nécessaire pour
espérer l’unicité de la solution, par exemple les conditions de Dirichlet, celles
de Neumann, ou des conditions mixtes sur des portions de frontière
5. Équation de Burgers
L’équation de Burgers est une équation aux dérivées partielles fondamentale
issue de la mécanique des fluides. Elle apparaît dans divers domaines des
mathématiques appliquées, comme la modélisation de la dynamique des gaz
ou du trafic routier. Elle doit son nom à Johannes Martinus Burgers (1895 −
1981).
En notant u la vitesse, et ν le coefficient de viscosité, la forme générale de
l’équation de Burgers est :
∂u ∂u ∂ 2u
+u = ν 2,
∂t ∂x ∂x
quand ν = 0, l’équation de Burgers devient l’équation de Burgers sans visco-
sité :
∂u ∂u
+u = 0.
∂t ∂x
1. Nommée en l’honneur du mathématicien et physicien français Siméon Denis Poisson

9
6. Équation de Schrödinger
L’équation de Schrödinger, conçue par le physicien autrichien Erwin Schrö-
dinger en 1925, est une équation fondamentale en mécanique quantique. Elle
décrit l’évolution dans le temps d’une particule massive non relativiste, et
remplit ainsi le même rôle que la relation fondamentale de la dynamique en
mécanique classique. La forme générale de l’équation de Schrödinger est :
∂ψ h2
ih = [− δ + V ]ψ.
∂t 2m

1.1.2 Conditions de Dirichlet, de Neumann et de Robin

Conditions de Dirichlet
En mathématiques, une condition aux limites de Dirichlet est imposée à une
équation différentielle ordinaire ou à une équation aux dérivées partielles lorsque
l’on spécifie les valeurs que la solution doit vérifier sur les frontières/limites du
domaine.
Pour une équation différentielle ordinaire, par exemple
y 00 + y = 0
la condition aux limites de Dirichlet sur l’intervalle [a, b] s’exprime par :
y(a) = α, y(b) = β.
où α et β sont deux nombres donnés.
Pour une équation aux dérivées partielles, par exemple
∆y + y = 0,
où ∆ est le Laplacien (opérateur différentiel), la condition aux limites de Dirichlet
sur un domaine Ω ⊂ Rn s’exprime par
y(x) = f (x) ∀x ∈ ∂Ω.

où f est une fonction connue définie sur la frontière ∂Ω.

Conditions de Neumann
En mathématiques, une condition aux limites de Neumann 2 est imposée à une
équation différentielle ou à une équation aux dérivées partielles lorsque l’on spécifie
les valeurs des dérivées que la solution doit vérifier sur les frontières/limites du
domaine.
Pour une équation différentielle, par exemple
y 00 + y = 0,

la condition aux limites de Neumann sur l’intervalle [a, b] s’exprime par


y 0 (a) = α, y 0 (b) = β.
2. nommée d’après Carl Neumann

10
où α et β sont deux nombres donnés.
Pour une équation aux dérivées partielles, par exemple

∆y + y = 0,

où ∆ est le Laplacien (opérateur différentiel), la condition aux limites de Neumann


sur un domaine Ω ⊂ Rn s’exprime par :
∂y
(x) = f (x) ∀x ∈ ∂Ω.
∂→

n

où f est une fonction scalaire connue définie sur la limite ∂Ω et →


−n est le vecteur
normal à la frontière ∂Ω. La dérivée normale dans le membre de gauche de l’équation,
est définie par
∂y −−→

− (x) = grad y(x). →

n (x).
∂n

Conditions de Robin
En mathématique, une condition aux limites de Robin 3 (ou de troisième type)
est un type de condition aux limites .
Elle est également appelée condition aux limites de Fourier. Imposée à une équation
différentielle ordinaire ou à une équation aux dérivées partielles, il s’agit d’une rela-
tion linéaire entre les valeurs de la fonction et les valeurs de la dérivée de la fonction
sur le bord du domaine [33].
Une condition aux limites de Robin est une combinaison pondérée d’une condition
aux limites de Dirichlet et d’une condition aux limites de Neumann. Ceci contraste
avec la condition aux limites mêlée, constituée de conditions aux limites de types
différents imposées chacune sur une partie du bord du domaine. La condition aux
limites de Robin est aussi appelée condition d’impédance, en raison de son rôle dans
les problèmes d’électromagnétisme [33, 34].
Si O est un domaine dans lequel une équation doit être résolue, et si ∂O désigne
le bord du domaine, la condition aux limites de Robin est de la forme
∂u
au + b =g sur ∂O,
∂n
où a, b et g sont des fonctions définies sur ∂O. Ici, u est la solution définie dans
∂u désigne la dérivée par rapport à la normale
O que l’on cherche à déterminer et ∂n
extérieure sur le bord.
En dimension un, si, par exemple, O = [0, 1], la condition aux limites de Robin
s’écrit sous la forme

au(0) − bu0 (0) = g(0),


au(1) + bu0 (1) = g(1).

Remarquons que le signe devant le terme dérivé change selon la partie du bord
considérée : la raison est que le vecteur normal à [0, 1] au point 0 pointe vers la
direction négative (gauche), tandis qu’en 1 ce vecteur pointe vers les positifs.
3. portant le nom du mathématicien français Victor Gustave Robin (1855 − 1897)

11
1.1.3 Modélisation, discrétisation et simulation numérique

Qu’est-ce qu’un modèle ?

Le principe d’un modèle est de remplacer un système complexe en un objet ou


opérateur simple reproduisant les aspects ou comportements principaux de l’original
(exemple : modèle mathématique ou numérique).

Pourquoi faut-il modéliser ?

Dans la nature, les systèmes et les phénomènes physiques les plus intéressants
sont aussi les plus complexes à étudier. Ils sont souvent régis par un grand nombre
de paramètres non-linéaires interagissant entre eux (la météorologie, la turbulence
des fluides. . . ).

Qu’est-ce qu’un modèle mathématique

On peut construire un modèle mathématique permettant la représentation du


phénomène physique. Ces modèles utilisent très souvent des systèmes d’équations
aux dérivées partielles (EDP) non-linéaires dont on ne connait pas de solutions
analytiques en général. Il faut alors résoudre le problème numériquement en trans-
formant les équations continues de la physique en un problème discret sur un certain
domaine de calcul (un maillage).

De la modélisation à la simulation numérique

Les différentes étapes pour modéliser un système complexe sont


 Recherche d’un modèle mathématique représentant la physique. Mise en
équation.
 Élaboration d’un maillage. Discrétisation des équations de la physique.
 Résolution des équations discrètes (souvent systèmes linéaires à résoudre).
 Transcription informatique et programmation des relations discrètes.
 Simulation numérique et exploitation des résultats.

Aspect fini des ordinateurs

La solution exacte d’un problème d’(EDO) ou d’(EDP) est une fonction continue.
Les ordinateurs ne connaissent que le fini et le discret. En effectuant un calcul numé-
rique, un ordinateur ne peut retenir qu’un nombre fini de chiffres pour représenter les
opérandes et les résultats des calculs intermédiaires. Les solutions approchées seront
calculées comme des ensembles de valeurs discrètes sous la forme de composantes
d’un vecteur solution d’un problème matriciel. La représentation des nombres dans
un ordinateur introduit la notion d’erreur d’arrondi ou de troncature. Ces erreurs
peuvent se cumuler sur un calcul et la solution numérique finale pourra s’avérer très
éloignée de la solution exacte.

12
EDP Equation discrètisée

Consistance
Solution Solution
exacte descrète

Convergence Stabilité
Solution
numérique

Figure 1.1: Consistance, Convergence et Stabilité

1.1.4 Consistance, convergence et stabilité


Un certain nombre de notion est nécessaire lors de la résolution d’équations
aux dérivées partielles (EDP) au moyen de leurs équivalents discrétisés. Les trois
principales sont la convergence, la stabilité et la consistance. Ces trois propriétés
permettent de relier la solution exacte des équations continues à la solution exacte
des équations discrétisées et à la solution numérique obtenue.
la stabilité, c’est la propriété qui assure que la différence entre la solution nu-
mérique obtenue et la solution exacte des équations discrétisées est bornée.
la consistance, c’est la propriété qui assure que la solution exacte des équations
discrétisées tende vers la solution exacte des équations continues lorsque le
pas de discrétisation (∆t et ∆x) tendent vers zéro.
la convergence, c’est la propriété qui assure que la solution numérique tende
vers la solution exacte des équations continues. C’est évidemment la propriété
la plus recherchée !

1.1.5 Notion de stabilité


On distingue trois types de stabilité
 La stabilité d’un problème physique.
 La stabilité d’un problème mathématique.
 La stabilité numérique d’une méthode de calcul.

Stabilité d’un problème physique : système chaotique

Définition 1.1
Un problème est dit chaotique si une petite variation des données initiales entraîne
une variation totalement imprévisible des résultats. Cette notion de chaos, liée à la
physique d’un problème, est indépendante du modèle mathématique utilisé et encore
plus de la méthode numérique utilisée pour résoudre ce problème mathématique. De
nombreux problèmes sont chaotiques, par exemple la turbulence des fluides.

13
Stabilité d’un problème mathématique : sensibilité

Définition 1.2
Un problème est dit sensible ou mal conditionné si une petite variation des don-
nées ou des paramètres entraîne une grande variation des résultats. Cette notion de
conditionnement, liée au problème mathématique, est indépendante de la méthode
numérique utilisée pour le résoudre. Pour modéliser un problème physique qui n’est
pas chaotique, on construira un modèle mathématique qui sera le mieux conditionné
possible.

Stabilité d’une méthode numérique

Définition 1.3
Une méthode est dite instable si elle est sujette à une propagation importante des
erreurs numériques de discrétisation et d’arrondi. Un problème peut être bien condi-
tionné alors que la méthode numérique choisie pour le résoudre est instable. Dans
ce cas, il est impératif de changer de méthode numérique. Par contre, si le problème
de départ est mal conditionné, aucune méthode numérique ne pourra y remédier. Il
faudra alors essayer de trouver une formulation mathématique différente du même
problème.

1.2 Exemples de fonctions de base


Beaucoup de problèmes peuvent être résolus plus facilement, et plus précisément
en changeant la base de la représentation des données, généralement en termes d’en-
sembles de fonctions de base orthogonales.
Voici quelques exemples de fonctions de base orthogonales (les plus utilisables dans
les méthodes spectrales).

1. Polynômes orthogonaux
Une grande partie de l’analyse numérique des méthodes spectrales fait appel à une
base de polynômes orthogonaux dont on rappelle ici leurs principales propriétés et
quelques exemples.

Définition 1.4
Une suite de polynôme orthogonaux 4 est une suite infinie de polynômes P0 (x), P1 (x),
P2 (x), . . . à coefficients réels, dans laquelle chaque Pn (x) est de degré n, et tell que
les polynômes de la suite sont orthogonaux deux à deux pour un produit scalaire
donné.

Le produit scalaire de fonctions le plus simple est l’intégrale du produit de ces


fonctions, sur un intervalle borné
Z b
hf, gi = f (x)g(x)dx. (1.2.1)
a

4. Le domaine des polynômes orthogonaux a été développé durant le XIX e siècle par Stieltjes,
comme outil de la théorie analytique des fractions continues. De multiples applications en ont
découlé en mathématiques et en physique.

14
Plus généralement, on peut introduire "une fonction poids" w(x) dans l’intégrale (sur
un intervalle d’intégration ]a, b[ w doit être à valeurs finies et strictement positives,
et l’intégral du produit de la fonction poids par un polynôme doit être fini, les bornes
a, b peuvent être infinies).
Z b
hf, gi = f (x)g(x)w(x)dx, (1.2.2)
a

avec cette définition du produit scalaire, deux fonctions sont orthogonaux entre elles
si leur produit scalaire est égale à zéro. L’intervalle d’intégration est appelé intervalle
d’orthogonalité.

1.2.1 Polynômes orthogonaux de Chebychev


Les polynômes de Chebychev, nommés ainsi en l’honneur du mathématicien russe
Lvovich Chebychev 5

Polynômes de Chebychev de la première espèce Tn .

Soit n un entier naturel. Il existe un et un seul polynôme noté Tn tel que

∀θ ∈ R, Tn (cos θ) = cos(nθ).

Unicité
Tn est déterminé sur [−1, 1] qui est infini et donc uniquement déterminé.
Existence
Soient n un entier naturel et θ un réel.

cos(nθ) = Re(einθ )
= Re((cos θ + i sin θ)n )
n
!
Cnk (cos θ)n−k (i sin θ)k
X
= Re
k=0
E(n/2)
(−1)p Cn2p (cos θ)n−2p (sin θ)2p )
X
=
p=0
E(n/2)
(−1)p Cn2p (cos θ)n−2p (1 − cos2 θ)p ,
X
=
p=0

E(n/2)
(−1)p Cn2p (X)n−2p (1 − X2 )p convient.
X
et le polynôme
p=0

E(n/2)
(−1)p Cn2p (X)n−2p (1 − X2 )p .
X
∀n ∈ N, Tn =
p=0

5. Pafnoutïi Lvovich Tchebychev, mathématicien russe, (né à Borovsk en 1821 et mort à Saint-
Pétersbourg en 1894).

15
Figure 1.2: Premiers polynômes de Chebychev pair de la première espèce

Propriétés simples

— Tn (1) = 1,
— Tn (−1) = (−1)n ,
— Tn est une fonction paire si n est pair, impaire si n est impair,
— Tn0 (1) = n2 ,
— Tn0 (−1) = (−1)n−1 n2 .
En effet
dθ d sin nθ
Tn0 (x) = cos nθ = n .
dx dθ sin θ

Figure 1.3: Premiers polynômes de Chebychev impair de la première espèce

Orthogonalité

Les polynômes Tn , orthogonaux sur l’intervalle de de support [−1, 1] avec la


fonction poids w(x) définie par

x ≤ −1,

0 

√ 1

w(x) = −1 < x < 1,

 1 − x2
0 x ≥ 1.

et sont normalisés par l’exigence que Tn (1) = 1.


Tn satisfait la relation de récurrence à trois termes suivante

pour n ≥ 1 Tn+1 (x) = 2xTn (x) − Tn−1 (x)

avec les valeurs de départ

T0 (x) = 1, T1 (x) = x.

16
Relations de récurrence entre les polynômes Tn

Définissons quelques suites qui permettront de condenser les relations de récur-


rence en des formulations valables pour n ∈ N
(cn )n∈Z cn = 0 si n < 0, c0 = 2, cn = 1 si n > 0.
(dn )n∈Z dn = 0 si n < 0, dn = 1 si n ≥ 0.

Figure 1.4: La suite cn

Figure 1.5: La suite dn

1.
cn Tn+1 (x) + dn−1 Tn−1 (x) = 2xTn (x), n ∈ N.
Cette relation résume les égalités suivantes :
(
Tn+1 (x) + Tn−1 (x) = 2xTn (x) n ≥ 1.
2T1 (x) = 2xT0 (x)

2. 0
Tn+1 (x) T 0 (x)
cn + dn−2 n−1 = 2xTn (x) n ∈ N.
n+1 n−1
Cette relation résume les égalités suivantes :
0 0
Tn+1 (x) Tn−1 (x)

n0 + 1 − n − 1 = 2Tn (x) n ≥ 2




T2 (x)


 20 = 2T1 (x)
2T1 (x) = 2T0 (x).

Pour k ≥ 1 le changement de variable x = cos θ permet de calculer :


dθ d sin kθ
Tk0 (x) = cos kθ = k .
dx dθ sin θ
D’où pour n ≥ 2
0 0
Tn+1 (x) Tn−1 (x) sin[(n + 1)θ] − sin[(n − 1)θ]
− =
n+1 n−1 sin θ
= 2 cos nθ
= 2Tn (x).

17
Polynômes de Chebychev de la second espèce Un .

Soit n un entier naturel non nul. Il existe un et un seul polynôme noté Un tel
que
∀θ ∈ R, sin θ × Un (cos θ) = sin(nθ).
Unicité
Un est déterminé sur [−1, 1] qui est infini et donc uniquement déterminé.
Existence
Soient n un entier naturel et θ un réel.

sin(nθ) = Im(einθ )
= Im((cos θ + i sin θ)n )
n
!
Cnk (cos θ)n−k (i sin θ)k
X
= Im
k=0
E((n−1)/2)
(−1)p Cn2p+1 (cos θ)n−(2p+1) (sin θ)(2p+1) )
X
=
p=0
E((n−1)/2)
(−1)p Cn2p+1 (cos θ)n−2p−1 (1 − cos2 θ)p ),
X
= sin θ
p=0

E((n−1)/2)
(−1)p Cn2p+1 (X)n−2p−1 (1 − X2 )p convient.
X
et le polynôme
p=0

E((n−1)/2)
∀n ∈ N∗ , Un = (−1)p Cn2p+1 (X)n−2p−1 (1 − X2 )p .
X

p=0

Figure 1.6: Premiers polynômes de Chebychev pair de la second espèce.

Orthogonalité

Les polynômes Un , sont orthogonaux sur l’intervalle de de support [−1, 1] avec


la fonction poids √
 1 − x2 si − 1 < x < 1,
w(x) =
0 sinon.
et sont normalisés par l’exigence que Un (1) = n + 1.

18
Figure 1.7: Premiers polynômes de Chebychev impair de la second espèce.

Et satisfait la relation de récurrence à trois termes


pour n ≥ 1 Un+1 (x) = 2xUn (x) − Un−1 (x),

avec les valeurs de départ


U0 (x) = 1, U1 (x) = 2x.

Relation entre Tn et Un

Soit n un entier naturel non nul. Pour tout réel θ, on a Tn (cos θ) = cos(nθ).
En dérivant cette relation, pour tout réel θ on obtient
−sinθTn0 (cos θ) = −n sin(nθ),
ou encore 0
1

∀θ ∈ R, sin θ Tn (cos θ) = sin(nθ).
n
Par unicité de Un , on a donc
1 0
∀n ∈ N∗ , Un = T
n n

Polynômes de Chebyshev du troisième espèce

Les polynômes de la troisième espèce Vn , sont orthogonaux sur l’intervalle de de


support [−1, 1] avec la fonction poids w(x) donnée par

0
 si | x | ≥ 1,
w(x) = r
 1+x si − 1 < x < 1.
1−x

et sont normalisés par l’exigence que Vn (1) = 1.


Vn satisfait la relation de récurrence à trois termes
pour n ≥ 1 Vn+1 (x) = 2xVn (x) − Vn−1 (x),

avec les valeurs de départ


V0 (x) = 1, V1 (x) = 2x − 1.

19
Polynômes de Chebyshev du quatrième espèce

Les polynômes de la quatrième espèce Wn , sont orthogonaux sur l’intervalle de


de support [−1, 1] avec la fonction de poids



 0 x ≤ −1,
 r
w(x) =  1−x −1 < x < 1,
 1+x
0 x ≥ 1.

et sont normalisés par l’exigence que Wn (1) = 2n + 1.


Les polynômes Wn satisfait la relation de récurrence à trois termes suivante
pour n ≥ 1 Wn+1 (x) = 2xWn (x) − Wn−1 (x),

avec les valeurs de départ


W0 (x) = 1, W1 (x) = 2x + 1.

1.2.2 Polynômes de Legendre

— Équation différentielle de Legendre


Les polynômes de Legendre satisfait l’équation différentielle
d2 y dy
(1 − x2 ) 2
− 2x + n(n + 1)y = 0,
dx dx
définit sur l’intervalle [−1, 1] avec n = 0, 1, 2, . . .

— Formule de Rodrigues pour les Ln


Les polynômes de Legendre Ln (x) de degré n sont donnés par la formule de
Rodrigues
1 dn
Ln (x) = n [(x2 − 1)n ]
2 n! dxn

Figure 1.8: Premiers polynômes de Legendre pair

— Relation d’orthogonalité pour les Ln


La fonction poids pour les polynômes de Legendre est w(x) = 1, et la relation
d’orthogonalité est

Z 1 0 pour m 6= n, n, m = 0, 1, 2, . . .
Lm (x)Ln (x)dx =
−1  2 pour m = n.
2n+1

20
Figure 1.9: Premiers polynômes de Legendre impair

— Relations de récurrences satisfaites par les Ln


1. (n + 1)Ln+1 (x) = (2n + 1)xLn (x) − nLn−1 (x).
2. On a
d
(x2 − 1) [Ln (x)] = nxLn (x) − nLn−1 (x),
dx
n(n + 1)
= [Ln+1 (x) − Ln−1 (x)].
2n + 1
d [L (x)] − x d [L (x)] = (n + 1)L (x).
3. dx n+1
dx n n

d [L (x)] − d [L (x)] = nL (x).


4. x dx n
dx n−1 n

d [L (x) − L (x)] = (2n + 1)L (x).


5. dx n+1 n−1 n

1.2.3 Polynômes de Laguerre

— Équation différentielle satisfaite par les ln


Les polynômes de Laguerre satisfaisaient l’équation différentielle
d2 y dy
x 2
+ (1 − x) + ny = 0.
dx dx
définit sur l’intervalle [0, ∞[, avec n = 0, 1, 2, . . .
— Formule de Rodrigues pour les ln
Les polynômes de Laguerre ln (x) de degré n sont donnés par la formule de
Rodrigues
ex dn −x n
ln (x) = [e x ].
n! dxn
— Relation d’orthogonalité pour les ln
La fonction poids pour les polynômes de Laguerre est w(x) = e−x , et la
relation d’orthogonalité est
Z ∞ (
−x 0 pour m 6= n, n, m = 0, 1, 2, . . .
e lm (x)ln (x)dx =
0 1 pour m = n.

— Relations de récurrences satisfaites par les ln


1. (n + 1)ln+1 (x) = (2n + 1 − x)ln (x) − nln−1 (x).

d [l (x)] = nl (x) − nl (x).


2. x dx n n n−1

21
1.2.4 Polynômes de Hermite

— Équation différentielle satisfaite par les Hn


Les polynômes de Hermite Hn satisfait l’équation différentielle

d2 y dy
2
− 2x + 2nx = 0,
dx dx
définit sur l’intervalle ] − ∞, ∞[, tel que n = 0, 1, 2, . . .
— Formule de Rodrigues pour les Hn
Les polynômes de Hermite Hn (x) de degré n sont donnés par la formule de
Rodrigues
n
2 d −x2
Hn (x) = (−1)n ex [e ].
dxn
— Relation d’orthogonalité pour les Hn
2
La fonction poids pour les polynômes de Hermite de degree n est w(x) = e−x ,
et la relation d’orthogonalité est

Z ∞
2
0 pour m 6= n,
e−x Hm (x)Hn (x)dx = √ n
−∞ π2 n! pour m = n.

— Relations de récurrences satisfaites par les Hn


1. Hn+1 (x) = 2xHn (x) − 2nHn−1 (x).

d [H (x)] = 2nH (x).


2. dx n n−1

d [H (x)] + x d [H (x)].
3. nHn (x) = −n dx n−1
dx n
d [H (x)].
4. 2xHn−1 (x) − dx n−1

2. Séries de Fourier
La série de Fourier d’une fonction générale u(x) est

X ∞
X
u(x) = a0 + an cos(nx) + bn sin(nx). (1.2.3)
n=1 n=1

où les coefficients sont


Z π
a0 = (1/2π) u(x) dx, (1.2.4)
−π
Z π
an = (1/π) u(x) cos(nx) dx,
−π
Z π
bn = (1/π) u(x) sin(nx) dx.
−π

Première note
puisque les sinus et cosinus sont des fonctions périodiques de période 2π, on peut
aussi calculer le développement de Fourier dans un intervalle x ∈ [0, 2π]. La seule
modification est que les limites de l’intégration (4.3.4) sont également modifiés de
[−π, π] à [0, 2π].

22
Deuxième note
La série générale de Fourier peut aussi s’écrire sous forme complexe

X
u(x) = cn exp(inx), (1.2.5)
n=−∞

où les coefficients sont


Z π
cn = (1/2π) u(x) exp(−inx) dx.
−π

Les identités

cos(x) ≡ (exp(ix) + exp(−ix))/2,


sin(x) ≡ (exp(ix) − exp(−ix))/2i.

montrer que (1.2.3) et (1.2.5) sont parfaitement équivalentes et nous utilisons celui
qui est commode.
Les coefficients des deux formes sont liées par

c 0 = a0 , n=0

(a
n − ibn )/2, n>0
cn =
(an + ibn )/2, n<0

1.3 Fondements des méthodes spectrales


Comme de nombreuses dénomination scientifiques, le terme ’spectre’ nous vient
d’un aller-retour du latin ou de l’ancien français vers l’anglais, puis de l’anglet vers
le français. C’est en effet Newton qui introduit en 1671 ce terme ’spectrum’ dans
le langage scientifique après qu’il eut décomposé la lumière au moyen d’un prisme,
choisissant ce qualificatif probablement parce qu’il pouvais ainsi observer à travers
(la lumière). Ce terme a donc attribué en premier lieu à la décomposition de la
lumière en raies de différentes longueurs d’ondes ou fréquence, il est alors naturelle-
ment resté lié à la physique des ondes au cours de son évolution, et généralement à
toute décomposition de type fréquentiel. Ces dernières sont représentées mathémati-
quement sous forme d’intégrales, ou de manière discrète, de séries ; à partir de quoi
s’est encore étendu ce terme de ’spectral’ pour recouvrir aussi les représentations
de quantités au moyen de séries s’appuyant, pour rester général, sur des bases de
fonctions globales de l’espace de définition de la quantité représentée, et qui véri-
fient des propriétés de convergence rapide. C’est dans ce dernier sens qu’on entend
généralement l’utilisation de ’méthodes spectrales’. Les méthodes incluses dans cette
catégorie s’appliquent à un vaste éventail de problèmes.

Tour d’horizon
Dans les applications pratiques, la résolution des équations aux dérivées par-
tielles d’un problème aux limites ne peut être réalisée qu’au moyen de techniques
numériques. Les principales techniques utilisées sont les éléments finis (EF), les vo-
lumes finis (VF) et les différences finies (DF), Ces techniques sont applicables à un

23
très grand nombre de problèmes. Et plus récemment est apparue l’utilisation de
techniques spectrales (TS), qui se sont pas elles aussi largement applicables.
Les deux critères principaux de choix d’une approche numérique sont souvent,
d’une part la complexité de la géométrie du domaine, et d’autre part le niveau
de précision requis.
La technique la plus adaptée pour les géométrie les plus complexes est la méthode
des élément finis ; les différences finies quant à elles ont un comportement intéressant
dans une large gamme de niveaux de précision requis, et pour des domaines pouvant
être relativement complexes.
Les techniques spectrales ne sont cependant applicables qu’à des résolutions dans
des domaines de formes simples, où elles peuvent en revanche apporter des niveaux
de précision supérieurs à toutes les autres méthodes.
Même si toutes ces approches sont en relation, une nette distinction sépare les
(TS) des autres approches dans son application. En effet les (EF),(VF) et les (DF)
sont des méthodes locales, i.e. l’approximation des dérivées des quantités en un
point du domaine n’est obtenue qu’à partir des valeurs dans un voisinage proche de
ce point. L’idée sous-jacente est que la dérivée d’une fonction étant une propriété
justement définie localement (sur un voisinage de taille limite nulle), il est ’raison-
nable’ de reproduire cela dans des techniques numériques discrètes, l’information à
l’autre bout du domaine n’étant d’aucune utilité.
Or justement, les techniques spectrales prennent le contre-pied de ce raisonnement,
car elles sont globales et l’idée qui préside à leur utilisation est tout à fait différente.
Quand on travaille avec des méthodes locales, la géométrie du domaine ailleurs
qu’à l’endroit où l’on se trouve ne revêt aucune importance. En revanche, pour
les (TS) la géométrie du domaine est capitale, puisqu’elles reposent en effet sur un
changement d’espace entre l’espace physique du domaine de calcul, et un espace de
fonctions qui :
• sont définies sur tout le domaine de calcul,
• sont connues analytiquement et le plus régulières possible, de manière à pou-
voir être différenciées exactement,
• et enfin, forment une base de représentation convergente des fonctions de
l’espace physique.
Ainsi, une fonction u de l’espace physique peut-être exprimée sous forme
N
X
u(x) = ũk ϕk (x), (1.3.1)
k=0

où les ϕk seront par exemple des fonctions trigonométriques ou bien des polynômes
orthogonaux.
Dans le contexte de la résolution d’équations aux dérivées partielles dépendantes du
temps, cette approche présente des atouts notables :
• elle présente une erreur qui décroît rapidement avec N , jusqu’à un taux ex-
ponentiel pour les fonctions les plus régulières,
• elle conserve un comportement remarquable dans le cas ou la solution est non
régulière (discontinue par exemple),
• et spécialement dans un espace à plusieurs dimensions, des discrétisations
relativement grossières lui suffisent à satisfaire des niveaux de précision requis
élevés, permettant des simulations efficaces à coûts de calcul et de mémoire
faible.

24
Bien sûr, ces (TS) sont nettement limitées par la nécessité d’obtenir le jeu de fonc-
tions de base précédent, qui est intimement dépendant de la simplicité et de la
régularité géométriques du domaine de calcul. Les autres facteurs limitant de ces
méthodes sont :
• l’impossibilité d’avoir des niveaux de résolution différents dans parties diffé-
rentes du domaine (pas de raffinement local de la discrétisation, d’augmen-
tation locale du niveau de précision de la modélisation, etc),
• une mauvaise tolérance aux chocs,
• et une compréhension théorique encore seulement partielle.
Historiquement, ces méthodes n’ont connu un essor qu’à partir des années 1970,
après que Cooley & Tukey ont proposé en 1965 le premier algorithme (FFT) de
résolution rapide des transformées de Fourier (TF).
Maintenant qu’on a exposé que ces techniques spectrales consistent en une dé-
composition en série sur une base de fonction globales, restent à déterminer d’une
part les classe de fonctions ϕk qu’il est possible, et d’autre part de quelle manière
on procédera pour obtenir les coefficients d’amplitude ũk affectés à cette base pour
qu’elle représente notre fonction u. Pour ce qui est de la classe de fonctions choisie,
elle doit être telle que :
• la série précédente (1.3.1) converge rapidement vers la fonction u(x) en tout
point x, au mois pour des fonctions u suffisamment régulières,
• les coefficients ũk étant donnés, on doit pouvoir calculer facilement des coef-
ficients αk tels que
N N
!
d X X
∀ x, ũk ϕk (x) = αk ϕk (x). (1.3.2)
dx k=0 k=0

• et enfin, on doit pouvoir passer rapidement (à faible coût) des amplitudes


{ũk }k=0,...,N aux valeurs de la fonction u prise sur un ensemble de nœuds
dans le domaine physique : {ui }i=0,...,N .
Dans la pratique, les classes de fonctions répondant à ces critères résident parmi celle
des fonctions orthogonales, ce sont soit des fonctions trigonométriques pour des pro-
blèmes périodiques, soit des polynômes orthogonaux de Jacobi pour des problèmes
plus généraux, tels ceux de Chebychev ou de Legendre. Ensuite, pour ce qui est de la
détermination des amplitudes ũk , il existe trois techniques principales, visant toutes
à minimiser le résidu obtenu quand on substitue, dans les équations du problème,
l’expansion en série précédente (1.3.1) à la fonction u exacte :
• la première méthode, dite Tau, impose que les ũk soient choisis de telle ma-
nière que les conditions aux limites ne soient pas satisfaites, et rend le résidu
orthogonal à autant de fonctions de base que possible,
• la second, de Galerkin, combine les fonctions de base originales en un nouvel
ensemble de manière à ce qu’elle satisfassent individuellement les conditions
aux limites, puis impose de la même manière que le résidu soit orthogonal à
autant de ces nouvelles fonctions de base que possible,
• enfin, la technique de collocation est similaire à la méthode Tau, mais au lieu
de rendre le résidu orthogonal à des fonctions de base, elle impose qu’il soit
nul en un maximum de points (adéquatement choisis) de l’espace physique.
Cette dernière approche est aussi nommée pseudo-spectrale d’après Orszag en 1972
(pour distinction d’avec la méthode de Galerkin). C’est à cette classe des méthodes
pseudo-spectral (de collocation) qu’appartient notre méthode, dans laquelle les fonc-
tions de base employée sont trigonométriques.

25
1.3.1 Pourquoi les méthodes spectrales ?
Il y a plusieurs avantages des méthodes spectrales par rapport aux approches
alternatives, telles que les éléments finis ou les différences finies.
Principalement on peut dire que :
La discrétisations spectrales des équations différentielles, basées par exemple sur
les bases de Fourier ou les polynômes orthogonaux de (Chebychev, Legendre, Her-
mite, . . . ) fournis des erreurs d’approximations très faibles. Dans de nombreux cas,
ces approches peuvent convergent de façon exponentielle pour un développement
spectral d’ordre N , la différence entre la solution analytique (exacte) et la solution
numérique tend vers zéros rapidement avec l’augmentation de l’ordre de développe-
ment spectrale.
Deuxièmement, puisque la précision numérique des méthodes spectrales est tel-
lement élevée, le nombre de points de grille nécessaires pour atteindre une précision
souhaitée est très petit, donc une méthode spectrale nécessite moins de mémoire que
les autres méthodes. Cette minimisation est vraiment crucial, surtout pour l’exécu-
tion d’algorithmes.
Il existe une haute performance d’implémentations des algorithmes nécessaires à
la transformation de base pour la plupart des méthodes spectrales, et le développeur
d’une méthode spectrale n’a pas besoin d’appliquer ces codes.
Les méthodes spectrales peuvent être utilisées pour la résolution d’équations
différentielles ordinaires (EDO), des équations aux dérivées partielles (EDP) et des
problèmes de valeurs propres concernant les équations différentielles.
Lorsqu’on applique les méthodes spectrales sur des (EDP) dépendantes du temps,
la solution est généralement écrite comme une somme de fonctions de base avec des
coefficients dépendants du temps, la substitution dans l’(EDP) fournit un système
d’(EDO) qui peuvent être résolus soit analytiquement, soit en utilisant un schéma
numérique pour les (EDO)(Euler, Hain, Range-Kutta,. . . )
Les méthodes spectrales sont moins coûteuse que les éléments finis, mais de-
viennent moins précises pour des problèmes avec des géométries complexes et des
coefficients discontinus. Cette augmentation de l’erreur est une conséquence du phé-
nomène de Gibbs.

1.3.2 Décomposition spectrale


Les méthodes spectrales sont utilisé beaucoup pour la discrétisation d’équations
différentielles. L’idée de base est d’exprimer la solution u(x) d’une équation différen-
tielle comme une somme de certaines « fonctions de base ϕk » (par exemple, bases de
Fourier, polynômes orthogonaux . . . ), puis de choisir les coefficients de cette somme
afin de satisfaire l’équation différentielle et les conditions initiales et aux bordes,
aussi bien que possible.
N
X
u(x) ≈ uN (x) = ũk ϕk (x). (1.3.3)
k=0

Lorsque cette série est substituée dans l’équation

Lu = f (x), (1.3.4)

26
où L représente un opérateur de différentiation, alors le résultat est appelé « la
fonction résiduelle »
R(x, ũ0 , ũ1 , . . . , ũN ) = LuN − f. (1.3.5)
Telle-que la fonction de résidu R(x, ũk ) est identiquement égal à zéro pour la solu-
tion exacte, alors le défi est de choisir les coefficients {ũk }k=0,...,N qui minimises la
fonction résiduelle.
Les différentes méthodes spectrales et pseudo-spectrales diffèrent principalement
par leur stratégies de minimisation.
Ces idées abstraites peuvent être concrétisée par des problèmes simples comme
l’exemple suivant.

Premier exemple

l’exemple est un problème aux limites, linéaire, unidimensionnelle [27].

∂2
u(x) − (x6 + 3x2 )u = 0, (1.3.6)
∂x2
u(−1) = u(1) = 1. (1.3.7)
La solution exacte est :
u(x) = exp([x4 − 1]/4). (1.3.8)
Des approximations polynomiales sont recommandés pour la plupart des problèmes,
alors nous choisirons une solution spectrale pour cette équation. Afin de satisfaire
les conditions aux limites indépendamment des coefficients spectraux inconnus, il
est commode d’écrire l’approximation comme

u2 (x) = 1 + (1 − x2 )(ũ0 + ũ1 x + ũ2 x2 ), (1.3.9)

où la décision de ne garder que trois degrés de liberté est arbitraire.


Le résidu de cette approximation est

∂2
R(x, ũ0 , ũ1 , ũ2 ) = u2 (x) − (x6 + 3x2 )u2 (x).
∂x2
R(x, ũ0 , ũ1 , ũ2 ) = (2ũ2 + 2ũ0 ) − 6ũ1 x − (3 + 3ũ0 + 12ũ2 )x2 − 3ũ1 x3 + 3(ũ0 − ũ2 )x4
+ 3ũ1 x5 + (−1 − ũ0 + 3ũ2 )x6 − ũ1 x7 + (ũ0 − ũ2 )x8 + ũ1 x9 + 10ũ2 x10 .

Comme des conditions de minimisation d’erreur, nous choisissons de mettre le résidu


égal zéro à un ensemble de points en nombre égal aux coefficients indéterminés dans
u2 (x). C’est ce qu’on appelle les méthodes de « collocation » ou bien les méthodes
« pseudo-spectrales ».
Si on choisi arbitrairement les points xi = (−1/2, 0, 1/2), ça nous donne les trois
équations
659 1683 1171 49
eq1 = − ũ0 + ũ1 − ũ2 − ,
256 512 1024 64
eq2 = −2(ũ0 − ũ2 ),
659 1683 1171 49
eq3 = − ũ0 + ũ1 − ũ2 − .
256 512 1024 64
Les coefficients sont ensuite déterminés en résolvant eq1 = eq2 = eq3 = 0 ; rende-
ments

27
784
ũ0 = − , ũ1 = 0, ũ2 = ũ0 .
3807
La figure (1.12) montre que cette approximation faible est tout à fait exacte.

Figure 1.10: (solide) Solution exacte, (cercles) approximation Figure 1.11: u − u2


à trois coefficients.

Figure 1.12: Approximation de la solution du problème (1.3.6), (1.3.7)

L’exemple soulève plusieurs questions


1. Quel est le choix optimal de fonctions de base ?
2. Pourquoi on choisi la "collocation" comme condition de minimisation des ré-
sidus ?
3. Quels sont les points de collocation optimales ?
4. Comment pouvons-nous résoudre un problème algébrique des coefficients,
lorsque les logiciels de résolution (comme Maple par-exemple) ne sont pas
disponibles ?
— La réponse de la première question est que le choix de puissance de x comme
une base est en fait assez dangereux à moins que N le degrés de liberté est
petit ou les calculs sont effectués en arithmétique exacte.
— La deuxième réponse est : la collocation représente le choix le plus simple
qui est garanti pour un bon fonctionnement, et si c’est bien fait, rien d’autre
n’est supérieur. Pour comprendre pourquoi, cependant, il faut comprendre
à la fois la théorie de Fourier et de série de Chebyshev et les méthodes de
Galerkin.
— La troisième réponse est la suivante : Une fois que l’ensemble de base a été
choisie, il y a seulement deux ensembles optimaux des points d’interpolation
pour chaque base (les points de Gauss-Chebyshev ou bien les points de Gauss-
Lobatto).
— La quatrième réponse est : les équations algébriques peuvent être écrites (pour
une équation différentielle linéaire) comme une équation matricielle, qui peut
alors être résolu par plusieurs logiciels.

1.3.3 Choix des fonctions de base


Une question importante : Quel "base fonctionnelle" ϕn (x) va marcher ?
Il est évident que nous aimerons que notre base est caractérisé par un certain nombre

28
de propriétés, un calcul facile, une convergence rapide, et qu’elle soit complet. Ce qui
signifie que toute solution peut être représentée avec une précision arbitrairement
grande en prenant la troncature N suffisamment grande.
Bien que nous discuterons de nombreux types de fonctions de base, le meilleur
choix pour 95% d’applications est les bases de Fourier, ou bien les bases de Fourier
cachées. Où "caché" signifier un changement de variable qui transforme les sinus et
les cosinus d’une série de Fourier en fonctions différentes. Le déguisement le plus
important est celui porté par les polynôme de Chebychev, qui sont définis par :

Tn (cosθ) ≡ cos(nθ), (1.3.10)

tel que les Tn (x) sont des polynôme en x, et sont généralement considéré comme des
espèces distinctes de fonctions de base. Une série de Chebychev est vraiment juste
un développement de cosinus de Fourier avec un changement de variables.

Choix selon les conditions aux limites

Normalement, les conditions aux limites et initiales ne sont pas la complication


majeur dans les méthodes spectrales. Par exemple, lorsque les conditions aux limites
exigent que la solution soit spatialement périodique, les sinus et les cosinus d’une
base de Fourier (qui sont les fonctions de base naturels pour tous les problèmes
périodiques) automatiquement satisfaire les conditions aux limites. Par conséquence,
notre seule tâche restante est de choisir les coefficients de la série de Fourier afin de
minimiser la fonction résiduelle.

Périodique Non périodique


Fourier Chebychev ou Legendre
θ ∈ [0, 2π] x ∈ [−1, 1]

Semi infini Infini


Chebychev rationnel ou Laguerre Chebychev rationnel ou Hermite
x ∈ [0, ∞[ x ∈] − ∞, ∞[

Table 1.1: Choix des fonctions de base.

 En haut à gauche : sur un intervalle périodique, utilisez les sinus et les


cosinus.
 En haut à droite : un intervalle fini, qui peut toujours être remis à l’échelle
et traduit en x ∈ [−1, 1]. Les polynômes de Chebyshev ou de Legendre sont
optimales.
 En bas à gauche : un intervalle semi-infini x ∈ [0, ∞[. Les fonctions rationnel
de Chebyshev sont les choix générique, mais les fonctions de Laguerre sont
parfois plus commode pour des problèmes particuliers.
 En bas à droite : x ∈] − ∞, ∞[. Les fonctions rationnelle de Chebychev sont
les plus générales, mais les fonctions sinc et Hermite sont largement utilisés,
et ont des propriétés semblables de convergence.

29
1.3.4 Les deux royaumes
Les méthodes spectrales se répartissent en deux grandes catégories, la plupart
de ces derniers peuvent être classés comme des méthodes d’interpolation et de non-
interpolation. La classification mathématique peut être ambiguë, parce que certains
algorithmes mélangent les idées des deux royaumes.
Les méthodes d’interpolation ou les méthodes « pseudo-spectral » associent une
grille de points avec chaque ensemble de base. Les coefficients d’une fonction u se
trouvent en exigeant que la série tronquée soit identique avec u en chaque point de la
grille. De même, les coefficients ũk d’un rapprochement pseudo-spectral à la solution
d’une équation différentielle se trouvent en exigeant que la fonction résiduelle soit
nulle dans les points de la grille
R(xi , ũ0 , ũ1 , . . . , ũN ) = 0, i = 0, 1, . . . , N.

En d’autres termes, une méthode pseudo-spectral exige que l’équation différen-


tielle soit exactement satisfaite à un ensemble de points connus sous le nom des
points de collocation ou les points d’interpolation.
On peut supposer que, comme le résidu R(x, ũk ) est obligé de disparaître à un grand
nombre de points discrets, il sera plus petit et plus faible dans les interstices entre
les points de collocation, et donc uN (x) converge vers u(x) lorsque N augmente.
Dans la royaume des algorithmes de la non-interpolation qui comprend (la mé-
thode de Galerkin et la méthode Tau de Lanczos). Il n’y a aucune grille de points
d’interpolation. Au lieu de cela, les coefficients d’une fonction inconnue u sont calcu-
lés en multipliant cette dernière par une fonction de base donnée puis en effectuant
une intégration.
Il est tentant de décrire la différence entre les deux royaumes algorithmiques
par l’intégration et l’interpolation, mais malheureusement ce n’est un peu simpliste.
Beaucoup de livres anciens, tels que Fox et Parker (1968), montrent comment on peut
utiliser les propriétés des fonctions de base (les relations de récurrence, les identités
trigonométriques, . . . ) pour calculer les coefficients sans effectuer explicitement des
intégrations.
Historiquement, les méthodes de la « non-interpolation » ont été développés en
premier. Pour cette raison, le label « spectral » est parfois utilisé dans un sens étroit
comme une étiquette collective pour ces méthodes.

1.3.5 La non-linéarité
La non-linéarité n’est pas la complication majeure des méthodes spectrales en
soi. Par souci de simplicité d’exposé, nous allons concentrer généralement sur des
algorithmes linéaires, en particulier pour l’explication des idées de base. L’extension
aux problèmes non linéaires généralement ne nécessite que des petites modifications.
Pour illustrer cela, nous ferons un problème de valeurs aux limites non linéaire
très simple. Dans cet exemple, on applique une méthode spectrale. La seule diffé-
rence à partir d’un problème linéaire est que le système d’équations algébriques des
coefficients est non linéaire [27].
Le problème aux limites non linéaire est
! !2 !
∂ 2u ∂u ∂ 2u
2
+α + αu = 0. (1.3.11)
∂x ∂x ∂x2

30
Sous les conditions aux limites
u(0) = 0, u(1) = 1.
Nous prendrons la solution approchée u2 (x) comme étant un polynôme quadratique.
Le polynôme quadratique le plus général qui satisfait les conditions aux limites est
u2 = x + ũ2 (x2 − x).
Comme il n’y a qu’un seul coefficient ũ2 indéterminée, un seul point de collocation
est nécessaire. Le choix évident, le point milieu de l’intervalle.
La fonction résiduelle est
R(x, ũ2 ) = ũ22 α[6x2 − 6x + 1] + 2ũ2 [3αx + 1 − α] + α.

Figure 1.13: Comparaison de solutions exacte et approximative (équation de diffusion non linéaire).

La condition que R(x = 1/2, ũ2 ) = 0 donne alors l’équation quadratique


ũ22 α[−1/2] + 2ũ2 [α/2 + 1] + α = 0.
Nous constatons un fait amusant : même si les méthodes pseudo-spectral sont géné-
ralement considérées uniquement comme des techniques numériques, nous avons en
fait obtenu une solution analytique à ce problème non linéaire. Pour voir comment
elle est précise, nous spécialiser α = 1 pour lequel la solution exacte est
u(x, α = 1) = −1 + (1 + 3x)1/2 . (1.3.12)
Il y a deux racines de l’équation quadratique, bien sûr, mais on donne un flux de
chaleur non physique vers la source en x = 1, de sorte qu’il peut être rejetée.
La solution approchée
u2 (x, α = 1) = x − 0.317(x2 − x). (1.3.13)
La figure (1.13) compare les solutions exactes et approchées.
La valeur maximale de u(x) est de 1.00, l’erreur absolue maximale de la solution
pseudo-spectral (au point 1) est seulement 0.014.
La figure montre que même si les formes fonctionnelles de (1.3.12) et (1.3.13) ne
ressemblent pas évident, les deux graphiques diffèrent si peu qu’il est difficile de les
distinguer. Dans les problèmes de la vie réelle, bien sûr, la solution exacte n’est
pas connue, mais l’exactitude d’une solution approchée peut être testée en répétant
le calcul avec un grand N . Ce problème est particulièrement difficile car il est non
linéaire, donc pour tout N , nous allons toujours se retrouver avec une équation
algébrique non linéaire ou d’un ensemble d’équations pour déterminer la solution.
Une des grandes vertus de la méthode pseudo-spectral est la facilité avec laquelle
elle peut être appliquée à des équations différentielles non linéaires.

31
Chapitre

2 Méthodes spectrales de base

Une formulation générale d’un problème d’EDP :


∂u
(x, t) = F (u)(x, t) + f (x, t) x∈Ω t ≥ 0,
∂t
Bu(x, t) = g(t) x ∈ ∂Ω t > 0,
u(x, 0) = u0 (x) x ∈ Ω.

— Ω : un domaine borné de Rn de frontière ∂Ω.


— On cherche u(x, t) fonction du temps à valeur dans un espaces de Hilbert H
muni d’une norme k · k.
— f : un élément de H.
— F : une fonction de H dans H.
— B : un opérateur de trace, déterminant les conditions aux limites, on l’omettra
si le domaine est périodique.
— u0 (x) : une condition initiale.
Les méthodes spectrales consistent à décomposé les éléments de H sur une base de
fonctions (ϕk )k=1...∞ .
On cherche :
N
X
uN (x, t) = ũk ϕk (x),
k=1

élément de l’espace BN engendré par les N premières fonctions de base, de telle


sorte que cette fonction approxime la vraie solution du problème.
On défini le résidu associé à l’approximation uN par
∂uN
RN = − F (uN ) − f,
∂t
ce résidu serait nul si uN était la vraie solution. On cherche donc à le rendre "petit".
Pour cela on impose que RN soit nul en projection sur un sous-espace de H de
dimension N . Cette projection PN dépend de la méthode spectrale employée [44].
On a donc remplacé le problème initial par le problème approché

Trouver uN ∈ BN tel que PN RN = 0.

On est alors ramené notre problème à la résolution de N équations différentielles en


temps dont les inconnues sont les ũk .

32
2.1 Méthode de Galerkin
En mathématiques, dans le domaine de l’analyse numérique, les méthodes de
Galerkin forment une classe de méthodes permettant de transformer un problème
continu (par exemple une équation différentielle) en un problème discret. Cette ap-
proche est attribuée aux ingénieurs russes Ivan Boubnov 1 (1911) et Boris Galer-
kin 2 (1913)[28]-[45].

Principe de la méthode :

La méthode de Galerkin est applicable pour les équations avec des conditions
aux limites périodiques ou homogènes.
Soit B = {ν ∈ H, Bν = 0} le sous-espace des fonctions de H vérifiant les
conditions aux limites. Dans cette méthode les (ϕk )k=1...∞ forment une base de B.
En cherchant ∞ X
uN = ũk ϕk ,
n=1

dans BN engendré par les (ϕk )k=1...N , on est sûr de trouver une fonction (une solu-
tion) vérifiant les conditions aux limites.
Soit PN⊥ la projection orthogonale de H sur BN . La méthode de Galerkin consiste à
résoudre le problème approché suivant
N
tel que PN⊥ RN = 0
X
uN = ũk ϕk ∈ BN
k=1

∂uN
avec RN = − F (uN ) − f.
∂t

Exemple 1
Équation de la chaleur avec des conditions périodiques aux bords (de type Dirichlet).

∂u = ν ∂ 2 u + f

 x ∈ [0, π],
∂t ∂x2




u(0, t) = u(π, t) = 0 ∀t > 0,
u(x, 0) = u0 (x).

H = L2 (0, π) avec les fonctions de base

ϕk (x) = sin kx, k = 1, . . . ∞,

qui vérifier les conditions aux limites.


On a ∞ X
f= fk (t) sin kx,
k=1

1. Ivan Grigorievitch Boubnov (18 janvier 1872 à Nijni Novgorod - 13 mars 1919 à Pétrograd),
ingénieur naval de la marine militaire russe, est le principal concepteur des premiers sous-marins
russes.
2. Boris Galerkine (Boris Grigorievitch Galiorkin), né le 20 février 1871 à Polotsk (Biélorussie)
et mort le 12 juillet 1945, est un mathématicien et un ingénieur russe. Son nom reste lié à une
méthode de résolution approchée des structures élastiques.

33
et on cherche
N
X
uN (x, t) = ũk (t) sin kx.
k=1

Calculons le résidu
∂uN ∂ 2 uN
RN = −ν −f
∂t ∂x2
N N
dũk
+ k 2 ũk ) sin kx −
X X
= ( fk sin kx.
k=1 dt k=1

Dire que RN est orthogonal à BN revient à poser les N équations :


dũk
= −k 2 ũk + fk k = 1, . . . N.
dt
On décompose

ũ0k sin kx,
X
u0 (x) =
k=1

ce qui donne N conditions initiales

ũk (0) = ũ0k pour k = 1 . . . N.

On résoud alors ces N équations différentielles, soit par un schéma numérique,


soit analytiquement lorsque cela est simple comme ici :
fk 2 2
ũk (t) = 2
(1 − e−k t ) + a0 e−k t
k

La mise en ouvre de l’exemple (1) En Maxima

Galerkin(EDP, base, X, a, b, ua, ub, t0, u0, N):= block (

/* Entrer une EDP, une base(expression), list de variables,


les bords du domaines, les conditions aux bords,
la condition initiale), l’ordre du développement.*/

[l:[],v:[]],

if (ev (base,map("=",X,a)) # ua) or (ev (base,map("=",X,b)) # ub)


then

/* Pour assurer que la base choisi


vérifie les conditions aux limites.*/

(
print ("Entrer une base qui vérifie les conditions aux bords")
)
else
(
print ("f_N = ", ’sum(f(k)* sin (k*x),k,1,N) = nusum(f(k)* sin (k*x),k,1,N)),
print ("u_N = ", ’sum(u(k)* sin (k*x),k,1,N) = nusum(u(k)* sin (k*x),k,1,N)),

34
print ("R_N = ", ’diff(’sum(u(k)* sin (k*x),k,1,N),t) -
c* ’diff(’sum(u(k)* sin (k*x),k,1,N),x,2) - (’sum(f(k)* sin (k*x),k,1,N))

for i:1 thru N do


(
atvalue(u(t),t=t0,u0),
l : cons(diff(u[i](t),t)+i^2*u[i](t)-f[i],l),
v : cons(u[i](t),v)
),
print ("Les coefficients spectraux de cette décomposition sont : "),
desolve(l, v))
)
);
/* L’appel de la fonction Galerkin pour notre exemple */
Galerkin (’diff(u,t)= c*’diff(u,x,2)+f, sin(k*x),[k*x],[0],[%pi],0,0,0,0,5);

Remarque 2.1
Remarquons que la vraie solution

X
u(x, t) = ũk sin nx,
k=1

se décompose avec les mêmes coefficients (modulo de troncature) que ceux de la


solution approchée uN , qui se trouve être par conséquent la projection orthogonale
de u sur BN . Ce n’est pas le cas lorsque F est non linéaire comme dans l’exemple
suivant.

Exemple 2
Équation de Burgers périodique

∂u + u ∂u = ν ∂ 2 u + f


x ∈ Γ cercle unité [0, 2π]
∂t ∂x ∂x2

u(x, 0) = u0 (x).

H = L2 (Γ, C) avec les fonctions de base ϕk (x) = eikx , k ∈ Z.


On pose N = 2K + 1. Soit BN engendré par {eikx }−K≤k≤K .
On cherche
K
ak (t)eikx .
X
uN =
k=−K

Pour calculer le résidu


∂uN ∂uN ∂ 2 uN
RN = + uN −ν − f.
∂t ∂x ∂x2

Il faut effectuer le produit de convolution discret :


k k
∂uN
ap eipx )( i qaq eiqx )
X X
uN = (
∂x p=−k q=−k

i qap aq ei(p+q)x .
X
=
(p,q)∈ϕ

35
q

Dk
−k k
p

−k
Dk

Figure 2.1: Segment de droite Dk dans le carré ϕ et la droite Dk .

où ϕ désigne le carré [−K, K] × [−K, K].


En factorisant eikx on regroupe les termes (p, q) ∈ Dk où Dk désigne l’intersection
de la droite p + q = k avec le carré : Dk = {(p, q) ∈ ϕ, p + q = k} .

2K
∂uN
iq ap aq )eikx .
X X
uN = (
∂x k=−2K (p,q)∈DK

En effectuant la projection orthogonale sur BN de cette expression il ne reste que


les termes k ∈ [−K, K] de la sommation.
La méthode de Galerkin conduit donc au système :
dak
i qap aq = −νk 2 ak + fk
X
+ k ∈ [−K, K].
dt (p,q)∈Dk

Comparons les coefficients ak avec ceux de la vraie solution

Ak (t)eikx
X
u(x, t) =
k∈Z

qui vérifient :
dAk
i qAp Aq = −νk 2 Ak + fk
X
+ k ∈ Z.
dt (p,q)∈Dk

où Dk désigne la droite de Z2 p + q = k toute entière.


On voit que contrairement au cas où F est linéaire uN n’est pas la projection or-
thogonale de u. En effet dans le cas approché le couplage des équations s’effectue
par le segment de droite Dk au lieu de la droite toute entière Dk dans le cas du vrai
problème.

36
Problèmes non périodiques

Pour des problèmes non périodiques, les ensembles de fonctions choisies comme
bases des solutions pour certaines équations différentielles, les solutions des pro-
blèmes de Sturm-Liouville singulier[ voir [44], Chap 2].
Par exemple, l’ensemble des polynômes de Chebyshev définis par

Tk (x) = cos(k arccos(x)),

sont des solutions de l’équation différentielle suivante dans l’intervalle [−1, 1]


√ k2
−( 1 − x2 Tk0 (x))0 = √ Tk (x).
1 − x2
Il est facile de prouver que ces fonctions sont en effet polynômes, puisque T0 (x) = 1,
T1 (x) = x, et à l’aide les identités trigonométriques, on peut arriver à la relation de
récurrence
Tk+1 = 2xTk − Tk−1 .
Le développement prend la forme
N
X
uN (x) = ũk Tk (x),
k=0

avec Z 1
ũk = u(x)Tk (x)w(x)dx,
−1
et
1
w(x) = (1 − x2 ) 2 .
Notez que, après le changement de variable x = cos(θ), Les polynômes de Chebyshev
devenir des fonctions cosinus.
Si une fonction u est développée dans la base de Chebyshev comme

X
u(x) = ũk Tk (x),
k=0

la dérivée peut également être exprimée comme une série de Chebyshev



0
X (1)
u (x) = ũk Tk (x),
k=0

(1)
dont les coefficients ũk sont calculés à l’aide de la relation de récurrence
1 0 1
2Tk (x) = Tk+1 (x) − T 0 (x), k ≥ 1. (2.1.1)
k+1 k − 1 k−1
Pour plus d’informations [voir l’annexe].
Par exemple, lorsque l’on considère une approximation uN comme ci-dessus, nous
avons de (2.1.1) que
(1) (1)
2kũk = ck−1 ũk−1 − ũk+1 , pour k ≥ 1

37
avec ck = 2 pour k = 0, . . . , N et 1 sinon.
(1)
Nous avons aussi ũk = 0, pour k ≥ N , et les coefficients restants peuvent être
calculées par ordre décroissant
(1) (1)
2kũk = ck−1 ũk−1 − ũk+1 , pour 0 ≤ k ≤ N − 1

Cette relation peut être facilement généralisée pour obtenir des dérivés d’ordre su-
périeur.
Un autre ensemble d’une grande utilité est l’ensemble des polynômes de Legendre,
définis comme les solutions du problème de Sturm-Liouville

−((1 − x2 )L0k (x))0 = k(n + 1)Lk (x).

Les coefficients spectraux du développement



X
u(x) = ũk Lk (x),
k=0

sont définis comme Z 1


ũk = u(x)Lk (x)dx,
−1

où la fonction de poids w(x) = 1 rend beaucoup plus facile à démontrer des théo-
rèmes pour cet ensemble que pour les polynômes de Chebyshev.

2.2 Méthode Tau

Principe de la méthode :

La méthode Tau de Lanczos 3 est applicable pour les équations avec des condi-
tions aux limites non périodiques.
Si F (l’opérateur de différentiation) contient des dérivations d’ordre k les condi-
tions aux limites sont au nombre de k : Bu = g (g ayant k composantes).
Soit (ϕn )n=1...∞ une base orthogonale ne vérifiant pas les conditions aux limites.
La méthode consiste à chercher

X
uN = an ϕ n ,
n=1

dans BN tel que

PN⊥−k RN = 0 N − k équations
BuN = 0 k équations

• PN⊥−k RN désigne la projection orthogonal de H sur BN −k .


• uN est alors déterminé par N équations différentielles.

3. Cornelius Lanczos, (né le 2 février 1893 à Székesfehérvár et décédé le 25 juin 1974 à Budapest)
est un mathématicien et physicien hongrois.

38
Exemple 3
Équation de la chaleur avec des conditions non périodiques

∂u = ν ∂ 2 u + f

 x ∈ [−1, 1] t ≥ 0
∂t ∂x2


 u(−1, t) = g1 ; u(1, t) = g2 t > 0

u(x, 0) = u0 (x).


H = L2 ([−1, 1], dx/ 1 − x2 ), avec comme fonctions de base les polynômes de Che-
bychev (Tn )n∈N .
On cherche
N
X
uN = an (t)Tn (x),
n=0

dans BN de dimension N + 1.
On pose
−1
∂ 2 u NX
= a(2)
n (t)Tn (x).
∂x2 n=0

Les coefficients a(2)


n sont donnée par la formule

N
2 X
a(2)
n = pap avec c0 = 2 et cn = 1.
cn p=n+1
step2

[voir L’annexe : Calcul des coefficients de Chebychev de F (u)].


Donc
N ∞
dan
− νa(2)
X X
RN = ( n )Tn + fn Tn .
n=0 dt n=0

Comme k = 2 on pose nulle la projection de ce résidu sur BN −2 :


dan
= νa(2)
n + fn n = 0...,N − 2 N − 1 équations.
dt
Les conditions aux limites s’écrivent

N N
(−1)n an = g1 ,
 X X
an Tn (−1) =





 n=0
 n=0
2 équations
N N



 X X



 an Tn (1) = an = g2 .
n=0 n=0

Ces N + 1 équations permettent de trouver les (N + 1) an (t), en utilisant les


conditions initiales ∞
a0n Tn (x).
X
u0 (x) =
n=0

Mise en ouvre de l’exemple (3) En Maxima

Tau(EDP,N,k,t0,u0,c):=block(
[l:[],v:[],a2:[] ],

print( "L’approximation de la solution est donnée par u_N =",


’sum(a[n]* cos(n*acos(x)),n,0,N)=nusum(a[n]* cos(n*acos(x)) ,n,0,N)),

39
print("L’approximation du second membre est donnée par f_N =",
’sum(f[n]* cos(n*acos(x)),n,1,N)= nusum(f[n]* cos(n*acos(x)),n,1,N)),

/*calcule des coefficients a2*/


S0:0,
for q:1 step 2 thru N do (
S0:S0+q*a[q](t)
),

a2:endcons(S0,a2),
for n:1 thru N-1 do (
S:0,
for p:n+1 step 2 thru N do (
S:S+p*a[p](t)
),
a2: endcons(2*S,a2)
),

print("Les coefficients de Chebychev de la dérivé second sont :",a2),


Som:0,

for z:1 thru N do (


Som:Som+a2[z]*cos(z*acos(x))
),

print ("L’approximation de la dérivé second par rapport


à x est donnée par :", Som),
print ("La fonction résiduelle est donné par R_N = ",
’sum( (’diff(a(n),t)-c*Som+ f(n)) *cos(n(acos(x))) , n,0,N ) ),

/*Détermination des N-k equations ordinaires*/

for i:1 thru N-k do (


atvalue(a(t),t=0,0),
l:endcons(diff(a[i](t),t)-c*a2[i]-f[i],l),
v:endcons(a[i](t),v)
),

/*Détermination des 02 equations algebriques*/

e1:0,e2:0,
for n:1 thru N do (
e1:e1+((-1)^n)*a[n](t),
e2:e2+a[n](t)
),

E1:e1-g1,
E2:e2-g2,

40
/*Formulation du système final*/

l:endcons(diff(E1,t),l),
l:endcons(diff(E2,t),l),

for i:N-k+1 thru N do (


v:endcons(a[i](t),v)
),

print("Les coefficients spectraux sont",desolve(l,v)),


for i :1 thru N do (
S:S+reverse(desolve(l,v)[i])*cos(i*acos(x))
),

print("L’approximation par la méthode Tau est donnée par u_N(x,t) = ",S)


);

/* L’appel de la fonction Tau pour notre exemple */

Tau(’diff(u,t)= 4*’diff(u,x,2)+f, 5,2,0,0,4 );

2.3 Méthode de collocation

Principe de la méthode :

Comme la méthode de Galerkin, elle est applicable pour les problèmes où les
conditions aux limites sont périodiques ou bien homogènes. Et comme pour la mé-
thode de Galerkin les (ϕk )k=1,...,∞ forment une base complète de B, et vérifiant donc
les conditions aux limites.
On se donne de plus (xi )i=1,··· ,N (N points) dits de collocation dans Ω tels que la
matrice (ϕn (xi ))N ×N soit inversible.
La méthode consiste à chercher
N
X
uN = an ϕ n ,
n=1

dans BN (engendré par les N fonctions de base) tel que son résidu

∂uN
RN = + F (uN ) − f,
∂t
vérifier les N conditions

RN (xi ) = 0 i = 1, · · · , N.
Ces N conditions s’écrivent encore
PNc RN = 0
où PNc désigne la projection de collocation définit comme suit :
Soit v ∈ H, et
vi = v(xi ), i = 1, · · · , N

41
les valeurs de cette fonction aux points de collocation.
Il existe une seule fonction PNc de BN prenant les mêmes valeurs aux mêmes points
de collocation.
En pratique cette projection s’effectue simplement à condition de savoir inverser
la matrice
M = (ϕn (xi )).
Pour en bien comprendre le mécanisme introduisant deux isomorphismes

Φsp : BN −→ δp = CN
N
X
w= bn ϕn 7−→ (b1 , b2 , · · · , bN )
n=1
Φph : BN −→ =h = CN
w 7−→ (w1 , w2 , · · · , wN ) avec wi = wxi .

On appelle δp "l’espace spectrale" et =h "l’espace physique".


De ces deux isomorphismes on déduit un troisième de δp dans =h définit par
N
X
bn ϕn (xi ) = wi i = 1, · · · , N.
n=1

δp =h
δ1 m v1 = v(x1 )
| |
| |
| |
w
δ vN = v(xN )

Φsp Φph
BN

PNc v

PNc

Figure 2.2: Projection de collocation d’une fonction ν ∈ H.

Sa matrice pour les bases canonique est donc

M = (ϕn (xi )).

Ces isomorphismes δp ∼ BN ∼ =h permettent de décomposer la projection de


collocation.
Étant donnée une fonction v ∈ H, les N valeurs vi = v(xi ) déterminent la projection
Pnc dans l’espace physique et en appliquant M−1 on obtient ses coefficients dans
l’espace spectral.
• La puissance de la méthode de collocation réside dans la simplicité de la projection
des termes non linéaires[44].
Par exemple, la projection de collocation de v 2 est donnée par (vi )2i=1,··· ,N , celle de

42
sin v par sin(vi )i=1,··· ,N etc · · · .
De plus toute fonction de BN se projette en elle même.
On calcule donc facilement la projection de collocation du résidu RN en effectuant
des allers et retours entre l’espace spectral où sont calculées les dérivations et l’espace
physique où sont projetés les termes non linéaires.

Exemple 4
Équation de Burgers périodique

∂u + u ∂u = ν ∂ 2 u + f,


x ∈ Γ(cercle unité [0, 2π]), t≥0
∂t ∂x ∂x2

u(x, 0) = u0 (x).

H = L2 (Γ, C), avec la base (eikx )k∈Z .


BN est engendré par les (eikx )−K ≤ k ≤ K , alors N = 2k + 1 Sur Γ = [0, 2π].

δp =h

m 1 uN ∂u N
(xi )
ak ∂x
2
m 3 ∂uN
(xi )
ikak ∂x

w 4
5
bk uN (xi )

Φph

BN

uN

∂uN
∂x
h i
∂uN
PNC uN ∂x

PcN

uN ∂u
∂x
N
∈H

Figure 2.3: Calcul des bk connaissant les bK .

Les points de collocation sont choisis à intervalles réguliers :


2πi
xi = , i = 1, · · · , N.
N
On a
M = (expikxi )
matrice N × N .
L’inconnue est
K
ak expikx .
X
uN =
k=−K

43
Il faut calculer la projection du résidu
∂uN ∂ 2 uN ∂uN
RN = −ν − uN − f.
∂t ∂x2 ∂x
Les deux premiers termes appartiennent à BN et sont invariants par PNc .
Pour projeter uN ∂u N
∂x qui n’est pas un élément de BN on procède comme suit :
Des (ak )−K≤k≤K coefficients spectraux de uN on déduit très simplement (ikak )−K≤k≤K
coefficients de ∂u N
∂x .
En appliquant la matrice M à ces deux vecteurs on en déduit
[uN (xi )]i=1,··· ,N
et " #
∂uN
(xi )
∂x i=1,··· ,N

les coefficients de uN et ∂u N
∂x dans l’espace physique.
Les coefficients de !
∂uN
PNc uN .
∂x
dans l’espace physique sont
" #
∂uN
uN (xi ) (xi ) .
∂x i=1,··· ,N

En y appliquant la matrice M−1 on calcule les (bk )−K≤k≤K coefficients spectraux de


cette projection, ce qui a coûté au total deux multiplication par M et une par M−1
Le problème approché de la méthode de collocation s’écrit alors dans l’espace spec-
tral :
dak
PNc = 0 ⇐⇒ + bk = −νk 2 ak + fk k = −k, . . . , k.
dt

2.4 Méthode Tau-Collocation

Cas d’applications :

Sont les mêmes que pour la méthode Tau. Conditions aux limites non pério-
diques.

Principe de la méthode

• Comme pour la méthode Tau (ϕn )n=1,··· ,∞ est une base orthogonale ne vérifiant
pas les k conditions aux limites.
• Comme pour la méthode de collocation (xi )i=1,··· ,N sont les N points du do-
maine Ω et l’on sait appliquer rapidement M = (ϕn (xi )) et son inverse.
On calcule la projection PNc RN avec allers et retours entre l’espace spectral et l’es-
pace physique.
Soit PN⊥−k la projection orthogonale sur BN −k . Les N conditions déterminant uN ∈
BN par cette méthode sont
PN⊥−k PNc RN = 0
BuN = 0.

44
Exemple 5
Équation de Burgers non-périodique

∂u + u ∂u = ν ∂ 2 u + f

 x ∈ [−1, 1] t ≥ 0
∂t ∂x ∂x2




u(−1, t) = g1 u(1, t) = g2 t > 0,
u(x, 0) = u0 (x)

H = L2 ([−1, 1], √ dx 2 ).
1−x
(Tn )n∈N base des polynômes de Chebychev.
En choisissant comme points de collocation les

 
xj = cos j ,
N +1 j=0,...,N

et N pair on peut utiliser l’algorithme de Transformée de Fourier Rapide pour ap-


pliquer la matrice

 
M = (Tn xj ) = cos nj .
N +1
Les N + 1 équations du problème approché s’écrivent :
Trouver
N
X
uN = an Tn ,
n=0

dans BN (de dimension N + 1 ici), tel que



dan + bn = νa(2) n = 0, . . . N − 2
n + fn

dt



N



(−1)n an = g1

 X

 n=0
N



 X



 an = g2
n=0

avec
N
a(2)
X
n = pap ,
p=n+1
step 2
 
et bn coefficients spectraux de PNc uN ∂u N
∂x .

Quelle méthode utiliser ?

Tableau 2.1 résume les conditions d’application des quatre méthodes spectrales
précédentes.

Méthodes Domaines d’application


Galerkin et collocation conditions aux limites périodiques ou homogènes
Tau et Tau-collocation conditions aux limites non périodiques

Table 2.1: Domaines d’application des méthodes spectrales.

Tableau 2.2 donne une indication sur le choix d’une méthode. Ce tableau n’a rien

45
de catégorique et il sert juste à fixer les idées. Lorsque F est linéaire la méthode de
Galerkin (resp Tau) est identique à la méthode de collocation (resp Tau-collocation).
Lorsque F est non linéaire 4 ces dernières sont plus rapides en temps de calcul, à
condition de posséder un algorithme de transformation rapide entre espace spec-
tral et espace physique. Tableau 2.3 indique les principales fonctions de bases

HH F
HH
F linéaire à coefficients F quelconque
C.L HH
constant
Périodiques Galerkin (exemple : chaleur pério- Collocation (exemple : Burgers
dique) périodique)
Non pério- Tau ou Galerkin (exemple : cha- Tau-collocation (exemple : Bur-
diques leur non périodique) gers non périodique)

Table 2.2: Essai de classification du choix de la méthode pour des applications pratiques.

pour lesquelles il existe de tels algorithmes de transformation. : Orszag a mis au


point des algorithmes rapides pour les polynômes de Legendre ou de Laguerre [voir
[50]].

Conditions Méthodes Domaines et fonctions de base


aux limites
Périodiques Galerkin et col- x ∈ Γ cercle unité [0, 2π] (eikx )k∈Z , (sin nx)n∈N∗ , ou
location (cos nx)n∈N
Non périodiques Tau et Tau- x ∈ [−1, 1] Polynôme de Chebychev, Legendre ou
collocation Laguerre

Table 2.3: Fonctions de bases usuelles.

4. ou linéaire avec des coefficients dépend de x.

46
Chapitre

Exemples des méthodes spec-


3 trales

Les méthodes spectrales ne distinguent non seulement par le type de la méthode


(Galerkin, collocation, Galerkin avec intégration numérique, Tau), mais aussi par le
choix particulier des fonctions testes (fonctions d’essai). Les fonctions d’essai les plus
souvent utilisées sont les polynômes trigonométriques, les polynômes de Chebychev
et de Legendre.
Dans [15]-[16]-[17] les auteurs présentent une approche assez générale de l’analyse
de stabilité et de convergence des méthodes spectrales. Il peut être utile de spécifier
précisément ce que l’on entend ici par la stabilité d’une approximation spatiale
basée sur une méthode spectrale : Un schéma sera appelé stable s’il est possible de
contrôler la solution discrète par les données de manière indépendante du paramètre
de discrétisation N (le degré des polynômes utilisés). Cela signifie qu’une norme
appropriée de la solution est bornée par un multiple constant d’une norme appropriée
des données, et toutes les normes impliquées, ainsi que la constante, ne dépendent
pas de N. En d’autres termes, pour une donnée fixe, toutes les solutions discrètes
produites par le schéma spectral, comme N tend vers l’infini, se trouvent dans un
sous-ensemble borné d’un espace linéaire normé.
Nous commençons par un réexamen de certains exemples. L’objectif ici est d’in-
troduire les aspects saillants des différentes méthodes d’analyse.

3.1 Méthode de Fourier-Galerkin pour l’équation


d’onde
La plus part d’équations d’évolution s’écrivent sous la forme
∂u
= M(u), (3.1.1)
∂t
oú u(x, t) est la solution, et M(u) est un opérateur (linéaire ou non-linéaire) qui
contient toutes les dérivées spatiales de u. L’équation (3.1.1) doit être couplée avec
une condition initiale u(x, 0) et des conditions aux limites.
Pour simplifier, supposons qu’il existe une seule dimension spatiale et que le
domaine spatiale est [0, 2π], et que les conditions aux limites sont périodiques.

47
La solution approchée est représentée par
N/2
X
uN (x, t) = ak (t)φk (x). (3.1.2)
k=−N/2

Les φk sont des fonctions d’essai, tandis que les ak sont les coefficients du dévelop-
pement. En général, uN ne satisfait pas (3.1.1), i.e., le résidu
∂uN
− M(uN )
∂t
ne disparaitra pas partout. L’approximation est obtenue par la sélection d’un en-
semble de fonctions tests ψk et en exigeant que
Z 2π " #
∂uN
− M(uN ) ψk (x) dx = 0 pour k = −N/2, . . . , N/2, (3.1.3)
0 ∂t
oú les fonctions tests déterminent le poids du résidu.
La méthode spectrale la plus simple pour les problèmes avec conditions aux
limites périodique est basée sur les polynômes trigonométrique.
φk (x) = eikx , (3.1.4)
1 −ikx
eψk (x) =
. (3.1.5)

Les fonctions d’essai et les fonctions test sont pratiquement les mêmes, et elles
satisfaisaient la condition de la bi-orthogonalité
Z 2π
φk (x)ψl (x)dx = δkl . (3.1.6)
0

Si c’était simplement un problème d’approximation, alors (3.1.2) serait la série


de Fourier tronquée de la fonction connue u(x, t) avec
Z 2π
ak (t) = u(x, t)ψk (x)dx (3.1.7)
0

être simplement les coefficients de Fourier. Pour une (EDP), cependant, u(x, t) n’est
pas connue. L’approximation (3.1.2) est déterminée par (3.1.3).
Pour le problème linéaire hyperbolique
∂u ∂u
− =0 (3.1.8)
∂t ∂x
i.e., pour
∂u
M(u) = , (3.1.9)
∂x
la condition (3.1.3) devient
 
N/2
1 Z 2π
∂ ∂
al (t)eilx  e−ikx dx = 0.
X
( − )
2π 0 ∂t ∂x l=−N/2

Les deux étapes suivantes sont la différenciation analytique (spatiale) des fonctions
d’essai  
1 Z 2π  N/2
!
dal
− ilal eilx  e−ikx dx = 0,
X
2π 0 l=−N/2
dt

48
et l’intégration analytique de cette expression, qui produit le système dynamique
dak
− ikak = 0, k = −N/2, . . . , N/2. (3.1.10)
dt
Les conditions initiales pour ce système d’équations différentielles ordinaires (EDO)
sont les coefficients de développement de la condition initiale. Pour l’approximation
de Galerkin, Z 2π
ak (0) = u(x, 0)ψk (x)dx (3.1.11)
0
Pour la méthode de Galerkin stricte, les intégrales telles que celles qui apparaissent
dans (3.1.11) doit être calculé analytiquement. La condition initiale

u(x, 0) = sin(π cos x) (3.1.12)

est utilisé pour illustrer la précision de la méthode de Fourier-Galerkin pour (3.1.8).


La solution exacte
u(x, t) = sin[π cos(x + t)], (3.1.13)
a le développement de Fourier

ak (t)eikx ,
X
u(x, t) = (3.1.14)
k=−∞

oú les coefficients de Fourier sont



ak (t) = sin( )Jk (π)eikt , (3.1.15)
2
et Jk (t) est la fonction de Bessel d’ordre k.
Les propriétés asymptotiques des fonctions de Bessel impliquent que

k p ak (t) −→ 0 Quand k −→ ∞ (3.1.16)

Pour tous entier positif p. Par conséquent, la série tronquée


N/2
ak (t)eikx ,
X
uN (x, t) = (3.1.17)
−N/2

converge plus vite que toute puissance finie de 1/N . Cette propriété est souvent
appelée par la convergence spectrale. Une illustration de la précision supérieur dis-
ponible à partir d’une méthode spectrale est fourni dans (??).
La figure (3.2) illustre l’erreur maximale fourni par la méthode spectrale de Ga-
lerkin après une période à (t = 2π). La méthode des différences finies d’ordre 2, la
méthode (explicite) des différences finies d’ordre 4 et la méthode compact d’ordre 4
et 6.
L’entier N représente le degré du développement (3.1.17) pour la méthode de Fourier-
Galerkin et le nombre de points de grille pour les différences finies et la méthode
compact.
La discrétisation en temps est faite par la méthode de Runge-Kutta classique
d’ordre 4, et les coefficients exactes initiaux de Fourier ont été utilisés pour la mé-
thode spectrale. Dans tous les cas, le pas du temps à été choisi tel que l’erreur de la
discrétisation temporelle était négligeable.

49
Erreurs maximales pour le problème hyperbolique linéaire à t = 2π pour le
Figure 3.1:
schéma Fourier-Galerkin et plusieurs schémas des différences finie.

Figure 3.2: Solutions numériques pour le problème hyperbolique linéaire à t = 2π pour N = 16 par la méthode de
Fourier Galerkin et plusieurs schémas des différences finie.

3.1.1 Stabilité et convergence


Le problème linéaire hyperbolique
∂u ∂u
− = 0, 0 < x < 2π, t>0
∂t ∂x
u(x, t) 2π périodique en x, t>0 (3.1.18)
u(x, 0) = u0 (x) , 0 < x < 2π

est approximé précédemment par un schéma de Galerkin (3.1.3). Pour tout t ≥ 0,


uN (x, t) est un polynôme trigonométrique de degré N en x, i,e., uN (t) ∈ SN , oú

SN = span{eikx / − N ≤ k ≤ N − 1}

La solution uN satisfait la relation intégrale suivante


Z 2π !
∂u ∂u
(x, t) − (x, t) ν(x) dx = 0 pour tout ν ∈ SN , t > 0. (3.1.19)
0 ∂t ∂x

qui est équivalente à (3.1.3) oú les ψk forment une base en SN , et, par la condition
initiale (3.1.11)
N −1
û0,k eikx .
X
uN (0) = PN u0 =
k=−N

50
Pour tout t > 0, on pose ν(x) = uN (x, t) en (3.1.19). Une intégration par partie
donne
Z 2π
∂uN 1
Re (x, t)ūN (x, t)dx = {|uN (2π, t)|2 − |uN (0, t)|2 } = 0
0 ∂x 2
par la condition de périodicité. Il en résulte que

1 d Z 2π 2
Z 2π
∂uN
|uN (x, t)| dx = Re (x, t)ūN (x, t)dx = 0,
2 dt 0 0 ∂t
i.e., la norme L2 (dans l’espace) de la solution spectrale est constante dans le temps.
Donc pour tout t > 0
Z 2π Z 2π Z 2π
|uN (x, t)|2 dx = |PN u0 (x)|2 dx ≤ |u0 (x)|2 dx.
0 0 0

et comme le coté droit est une constante, le schéma Galerkin


! (3.1.3) est stable.
∂u ∂u
D’autre part, la projection de l’équation − = 0 sur SN donne le résultat
∂t ∂x
que la série de Fourier tronquée PN u de la solution exacte u satisfait à tout t > 0,
Z 2π !
∂ ∂ ¯
PN u − PN u (x, t)ν(x)dx = 0, pout tout ν ∈ SN .
0 ∂t ∂x
Ceci est la même équation variationnelle qui définie uN . comme uN = PN u en t = 0,
il en résulte que
u N = PN u pour tout t > 0.
Puisque PN u converge vers u lorsque N tend vers l’infini, l’approximation est conver-
gente.

3.2 Méthode de collocation Chebychev pour l’équa-


tion de la chaleur
Les séries de Fourier, malgré leurs simplicités et leurs familiarités, ne sont pas
toujours le bon choix pour les fonctions d’essai. En fait, les séries de Fourier ne sont
recommandées que pour des problèmes avec des conditions aux limites périodiques.
Un ensemble plus polyvalent de fonctions d’essai se compose par les polynômes de
Chebychev, qui sont défini sur [−1, 1] par

Tk (x) = cos(k cos−1 x), pour k = 0, 1, . . . (3.2.1)

Considérons l’équation de la chaleur (linéaire)

∂u ∂ 2 u
− 2 = 0, (3.2.2)
∂t ∂x
i.e.,
∂ 2u
M(u) =, (3.2.3)
∂x2
dans [−1, 1] avec des conditions aux limites homogènes de Dirichlet,

u(−1, t) = 0, u(1, t) = 0. (3.2.4)

51
et le choix des fonctions d’essai

φk (x) = Tk (x), k = 0, 1, . . . , N, (3.2.5)

la solution approchée a la représentation


N
X
uN (x, t) = ak (t)φk (x). (3.2.6)
k=0

Dans l’approximation de collocation, l’exigence est que (3.2.2) soit satisfaite exac-
tement par (3.2.6) sur un ensemble de points de collocation xj dans [−1, 1]

∂uN
− M(uN ) = 0, j = 1, . . . , N − 1. (3.2.7)
∂t
x=xj

Les conditions aux limites

uN (−1, t) = 0, uN (1, t) = 0 (3.2.8)

et la condition initiale

uN (xk , t) = u(xk , 0), k = 0, . . . , N, (3.2.9)

accompagne (3.2.7)
Les équations (3.2.7) sont basés sur une formulation forte de l’équation diffé-
rentielle, puisque la solution approchée est nécessaire pour satisfaire exactement
l’équation différentielle à un ensemble de points discrets, dans ce cas appelés les
points de collocation. Formellement, les mêmes équations à partir d’une formula-
tion faible du problème en prenant comme fonctions test les fonctions delta-Dirac
(distributions) peut être obtenues.

ψj (x) = δ(x − xj ), j = 1, . . . , N − 1, (3.2.10)

sous les conditions


Z 1 " #
∂uN
− M(uN ) ψj (x)dx = 0, j = 1, . . . , N − 1, (3.2.11)
−1 ∂t

Un choix particulièrement pratique pour les points de collocation xj est

πj
xj = cos . (3.2.12)
N
Ce choix non seulement produire des approximation de haute précision, mais il est
aussi économique, noter que
πjk
φk (xj ) = cos . (3.2.13)
N
Cela permet
d’utiliser la transformée de Fourier rapide (FFT) dans l’évaluation de
N
M(u ) . Cela est discuté en détail dans (Sec. 2, 4 [15])
x=xj

Pour la condition initiale particulière

u(x, 0) = sin πx, (3.2.14)

52
La solution exacte est
2
u(x, t) = e−π t sin πx. (3.2.15)
Elle a le développement infinie de Chebychev

X
u(x, t) = bk (t)Tk (x), (3.2.16)
k=0

oú !
2 kπ 2
bk (t) = sin Jk (π)e−π t , (3.2.17)
ck 2
avec (
2, k = 0,
ck = (3.2.18)
1, k ≥ 1.
Á cause de la décomposition rapide du facteur Jk (π), la série tronquée converge
avec un rythme exponentiel. Une méthode de collocation bien conçue fera la même
chose (puisque la série infinie (3.2.6) n’est pas simplement la troncature de la série
infinie (3.2.16) à l’ordre N , les coefficients du développement ak (t) et bk (t) ne sont
pas identique).
Contrairement à la méthode de Galerkin, qui dans sa version classique est gé-
néralement mis en œuvre en termes de coefficients d’expansion ak (t), une méthode
de collocation est mis en œuvre en termes de valeurs nodales uj (t) = uN (xj , t). En
effet, en plus de (3.2.6), nous avons le développement
N
X
uN (x, t) = uj (t)φj (x),
j=0

oú φj maintenant désigne les fonctions delta discrète, à savoir, les polynômes de


degré n unique satisfaisant φj (xi ) = δij pour 0 ≤ i, j ≤ N
(Ces fonctions particulières seront le plus souvent désignés par le symbole ψj dans
la suite et renvoyé aux polynômes de Lagrange comme caractéristiques. Les coeffi-
cients d’expansion sont utilisés que dans une étape intermédiaire, à savoir dans la
différentiation analytique (par rapport à x) de (3.2.6).
Les coefficients du développement sont données par
N
2 X πlk
ak (t) = c̄−1
l ul (t) cos , k = 0, 1, . . . , N, (3.2.19)
N c̄k l=0 N

oú (
2, k = 0 ou N,
c̄k = (3.2.20)
1, 1 ≤ k ≤ N − 1.

La dérivée exacte de (3.2.6) est


N
∂ 2 uN X (2)
(t) = ak (t)Tk (x), (3.2.21)
∂x2 k=0


(1) (1)
aN +1 (t) = 0, aN (t) = 0,
(1) (1) (3.2.22)
c̄k ak (t) = ak+2 + 2(k + 1)ak+1 (t) k = N − 1, N − 2, . . . , 0,

53
et
(2) (2)
aN +1 (t) = 0, aN (t) = 0,
(2) (2) (1)
c̄k ak (t) = ak+2 (t) + 2(k + 1)ak+1 (t) k = N − 1, N − 2, . . . , 0.
(3.2.23)
(2)
Les coefficients ak dépend de toute évidence de façon linéaire sur des valeurs nodales
2
ul ; par conséquence, il existe une matrice DN de telle sorte que
N N

∂ 2 uN X (2) πjk X 2
(t) = a k (t) cos = (DN )jl ul (t) (3.2.24)
∂x2


x=xj k=0 N l=0

(voir la section 2.4.2 [16] pour plus de détails). Par (3.2.8) nous avons effectivement
u0 (t) = uN (t) = 0. En substituant l’expression ci-dessus en (3.2.7), on aboutit à un
système d’équations différentielles ordinaires pour les inconnues nodales
N
duj X
2
(t) = (DN )jl ul (t), j = 1, . . . , N − 1 (3.2.25)
dt l=0

Complété par les conditions initiales (3.2.9), le système d’équations différentielles


ordinaires précédent pour des valeurs nodales de la solution est facile à intégré dans
le temps.
Les erreurs maximales en t = 1 pour les solutions numériques de la méthode de
collocation-Chebychev, les différences finie d’ordre 2 et la méthode compacte d’ordre
4 sont données dans la figure (3.3), ainsi que les erreurs maximales pour la série de
Chebychev tronquée de la solution exacte en t = 1. La méthode de Chebychev
utilise N + 1 points de collocation non uniformément distribués (3.2.12), alors que
les méthodes des différences finies utilisent N + 1 points uniformément réparties.
Les erreurs maximales ont été normalisées par rapport à la valeur maximale de la
solution en t = 1. Les schémas d’ordre 4 est le rapprochement classique
00 00 00 12
ui−1 + 10ui + ui+1 = (ui−1 − 2ui + ui+1 ), i = 1, . . . , N − 1, (3.2.26)
(∆x)2

complété par un rapprochement compact de troisième ordre aux points limites, (voir
Lele (1992))
00 00 1
u0 + 11u1 = (13u0 − 27u1 + 15u2 − u3 ), i = 0. (3.2.27)
(∆x)2

avant de quitter cet exemple, voici une équation plus générale que (3.2.2),

∂u ∂ ∂u
− (κ ) = 0, (3.2.28)
∂t ∂x ∂x
oú κ est le coefficient de conductivité varie en [−1, 1] et peut même dépendre de
la solution u. Dans ce cas, il n’est pas commode d’appliquer le schéma de colloca-
tion (3.2.7) à l’équation (3.2.8) directement, comme cela exigerait la différentiation
∂uN
exacte du flux de chaleur F(uN ) = κ . Au lieu de cela, il faut calculé d’abord
∂x
les valeurs nodales Fl (t) = F(uN )(xl ), l = 0, . . . , N , de ce flux, applique ensuite
une transformation analogue à (3.2.19), et suit cela avec une différenciation du flux
comme dans (3.2.28) ; l’expansion résultante de la dérivée est ensuite évaluée aux

54
Figure 3.3:Erreurs maximales pour le problème de l’équation de la chaleur à t = 1 pour
la collocation de Chebyshev et plusieurs schémas de différence finie. Le résultat de la
troncature de Chebyshev est montré pour comparaison.

points de collocation. Ce processus équivaut à différencier exactement le flux nu-


mérique FN (u) = IN (F(uN )), qui est obtenu en interpolant le flux F N (uN ) aux
points de collocation par un polynôme algébrique global de degré N (Ici, IN est un
symbole général qui désigne un opérateur d’interpolation). Le schéma de collocation
résultant se lit comme suit
∂uN ∂uN
!

− IN κ = 0, j = 1, . . . , N − 1. (3.2.29)


∂t ∂x ∂x
x=xj

De manière équivalente, nous avons


N
duj X
(t) = (DN )jl Fl (t), j = 1, . . . , N − 1, (3.2.30)
dt l=0

oú DN est la matrice des dérivées de collocation de Chebychev.


L’approche utilisée pour la discrétisation de (3.2.28) met en évidence une stra-
tégie qui adoptée pour les méthodes de collocation : La différenciation est appliquée
à une fonction seulement après que l’argument de la fonction est interpolé par un
polynôme global à un ensemble approprié de points de collocation. De toute évi-
dence, lorsque l’argument est lui-même est un polynôme de degré ≤ N , comme dans
l’équation de chaleur à coefficient constant (3.2.2), l’interpolation renvoie la valeur
de l’argument.

3.2.1 Stabilité et convergence


Considérons maintenant l’équation de la chaleur
∂u ∂ 2 u
− 2 = 0, −1 < x < 1, t>0 (3.2.31)
∂t ∂x
avec les conditions homogènes de Dirichlet
u(−1, t) = u(1, t) = 0, t>0 (3.2.32)
et la condition initiale
u(x, 0) = u0 (x), −1 < x < 1 (3.2.33)

55
Le schéma collocation de Chebychev a été discuté pour ce problème dans la section
précédente pour t > 0, la solution spectrale uN est un polynôme algébrique de degré
N sur l’intervalle [−1, 1], il est défini par l’équation de collocation

∂uN ∂ 2 uN
(xk , t) − (xk , t) = 0, k = 1, . . . , N − 1 (3.2.34)
∂t ∂x2
et la condition initiale

uN (xk , 0) = u0 (xk ), k = 0, . . . , N (3.2.35)



Les points de collocation sont donnés par xk = cos( ) (voir 3.2.12 ou ((2.4.14) [15]).
N
Ils sont les nœuds de la√ formule de quadrature de Gauss-Lobatto relatif au poids de
Chebychev w(x) = 1/ 1 − x2 , dont les poids sont donnés par wN = π/2N et wk =
π/N, si k = 1, . . . , N − 1 (voir (2.4.14) [16]). Cette propriété sera constamment
utilisée dans l’analyse ultérieur des méthodes de Collocation-Chebychev.
La k-ème équation (3.2.34) est multipliée par uN (x, t) et une sommation sur k a été
effectue
N N
1d X ∂ 2 uN
[uN (xk , t)]2 wk −
X
2
(xk , t)uN (xk , t)wk = 0 (3.2.36)
2 dt k=0 k=0 ∂x

il autorisé
! à inclure les points limites de la somme car uN disparaît là. Le produit
∂ 2u
uN est un polynôme de degré 2N − 2 ; par conséquent, par l’exactitude de la
∂x2
formule de quadrature,
N
∂ 2 uN
X Z 1 2
∂ uN
− 2
(xk , t)uN (xk , t)wk = − (x, t)uN (x, t)w(x)dx
k=0 ∂x −1 ∂x2

Dans la section 7.1.2 [15] il est prouvé, en tant que partie d’un résultat général, que
le membre droit est positif et domine en fait une "énergie" pondérée de la solution,
i.e, " #2
Z 1 2
∂ uN 1 Z 1 ∂uN
− (x, t)uN (x, t)w(x)dx ≥ (x, t) w(x)dx.
−1 ∂x2 4 −1 ∂x
Puis à partir de (3.2.36), il en résulte que
N h
" #2
1d X i 1 Z 1 ∂uN
uN (xk , t)2 wk + (x, t) w(x)dx ≤ 0;
2 dt k=0 4 −1 ∂x

d’oú
N
" #2 N
1 Z t Z 1 ∂uN
[u0 (xk )]2 wk .
X X
[uN (xk , t)]wk + (x, s) w(x)dxds ≤
k=0 2 0 −1 ∂x k=0

La somme sur le côté gauche représente la norme L2 de la solution


R1
par rapport au
poids Chebychev. Elle ne coïncide pas avec la norme L2 continue −1 [uN (x, t)]2 w(x)dx
car (uN )2 est un polynôme de degré 2N , il est uniformément équivalent à cette
norme, i.e,
Z 1 N Z 1
2 2
[uN (x, t)]2 w(x)dx.
X
[uN (x, t)] w(x)dx ≤ [uN (xk , t)] wk ≤ 2
−1 k=0 −1

56
D’autre part, la somme sur le membre droit peut être fixé, par exemple, par deux
fois le carré du maximum des données sur l’intervalle [−1, 1]. Donc, pour tout t > 0
" #2
Z 1
2 1 Z t Z 1 ∂uN
[uN (x, t)] w(x)dx + (x, s) w(x)dxds ≤ 2max−1≤x≤1 | u0 (x) |2
−1 2 0 −1 ∂x

Cela prouve que le schéma collocation de Chebychev est stable.


La convergence de l’approximation peut être prouver par un simple, bien que brut,
argument. Supposons que la solution exacte u est assez régulière. Son interpolant
ũ = IN u, défini dans la section 2.2.3, satisfait les équations de collocation

∂ ũ ∂ 2 ũ
(xk , t) − 2 (xk , t) = r(xk , t), t > 0, k = 1, . . . , N − 1 (3.2.37)
∂t ∂x
avec l’erreur de troncature R = (∂ 2 /∂x2 ) (u − ũ). Par conséquent, la différence
e = ũ − u, qui est un polynôme de degré N disparaît au niveau des points limites,
satisfait les équations

∂e ∂e2
(xk , t) − 2 (xk , t) = r(xk , t) t > 0, k = 1, . . . , N − 1 (3.2.38)
∂t ∂x
et la condition initiale, e(xk , 0) = 0 k = 0, . . . , N . La même analyse précédemment
utilisée des rendements
N
" #2
1d X 2 1 Z 1 ∂e
[e(xk , t)] wk + (x, t) w(x)dx
2 dt k=0 4 −1 ∂x
N
X
≤ r(xk , t)e(xk , t)wk
k=0
N N
1 1X
[r(xk , t)]2 wk + [e(xk , t)]2 wk
X

2 k=0 2 k=0

Ici, l’utilisation de l’inégalité de Cauchy-Schwarz (voir A.2), et le lemme de Gron-


wal (voir (A.15)) donne
N
" #2 N
2 1 Z t Z 1 ∂e
[r(xk , s)]2 wk ds.
X X
[e(xk , t)] wk + (x, s) w(x)dxds ≤ exp(t)
k=0 2 0 −1 ∂x k=0
(3.2.39)
Si le second terme du coté gauche est obtenu, une estimation de la norme L2 discrète
de l’erreur u − ũ aux points de collocation est obtenue
N N
Z tX
2
[r(xk , s)]2 wk ds
X
[u(xk , t) − uN (xk , t)] wk ≤ exp(t)
k=0 0 k=0

Par conséquent, le schéma est converge pourvu que l’erreur de troncature disparaît
lorsque N tend vers l’infini.

57
Maintenant
N N
[r(xk , s)]2 wk = [IN r(xk , s)]2 wk
X X

k=0 k=0
Z 1
≤ 2 [IN r(x, s)]2 w(x)dx
−1
Z 1 " ! #2
∂ 2u ∂2
= 2 IN 2 − 2 (IN u) (x, s) w(x)dx
−1 ∂x ∂x
Z 1 " ! #2
∂ 2u ∂2
≤ 4 − IN (x, s) w(x)dx
−1 ∂x2 ∂x2
Z 1 " 2 #2
∂ u
+4 (u − IN u)(x, s) w(x)dx
−1 ∂x2

où l’équivalence ((5.3.2) [15]) entre la norme L2 discrète et continue à été utilisée.


Appliquant l’estimation ((5.5.26) [15]) lors de l’évaluation du membre droit
Z t 1

2
1
2 3−m t 2
[u(xk , t) − uN (xk , t)] wk ≤ CN exp( ) | u(s) |H m;N ds
2 0 w [−1,1]

L’utilisation de (3.2.39) une fois de plus, donne une estimation de la dérivée spatiale
de l’erreur, i.e,
 #2 1
Z t Z 1 "" # 2 Z t 1
∂u ∂uN 3−m t 2
 − (x, s) w(x)dxds ≤ CN exp( ) | u(s) |H m;N ds
0 −1 ∂x ∂x 2 0 w [−1,1]

Cette inégalité prouve que l’approximation est convergente et l’erreur se décroit plus
vite que la manière algébrique lorsque la solution est infiniment régulière.

3.3 Méthode de Tau-Legendre pour l’équation de


Poison
Les méthodes spectrales sont également applicable aux équations indépendantes
du temps. Le problème aux limites général est donné par

M(u) = f (3.3.1)

à résoudre dans un domaine déterminé, avec les conditions aux limites

B(u) = 0. (3.3.2)

Comme un premier exemple d’étude des problèmes aux limites c’est l’équation de
Poisson sur [−1; 1] × [−1; 1] avec des conditions aux limites de Dirichlet homogènes.
Le choix de M et B dans (3.3.1) et (3.3.2) est comme suit :
!
∂ 2u ∂ 2u
M(u) = − + , (3.3.3)
∂x2 ∂y 2

58
β1 (u) = u(x, −1), (3.3.4)
β2 (u) = u(x, +1), (3.3.5)
β3 (u) = u(−1, y), (3.3.6)
β4 (u) = u(+1, y). (3.3.7)

Il est préférable d’utiliser le signe négatif pour les opérateurs de second dérivée tels
que (3.3.3) de sorte que M(u) soit un facteur positif au lieu que négatif.
Les polynômes de Legendre et de Chebychev sont des fonctions appropriées d’essai.
Un développement de Legendre bidimensionnelle est produit par le choix du produit
tensoriel
φkl (x, y) = Lk (x)Ll (y), k, l = 0, 1, . . . , N, (3.3.8)
oú Lk est le polynôme de Legendre de degré k. La solution approximative est
N X
X N
uN (x, y) = akl Lk (x)Ll (y). (3.3.9)
k=0 l=0

Les fonctions d’essai ne satisfont pas les conditions aux limites individuellement.
(Dans la plupart des méthodes de Galerkin, les fonctions d’essai satisfont les condi-
tions aux limites). Dans ce cas, deux ensembles distincts de fonctions test sont
utilisés pour vérifier l’EDP et les conditions aux limites. Pour l’EDP, les fonctions
test sont
ψkl (x, y) = Qk (x)Ql (y), k = 0, 1, . . . , N − 2,

2k + 1
Qk (x) = Lk (x);
2
Pour les conditions aux limites, ils sont

i = 1, 2,
Xki (x) = Qk (x) (3.3.10)
k = 0, 1, . . . , N,

i = 3, 4,
Xli (y) = Ql (y) (3.3.11)
l = 0, 1, . . . , N.
Les conditions intégrales pour les équations différentielles sont
Z 1 Z 1
dy M(uN )ψkl (x, y)dx = 0, k, l = 0, 1, . . . , N − 2, (3.3.12)
−1 −1

Tandis que les équations pour les conditions aux limites sont
Z 1
i = 1, 2,
Bi (uN )Xki dx = 0
−1 k = 0, 1, . . . , N,
(3.3.13)
Z 1
i = 3, 4,
Bi (uN )Xli dy = 0
−1 l = 0, 1, . . . , N.

Les quatre conditions dans (3.3.13) sont linéairement dépendantes des autres ; En
effet, les conditions aux limites dans chacun des quatre points d’angle ont été ap-
pliquées deux fois. Pour l’équation de Poisson, les intégrales ci-dessus peuvent être
effectuées analytiquement. Le résultat est
 
(2,0) (0,2)
− akl + akl = fkl k, l = 0, 1, . . . , N − 2, (3.3.14)

59
N N
(−1)k akl = 0,
X X
akl = 0, l = 0, 1, . . . , N,
k=0 k=0
(3.3.15)
N N
(−1)l akl = 0,
X X
akl = 0, k = 0, 1, . . . , N,
l=0 l=0

où Z 1 Z 1
fkl = dy f (x, y)ψkl (x, y)dx, (3.3.16)
−1 −1
N
(2,0) 1 X
akl = (k + ) [p(p + 1) − k(k + 1)]apl , (3.3.17)
2 p=k+2
p+k paire

N
(0,2) 1 X
akl = (l + ) [q(q + 1) − l(l + 1)]akq . (3.3.18)
2 q=l+1
q+l paire

Ces deux dernières expressions représentent les expansion de ∂ 2 uN /∂x2 et ∂ 2 uN /∂y 2 ,


respectivement, en termes de fonctions d’essai. L’approximation de Tau-Legendre

Erreurs maximales pour le problème de Poisson avec la méthode de Tau-Legendre


Figure 3.4:
et un schéma de différence finies du second ordre.

pour l’équation de Poisson est composé en (3.3.14) et (3.3.15). L’exemple particulier


qui sera utilisé pour illustrer la précision de cette méthode est

f (x, y) = 2π 2 sin πx sin πy, (3.3.19)

ce qui correspond à la solution analytique

u(x, y) = sin πx sin πy. (3.3.20)

Les résultats sont donnés dans la figure (??), ainsi que les résultats pour un schéma
aux différences finies du second ordre. L’entier N désigne le degré d’expansion (3.3)
dans chaque dimension pour la méthode de Tau-Legendre et le nombre d’intervalles
uniformes dans chaque dimension pour la méthode des différences finies.

60
3.4 Méthode spectrale de collocation pour les (EDP)
paraboliques avec des conditions aux limites
de Neumann
Cette section, représente une méthode pour la résolution numérique des équations
différentielles aux dérivées partielles paraboliques avec des conditions aux limites de
Neumann [voir (1.1.2)], en utilisant une formule de collocation pour le calcul d’une
matrice de différenciation pour les points de Chebychev-Gauss-Lobatto.
Premièrement, la théorie de l’application d’une méthode de collocation sur les
(EDPs) paraboliques. Cette méthode donne un système d’équations ordinaires (EDOs).
Deuxièmement, les auteurs de [38] utilisent la formule de Runge-Kutta de qua-
trième ordre pour l’intégration numérique des système d’(ODEs). Des résultats nu-
mériques obtenus par cette technique sont comparées avec la solution exacte pour
voir l’efficacité de cette méthode.
Considérons l’équation parabolique de la forme (voir [13]) :

∂u ∂ 2u
(x, t) = (x, t) + f (t, x, u(x, t)), a ≤ x ≤ b, t ≥ 0, (3.4.1)
∂t ∂x2

avec la condition initiale


u(x, 0) = ϕ(x) (3.4.2)
et les conditions aux limites de Neumann
∂u ∂u
(a, t) = g1 (t), (b, t) = g2 (t), t ≥ 0, (3.4.3)
∂t ∂t
Afin de résoudre (3.4.1)-(3.4.3) numériquement, de nombreux chercheurs ont utili-
sés diverses méthodes numériques pour résoudre l’équation aux dérivées partielles.
Javidi [39] a introduit la méthode de collocation spectrale pour la résolution de
l’équation de Burger-Fisher généralisée. Darvishi et Javidi [43] ont étudié une so-
lution numérique de l’équation de Burger par la méthode pseudo-spectrale et le pré-
conditionnement de Darvish. Soufyane et Boulmalf [5] Solution des équations
paraboliques linéaires et non linéaires par la méthode de décomposition. Sapagovas
[40] a présenté des hypothèses sur la solvabilité des équations paraboliques avec des
conditions non locales.
Dans ce chapitre, les équations paraboliques sont résolus par une combinaison
entre une méthode pseudo-spectrale de collocation et la méthode de Runge-Kutta
d’ordre 4. Les résultats numériques sont comparées avec la solution exacte. Les
auteurs de [38] démontre (à l’aide d’exemples numériques) que l’erreur absolue est
très petite.

3.4.1 Méthode pseudo-spectrale de Chebychev


Une parmi les méthodes les plus utilisables pour la résolution des (EDPs) est
la méthode de collocation (ou bien la méthode pseudo-spectrale) (voir[[14]-[41]]).
Les méthodes pseudo-spectrales sont devenus très populaires pour la résolution des
(EDPs). Dans cette méthode, une approximation uN (x) de u(x) est présentée par
uN (xi ) = u(xi ) pour des points de collocation xi . Après la substitution de uN dans

61
l’équation différentielle, on utilise les dérivées de uN aux points de collocation. Une
implémentation directe des méthodes de collocation spectrale implique l’utilisation
de matrices de différenciation spectrale pour calculer les dérivées aux points de
collocation, dans lequel U ~ = {u(xi )} est le vecteur constitué de valeurs de uN aux
N + 1 points de collocation et U~ 0 = {u0 (xi )} contient les valeurs des dérivées aux
points de collocation, alors la matrice de dérivation de collocation D est la matrice
~ −→ U~ 0 . Les éléments de cette matrice peut être calculer analytiquement. Pour
U
obtenir une convergence optimale, il faut calculer bien ces matrices. Dans [26, 14,
19, 35] les auteurs décrivent très bien le sujet
Soit u(x) une fonction de [−1, 1]. On interpole u(x) par un polynôme uN (x) de degré
inférieur à N de la forme
N
X
uN (x) = lj (x)u(xj ). (3.4.4)
j=0

aux les points de Chebychev-Gauss-Lobatto :



 
xj = cos , j = 0, 1, . . . , N,
N
avec lj (x), j = 0, 1, . . . , N sont des polynômes de degrés inférieur à N tels que

lj (xk ) = δjk , j, k = 0, 1, . . . , N.

Il se peut montrer que [14]

(−1)j+1 (1 − x2 )TN0 (x)


lj (x) = , j = 0, 1, . . . , N. (3.4.5)
cj N 2 (x − xj )

où c0 = cN = 2, cj = 1, j = 1, 2, . . . , N − 1 et TN (x) sont les polynômes de


Chebychev.
i.e
TN (x) = cos(N cos−1 x).
Les dérivées de la solution approximée uN (x) sont estimées dans les points de collo-
cation par dérivation de (3.4.5) et sont évaluent dans l’expression (3.4.4) [14]. Cela
donne
N
(n) X (n)
uN (x) = lj (x)u(xj ), n = 1, 2, . . . , (3.4.6)
j=0

ou en notation matricielle

U (n) = D(n) U, n = 1, 2, . . . ,


(n) (n) (n)
U (n) = [uN (x0 ), uN (x1 ), . . . , uN (xN )]T ,
U = [u(x0 ), u(x1 ), . . . , u(xN )]T .
où D(n) est une matrice (N + 1) × (N + 1) dont les entrées sont données par
(n) (n)
dkj = lj (xk ), j, k = 0, 1, . . . , N.

La dérivée d’ordre 1 de la matrice de différentiation de Chebychev D(1) = D = (dkj )


est donnée par (voir [47, 48, 41, 26, 42]).

62
(−1)j+k

ck
− 2c k 6= j,
π .

π





 j sin((k + J) ) sin((k − J) )



 2N 2N


dkj =  1
   

 2 cos kπ
N (1 + cot2 kπ
N
), k = j, j 6= 0, N,






 2
d00 = −dN N = 2N 6+ 1 .


3.4.2 Résolution d’une équation parabolique


Voici une description de la méthode pseudo-spectrale de Chebychev pour (3.4.1).
Soit N un entier non négatif et dénote par

 
Xi = cos , i = 0, 1, . . . , N,
N
les points de Chebychev-Gauss-Lobatto dans l’intervalle [−1, 1] et

U (x, t) = V (X, t), x = cX + d, xi = cXi + d, i = 0, 1, . . . , N,


b−a b+a
c= , d= .
2 2
Alors par (3.4.1)

∂V 1 ∂ 2V
(X, t) = 2 (X, t) + f (t, cX + d, V (X, t)), −1 ≤ X ≤ 1, t ≥ 0, (3.4.7)
∂t c ∂X 2
avec les conditions initiales et aux limites suivantes

V (X, 0) = ϕ(cX + d), X ∈ [−1, 1]. (3.4.8)

et

∂V ∂V
(−1, t) = cg1 (t), (1, t) = cg2 (t), t ≥ 0. (3.4.9)
∂X ∂X
Une discrétisation de (3.4.7) dans l’espace par la méthode des lignes remplaçant
∂V ∂ 2V
∂X (Xi , t) et ∂X 2 (Xi , t) par des approximations pseudo-spectrales données par
N
∂V X (1)
(Xi , t) ≈ dij V (Xj , t), i = 1, . . . , N − 1 (3.4.10)
∂X j=0

et
∂ 2V XN
(2)
2 (X i , t) ≈ dij V (Xj , t), i = 1, . . . , N − 1 (3.4.11)
∂X j=0

Ici
(n)
D(n) = [dij ]N
i,j=0 , n = 1, 2, . . .

63
sont les matrices de différentiation d’ordre n, posant Vi (t) = V (Xi , t). Par substitu-
tion de (3.4.10) et (3.4.11) dans (3.4.7) − (3.4.9)
N
1 X (2)
Vi0 (t) = 2 ( dij Vj (t)) + f (t, cX + d, Vi (t)), Vi (0) = ϕ(cXi + d), (3.4.12)
c j=0
N N
d1N j Vj (t) d10j Vj (t) = cg2 (t).
X X
= cg1 (t), (3.4.13)
j=0 j=0

Les équation (3.4.13) peuvent être écrites comme

N −1
−1
dN
X
dN 0 V0 (t) + dN N VN (t) = cg1 (t) − N j Vj (t) (3.4.14)
j=1
N −1
−1
dN
X
d00 V0 (t) + d0N VN (t) = cg2 (t) − 0j Vj (t).
j=1

La résolution du système algébrique (3.4.14) donne



N −1 (1)
cg1 − j=1
P
dN j Vj (t) dN N dN 0 dN N


V0 (t) = PN −1 (1) / (3.4.15)
cg2 − j=1 d0j Vj (t) d0N



d00 d0N

N −1 N −1
X (1) X (1)
d0N (cg1 (t) − dN j Vj (t)) − dN N (cg2 (t) − d0j Vj (t))
j=1 j=1
= (3.4.16)
dN 0 d0N − d00 dN N
et
−1 (1)
cg1 − N
P
d j=1 dN j Vj (t) dN 0 dN N

VN (t) = N 0

P −1 (1) / (3.4.17)
d00 cg2 − N
j=1 d0j Vj (t)
d00 d0N

N −1 N −1
X (1) X (1)
dN 0 (cg2 (t) − d0j Vj (t)) − d00 (cg1 (t) − dN j Vj (t))
j=1 j=1
= (3.4.18)
dN 0 d0N − d00 dN N
Par substitution de (3.4.16) et (3.4.18) dans (3.4.12)

   
N −1 N −1
X (1) X (1)
 d0N cg1 (t) − dN j Vj (t) − dN N cg2 (t) − d0j Vj (t)
1 j=1 j=1
Vi0 (t) = di0 ×
c2 dN 0 d0N − d00 dN N
   
N −1 N −1
X (1) X (1)
dN 0 cg2 (t) − d0j Vj (t) − d00 cg1 (t) − dN j Vj (t) 
N −1
X (2) j=1 j=1
+ dij Vj (t) + diN × 
j=1 dN 0 d0N − d00 dN N
+ f (t, cX + d, Vi (t)), i = 1, 2, . . . , N − 1. (3.4.19)

Alors le système (3.4.19) peut être écrit sous la forme suivante


(
V 0 (t) = F (t, V (t)),
(3.4.20)
V (0) = V0 ,

64

V (t) = [V1 (t), V2 (t), . . . , VN −1 (t)]T , V0 = [V1 (0), V2 (0), . . . , VN −1 (0)]T ,
V 0 (t) = [V10 (t), V20 (t), . . . , VN0 −1 (t)]T ,
F (t, V (t)) = [F1 (t, V (t)), F2 (t, V (t)), . . . , FN −1 (t, V (t))]T ,
et
   
N −1 N −1
X (1) X (1)
 d0N cg1 (t) − dN j Vj (t) − dN N cg2 (t) − d0j Vj (t)
1 j=1 j=1
Fi (t, V (t)) = di0 ×
c2 dN 0 d0N − d00 dN N
   
N −1 N −1
X (1) X (1)
dN 0 cg2 (t) − d0j Vj (t) − d00 cg1 (t) − dN j Vj (t) 
N −1
X (2) j=1 j=1
+ dij Vj (t) + diN × 
j=1 dN 0 d0N − d00 dN N
+f (t, cX + d, Vi (t)). (3.4.21)

Les équations (3.4.20) forment un système d’équations différentielles ordinaires (EDO)


en temps.

3.4.3 Résultats numériques


Dans cette section, des solutions numériques d’(EDP) de la forme (3.4.1) avec
condition initiale (3.4.2) et des conditions aux limites de types Neumann (3.4.3)
sont cherchées. Pour montrer l’efficacité de la méthode présente pour le problème
par rapport à la solution exacte, l’erreur absolue qui est défini par

Uij =| Û (xi , tj ) − U (xi , tj ) |,

dans le point (xi , tj ), où Û (xi , tj ) est la solution obtenue par (3.4.20) résolu par la
méthode de Runge-Kutta d’ordre 4 et U (xi , tj ) est la solution exacte.
Pour des travaux de computation voici les problèmes suivants :
Problème 1. N = 16, ∆t = 0.0001
Problème 1.
Ce problème est l’équation de la chaleur avec des conditions de Neumann

∂U ∂ 2U
= , (x, t) ∈ [0, 1] × (0, 0.25], (3.4.22)
∂t ∂x2

avec les conditions aux limites ∂U∂x (x, t) = πe


−π 2
cos(πx) dans x = 1. La condition
2
initiale est consistante avec la solution analytique U (x, t) = e−π sin(πx).
Tableau 3.1 montre l’erreur absolue Uij pour le problème 1.
Problème 2.
∂U ∂ 2U
= + exp(−2U ), (x, t) ∈ [0, 1] × (0, 50], (3.4.23)
∂t ∂x2
1
avec les conditions aux limites ∂U
∂x (x, t) = en x = 0 et x = 1. La condition
x+t+2
initiale est consistante avec la solution analytique U (x, t) = ln(x + t + 2).
Tableau 3.2 représente l’erreur absolue Uij pour le problème 2.

65
xi /tj 0.05 0.10 0.15 0.20 0.25
x[2] 2.0327e − 11 1.2412e − 11 7.5695e − 12 4.6261e − 12 2.8301e − 12
x[5] 8.3306e − 13 5.0926e − 13 3.1007e − 13 1.8390e − 13 1.0635e − 13
x[8] 1.2568e − 13 6.7724e − 14 4.4048e − 14 3.3584e − 14 2.6673e − 14
x[11] 1.8952e − 13 1.2146e − 13 7.1665e − 14 3.7151e − 14 1.6487e − 14
x[14] 3.0196e − 12 1.8453e − 12 1.1260e − 12 6.9297e − 13 4.2917e − 13
x[16] 2.0330e − 11 1.2414e − 11 7.5716e − 12 4.6279e − 12 2.8314e − 12

Table 3.1: Erreur absolue pour différentes valeurs de x et t, PB(1).

xi /tj 1 10 20 35 50
x[1] 1.7186e-11 2.7669e-10 6.7247e-10 1.3729e-09 2.1506e-09
x[4] 1.1879e-13 7.9581e-13 2.3230e-12 8.5665e-12 2.1764e-11
x[7] 1.0236e-13 7.6605e-13 2.2857e-12 8.5238e-12 2.1718e-11
x[10] 8.5487e-14 7.3630e-13 2.2480e-12 8.4817e-12 2.1672e-11
x[13] 7.8160e-14 7.2475e-13 2.2311e-12 8.4661e-12 2.1652e-11
x[16] 8.7708e-14 7.2875e-13 2.2355e-12 8.4719e-12 2.1659e-11
x[17] 4.8586e-12 7.4457e-11 1.7924e-10 3.6948e-10 5.8987e-10

Table 3.2: Erreur absolue pour différentes valeurs de x et t, PB(2).

Problème 3 :
Le problème est

∂U ∂ 2U 2 −t −pt
= 2 + (π − 1)U − pU + (pe + e ) sin πx, (x, t) ∈ [0, 1] × (0, 1], (3.4.24)
∂t ∂x

avec les conditions aux limites ∂U −t −pt


∂x (x, t) = π(e + e ) cos πx dans x = 0 et x −t= 1.
La condition initiale est consistante avec la solution analytique U (x, t) = (e +
e−pt ) sin πx.
Tableau 3.3 représente l’erreur absolue Uij pour le problème 3.

xi/tj 0.2 0.4 0.6 0.8 1


x[1] 1.1187e-07 1.1187e-07 1.1187e-07 1.1187e-07 1.1187e-07
x[4] 6.9987e-12 5.7301e-12 4.6914e-12 3.8410e-12 3.1447e-12
x[7] 2.2376e-11 1.8320e-11 1.5000e-11 1.2281e-11 1.0054e-11
x[10] 2.5856e-11 2.1169e-11 1.7332e-11 1.4190e-11 1.1618e-11
x[13] 1.2073e-11 9.8841e-12 8.0925e-12 6.6255e-12 5.4245e-12
x[16] 1.4935e-12 1.2228e-12 1.0011e-12 8.1967e-13 6.7108e-13
x[17] 1.1187e-07 1.1187e-07 1.1187e-07 1.1187e-07 1.1187e-07

Table 3.3: Erreur absolue pour différentes valeurs de x et t, PB(3).

66
Chapitre

Base bidimensionnelle de Le-


4 gendre et Approximation

Dans ce chapitre, nous introduisons une nouvelle base polynômiale bidimension-


nelle pour l’approximation des fonctions à deux variables et pour la résolution des
problèmes aux limites en dimension 2. En commençant par la recherche des va-
leurs propres de l’équation différentielle de Legendre en dimension deux, puis on a
construit cette base à partir d’une formule de Rodrigues généralisée, et aussi par
une relation de récurrence à trois termes. Nous démontrons également l’orthogona-
lité des polynômes obtenus par rapport à un produit scalaire bien défini.
Des résultats numériques efficaces sont obtenus après l’approximation de certains
exemples de fonctions à deux variables dans la base construite. Nous présentons
également une étude théorique de la stabilité et une estimation de l’erreur commise
par la méthode spectrale Tau-Legendre dans la base construite.

4.1 Introduction
Généralement dans les applications de calcul, les fonctions à deux variables ont
souvent besoin d’être approchées par d’autres fonctions qui sont mieux comprises
ou plus facilement évaluées. Les polynômes sont parmi les fonctions mathématiques
les plus simples qui ont la flexibilité pour représenter les relations non linéaires très
généraux.
L’approximation des fonctions plus compliquées par des polynômes est un bloc
de construction de base pour de nombreuses techniques numériques [8].
L’approximation bidimensionnelle est une extension de l’approximation unidi-
mensionnelle pour les fonctions à deux variables. Généralement, l’idée principale
est d’effectuer l’approximation à une dimension d’abord pour une variable, puis à
nouveau pour l’autre variable. [9] Bien que chaque étape est une dimension.
Dans [1], les auteurs ont exprimés la fonction solution avec les polynômes bidi-
mensionnels de Legendre produits par un produit tensoriel. La solution approchée
est sous la forme
N X
X N
UN (x, y) = Ûi,j Li (x)Lj (y) i, j = 0, . . . , N. (4.1.1)
i=1 j=1

où Li est le polynôme de Legendre de degré i.

67
Mais avec l’avantage de la création des bases polynomiales multidimensionnelles,
la solution peut être développé à une fonction de base multidimensionnelle pour avoir
de bonnes approximations pour des solutions de problèmes multidimensionnels.
Dans une première partie, nous avons développé une nouvelle base de polynômes
orthogonaux par la résolution de l’EDP suivante
" #
∂ 2U ∂ 2U ∂U ∂U
(1 − x ) 2 (x, y) + (1 − y 2 ) 2 (x, y) − 2 x
2
(x, y) + y (x, y)
∂x ∂y ∂x ∂y
+ [l(l + 1) + k(k + 1)]U (x, y) = 0 (4.1.2)

où l, k = 0, 1, 2, 3, 4, . . .
Puis, nous avons créé cette base par la formule Rodrigues, et par une relation de
récurrence à trois termes.
Nous avons également démontrer l’orthogonalité de ces polynômes en utilisant
un produit scalaire bien défini sur l’espace des polynômes bidimensionnelles
Z 1Z 1
hPi,j , Pl,k i = Pi,j (x, y)Pl,k (x, y)dx dy. (4.1.3)
−1 −1

L’approximation d’une fonction à deux variables f (connu ou non) par un polynôme


est un processus naturel rencontré dans divers contextes d’analyse, où f est tout
à fait régulière. D’une manière générale, il est possible d’analyser le comportement
local, mais aussi dans certains cas, on peut décrire la fonction comme une somme
infinie.
Dans les deux situations, la précision avec laquelle on peut approximer f par un
polynôme dépend de la régularité de la fonction. Le théorème de Stone-Weierstrass
[10] nous assure que toute fonction continue peut être uniformément approchée sur
un domaine compact.
Dans la deuxième partie du chapitre, nous avons fourni quelques exemples nu-
mériques d’approximation des fonctions à deux variables dans la base de Legendre.

4.2 Première construction


Nous commençons par la résolution analytique de l’équation différentielle (4.1.2)
[53], supposons que la solution cherchée est écrite sous la forme d’une série entière
N N −i
ai,j xi y j .
X X
U (x, y) '
i=0 j=0

Les dérivées partielles sont exprimées comme


N N −i N N −i
∂U ∂ 2U
iai,j xi−1 y j i(i − 1)ai,j xi−2 y j ,
X X X X
(x, y) ' , (x, y) '
∂x i=0 j=0 ∂x2 i=0 j=0
N N −i N N −i
∂U ∂ 2U
jai,j xi y j−1 j(j − 1)ai,j xi y j−2 ,
X X X X
(x, y) ' , 2
(x, y) '
∂y i=0 j=0 ∂y i=0 j=0

nous pouvons arrêter de prendre les dérivées parce que dans notre cas, nous avons

68
une équation du second ordre
N N −i N N −i N N −i
(1 − x2 ) i(i − 1)ai,j xi−2 y j − 2x iai,j xi−1 y j + (1 − y 2 ) j(j − 1)ai,j xi y j−2
X X X X X X

i=0 j=0 i=0 j=0 i=0 j=0


N N −i N N −i
jai,j xi y j−1 + [l(l + 1) + k(k + 1)] ai,j xi y j = 0
X X X X
−2y (4.2.1)
i=0 j=0 i=0 j=0

Nous avons besoin d’ajuster les exposants et les points de départ, de sorte qu’on
aura xi y j dans chaque terme.
Soit m = i − 2 et n = j − 2, alors,
N N −i N −2 N −(m+2)
i−2 j
(m + 2)(m + 1)am+2,j xm y j
X X X X
i(i − 1)ai,j x y =
i=0 j=0 m=−2 j=0

et
N N −i N N −(i+2)
j(j − 1)ai,j xi y j−2 = (n + 2)(n + 1)ai,n+2 xi y n
X X X X

i=0 j=0 i=0 n=−2

Notez que nous pouvons commencer m, n de 0 puisque nous obtenons des zéros pour
m = n = −2 et m = n = −1 de toute façon.
Après la substitution dans l’équation différentielle
N −2 N −(i+2)
[(i + 2)(i + 1)ai+2,j − i(i − 1)ai,j − 2i ai,j + l(l + 1)ai,j ] xi y j
X X

i=0 j=0
N −2 N −(i+2)
[(j + 2)(j + 1)ai,j+2 − j(j − 1)ai,j − 2j ai,j + k(k + 1)ai,j ] xi y j = 0
X X
+
i=0 j=0
 " #
 i(i + 1) − l(l + 1)
ai+2,j = ai,j




(i + 2)(i + 1) #
then  "
j(j + 1) − k(k + 1)
ai,j+2 = ai,j
 


(j + 2)(j + 1)
Pour chaque pair (l, k) nous avons un polynôme, cela correspond à U = U (x, y) où
i = j = 0, 1, 2, . . ., et ils sont désignés par Pi,j (x, y). Notez que lorsque i ou j est
pair, la série paire se termine à certains point, mais la série impaire ne se termine
pas. Nous allons donc culminer a1,j ou ai,1 à zéro, même pour les cas de i ou j. De
même, nous choisissons a0,j ou ai,0 pour être zéro pour les cas impairs de i ou j.
Enfin, par convention, nous avons choisi a0,j , a1,j , ai,0 ou ai,1 tel que Pi,j (1, 1) = 1.
— Pour (l, k) = (0, 0), nous avons mis a1,j = ai,1 = 0 et notez que a0,j et ai,0 6= 0
 " # " #
 i(i + 1) − 0(0 + 1) i(i + 1)
ai+2,j = ai,j = ai,j




" (i + 2)(i + 1) # " (i + 2)(i + 1) #
 j(j + 1) − 0(0 + 1) j(j + 1)
ai,j+2 = ai,j = ai,j




(j + 2)(j + 1) (j + 2)(j + 1)
Nous sommes donc à la recherche de a2,j et ai,2 , nous faisons cela par
 " #
 0(0 + 1)
a0+2,j = a0,j



" (0 + 2)(0 + 1) #

 0(0 + 1)


 ai,0+2 = ai,0

(0 + 2)(0 + 1)

69
ce qui conduit à a2 , j = ai,2 = 0. Le polynôme de Legendre bidimensionnel d’ordre
zéro est P0,0 (x, y) = a0,0 , avec la convention que pour tout polynôme Pi,j , Pi,j (1, 1) =
1, nous avons a0,0 = 1 et donc
P0,0 (x, y) = 1
— Pour (l, k) = (0, 1), nous avons mis ai,0 = a1,j = 0 et notez que a0,j and
ai,1 6= 0
 " #
 i(i + 1)
ai+2,j = ai,j




" (i + 2)(i + 1) #
 j(j + 1) − 2
ai,j+2 = ai,j




(j + 2)(j + 1)
Pour trouver a2,j et ai,3 ,
 " #
 0(0 + 1)
a0+2,j = a0,j



" (1 + 2)(1 + 1) #

 1(1 + 1) − 2
ai,1+2 = ai,1




(1 + 2)(1 + 1)
ce qui conduit à a2,j = ai,3 = 0. Le polynôme de Legendre bidimensionnel est
P0,1 (x, y) = a0,0 x0 y 0 + a0,1 x0 y,
par la convention Pi,j (1, 1) = 1, nous avons a0,1 = 1, et donc P0,1 (x, y) = y. Avec le
même procédé, on obtient P1,0 (x, y) = x.
— Pour (l, k) = (1, 1), nous avons mis a0,j = ai,0 = 0 et notez que a1,j et ai,1 6= 0
 " #
 i(i + 1) − 2
ai+2,j = ai,j



" (i + 2)(i + 1) #

 j(j + 1) − 2


 ai,j+2 = ai,j

(j + 2)(j + 1)
Nous sommes donc à la recherche de a3,j et ai,3 , nous faisons cela par
 " #
 1(1 + 1) − 2


 a1+2,j = a1,j
" (1 + 2)(1 + 1) #

 1(1 + 1) − 2
ai,1+2 = ai,1




(1 + 2)(1 + 1)
ce qui conduit à a3,j = ai,3 = 0. Le polynôme bidimensionnel de Legendre est
P1,1 (x, y) = a0,0 x0 y 0 + a0,1 x0 y + a1,0 xy 0 + a1,1 xy,
par la convention que Pi,j (1, 1) = 1, on a a1,1 = 1 et par conséquent P1,1 (x, y) = xy.
— For(l, k) = (2, 2)," nous fixons ai,1 = #a1,j = 0," et notez que a #i,0 et a0,j 6= 0.
 i(i + 1) − 2(2 + 1) i(i + 1) − 6
 ai+2,j = ai,j = ai,j



" (i + 2)(i + 1) # " (i + 2)(i + 1) #
 j(j + 1) − 2(2 + 1) j(j + 1) − 6
 ai,j+2 = ai,j = ai,j



(j + 2)(j + 1) (j + 2)(j + 1)
Pour trouver a2,j et ai,2 , en mettant i = 0 et j = 0
 " #
 0(0 + 1) − 6


 a0+2,j = a0,j = −3a0,j
"(0 + 2)(0 + 1) #

 0(0 + 1) − 6


 ai,j+2 = ai,0 = −3ai,0

(0 + 2)(0 + 1)

70
Ensuite, pour ai,4 et a4,j mis i = 2 et j = 2
 " #
 2(2 + 1) − 6
a4,j = a2,j = 0



" (2 + 2)(2 + 1) #

 2(2 + 1) − 6
ai,4 = ai,2 = 0




(2 + 2)(2 + 1)

Le deuxième polynôme de Legendre bidimensionnel est

P2,2 (x, y) = a0,0 + a2,0 x2 + a0,2 y 2 + a2,2 x2 y 2


h i
= a0,0 1 − 3x2 − 3y 2 + 9x2 y 2

Par la convention que Pi,j (1, 1) = 1, nous avons P2,2 (1, 1) = 4 a0,0 = 1, et donc
9 2 2 3 2 3 2 1
P2,2 (x, y) = x y − x − y + .
4 4 4 4
Les autres polynômes de Legendre à deux dimensions sont obtenues par le même
procédé. Le tableau (4.1) ci-dessous résume les premiers polynômes de Legendre
bidimensionnels.

HH
i
H 0 1 2 3
j HH
H
3x2 1 5x3 3x
0 1 x − −
2 2 2 2
3x2 y y 5x3 y 3xy
1 y xy − −
2 2 2 2
3y 2 1 3xy 2 x 9x2 y 2 3x2 3y 2 1
2 − − − − + ···
2 2 2 2 4 4 4 4
3 3
5y 3y 5xy 3xy
3 − − ··· ···
2 2 2 2
35y 4 15y 2 3
4 − + ··· ··· ···
8 4 8
Table 4.1: Premiers polynômes de Legendre bidimensionnels

Le premier polynôme P0,0 est situé dans le coin supérieur gauche. Une évolution
dans la même colonne, ne varie pas le degré des polynômes en fonction de x. Une
évolution en fonction de la colonne de la même ligne varie le degré en fonction de y.

4.3 Construction de Rodrigues


Les polynômes bidimensionnel de Legendre peut être exprimés en utilisant une
généralisation de la formule de Rodrigues [55]

1 ∂i 2 i ∂
j
Pi,j (x, y) = (x − 1) (y 2 − 1)j
2i+j i! j! ∂xi ∂y j

71
Démonstration 4.1
On a démontré dans la section (4.2) que les polynômes de Legendre bidimensionnel
sont des solutions de l’équation suivante
∂ 2U 2
2 ∂ U ∂U ∂U
(1 − x2 ) 2
(1 − y ) 2
− 2x − 2y + [i(i + 1) + j(j + 1)]U = 0 (4.3.1)
∂x ∂y ∂x ∂y
Soit v1 = (x2 − 1)i et v2 = (y 2 − 1)j , alors

(1 − x2 )
v1 + 2 i v1 x = 0 (4.3.2)
∂x

(1 − y 2 ) v2 + 2 j v2 y = 0 (4.3.3)
∂y
Différencier (4.3.2) i + 1 fois et (4.3.3) j + 1 fois en utilisant la formule de Leibniz
[voir L’annexe], nous obtenons après les simplifications
∂ i+2 ∂ i+1 ∂i
(1 − x2 ) v1 − 2x v1 + i(i + 1) v1 = 0
∂xi+2 ∂xi+1 ∂xi
(4.3.4)
i+2 i+1 i
∂ ∂ ∂
(1 − x2 ) i+2
v2 − 2x i+1 v2 + i(i + 1) i v2 = 0
∂x ∂x ∂x
i i j
∂ 2 i ∂ ∂ 2 j ∂j
Soit u1 = (x − 1) = v1 et u 2 = (y − 1) = v2
∂xi ∂xi ∂y j ∂y j
Mettre U = u1 ×u2 , par sommation dans l’équation (4.3.4), nous avons (4.3.1), donc

u1 = c1 Pi,j (x, y) et u2 = c2 Pi,j (x, y)


U = u1 × u2 = CPi,j (x, y) (4.3.5)
donc,
∂i 2 ∂j 2
(x − 1)i = c1 Pi,j (x, y) et (y − 1)j = c2 Pi,j (x, y)
∂xi ∂y j
Alors,
∂i
c1 Pi,j (x, y) = [(x − 1)i (x + 1)i ]
∂xi
∂i ∂ i−1 ∂i
= (x − 1)i i (x + 1)i + i k1 i (x − 1)i−1 i−1 (x + 1)i + · · · + (x + 1)i i (x − 1)i
∂x ∂x ∂x
i

= (x − 1)i (i !) + i k1 i (x − 1)i−1 i−1 (x + 1)i−1 (x + 1)i + · · · + (x + 1)i (i !)
∂x
= (i !)(x + 1)i + termes contenant puissance de (x − 1)
De même,
∂j
c2 Pi,j (x, y) = j
[(y − 1)j (y + 1)j ]
∂y
= (j !)(y + 1)j + termes contenant puissance de (y − 1)
Si (x, y) = (1, 1), nous obtenons
2
U = u1 × u2 = c1 c2 Pi,j 2
(1, 1) = CPi,j (1, 1) = (i !)2i (j !)2j ⇒ C = (i !)2i (j !)2j .
Mettre en (4.3.5), on aura
1 ∂i 2 i ∂
j
Pi,j (x, y) = i+j i
(x − 1) j
(y 2 − 1)j
2 i! j! ∂x ∂y

72
4.4 Construction récursive
L’idée de la modélisation par les polynômes orthogonaux est d’approcher des
fonctions réelles par des combinaisons linéaires de fonctions polynomiales bidimen-
sionnels, par exemple ceux de Legendre. Nous utilisons les polynômes bivariés définis
dans R2 par
K X
L
ak,l (x)k (y)l ,
X
PK,L (x, y) =
k=0 l=0

avec K ∈ N est le degré maximal de x, L ∈ N+ le degré maximal de y et ck,l tous


+

les coefficients réels du polynôme. Le degré du polynôme est de K + L.


Nous définissons un produit scalaire par
ZZ
hF1 (x, y), F2 (x, y)i = F1 (x, y)F2 (x, y)ω(x, y) dx dy,

avec Ω est le domaine de définition et ω(x, y) est la fonction poids du produit scalaire.
Nous pouvons construire une base bidimensionnelle de Legendre par la formule de
récurrence à trois termes suivante [54]


P−1,j (x, y) = 0













 Pi,−1 (x, y) = 0




 P0,0 (x, y) = 1


2i + 1 i



Pi+1,j (x, y) = x Pi,j (x, y) − Pi−1,j (x, y)






 i+1 i+1
2j + 1 j



Pi,j+1 (x, y) = y Pi,j (x, y) − Pi,j−1 (x, y)



j+1 j+1
Il est important de noter que la fonction poids omega(x, y) du produit scalaire
est égal à 1, ce qui rend le calcul du produit scalaire plus facile et plus rapide,
improbable pour de nombreuses bases de polynômes orthogonaux qui ont fonctions
de poids qui nécessite beaucoup de temps pour le calcul. Le produit scalaire dans
la base des polynômes de Legendre peut être calculée en évaluant seulement deux
fonctions au lieu de trois.

4.5 Formules de base


Nous présentons ici une collection de formules pour les polynômes de Legendre
bidimensionnels [54].
1. Pi,j (1, 1) = 1, ∀ i, j ≥ 0.
2. Pi,j (−1, −1) = (−1)i+j , ∀ i, j > 0.
3. k Pi,j (x, y) k≤ 1, (−1, −1) ≤ (x, y) ≤ (1, 1).
4. Une base bidimensionnelle de degré d peut être composée par les polynômes
de Legendre {Pi,j } avec i + j ≤ d.
5. Le nombre de polynômes qui composent une base du degré d est nd =
(d + 1)(d + 2)
2
73
Figure 4.1: P0,1 Figure 4.2: P0,2 Figure 4.3: P0,3

Figure 4.4: P1,0 Figure 4.5: P1,1 Figure 4.6: P1,2

Figure 4.7: P1,3 Figure 4.8: P2,0 Figure 4.9: P2,1

Figure 4.10: P2,2 Figure 4.11: P2,3 Figure 4.12: P3,0

Figure 4.13: P3,1 Figure 4.14: P3,2 Figure 4.15: P3,3

Figure 4.16: Premiers polynômes bidimensionnels de Legendre

6. Le domaine d’orthogonalité des polynômes de Legendre bidimensionnels est


Ω ∈ [−1, 1]2 .
Z 1Z 1
1 −1 1 −1
   
2
7. Pi,j dx dy = i + j+ . La clé pour prouver cette dernière
−1 −1 2 2

74
formule est

 ∂Pi,j ∂Pi−1,j
iPi,j (x, y) = x (x, y) − (x, y)



∂x ∂x










 ∂Pi,j ∂Pi,j−1
jPi,j (x, y) = y (x, y) − (x, y).



∂x ∂x

4.6 Orthogonalité
Les polynômes de Legendre à deux dimensions satisfont à l’équation différentielle
suivante [54]
" # " #
∂ ∂Pi,j ∂ ∂Pi,j
(1 − x2 ) (x, y) + (1 − y 2 ) (x, y) +[i(i+1)+j(j +1)]Pi,j (x, y) = 0
∂x ∂x ∂y ∂y
(4.6.1)
Dans cette section, on va démontré l’orthogonalité des polynômes de Legendre bi-
dimensionnels, i e, on va démontre que

hPi,j , Pl,k i = 0 for (i, j) 6= (l, k).

Démonstration 4.2
En utilisant le produit scalaire (4.1.3)
Soit Pi,j et Pl,k deux polynômes bidimensionnels de Legendre de degré i + j et l + k
respectivement, alors, ils satisfont l’équation (4.6.1)
" # " #
∂ ∂Pi,j ∂ ∂Pi,j
(1 − x2 ) (x, y) + (1 − y 2 ) (x, y) = − [i(i + 1) + j(j + 1)] Pi,j (x, y)
∂x ∂x ∂y ∂x
" # " # (4.6.2)
∂ ∂Pl,k ∂ ∂Pl,k
(1 − x2 ) (x, y) + (1 − y 2 ) (x, y) = − [l(l + 1) + k(k + 1)] Pl,k (x, y)
∂x ∂x ∂y ∂x
(4.6.3)
multipliant (4.6.2) par Pl,k et (4.6.3) par Pi,j et en soustrayant

[(l(l + 1) + k(k + 1)) − (i(i + 1) + j(j + 1))] Pi,j (x, y)Pl,k (x, y) =
" #
∂ 2 ∂Pi,j ∂ 2 ∂Pi,j
[(1 − x ) (x, y)] + [(1 − y ) (x, y)] Pl,k (x, y) − (4.6.4)
∂x ∂x ∂y ∂y
" #
∂ 2 ∂Pl,k ∂ 2 ∂Pl,k
[(1 − x ) (x, y)] + [(1 − y ) (x, y)] Pi,j (x, y)
∂x ∂x ∂y ∂y
Nous fixons

c = [l2 + l − i2 − i] + [k 2 + k − l2 − l] 6= 0, si (l, k) 6= (i, j).

Par intégration des deux membres de (4.6.4) dans le domaine [−1, 1] × [−1, 1]
Z 1Z 1 Z 1 Z 1 "" # #
∂ ∂Pi,j ∂ ∂Pi,j
c Pi,j Pl,k dx dy = [(1 − x2 ) ]+ [(1 − y 2 ) ] Pl,k
−1 −1 −1 −1 ∂x ∂x ∂y ∂y
"" # #
∂ 2 ∂Pl,k ∂ 2 ∂Pl,k
− [(1 − x ) ]+ [(1 − y ) ] Pi,j dx dy
∂x ∂x ∂y ∂y

75
On commence par la première partie
Z 1 Z 1 "" # #
∂ ∂Pi,j ∂ ∂Pi,j
I1 = [(1 − x2 ) ]+ [(1 − y 2 ) ] Pl,k dxdy
−1 −1 ∂x ∂x ∂y ∂y
Z 1Z 1 " # Z 1Z 1 " #
∂ 2 ∂Pi,j ∂ 2 ∂Pi,j
= [(1 − x ) ] Pl,k dxdy + [(1 − y ) ] Pl,k dxdy
−1 −1 ∂x ∂x −1 −1 ∂y ∂y
On a
Z 1 "Z 1 " # #
∂ ∂Pi,j
I1,1 = (x, y)[(1 − x2 ) (x, y)] Pl,k (x, y) dx dy
−1 −1 ∂x ∂x
" #1 
Z 1 Z 1
 Pl,k (x, y)(1 − x2 )
∂Pi,j ∂Pl,k ∂Pi,j
= (x, y) − (x, y) (1 − x2 ) (x, y) dx  dy
−1 ∂x −1 −1 ∂x ∂x
d’où Z 1 "Z 1 " ##
∂Pl,k ∂Pi,j
2
I1,1 = − (x, y) (1 − x ) (x, y) dx dy (4.6.5)
−1 −1 ∂x ∂x
De même
Z 1 "Z 1 " # #
∂ ∂Pi,j
I1,2 = [(1 − y 2 ) (x, y)] Pl,k (x, y) dy dx
−1 −1 ∂y ∂y
Z 1 "Z 1 #
∂Pl,k 2 ∂Pi,j
= − (x, y) (1 − y ) (x, y) dx dy (4.6.6)
−1 −1 ∂x ∂x
Pour la deuxième partie
Z 1Z 1 " #
∂ ∂Pl,k
I2 = [(1 − x2 ) ]Pi,j dxdy
−1 −1 ∂x ∂x
Z 1Z 1 " #
∂ 2 ∂Pl,k
+ [(1 − y ) ]]Pi,j dxdy
−1 −1 ∂y ∂y
Z 1 "Z 1 " # #
∂ ∂Pl,k
I2,1 = [(1 − x2 ) (x, y)] Pi,j (x, y) dx dy
−1 −1 ∂x ∂x
Z 1 "Z 1 #
∂Pi,j 2 ∂Pl,k
= − (x, y) (1 − x ) (x, y) dx dy (4.6.7)
−1 −1 ∂x ∂x
et aussi
Z 1 "Z 1 " # #
∂ ∂Pl,k
I2,2 = [(1 − y 2 ) (x, y)] Pi,j (x, y) dy dx
−1 −1 ∂y ∂y
Z 1 "Z 1 #
∂Pi,j 2 ∂Pl,k
= − (x, y) (1 − y ) (x, y) dy dx (4.6.8)
−1 −1 ∂y ∂y
par conséquent
Z 1 Z 1
c Pi,j (x, y)Pl,k (x, y)dxdy = I1 − I2
−1 −1
= [I1,1 + I1,2 ] − [I2,1 + I2,2 ]
= 0.
et puisque c 6= 0 pour chaque paire (i, j) 6= (l, k), alors
Z 1 Z 1
Pi,j (x, y)Pl,k (x, y)dxdy = 0
−1 −1
hPi,j , Pl,k i = 0, for (i, j) 6= (l, k).
d’où le résultat.

76
4.7 Différenciation d’un développement bidimen-
sionnel de Legendre

La différenciation est de calculer le développement de Legendre de la dérivée d’une


fonction exprimée comme une combinaison linéaire de polynômes de Legendre bidi-
mensionnelle [53, 54, 50].
Si
N N −i
X ∈ Rn × Rn .
X X
UN (X, t) = Ûi,j (t)Pi,j (x, y),
i=0 j=0

Par la relation de récurrence



 ∂ ∂


 (2i + 1)Pi,j (x, y) = Pi+1,j (x, y) − Pi−1,j (x, y)



 ∂x ∂x




∂ ∂



(2j + 1)Pi,j (x, y) = Pi,j+1 (x, y) − Pi,j−1 (x, y),



∂y ∂y

∞ X
∞ ∞ X
∞ (1) ∞ X ∞ (1)
 X (1) X Ûi,j ∂ X Ûi,j ∂
Ûi,j Pi,j (x, y) = Pi+1,j (x, y) − Pi−1,j (x, y)



j=0 i=0 2i + 1 ∂x j=0 i=0 2i + 1 ∂x


j=0 i=0
∞ X
∞ ∞ X
∞ (1) ∞ X ∞ (1)

 X (1) X Ûi,j ∂ X Ûi,j ∂


 Ûi,j Pi,j (x, y) = Pi,j+1 (x, y) − Pi,j−1 (x, y)
i=0 j=0 2j + 1 ∂y j=0 i=0 2j + 1 ∂y

i=0 j=0

∞ X ∞ (1) ∞ X ∞ (1)
 ∂U X Ûi−1,j ∂ X Ûi+1,j ∂
(x, y) = Pi,j (x, y) − Pi,j (x, y)



∂x j=0 i=1 2i − 1 ∂x j=0 i=−1 2i + 3 ∂x


∞ X ∞ (1) ∞ X ∞ (1)

 ∂U X Ûi,j−1 ∂ X Ûi,j+1 ∂

 (x, y) = Pi,j (x, y) − Pi,j (x, y)
i=0 j=1 2j − 1 ∂y

∂y j=0 i=−1 2j + 3 ∂y

  

∞ X (1) (1)
 ∂U Û Û ∂
 i−1,j − i+1,j 
 X

 (x, y) = Pi,j (x, y)
j=0 i=1 2i − 1


 ∂x 2i + 3 ∂x
 
∞ X ∞ (1) (1)

 ∂U X Ûi,j−1 Ûi,j+1 ∂

 (x, y) =  −  Pi,j (x, y).
i=0 j=1 2j − 1


 ∂y 2i + 3 ∂y
D’autre part, nous avons
∞ X ∞

 ∂U X ∂
(x, y) = Ûi,j Pi,j (x, y),




 ∂x j=0 i=0 ∂x
∞ X ∞

 ∂U X ∂

 (x, y) = Ûi,j Pi,j (x, y),
∂x ∂y


j=0 i=0

et puisque les dérivées partielles de Pi,j sont linéairement indépendantes



(1) (1)
 Ûi−1,j Û ∂U
− i+1,j i≥1


 (pour le développement de )
2i − 1 2i + 3 ∂x

Ûi,j = (1) (1)
 Ûi,j−1 Û ∂U
− i,j+1 j≥1


 (pour le développement de ),
2j − 1 2j + 3 ∂y

alors

77
  


  X 
i, j ≥ 0,




 (2i + 1) 
 Ûi,j 
,

 p=i+1

(1) p+i impaire
Ûi,j = 



  X 
(2j + 1)  Ûi,j 
, i, j ≥ 0,



 


 p=j+1
p+j impaire

L’identité precédante se généralise, avec une notation évidente à



(q) (q)
 Ûi−1,j Û
− i+1,j i ≥ 1,



2i − 1 2i + 3

(q−1)
Ûi,j = (q) (q)
 Ûi,j−1 Ûi,j+1
− j ≥ 1,



2j − 1 2j + 3

à partir duquel il est possible d’obtenir des expressions explicites pour les coefficients
de Legendre des dérivées d’ordre supérieur.
Pour la dérivée second, on a
  

1  X

 
[p(p + 1) − i(i + 1)]Ûi,j  i, j ≥ 0,


 (i + )  ,
2

 

 p=i+2

(2)  p+i paire
Ûi,j = 

1  X


 
(j + )  [p(p + 1) − j(j + 1)]Ûi,j 
, i, j ≥ 0,






 2 
p=j+1
p+j paire

Les extensions précédentes ne sont pas simplement formelle prévue U est assez ré-
gulière.

4.8 Exemples illustratifs


Exemple 6
Afin de donner une première illustration de la performance de notre implémentation
de l’approximation bidimensionnelle de Legendre, nous appliquons l’approximation
fonctionnelle sur quelques exemples de fonctions a deux variables.
Tableaux (4.2) présente les résultats correspondant à l’application de l’algo-
rithme d’approximation à divers ordre (application de la méthode sur [−1; 1]2 ). Les
erreurs absolues et relatives ont étaient calculées à l’aide d’une norme appropriée.

f(x,y) N Erreur absolue Erreur relative


0
2 0.6387 0.4111
21 0.3343 0.2152
cos(x + y) 22 0.0359 0.0231
23 0 0
20 1.8115 0.4995
22 0.6158 0.1698
exp(x + y) 22 0.1022 0.0282
23 0.0014 3.8565 ×10−4
Table 4.2: Erreur d’approximation absolue et relative.
78
Exemple 7
Pour des raisons de comparaison avec une autre méthode bidimensionnelle largement
utilisée (méthode des moindres carrés), nous montrons dans le tableau (4.3) les
résultats d’une approximation dans une autre base (base construite par un produit
tensoriel des polynômes Chebychev) [7, 52]

f(x,y) N Base de Legendre Base de Chebychev


20 0.4869 0.5196
x2 y + y 2 x 21 0.3443 0.4732
22 0 0.4218
20 0.9848 0.9958
21 0.1602 0.3613
y cos(x)
22 35×10−4 0.5389
23 3.0037×10−5 1.4443
20 1 1
21 0.7940 0.8628
2
sin πx sin πy 2 0.6304 0.6439
23 0.1322 0.6853
24 3×10−4 0.8144
Table 4.3: Erreur d’approximation quadratique.

La mise en œuvre pratique de la méthode d’approximation bidimensionnel de


Legendre suit strictement la construction en (4.3).

− Notez que l’approximation d’une fonction N-polynomiale par le N-ième poly-


nôme de Legendre bidimensionnel donne une erreur d’approximation nulle.
comme le montrent les résultats obtenus dans le premier exemple x2 y + y 2 x.
− La fonction approximative dans le dernier exemple représente la solution
exacte du problème aux limites de Poisson de valeur sur [−1, 1] × [−1, 1]
avec des conditions aux limites homogènes de Dirichlet
!
∂ 2u ∂ 2u
− + = 2π 2 sin πx sin πy
∂x2 ∂y 2

u(x, −1) = 0,

u(x, +1) = 0,

u(−1, y) = 0,

u(+1, y) = 0.

cela nous permet d’utiliser cette base pour résoudre de nombreux problèmes
aux limites en D2.

Exemple 8 (Approximation des fonctions polynomiales)

— Les figures ci-dessous représentent les résultats obtenus par l’approximation


polynômiale de f (x, y) = yx2 + xy 2 pour N = 2, N = 3 et N = 4.

79
On note que pour N = 4 l’approximation polynômiale est identique au graphe
de la fonction.

Figure 4.17: Approx avec N = 2 Figure 4.18: Approx avec N = 3 Figure 4.19: Approx avec N = 4

— L’approximation polynomiale de la fonction bivariée g(x, y) = x2 + y 2 dans la


base bidimensionnelle de Legendre donne pour N = 4 la meilleure approxi-
mation.

Figure 4.20: Approx avec N = 2, N = 3 et N = 4

Exemple 9 (Approximation des fonctions non-polynomiales)


Le problème d’approximation d’une fonction f opérant dans plusieurs situations,
comme par exemple, f est connu, mais difficile à manipuler. L’approximation vise à
remplacer f par une fonction plus simple, plus accessible pour être facile à intégrer,
à différencier, etc.

Figure 4.21: f (x, y) = y ex Figure 4.22: Approx avec N = 12

80
Figure 4.23: f (x, y) = y 2 ex Figure 4.24: Approx avec N = 11

Figure 4.25: f (x, y) = xy cos(y) Figure 4.26: Approx avec N = 2

Figure 4.27: f (x, y) = y ex Figure 4.28: Approx avec N = 11

Figure 4.29: f (x, y) = exp(x + y) Figure 4.30: Approx avec N = 23

4.9 Approximation de Tau-Legendre

4.9.1 Contexte théorique


Soit l’espace de Hilbert H := L2 ([−1, 1]×[−1, 1], C). On considère la formulation

 ∂U
(X, t) = M(U (X, t)) + f (X, t) X ∈ Ω t ≥ 0,



∂t





 C(U (X, t)) = g(t) X ∈ ∂Ω t > 0,





U (X, 0) = U0 (X) X ∈ Ω.


81
− Ω un domaine borné de Rn × Rn avec la frontière ∂Ω.
− X une paire (x, y), où x ∈ Rn et y ∈ Rn .
− U (X, t) fonction inconnue dans l’espace de Hilbert H, f élément de H.
− M, C des opérateurs de H dans H, où C définir les conditions aux limites.
Si M contient des dérivées partielles d’ordre k, les conditions aux limites sont aux
nombre k (g avec k Composants). Soit (Pi,j )i,j=1...∞ une base de Legendre orthogo-
nale bidimensionnelle qui ne satisfait pas les conditions aux limites.
Nous cherchons une approximation
N N
X X −i
UN (X, t) = Ûi,j Pi,j with Ûi,j = hUN , Pi,j i (4.9.1)
i=1 j=1

in SN (où SN représente l’espace engendré par les N premiers polynômes de Legendre


à deux dimensions) tel que

PN⊥−k RN = 0 N − k equations
C UN = 0 k equations

− RN est la fonction résiduelle de la décomposition spectrale dans la base de


Legendre, elle est donnée par
∂UN
RN = − M(UN ) − f. (4.9.2)
∂t
− PN⊥−k RN désigne la projection orthogonale de H sur SN −k .
− SN −k l’espace engendré par les N − k premiers polynômes de Legendre bidi-
mensionnels.
− UN est alors déterminée par N équations différentielles ordinaires.

4.9.2 Estimation d’erreur


Soit H un C-espace de Hilbert, S un sous espace de H engendré par les (N − k)
premiers polynômes de Legendre à deux dimensions. dim(S) = n = (N − k), où k
représente le nombre de conditions aux limites. Notre problème est de trouver une
fonction U ∈ H telle que

 ∂U
(X, t) + M (U (X, t)) = f



∂t





C (U (X, t)) = g (4.9.3)






U (0) = U0 ,


où f, g et U0 sont des éléments donnés de H.


Soit fn ∈ S une approximation de f , et Un0 une approximation de U0 , alors le
problème (4.9.3) peut être réécrit comme

(PUn ) + M (Un ) = fn , (4.9.4)
∂t
où P représente l’opérateur de projection Tau sur S.
Supposant que S est un espace normé et sa norme satisfait

∀s ∈ S, RehP s, M si ≥ κ k s k2 (4.9.5)

82
et
Rehf, gi ≤k f k · k g k (4.9.6)
Nous définissons f˜n par
∂  
f˜n = (P Ũn ) + M Ũn ,
∂t
où Un la solution du problème (4.9.3) et Ũn n’importe.
Sous les hypothèses (4.9.5) et (4.9.6), nous pouvons prouver le résultat suivant
1
k M(Un − Ũn ) k2 ≤k M(Un (0) − Ũn (0)) k2 +
Z t
κ
+ k M∗ (fn − f˜n (r)) k2 dr (4.9.7)
0

où M∗ désigne l’adjoint de l’opérateur M.


Cette inégalité s’interprète comme un résultat de stabilité, mais elle exige des condi-
tions de régularité.

Démonstration 4.3 On pose


∂ ∂  
(PUn ) + M (Un ) = fn and (P Ũn ) + M Ũn = f˜n (4.9.8)
∂t ∂t
alors
∂  
P( (Un − Ũn ) + M Un − Ũn ) = fn − f˜n .
∂t
Qui est multiplié par M(Un − Ũn ) pour le produit scalaire sur l’espace S
! !
∂ ∂
hP (Un − Ũn ) , M (Un − Ũn ) i
∂t ∂t
!
  ∂
+ hM Un − Ũn , M (Un − Ũn ) i
∂t
!

= hfn − f˜n , M (Un − Ũn ) i,
∂t

dont la partie réelle est prise, et puisque (Un − Ũn ) ∈ S, il sera
∂t
! !
2 ∂ ∂
κ k Un − Ũn k ≤ RehP (Un − Ũn ) , M (Un − Ũn ) i.
∂t ∂t
d’autre part
!

Rehfn − f˜n , M (Un − Ũn ) i
∂t

= RehM∗ (fn − f˜n ), (Un − Ũn )i
∂t

≤ (k M∗ (fn − f˜n ) k) · (k (Un − Ũn ) k)
∂t
1 √ ∂
≤ ( √ k M∗ (fn − f˜n ) k) · ( κ k (Un − Ũn ) k)
κ ∂t
Puisque !2
1 √ ∂
√ k M∗ (fn − f˜n ) k − κ k (Un − Ũn ) k ≥0
κ ∂t

83
alors
1 κ ∂
k M∗ (fn − f˜n ) k2 + k (Un − Ũn ) k2
2κ 2 ∂t
1 √ ∂
≥ ( √ k M∗ (fn − f˜n ) k) · ( κ k (Un − Ũn ) k)
κ ∂t

≥ (k M∗ (fn − f˜n ) k) · (k (Un − Ũn ) k)
∂t
alors nous avons

RehM∗ (fn − f˜n ), (Un − Ũn )i
∂t
1 κ ∂
≤ k M∗ (fn − f˜n ) k2 + k (Un − Ũn ) k2 .
2κ 2 ∂t
La formule (4.9.9) devient

∂ 1∂
κk (Un − Ũn ) k2 + k M(Un − Ũn ) k2
∂t 2 ∂t
1 κ ∂
≤ k M (fn − f˜n ) k + k (Un − Ũn ) k2
∗ 2
2κ 2 ∂t
1 ∂
≤ k M∗ (fn − f˜n ) k2 +κ k (Un − Ũn ) k2 .
2κ ∂t
d’où
∂ 1
k M(Un − Ũn ) k2 ≤ k M∗ (fn − f˜n ) k2 .
∂t κ
par l’intégration des deux côtés de cette inégalité, nous avons
Z t
∂ 1Zt
2
k M(Un − Ũn )(r) k dr ≤ k M∗ (fn − f˜n )(r) k2 dr
0 ∂r κ 0

k M(Un − Ũn )(t) k2 ≤ k M(Un − Ũn )(0) k2


1Zt
+ k M∗ (fn − f˜n )(r) k2 dr.
κ 0

Nous supposons que f et U sont des fonctions régulières.


Soit Ũn est une approximation de U telle que Ũn (0) = Un0 .
Utilisant l’inégalité (4.9.7), nous pouvons obtenir l’estimation d’erreur suivante

k M(U − Ũn )(t) k



≤ max k M(U − Ũn )(r) k + max k M∗ (f − fn )(r) k
0≤r≤t 0≤r≤t
!

+ max k (U − Ũn )(r) k + max k M∗ M(U − Ũn )(r) k .
0≤r≤t ∂t 0≤r≤t

Démonstration 4.4 On a

k M(U − Un )(t) k ≤ k M(U − Ũn )(t) k + k M(Un − Ũn )(t) k,

84
on peut estimer k M(Un − Ũn )(t) k de (4.9.7)

k M∗ (fn − f )(t) k ≤ k M∗ (f − fn )(t) k + k M∗ (f − f˜n )(t) k



≤ k M∗ (f − fn )(t) k + k M∗ (U − U˜n ) k
∂t

+ k MM (U − Un ) k ˜

alors

k M(U − Ũn )(t) k



≤ max k M(U − Ũn )(r) k + max k M∗ (f − fn )(r) k
0≤r≤t 0≤r≤t
!

+ max k (U − Ũn )(r) k + max k M∗ M(U − Ũn )(r) k .
0≤r≤t ∂t 0≤r≤t

85
Conclusion

Les méthodes spectrales forment une classe de discrétisations spatiales pour les
équations différentielles. Les éléments clés pour leur formulation sont les fonctions
d’essai (également appelées fonctions d’expansion ou d’approximation) et les fonc-
tions de test (également appelées fonctions de poids). Les fonctions d’essai, qui sont
des combinaisons linéaires de fonctions de base d’essai appropriées, sont utilisées
pour fournir la représentation approximative de la solution. Les fonctions de test
sont utilisées pour s’assurer que l’équation différentielle et peut-être certaines condi-
tions aux limites sont satisfaites aussi étroitement que possible par l’expansion en
série tronquée. Ceci est réalisé en minimisant, par rapport à une norme appropriée,
le résidu produit en utilisant l’approximation tronquée au lieu de la solution exacte.
Les résidus représentent l’équation différentielle et parfois les conditions aux limites,
explicitement ou implicitement. Pour cette raison, ils peuvent être considérés comme
un cas particulier de la méthode des résidus pondérés (Finlayson et Scriven (1966)).
Une exigence équivalente est que le résidu satisfasse une condition d’orthogonalité
appropriée par rapport à chacune des fonctions de test. De ce point de vue, les mé-
thodes spectrales peuvent être considérées comme un cas particulier des méthodes
de Petrov-Galerkin (Zienkiewicz et Cheung (1967), Babuska (1972)).
Le choix des fonctions d’essai est l’une des caractéristiques qui distinguent les
premières versions des méthodes spectrales des méthodes d’éléments finis et de diffé-
rences finies. Les fonctions de base d’essai pour ce qu’on peut maintenant appeler des
méthodes spectrales classiques - des méthodes spectrales sur un seul domaine ten-
soriel - sont globales, infiniment différentiables et presque orthogonales, c’est-à-dire
que la matrice constituée de leurs produits internes a une très faible bande passante ;
dans de nombreux cas, cette matrice est diagonale. (Typiquement les fonctions de
base d’essai pour les méthodes spectrales classiques sont les produits tensoriels des
fonctions propres des problèmes singuliers de Sturm-Liouville). En revanche, pour
la version h des méthodes d’éléments finis, le domaine est divisé en petits éléments
et des fonctions d’essai de poids faible sont spécifiées dans chaque élément. Les fonc-
tions de base d’essai pour les méthodes d’éléments finis ont donc un caractère local et
sont encore presque orthogonales, mais pas infiniment différentiables. Les méthodes
de différences finies sont généralement considérées à partir d’une perspective d’ap-
proximation ponctuelle plutôt que d’une perspective de fonction d’essai/fonction de
test.
Le choix des fonctions de test distingue les trois types de schémas spectraux les
plus anciens, à savoir les versions de Galerkin, collocation et tau. Dans l’approche
de Galerkin (1915), les fonctions de test sont les mêmes que les fonctions d’essai. Ce
sont donc des fonctions infiniment continues qui satisfont individuellement certaines
ou toutes les conditions aux limites. L’équation différentielle est appliquée en exi-
geant que l’intégrale des temps résiduels de chaque fonction d’essai soit nulle, après

86
quelques intégrations par parties, en tenant compte dans le processus de toutes les
conditions aux limites restantes. Dans l’approche de collocation, les fonctions de test
sont traduites par des fonctions delta de Dirac centrées sur des points de collocation
spéciaux. Cette approche nécessite que l’équation différentielle soit satisfaite exac-
tement aux points de collocation. Les méthodes tau spectrales sont similaires aux
méthodes de Galerkin dans la manière dont l’équation différentielle est appliquée.
Cependant, aucune des fonctions de test ne doit satisfaire aux conditions aux limites.
Par conséquent, un ensemble d’équations supplémentaire est utilisé pour appliquer
les conditions aux limites.
L’approche de collocation semble avoir été utilisée pour la première fois par Sla-
ter (1934) et par Kantorovic (1934) dans des applications spécifiques. Frazer, Jones
et Skan (1937) l’ont développé comme une méthode générale pour résoudre les équa-
tions différentielles ordinaires. Ils ont utilisé une variété de fonctions d’essai et une
distribution arbitraire des points de collocation. Le travail de Lanczos (1938) a éta-
bli pour la première fois qu’un bon choix des fonctions d’essai et la distribution des
points de collocation est crucial pour l’exactitude de la solution. Peut-être devrait-
il être crédité de poser les bases de la méthode de collocation orthogonale. Cette
méthode a été relancée par Clenshaw (1957), Clenshaw et Norton (1963) et Wright
(1964). Ces études ont impliqué l’application d’expansions polynomiales de Cheby-
shev à des problèmes de valeur initiale. Villadsen et Stewart (1967) ont développé
cette méthode pour les problèmes aux limites.
Les premières applications de la méthode de collocation spectrale à des équations
différentielles partielles ont été faites pour des problèmes spatialement périodiques
par Kreiss et Oliger (1972) (qui l’ont appelée la méthode de Fourier) et Orszag (1972)
(qui l’a appelé pseudo-spectral). Cette approche est particulièrement intéressante
en raison de la facilité avec laquelle elle peut être appliquée à des problèmes à
coefficients variables et même non linéaires.
L’approche de Galerkin possède la caractéristique esthétique que les fonctions
d’essai et les fonctions de test sont les mêmes et que la discrétisation est dérivée d’une
forme faible du problème mathématique. Les méthodes d’éléments finis utilisent ha-
bituellement cette approche. De plus, la première application sérieuse des méthodes
spectrales aux EDP - celle de Silberman (1954) pour la modélisation météorologique
- était une méthode de Galerkin. Orszag (1969, 1970) et Eliasen, Machenhauer et
Rasmussen (1970) ont développé des méthodes de transformation pour évaluer les
sommes de convolution résultant des non linéarités quadratiques (les termes non
linéaires augmentent également le coût des méthodes des éléments finis, mais pas
autant que pour les méthodes spectrales de Galerkin.) Pour les problèmes conte-
nant des termes non linéaires plus compliqués, les méthodes spectrales de Galerkin
à haute résolution restent peu pratiques.
L’approche tau est une modification de la méthode de Galerkin applicable aux
problèmes avec conditions aux limites non périodiques. Elle peut être considérée
comme un cas particulier de la méthode dite de Petrov-Galerkin. Lanczos (1938)
a développé la méthode spectrale tau, et l’application de la méthode Chebyshev -
tau par Orszag (1971) pour produire des solutions très précises aux problèmes de
stabilité linéaire de la dynamique des fluides a inspirée une utilisation considérable
de cette technique pour le calcule des valeurs propres.
Au milieu des années 1980, de nouvelles méthodes spectrales, combinant l’ap-
proche de Galerkin avec des formules de quadrature gaussiennes, sont devenues

87
courantes. Ces méthodes partagent avec l’approche de Galerkin l’application faible
de l’équation différentielle et de certaines conditions aux limites. Dans leur version
originale, les inconnues sont les valeurs de la solution aux points de quadrature,
comme dans une méthode de collocation.
La première évaluation mathématique unificatrice de la théorie des méthodes
spectrales a été fournie dans la monographie de Gottlieb et Orszag (1977). La théorie
a été étendue pour couvrir une grande variété de problèmes, tels que le coefficient
variable et les équations non linéaires. Dans sa monographie, Mercier (1981) a avancé
la compréhension du rôle des points de quadrature gaussiens pour les polynômes
orthogonaux en tant que points de collocation pour les méthodes spectrales, comme
cela avait été observé en 1979 par Gottlieb. Des analyses de stabilité et de convergence
pour les méthodes spectrales ont été produites pour diverses approches. L’analyse
théorique des méthodes spectrales en termes de formulations faibles s’est révélée
très fructueuse. En fait, cela a ouvert la porte à l’utilisation de techniques d’analyse
fonctionnelle pour traiter des problèmes complexes et obtenir les meilleurs résultats.
Les développements des applications ont été tout aussi étendus, et à la fin des
années 1980, les méthodes spectrales étaient devenues l’outil numérique prédominant
pour les études de physique fondamentale de la transition et de la turbulence. Dans
l’ensemble, les 10 années qui ont suivi ont été extrêmement fructueuses pour le
développement théorique et le déploiement d’applications de méthodes spectrales.
Les développements des cinq premières années qui ont suivi Gottlieb et Orszag
(1977) ont été examinés dans les actes du symposium édités par Voigt, Gottlieb et
Hussaini (1984). En effet, ce même colloque en 1982 a inspiré les incarnations ju-
véniles des auteurs actuels pour produire leur premier texte sur ce sujet (Canuto,
Hussaini, Quarteroni et Zang (1988)). Par la suite, de nombreux autres textes et ar-
ticles de revue sur divers aspects des méthodes spectrales sont apparus. Boyd (1989,
et en particulier la deuxième édition de 2001) contient une mine de détails et de
conseils sur les algorithmes spectraux et est une référence particulièrement bonne
pour les problèmes sur les domaines non bornés et dans les systèmes de coordonnées
cylindriques et sphériques. Une référence solide pour les aspects théoriques des mé-
thodes spectrales pour les équations elliptiques a été fournie par Bernardi et Maday
(1992, 1997). Funaro (1992) et Guo (1998) ont discuté de l’approximation des équa-
tions différentielles par des expansions polynomiales. Fornberg (1996) est un guide
pour l’application pratique des méthodes de collocation spectrale, et il contient des
exemples illustratifs, des explications heuristiques, des segments de code Fortran de
base et un chapitre succinct sur les applications aux flux turbulents et aux prévi-
sions météorologiques. Trefethen (2000) est une introduction vivante aux méthodes
de collocation spectrale et inclut de nombreux exemples dans Matlab. Tadmor (1998)
et Gottlieb et Hesthaven (2001) pour les problèmes hyperboliques de premier ordre,
Cohen (2002) pour les équations d’onde, et Bernardi, Dauge et Maday (1999) ont
fourni des applications ciblées des méthodes spectrales sur des classes particulières
de problèmes. pour des problèmes dans les domaines axisymétriques. Peyret (2002)
a fourni une discussion assez complète des méthodes spectrales de Fourier et de
Chebyshev pour la résolution des équations de Navier-Stokes incompressibles, en
particulier dans les équations primitives et les formulations de tourbillon-flux.
À la fin des années 1980, les méthodes spectrales classiques étaient raisonnable-
ment matures et l’accent sur la recherche s’était clairement orienté vers l’utilisation
de méthodes de haut niveau pour les problèmes sur des domaines complexes. Funaro
(1997) traite les méthodes d’élasticité spectrale dans le contexte de problèmes de

88
valeurs limites elliptiques, en particulier les écoulements dominés par la convection,
et inclut un traitement multidomaine pour la géométrie complexe. Les premiers
textes complets sur les méthodes spectrales dans les domaines complexes sont appa-
rus vers l’an 2000. Karniadakis et Sherwin (1999) fournissent un cadre unifié pour
les méthodes d’éléments spectraux (introduites par Patera (1984)) et les méthodes
d’éléments finis hp (voir par exemple, Babuska, Szabo et Katz (1981)). Il comprend
des domaines structurés et non structurés, ainsi que des applications à la fois pour les
flux incompressibles et compressibles. Le texte de Deville, Fischer et Mund (2002)
se concentre sur les méthodes d’ordre supérieur dans l’espace physique (collocation
et méthodes d’éléments spectraux) avec des applications à des écoulements incom-
pressibles. Sa couverture des détails de mise en œuvre de ces méthodes sur les ordi-
nateurs vectoriels et parallèles le distingue des autres livres sur le sujet. Bien qu’il
soit spécifiquement consacré à la version hp des méthodes d’éléments finis, le livre
de Schwab (1998) fournit de nombreux résultats théoriques utiles sur les propriétés
d’approximation des polynômes d’ordre élevé dans des domaines complexes.

89
Notations

EDO Équation différentielle ordinaire.

EDP Équation différentielle partielle.

EF Méthode des éléments finis.

DF Méthode des différences finis.

TS Techniques spectrale.

PN , PN Opérateurs de projection.

RN Fonction résiduelle.

Pn (x) Polynôme orthogonal de degré n.

Tn (x) Polynôme de Chebychev de la première espèce.

Un (x) Polynôme de Chebychev de la deuxième espèce.

Vn (x) Polynôme de Chebychev de la troisième espèce.

Wn (x) Polynôme de Chebychev de la quatrième espèce.

Ln (x) Polynôme de Legendre d’ordre n.

ln (x) Polynôme de Laguerre d’ordre n.

Hn (x) Polynôme de Hirmite d’ordre n.

Pi,j (x, y) Polynôme de Legendre a deux variables.

w(x) Fonction poids.

hu, vi Produit scalaire de u et v.

δij Delta de Kronecker (= 0 si i 6= j, = 1 si i = j).

90
uN (x) Approximation spectrale.

u0 (x) Condition initiale.

ũk k ieme coefficient spectral.


(1)
ũk k ieme coefficient spectral de la première dérivée.
(2)
ũk k ieme coefficient spectral de la deuxième dérivée.

aN (t) Coefficient spectral dépend du temps.

(ϕk )k=1,...,∞ Base spectrale.

H Espace de Hilbert.

Ω Domaine borné de Rn .

∂Ω Frontière de Ω.

B Opérateur de trace.

B Sous espace fonctionnel de H.

BN Espace engendré par les N première fonctions de base.

PN⊥ Projection orthogonale de H sur BN .

M Matrice de collocation : M = (ϕn (xi )).

δp Espace spectral.

=h Espace physique.

Γ Cercle unité [0; 2π].

L2 (Γ, C) Espace de fonctions de carrées intégrables de Γ à valeur complexe.

ψk (x) Fonction test.

φk (x) Fonction d’essai.

M(u) Opérateur (linéaire ou non-linéaire).

M Opérateurs d H dans H.

M∗ L’adjoint de l’opérateur M.

91
Annexe

Méthode des différences finies

La méthode des différences finies est une technique courante de recherche de


solutions approchées d’équations aux dérivées partielles qui consiste à résoudre un
système de relations (schéma numérique) liant les valeurs des fonctions inconnues
en certains points suffisamment proches les uns des autres.
Cette méthode apparaît comme étant la plus simple à mettre en œuvre car elle
procède en deux étapes : d’une part la discrétisation par différences finies des opéra-
teurs de dérivation/différentiation, d’autre part la convergence du schéma numérique
ainsi obtenu lorsque la distance entre les points diminue.

Méthode des éléments finis

La méthode des éléments finis (MEF, ou FEM pour finite element method en
anglais) est utilisée pour résoudre numériquement des équations aux dérivées par-
tielles. Celles-ci peuvent par exemple représenter analytiquement le comportement
dynamique de certains systèmes physiques (mécaniques, thermodynamiques, acous-
tiques, etc.).
Concrètement, cela permet par exemple de calculer numériquement le compor-
tement d’objets même très complexes, à condition qu’ils soient continus et décrits
par une équation aux dérivées partielles linéaire : mouvement d’une corde secouée
par l’un de ses bouts, comportement d’un fluide arrivant à grande vitesse sur un
obstacle, déformation d’une structure métallique, etc.

Méthode des volumes finis.

La méthode des volumes finis est utilisée pour résoudre numériquement des équa-
tions aux dérivées partielles, comme la méthode des différences finies et celle des
éléments finis.
Contrairement à la méthode des différences finies qui met en jeu des approxi-
mations des dérivées, les méthodes des volumes finis et des éléments finis exploitent
des approximations d’intégrales. Toutefois, la méthode des volumes finis se base di-
rectement sur la forme dite forte de l’équation à résoudre, alors que la méthode des
éléments finis se fonde sur une formulation variationnelle de l’équation (on parle
aussi de formulation faible).
L’équation aux dérivées partielles est résolue de manière approchée à l’aide d’un
maillage constitué de volumes finis qui sont des petits volumes disjoints (en 3D, des
surfaces en 2D, des segments en 1D) dont la réunion constitue le domaine d’étude.

92
Les volumes finis peuvent être construits autour de points d’un maillage initial, mais
ce n’est pas une nécessité.
Les méthodes de volumes finis ont été initialement mises au point pour des lois de
conservation hyperboliques, mais des développements récents permettent à présent
de les utiliser pour des équations elliptiques et paraboliques.
Ces équations aux dérivées partielles contiennent des termes de divergence. En
utilisant le théorème de flux-divergence, les intégrales de volume d’un terme de
divergence sont transformées en intégrales de surface et ces termes de flux sont
ensuite évalués aux interfaces entre les volumes finis. On utilise une fonction de
flux numérique pour élaborer une approximation des flux aux interfaces. Puisque le
flux entrant dans un volume donné est égal au flux sortant du volume adjacent, ces
méthodes sont conservatives, donc parfaitement adaptées à la résolution de lois de
conservation.
Un autre avantage de la méthode des volumes finis est qu’elle est facilement
utilisable avec des maillages non structurés car, en matière de discrétisation des lois
de conservation, sa formulation ne tient aucun compte de la complexité du maillage.
En revanche, les caractéristiques géométriques du maillage peuvent jouer un rôle
prépondérant lorsque des flux diffusifs entrent en jeu.

Formule de Leibniz

La formule de Leibniz est une formule permettant de calculer la dérivée d’ordre


nn d’un produit de deux fonctions. Elle est analogue à la formule du binôme de
Newton pour calculer une puissance d’ordre nn d’une somme de deux termes.
Soient f, g : I → C deux fonctions n fois dérivables sur I. Alors f g est n fois
dérivable sur I et
n
!
(n)
X n (n−k) (k)
(f g) = f g
k=0 k
! ! !
n (n−1) 0 n (n−2) 00 n (n−k) (k)
= f (n) g + f g + f g + ··· + f g + · · · + f g (n)
1 2 k

Calcul des coefficients de Chebychev de F (u)

Les deux relations de récurrence décrites dans [le paragraphe Relation de récur-
rence entre les Tn dans le premier chapitre] vont permettre de calculer les coefficients
du développement X
F (u) = bn Tn (x),
n∈N

à partir des coefficients de X


u= an Tn (x),
n∈N

pour de nombreuses fonctions F standards.


Voici quelques exemples fondamentaux.
a) F(u)= x u(x).

X
u(x) = an Tn (x),
n=0

93

b[1]
X
xu(x) = n Tn (x).
n=0

On se sert de la relation

cn Tn+1 (x) + dn−1 Tn−1 = 2xTn (x) n ∈ N,

dont la combinaison linéaire avec les an donne



X ∞
X ∞
X
cn an Tn+1 (x) + dn−1 an Tn−1 (x) = 2x an Tn (x).
n=0 n=0 n=0

On en déduit

X ∞
X
2xu(x) = cn−1 an−1 Tn (x) + dn an+1 Tn (x)
n=0 n=0
X∞
= (cn−1 an−1 + an+1 )Tn (x).
n=0

Pour le premier terme, cn−1 a permis la sommation n = 0 . . . ∞.


Pour le second dn a été remplacé par la sommation n = 0 . . . ∞.
Donc
2b[1]
n = cn−1 an−1 + an+1 n ∈ N. (4.9.9)
b) F(u)= x2 u(x).

X
u(x) = an Tn (x),
n=0

2
b[2]
X
x u(x) = n Tn (x).
n=0

On se sert de la relation précédente appliquée aux deux fonctions xu(x) et


x2 u(x) :
[1] [1]
2b[2]
n = cn−1 bn−1 + bn+1 n ∈ N,
[2]
4bn = cn−1 [cn−2 an−2 + an ] + [cn an + an+2 ].

En remarquant que cn−1 · cn−2 = cn−2 on obtient

4b[2]
n = cn−2 an−2 (cn + cn−1 )an + an+2 . (4.9.10)

c) F(u)= u’(x), (expressions implicites et explicites).



X
u(x) = an Tn (x),
n=0


u0 (x) = a(1)
X
n Tn (x).
n=0

On se sert de la relation
0
Tn+1 T0
cn − dn−2 n−1 = 2Tn (x) n ∈ N,
n+1 n−1

94
dont la combinaison avec les a(1)
n donne

∞ 0 ∞ 0 ∞
Tn+1 (x) X Tn−1 (x)
cn a(1) dn−2 a(1) a(1)
X X
n − n = 2 n Tn (x).
n=0 n+1 n=0 n − 1 n=0

On en déduit
∞ ∞
Tn0 (x) X
(1)
0
(1) T (x)
2u0 (x) = dn−1 an+1 n
X
cn−1 an−1 −
n=1 n n=0 n
∞ 0
(1) (1) T (x)
[cn−1 an−1 − an+1 ] n .
X
=
n=1 n

Pour le second terme, dn−1 a été remplacé par la sommation n = 1 . . . ∞


En identifiant avec ∞
u0 (x) = an Tn0 (x),
X

n=1

on obtient l’expression implicite des a(1)


n

(1) (1)
2nan = cn−1 an−1 − an+1 n∈N (4.9.11)

Ceci permet de calculer explicitement les a(1)


n par récurrence

(1)
cn a(1)
n = 2(n + 1)an+1 + an+2
(1)
= 2(n + 1)an+1 + 2(n + 3)an+3 an+5
= ...

X
= 2 pap ,
p=n+1
step 2

où la notation "step 2" signifie que l’incrément de la sommation est 2.


Donc ∞
(1) 2 X
an = pap . (4.9.12)
cn p=n+1
step 2

d) F(u)= u”(x), (expression explicite).



X
u(x) = an Tn (x),
n=0

u00 (x) = a(2)
X
n Tn (x).
n=0

Le plus simple est d’utiliser la relation précédente (4.9.12) appliquée aux


fonctions u00 et u0 ∞
2 X
a(2)
n = ma(1)
m n ∈ N.
cn m=n+1
step 2

puis avec u0 et u

a(1)
X
m = 2 pap m ≥ 1.
p=m+1
step 2

95
On a donc en regroupant ces égalités
∞ ∞
2 X
a(2)
X
n = mpap .
cn m=n+1 p=m+1
step 2 step 2

Le domaine de sommation D représenté sur la figure (??) peut être balayé


d’une façon différente.
∞ ∞
4 X
a(2)
X
n = pap m.
cn p=n+2 m=n+1
step 2 step 2

Le calcul suivant montre que


p−1
X p2 − n2
m= .
m=n+1
4
step 2

Effectuons le calcul suivant avec a < b dans N et e = b − a


2 ∈N
b
X e
X
m = (a + 2k)
m=a k=0
step 2
= (e + 1)a + (e + 1)e
= (e + 1)(e + a)
1
= (b − a + 2)(b + a).
4
Pour a = n + 1 et b = p − 1 on obtient
p−1
X 1
m = (p − n)(p + n)
m=n+1 4
1 2
= (p − n2 ).
4
Donc ∞
1 X
a(2)
n = p(p2 − n2 )ap . (4.9.13)
cn p=n+2
step 2

e) F(u)= u”(x), (expression implicite).


Dans certains problèmes comme la résolution de l’équation de Poison il peut
être intéressant de connaître non pas a(2)n comme expression explicite des an
(2)
mais an en fonction des an .
On utilise la relation (4.9.11) avec les fonctions u0 et u
(1) (1) (1)
2nan = cn−1 an−1 − an+1 pour n ≥ 2,
puis avec les fonctions u” et u0
(2) (2)
2pa(1)
p = cp−1 ap−1 − ap+1 pour p = n − 1 et p = n + 1.
(1) (1)
En remplaçant an−1 et an+1 et leur expression
" # " #
cn−2 (2) 1 cn 1 (2)
2nan = cn−1 an−2 − a(2)
n − a(2)
n − an+2
2(n − 1) 2(n − 1) 2(n + 1) 2(n + 1)
cn−1 cn−2 (2) 1 1 cn 1
 
(2)
= an−2 − + a(2)
n + an+2 , ∀n ≥ 2.
2(n − 1) 2 n−1 n+1 2(n + 1)

96
Or cn−1 cn−2 = cn−2 et cn peut être omis car n ≥ 2.
Donc
cn−2 (2) 1 (2) 1 (2)
an = an−2 − a + a . (4.9.14)
4n(n − 1) 2(n2 − 1) n
4n(n + 1) n+2

f) Expression des conditions aux limites


Rappelons que

Tn (1) = 1 et Tn (−1) = (−1)n




∀n ∈ N

Tn0 (1) = n2 et Tn0 (−1) = (−1)n−1 n2


Soit ∞
X
u(x) = an Tn (x).
n=0

Il s’agit d’exprimer les conditions aux limites à l’aide des an .


Par exemple
• ∞ X
u(1) = an .
n=0
• ∞
(−1)n an .
X
u(−1) =
n=0


u0 (1) = an Tn0 (1)
X

n=0

n2 an .
X
=
n=0



u0 (−1) = an Tn0 (−1)
X

n=0

(−1)n−1 n2 an .
X
=
n=0

97
Algorithmes

Divers.
1 function [ Scal ] = Produit ( f , g )
2
3 % input : f, g : Deux fonctions sous forme symbolique.
4 % output : Scal : Variable réelle represente le produit scalire de f et g, définit par une intégrale sur
[-1,1].
5
6 syms x
7 S c a l = i n t ( f ∗g , x , − 1 , 1 ) ;
8 end

1 function [ Scal ] = Prod_Scal2 ( f , g )


2
3 % input : f, g : Deux fonctions sous forme symbolique.
4 % output : Scal : Variable réelle represente le produit scalire de f et g, définit par une intégrale
double sur [−1, 1]2 .
5
6 syms x y
7 S c a l = i n t ( ( i n t ( f ∗g ∗ ( (1−x ^2)∗(1 − y ^ 2 ) ) ^ ( − 1 / 2 ) , y , − 1 , 1 ) ) , x , − 1 , 1 ) ;
8 end

1 f u n c t i o n [ N ] = NormeL2 ( f , a , b )
2
3 format s h o r t
4 N= e v a l ( s q r t ( i n t ( f ^ 2 , a , b ) ) ) ;
5
6 end

Construction des bases.


1 f u n c t i o n [ T ] = Chebychev1 ( n )
2 % input : n : Pour construire un polynôme d’ordre n.
3 %output : P : Un polynôme, sous forme symbolique.
4
5 syms x
6
7 T = s i m p l i f y ( cos ( n ∗( acos ( x ) ) ) ) ;
8
9 end

1 f u n c t i o n [ T ] = Chebychev2 ( i , j )
2 % input : i, j : Pour la construiction d’un polynôme de Chebychev d’ordre N=i+j.
3 %output : P : un polyôme, sous forme symbolique, construit par un produit.
4
5 syms x y
6
7 T = s i m p l i f y ( cos ( i ∗( acos ( x ) ) ) ∗ cos ( j ∗( acos ( y ) ) ) ) ;
8
9 end

98
1 function [ P ] = Legendre1 ( n )
2 % input : n : Pour construire un polynôme d’ordre N=n.
3 %output : P : Un polyôme, sous forme symbolique,
4 %construit par la formule de Rodrigues.
5
6 syms x
7
8 P = s i m p l i f y ( 1 / ( 2 ^ ( n ) ∗ f a c t o r i a l ( n ) ) ∗ ( d i f f ( ( x ^2 −1)^n , x , n ) ) ) ;
9
10 end

1 function P = Legendre_Reccurence ( i , j )
2 %input : i,j : Indices, forment l’ordre N du polynôme, tq N=i+j.
3 %output : p : un polynôme sous forme symbolique, construit par une relation de rècuurence entre
les polynômes.
4 % left := P(i,j-1), rigth := P(i,j+1), top := P(i-1,j), low :=P(i+1,j), P := P(i,j) ;
5
6 syms x y
7 l e f t = 0;
8 top = 0;
9
10 i f ( i ==0 && j ==0)
11 P = sym ( 1 ) ;
12 else
13 if ( i ==−1 | | j ==−1) t h e n
14 P = 0;
15 else
16 P = 1;
17
18 for l = 0: i −1
19 right = ( 2 ∗ l + 1 ) / ( l +1)∗ x∗P − ( l ) / ( l +1)∗ l e f t ;
20 left = P;
21 P = right ;
22 end
23
24 f o r k = 0 : j −1
25 low = ( 2 ∗ k + 1 ) / ( k +1)∗ y∗ P − ( k ) / ( k +1)∗ t o p ;
26 top = P ;
27 P = low ;
28 end
29 end
30 end
31 end

1 function [ P ] = Legendre_Rodrigues ( i , j )
2 % input : i, j : Pour la construction d’un polynôme d’ordre N=i+j.
3 %output : P : Un polyôme bi-variables, sous forme symbolique, construit par la formule de Rodrigues.
4
5 syms x y
6
7 P= s i m p l i f y ( 1 / ( 2 ^ ( i + j ) ∗ ( f a c t o r i a l ( i ) ∗ f a c t o r i a l ( j ) ) )
8
9 ∗ ( d i f f ( ( x ^2 −1)^ i , x , i ) ) ∗ ( d i f f ( ( y ^2 −1)^ j , y , j ) ) ) ;
10
11 end

Différenciation.
1 f u n c t i o n [ D i r v 1 ] = D i f f e r e n t i a t i o n (N)
2
3 % input : L’ordre du polynôme de Legendre a dèrivè.
4 % output : La dèrivèe première.
5
6 %clear
7 %clc
8 D1 = [ ] ;

99
9
10 syms v00 v01 v02 v10 v11 v12 v20 v21 v22
11
12 %Création d’un vecteur pour les cefficients spectraux
13
14 %V=transpose(sym(’v’,[N N])) ;
15 V= [ v00 v01 v02 ; v10 v11 v12 ; v20 v21 v22 ] ;
16
17
18 %Calcule des coefficients D1 de la première dérivée par rapport a la variable x ou bien par rapport
a la variable y
19
20 f o r i = 0 :N
21 S=0;
22
23 f o r p= i + 1 :N
24 i f ( mod ( p+ i , 2 ) ~ = 0 )
25 S=S+V( p , 1 ) ;
26 end
27
28 end
29 D1= [D1 ( 2 ∗ i +1)∗ S ] ;
30 end
31
32 L=[];
33 f o r i = 1 :N+1
34 f o r j = 1 :N+1
35 L= [L R o d r i g u e s ( i −1, j − 1 ) ] ;
36 end
37 end
38
39 Dirv1 =0;
40 f o r i = 1 :N
41 D i r v 1 = D i r v 1 + D1 ( i ) ∗ L ( i ) ;
42 end
43 Dirv1= s i m p l i f y ( Dirv1 ) ;

Approximation fonctionnelle.
1 f u n c t i o n [ E , f_N ] = A p p r o x i m a t i o n _ L e g e n d r e ( f , N )
2
3 % input : f : Fonction a deux variables symboliques x et y (la fonction a approximé).
4 % : N : l’ordre du developpement en série de Legendre.
5
6 % output : fN : l’approximant d’ordre N de la fonction f.
7 % : Erreur : une variable réelle, mesure la diférence entre la fonction f et leur approximation fN .
8
9 syms x y
10 f_N = 0 ;
11
12 i f mod (N, 2 ) = = 0
13 K= f l o o r (N / 2 ) ;
14 else
15 K= f l o o r (N / 2 ) + 1 ;
16 end
17
18
19 f o r i = 0 :K
20 f o r j = 0 : f l o o r (N / 2 )
21 f_N=f_N+ R o d r i g u e s ( 0 , j ) ∗ R o d r i g u e s ( i , 0 ) ∗ ( ( 2 ∗ i + 1 ) / 2 ∗ ( 2 ∗ j + 1 ) / 2 )
22 ∗ Prod_Scal2 ( f , Rodrigues ( 0 , j )∗ Rodrigues ( i ,0 ) ) ;
23
24 %Ici on a divisé le polynôme (i, j) sur la constante de normalisation ((2∗i+1)/2∗(2∗j+1)/2),
pour avoir une base orthonormale.
25
26 end

100
27 end
28
29 E= Norme_Legendre ( f−f_N ) ; %calcul de la norme fonctionnelle 2 de f − fN .
30
31 end

Interface graphique.
1 function varargout = PolyOrthog ( v a r a r g i n )
2 syms x y
3 gui_Singleton = 1;
4 g u i _ S t a t e = s t r u c t ( ’ gui_Name ’ , mfilename , . . .
5 ’ gui_Singleton ’ , gui_Singleton , . . .
6 ’ g u i _ O p e n i n g F c n ’ , @PolyOrthog_OpeningFcn , . . .
7 ’ g u i _ O u t p u t F c n ’ , @PolyOrthog_OutputFcn , . . .
8 ’ gui_LayoutFcn ’ , [ ] , . . .
9 ’ gui_Callback ’ , []);
10 i f n a r g i n && i s c h a r ( v a r a r g i n { 1 } )
11 gui_State . gui_Callback = str2func ( varargin {1});
12 end
13
14 i f nargout
15 [ v a r a r g o u t { 1 : nargout } ] = g u i _ m a i n f c n ( g u i _ S t a t e , v a r a r g i n { : } ) ;
16 else
17 gui_mainfcn ( gui_State , varargin { : } ) ;
18 end
19 function PolyOrthog_OpeningFcn ( hObject , eventdata , handles , v a r a r g i n )
20 handles . output = hObject ;
21
22 g u i d a t a ( hObject , handles ) ;
23
24
25 v a r a r g o u t {1} = h a n d l e s . o u t p u t ;
26
27 function l i s t b o x 1 _ C a l l b a c k ( hObject , eventdata , handles )
28
29 i = str2num ( g e t ( h a n d l e s . e d i t 1 , ’ S t r i n g ’ ) ) ;
30 j = str2num ( g e t ( h a n d l e s . e d i t 2 , ’ S t r i n g ’ ) ) ;
31 X= g e t ( h a n d l e s . l i s t b o x 1 , ’ V a l u e ’ ) ;
32 i f (X== 1 )
33 pn = c h a r ( L e g e n d r e ( i , j ) ) ;
34 s e t ( h a n d l e s . e d i t 3 , ’ S t r i n g ’ , pn ) ;
35 e l s e i f (X==2)
36 pn = c h a r ( Chebychev ( i , j ) ) ;
37 s e t ( h a n d l e s . e d i t 3 , ’ S t r i n g ’ , pn ) ;
38 e l s e i f (X==3)
39 pn = c h a r ( L a g u e r r e ( i , j ) ) ;
40 s e t ( h a n d l e s . e d i t 3 , ’ S t r i n g ’ , pn ) ;
41 e l s e i f (X==4)
42 pn = c h a r ( H e r m i t e ( i , j ) ) ;
43 s e t ( h a n d l e s . e d i t 3 , ’ S t r i n g ’ , pn ) ;
44 end
45
46 function l i s t b o x 1 _ C r e a t e F c n ( hObject , eventdata , handles )
47
48 i f i s p c && i s e q u a l ( g e t ( h O b j e c t , ’ B a c k g r o u n d C o l o r ’ ) , g e t ( 0 , ’ d e f a u l t U i c o n t r o l B a c k g r o u n d C o l o r ’ ) )
49 set ( hObject , ’ BackgroundColor ’ , ’ white ’ ) ;
50 end
51
52 function e d i t 1 _ C a l l b a c k ( hObject , eventdata , handles )
53
54 function e d i t 1 _ C r e a t e F c n ( hObject , eventdata , handles )
55
56 i f i s p c && i s e q u a l ( g e t ( h O b j e c t , ’ B a c k g r o u n d C o l o r ’ ) , g e t ( 0 , ’ d e f a u l t U i c o n t r o l B a c k g r o u n d C o l o r ’ ) )
57 set ( hObject , ’ BackgroundColor ’ , ’ white ’ ) ;
58 end

101
59
60 function e d i t 2 _ C a l l b a c k ( hObject , eventdata , handles )
61
62 function e d i t 2 _ C r e a t e F c n ( hObject , eventdata , handles )
63
64 i f i s p c && i s e q u a l ( g e t ( h O b j e c t , ’ B a c k g r o u n d C o l o r ’ ) , g e t ( 0 , ’ d e f a u l t U i c o n t r o l B a c k g r o u n d C o l o r ’ ) )
65 set ( hObject , ’ BackgroundColor ’ , ’ white ’ ) ;
66 end
67
68 function e d i t 3 _ C a l l b a c k ( hObject , eventdata , handles )
69
70 function e d i t 3 _ C r e a t e F c n ( hObject , eventdata , handles )
71
72 i f i s p c && i s e q u a l ( g e t ( h O b j e c t , ’ B a c k g r o u n d C o l o r ’ ) , g e t ( 0 , ’ d e f a u l t U i c o n t r o l B a c k g r o u n d C o l o r ’ ) )
73 set ( hObject , ’ BackgroundColor ’ , ’ white ’ ) ;
74 end
75
76 function t o g g l e b u t t o n 1 _ C a l l b a c k ( hObject , eventdata , handles )
77 A= ’ ’;
78 s e t ( h a n d l e s . e d i t 3 , ’ S t r i n g ’ ,A ) ;
79 s e t ( h a n d l e s . e d i t 1 , ’ S t r i n g ’ ,A ) ;
80 s e t ( h a n d l e s . e d i t 2 , ’ S t r i n g ’ ,A ) ;
81 % ————————————————————-.
82 function pushbutton3_Callback ( hObject , eventdata , handles )
83 %i= str2num(get(handles.edit1,’String’)) ;
84 j = str2num ( g e t ( h a n d l e s . e d i t 2 , ’ S t r i n g ’ ) ) ;
85 X= g e t ( h a n d l e s . l i s t b o x 1 , ’ V a l u e ’ ) ;
86 i f (X== 1 )
87 P = PlotLeg ( i , j ) ;
88 s e t ( h a n d l e s . axes1 , P ) ;
89 e l s e i f (X==2)
90 P = ChebPlot ( i , j ) ;
91 s e t ( h a n d l e s . axes1 , P ) ;
92 e l s e i f (X==3)
93 P = LaguerPlot ( i , j ) ;
94 s e t ( h a n d l e s . axes1 , P ) ;
95 e l s e i f (X==4)
96 P = HertPlot ( i , j );
97 s e t ( h a n d l e s . axes1 , P ) ;
98
99 end
100 % ————————————————————-
101 function axes1_CreateFcn ( hObject , eventdata , handles )

102
Bibliographie

[1] A. Jeffrey, Handbook of mathematical formulas, University of Newcastle upon


tyne (United Kingdom), 2000.
[2] A. Quarteroni, A. Valli, Numerical Approximations of Partial Differential Equa-
tions, (Springer, Heidelberg) 1994
[3] A. Quarteroni, C. Canuto, M. Y. Hussaini, T. A. Zang, Spectral Methods Fun-
damentals in Single Domains, Springer 2006, ISBN : 987 − 3 − 540 − 30725 − 9
http : //www.dimat.polito.it/chqz/software.
[4] A. Quarteroni & R. Sacco & F. Saleri, Méthodes Numériques Algorithmes, ana-
lyse et applications, Springer-Verlag Italia, Milano 2007.
[5] A. Soufyane, M. Boulmalf, Solution of linear and nonlinear parabolic equations
by the decomposition method, Appl. Math.Comput, 162(2005)687 − 693.
[6] B. Costa, Spectral Methods for Partial Differential Equations, A Mathematical
Journal Vol. 6, N o 4, (1 − 32), december 2004.
[7] B. Costa, L. Dettori, D. Gottlieb and R. Temam,Time Marching Techniques
for the Nonlinear Galerkin Method, SIAM Journal of Sci. Comput., Vol.
23(2001), N o.1, pp.46 − 65.
[8] B. Fornberg, A practical guide to pseudospectral methods, Cambridge University
Press, Cambridge (1998).
[9] B. Helffer, Introduction aux Equations aux Dérivées Partielles, analyse de Fou-
rier et introduction aux distributions, Département de Mathématiques Université
Paris-Sud Version pour la Roumanie de Février 2014.
[10] B. Helffer, Introduction aux Équations aux Dérivées partielles, Département de
Mathématiques Université Paris-Sud, Version de Mai 2007.
[11] B. Mercier, An introduction to the numerical analysis of spectral methods,
Springer-Verlag, Berlin (1989).
[12] B. Mercier, Stabilité et convergence des méthodes spectrales polynômiales (ap-
plication a l’équation d’advection), RAIRO(vol 16, N o 1, 1982, p 67 a 100.)
[13] C. Bernardi & Y. Maday, Approximations spectrales de problmes aux limites
elliptiques, Springer-Verlag, Paris 1992.
[14] C. Canuto, A. Quarteroni, M.Y. Hussaini and T. Zang, Spectral method in
fluied mechanics, Springer-Verlag, New York (1988).
[15] C. Canuto, M.Y. Hussaini, A. Quarteroni & T.A. Zang, Spectral methods in
fluid dynamics, Springer-Verlag, Berlin 1988.
[16] C. Canuto, M.Y. Hussaini, A. Quarteroni, & T.A. Zang, Spectral Methods :
Fundamentals in Single Domains, Springer 2006.

103
[17] C. Canuto, M. Yousuff Hussaini, Alfio Quarteroni, & Thomas A. Zang, Spectral
Methods in Fluid Dynamics. Springer Series in Computational Physics. Sprin-
ger, 1987.
[18] D.LE Touzé, Méthodes spectrales pour la modélisation non-linéaire d’écoule-
ments a surface libre in-stationnaire, Thèse de Doctorat, Le 20 octobre 2003, à
l’école centrale de Nantes.
[19] D. Funaro, Polynomial approximation of differential equations, Springerverlag,
Berlin (1992).
[20] E. Concalvès, Méthodes, analyse et calculs numérique, Septembre 2005.
[21] E. Goncalvès da Silva, Résolution numérique des équations d’Euler 1D, En-
gineering school. Institut Polytechnique de Grenoble, 2008, pp.59. < cel −
00556980 >
[22] F. Boyer, Analyse numérique des EDP elliptiques, Aix-Marseille universités 19
novembre 2011.
[23] F. Jedrzejewski, Introduction aux méthodes numériques, Deuxième édition, Pa-
ris, 2005.
[24] F. Paulin, Compléments de théorie spectrale et d’analyse harmonique, Cours
de deuxième année de magistère, Année 2012 − 2013.
[25] H. Brezis, Analyse Fonctionnelle, Dunod, Paris, 1999.
[26] J.P. Boyd, Chebyshev and Fourier spectral methods, Lecture notes in enginee-
ring, 49, Springer-verlag, Berlin (1989).
[27] J. Boyd, Chebyshev and Fourier Spectral Methods, Second Edition, University
of Michigan. 2000.
Available online : http ://www-personal.umich.edu/ jpboyd/BOOK Spec-
tral2000.html.
[28] J-C Cuillière, Introduction à la méthode des éléments finis - 2e édition, Dunod,
2016 (ISBN 978-2100742622), chap. 6.5 (« Hypothèse de Galerkine »), p. 104-
112
[29] J. Désidéri, Modèles mathématiques fondamentaux pour la mécanique, no-
vembre 1999.
[30] J. Novak, Introduction aux méthodes spectrales, Laboratoire Univers Théories
(LUTH)CNRS / Observatoire de Paris, France , décembre 2007.
[31] J. Weidmann, Linear Operators in Hilbert Spaces, edition Springer-Verlag,
1976.
[32] J.Lawson, M.Berzins and P.M. Dew, Balancing space and time errors in
the method of lines for parapolic equations, Siam J. Sci. Stat. Comput.,
12(3)(1991)573 − 594.
[33] K.Gustafson, Domain Decomposition, Operator Trigonometry, Robin Condi-
tion, Contemporary Mathematics, 218.432 − 437.(1998).
[34] Kendall E. Atkinson, Han, Weimin, Theoretical numerical analysis : a functio-
nal analysis framework, New York, New York : Springer, 2001(ISBN 978 − 0 −
387 − 95142 − 3, LCCN 00061920).
[35] L.N. Trefethen, Spectral methods in MATLAB, SIAM, Philadelphia (2000).
[36] M. Berzins, Global error estimation in the methods of linse for parabolic equa-
tions, Siam J. Sci. Stat. Comput.19(4)(1988)687 − 701.

104
[37] M. Druon, Modèlisation du mouvement par polynomes orthogonaux : applica-
tion á l’étude d’ćoulements fluides. PhD thesis, Universitè de Poitiers, 2009.
[38] M. Javidi & A. Golbabai Spectral Method for Parabolic Partial Differential
Equations with Newmann Boundary Conditions, Applied Mathematical Sciences,
Vol. 1, 2007, no.5, 211 − 218
[39] M. Javidi, Spectral collocation method for the solution of the generalized Burger-
Fisher equation, Appl. Math. Comput., 174, no.1(2006), 345 − 352.
[40] M. Sapagovas, Hypothesis on the solvability of parabolic equations with nonlocal
conditions, Nonlinear Analysis, Modeling and control,7(1), (2002)93 − 104.
[41] M.T. Darvishi, New algorithms for solving ODEs by pseudospectral method,
Korean J. Comput. and Appl. Math. 7N o.2(2000)319 − 331.
[42] M.T. Darvishi, Preconditioning and domain decomposition scheme to solve
PDEs, International. J. of pure and appl. Math, Vol. 15, N o.4(2004)419 − 439.
[43] M.T. Darvishi, M. Javidi, A numerical solution of Burger’s equation by
pseudospectral method and Darvishi’s preconditioning, Appl. Math. Comput.
173, no.1(2006)421 − 429.
[44] O. Thual, Introduction aux méthodes spectrales, département hydraulique et
mécaniques des fluides (Institue national polytechnique de Toulouse), version
1996.
[45] P. Ciarlet, The Finite Element Method for Elliptic Problems, avril 2002 (ISBN
9780898715149).
[46] P. Le Quéré & B. Podvin, Méthodes numériques pour les écoulements incom-
pressibles, Année 2010.
[47] R. Baltensperger, J.P. Berrut, The errors in calculating the pseudospectral dif-
ferentiation matrices for Chebyshev-Gauss- Lobatto point, Comput. Math. Appl.,
37(1999), 41 − 48.
[48] R. Baltensperger, M.R. Trummer, Spectral differencing with a twist, SIAM J.
of Sci. Comp., 24, no.5(2003), 1465 − 1487.
[49] S. Orszag, Spectral methods for problems in complex geometries, J. Comput.
Phys. 37, 70 − 92, 1980.
[50] S. Orszag, Numerical analysis of spectral methods, NSF-CBMS Monographe
no.26, Soc. Ind. and App1.Math., Philadelphia 1977.
[51] T.R. Hopkins and R.Wait, A comparsion of Galerkin collocation and the method
of linse for PDE’s, Int.J. for numerical methods in Engineering, 12(1978)1081 −
1107.
[52] Iserles.A A First Course in the Numerical Analysis of Differential Equations
2009.
[53] I.Sehili, A.Zerroug and A.Rahmoune, Creation of two-dimensional Legendre ba-
sis and some properties,Asian Journal of Mathematics and Computer Research,
Vol. : 18, Issue. : 3, P ages : 134 − 142.
[54] I.Sehili, A.Zerroug, Bivariate Legendre approximation, International Journal
of Applied Mathematical Research, V ol6, N o4(2017), P ages : 125 − 129.
[55] I.Sehili, A.Zerroug, Two-dimensional Spectral Approximation, Journal of Ap-
plied Computer Science & Mathematics, Issue 2/2017, vol.11, N o.24, Suceava.

105

Vous aimerez peut-être aussi

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy