DR 000015334
DR 000015334
DR 000015334
ÉCOLE DOCTORALE
Spécialité : GEOSCIENCES
MARESCOT LAURENT
le 25 juin 2004
à LAUSANNE
TITRE
JURY
N° ED 0367xxx
2
The difference between theory and practice
Scientific folklore
3
AVERTISSEMENT
La présente thèse a été préparée en cotutelle entre l'Université de Nantes et l'Université de
Lausanne. A Nantes, le Laboratoire d'accueil était le Laboratoire Central des Ponts et
Chaussées, membre de l'Ecole Doctorale Mécanique, Thermique et Génie Civil (MTGC).
Conformément à la convention de cotutelle signée entre les deux Universités, la soutenance a
eu lieu à Lausanne suivant le règlement de cette Université. Elle s'est déroulée en deux
séances. La séance dite privée le 25 juin 2004 devant le jury au complet qui a donné un avis
favorable à la délivrance du diplôme conjoint de docteur des Universités de Lausanne et de
Nantes et autorisé la soutenance publique. La séance publique s'est déroulée le 16 juillet 2004,
en public, et devant un jury plus restreint (Prof. Henri Joris, Prof. François Frey, Prof.
Dominique-Marie Chapellier et Dr. Richard Lagabrielle) qui a confirmé la délivrance du
diplôme de docteur. A la suite de ces soutenances, l'Université de Nantes a choisi comme date
de délivrance du diplôme le 25 juin 2004.
4
AVANT PROPOS
La recherche présentée ici est le fruit d’un travail personnel durant lequel de nombreuses
personnes sont intervenues. Elles sont ici chaleureusement remerciées.
Mon directeur de thèse, Monsieur le Docteur Richard Lagabrielle, Laboratoire Central des
Ponts et Chaussées (Nantes), pour son accueil à Nantes, ses recommandations, ses conseils
ainsi que pour avoir accepté de partager sa passion pour le problème inverse et les méthodes
électriques.
Monsieur Sérgio Palma-Lopes, Laboratoire Central des Ponts et Chaussées (Nantes), pour son
aide, sa rigueur, ses conseils, sa gentillesse mais aussi sa grande disponibilité malgré les
kilomètres qui nous séparent. J’espère continuer encore longtemps nos fructueuses
discussions scientifiques.
Monsieur le Professeur Henri Joris, Université de Lausanne, qui a accepté de présider le Jury
de la présente thèse. Les membres du Jury, Messieurs les Professeurs Alain Tabbagh,
Université Pierre et Marie Curie (Paris VI) et François Frey, Ecole Polytechnique Fédérale de
Lausanne ainsi qu’à Monsieur le Docteur Olivier Grasset, Université de Nantes. Leurs intérêts
ainsi que leurs compétences reconnues dans les divers aspects abordés dans ce travail ont
permis de grandement améliorer la qualité de cet ouvrage.
Monsieur le Docteur Jean-Michel Piau, Laboratoire Central des Ponts et Chaussées (Nantes),
qui m’a guidé lors de mes premiers pas dans la programmation sous CESAR-LCPC et dont
les discussions sur les méthodes d’optimisation ont orienté de manière décisive le
déroulement de ce travail.
Monsieur le Docteur Pierre Humbert ainsi que toute la section des Modèle Numériques du
Laboratoire Central des Ponts et Chaussées (Paris), pour m’avoir accueilli et encadré lors de
mes séjours dans la capitale. Une pensée particulière à Monsieur le Docteur Stéphane
Rigobert pour sa disponibilité et son aide précieuse. Sa connaissance détaillée du code
CESAR-LCPC a été déterminante pour le succès de ce travail.
Monsieur le Docteur Meng Heng Loke, Universiti Sains (Malaisie), pour les très nombreux
échanges que nous avons eus durant ces années lors de travaux communs. J’ai pu également
5
bénéficier de ses conseils et de sa compétence reconnue dans le domaine de l’imagerie
électrique.
Je n’oublie pas toute la section Géophysique du LCPC pour son accueil amical ainsi que tous
mes collègues de l’Institut de Géophysique de l’Université de Lausanne pour les moments
agréables que nous avons passés ensemble. Une pensée particulière pour Ludovic Baron, avec
qui j’ai eu de longues discussions qui m’ont permis d’aplanir de nombreuses difficultés ainsi
que Francine Gass, qui a été ma collègue de bureau durant ces années et aussi la relectrice
attentionnée du manuscrit de la présente thèse.
Je n’oublie évidemment pas mes parents, ma sœur et mon amie qui chacun à leur manière
m’ont toujours aidé et soutenu.
6
TABLE DES MATIERES
NOTATIONS ____________________________________________ 13
Grecques majuscules _________________________________________________________ 13
Grecques minuscules _________________________________________________________ 13
Latines majuscules ___________________________________________________________ 14
Latines minuscules ___________________________________________________________ 15
Dimensions _________________________________________________________________ 15
CHAPITRE I
PRESENTATION _________________________________________ 17
I.1 L’IMAGERIE ELECTRIQUE ____________________________________________ 19
Résumé : L’imagerie électrique _______________________________________________ 19
I.2 PROBLEME DIRECT ET PROBLEME INVERSE __________________________ 20
Résumé : Problème direct et problème inverse ___________________________________ 21
I.3 OBJECTIFS DU DEVELOPPEMENT _____________________________________ 21
Résumé : Objectifs du développement __________________________________________ 24
CHAPITRE II
LA PROSPECTION ELECTRIQUE ____________________________ 25
II.1 HISTORIQUE DE LA PROSPECTION GEOELECTRIQUE__________________ 27
Résumé : Historique de la prospection géoélectrique ______________________________ 28
II.2 PROPRIETE PHYSIQUE ETUDIEE ______________________________________ 28
II.2.1 La résistivité en prospection géophysique ___________________________________ 29
II.2.2 La résistivité des tissus du corps humain____________________________________ 30
II.2.3 La résistivité des matériaux du génie civil___________________________________ 30
Résumé : Propriété physique étudiée ___________________________________________ 30
II.3 PRINCIPE GENERAL DES MESURES____________________________________ 31
II.3.1 Acquisition et représentation des mesures___________________________________ 32
Résumé : Principe général des mesures _________________________________________ 34
II.4 SENSIBILITE DES DISPOSITIFS ELECTRIQUES _________________________ 35
II.4.1 Exemple de sensibilité pour des dispositifs de surface _________________________ 36
II.4.2 Exemples de sensibilité pour des dispositifs de surface-forage___________________ 38
Résumé : Sensibilité des dispositifs électriques ___________________________________ 38
II.5 EQUATIONS FONDAMENTALES _______________________________________ 41
II.5.1 Le courant électrique, la conductivité et la loi d’Ohm__________________________ 41
II.5.2 La formulation de Maxwell pour l’électromagnétisme _________________________ 41
II.5.3 La formulation de Maxwell pour des champs statiques_________________________ 43
II.5.4 Définition du champ de potentiel__________________________________________ 43
II.5.5 Détermination du champ de potentiel ______________________________________ 45
II.5.6 Approximation électrostatique____________________________________________ 46
Résumé : Equations fondamentales ____________________________________________ 48
7
CHAPITRE III
LA RESOLUTION DU PROBLEME DIRECT _____________________ 49
III.1 SOLUTIONS AU PROBLEME DIRECT ___________________________________ 51
III.1.1 Solutions analytiques_________________________________________________ 51
III.1.2. Equations intégrales _________________________________________________ 52
III.1.3 Méthodes purement numériques ________________________________________ 52
Résumé : Solutions au problème direct _________________________________________ 53
III.2 RAPPELS SUR LA METHODE DES ELEMENTS FINIS_____________________ 53
III.2.1 Les formulations intégrales pour le problème électrique _____________________ 54
III.2.2 Approximation par éléments finis _______________________________________ 56
III.2.2.1 Le maillage ______________________________________________________ 56
III.2.2.2 Les éléments et les fonctions d’interpolation ____________________________ 57
III.2.2.3 La formulation discrète _____________________________________________ 59
III.2.2.4 Assemblage et résolution ___________________________________________ 60
III.2.2.5 L’interpolation dans l’élément de référence _____________________________ 60
III.2.2.6 L’interpolation dans l’élément réel ____________________________________ 62
Résumé : Rappels sur la méthode des éléments finis _______________________________ 64
III.3 PRESENTATION DU PROGICIEL CESAR-LCPC__________________________ 65
III.3.1 Application au problème électrique______________________________________ 66
Résumé : Présentation générale du progiciel CESAR-LCPC_________________________ 67
III.4 LE PROGRAMME UTILITAIRE TOMELE _______________________________ 67
III.4.1 Problématique ______________________________________________________ 67
III.4.2 Solutions apportées par TOMELE ______________________________________ 69
III.4.2.1 Aspect général du programme TOMELE _______________________________ 69
III.4.2.2 Simulations successives d’une série de cas de charge _____________________ 70
III.4.2.3 Electrodes indépendantes du maillage _________________________________ 71
III.4.2.4 Calcul des résistivités apparentes _____________________________________ 74
III.4.3 Conclusions ________________________________________________________ 74
Résumé : Le programme utilitaire TOMELE_____________________________________ 74
III.5 ARCHITECTURE DES MAILLAGES ET CONVERGENCE _________________ 75
III.5.1 Introduction ________________________________________________________ 75
III.5.2 Les modèles complexes_______________________________________________ 77
III.5.2.1 Type d’éléments finis ______________________________________________ 77
III.5.2.2 Imposition des conditions aux limites__________________________________ 78
III.5.2.3 Dimension des mailles _____________________________________________ 84
III.5.2.4 Variation du contraste de résistivité ___________________________________ 94
III.5.3 Conclusions pour les maillages 3D complexes _____________________________ 98
Résumé : Architecture des maillages et convergence ______________________________ 99
III.6 EXEMPLE DE MODELE SYNTHETIQUE DE DIMENSION FINIE __________ 100
Résumé : Exemple de modèle synthétique de dimension finie ______________________ 103
III.7 MESURES DIRECTES EXPERIMENTALES _____________________________ 103
III.7.1 Constituants du modèle ______________________________________________ 104
III.7.2 Expérimentation et mesures sur échantillon ______________________________ 104
III.7.3 Evaluation numérique de la résistivité apparente __________________________ 105
Résumé : Mesures directes expérimentales _____________________________________ 107
8
CHAPITRE IV
LE PROBLEME INVERSE _________________________________ 109
IV.1 PRESENTATION DU PROBLEME INVERSE_____________________________ 111
IV.1.1 Stratégies d’inversion non-linéaire _____________________________________ 111
IV.1.2 Topographie de la fonction objectif ____________________________________ 113
Résumé : Présentation du problème inverse_____________________________________ 114
IV.2 METHODES DE DESCENTE ___________________________________________ 114
IV.2.1 Méthode de plus grande pente_________________________________________ 115
IV.2.2 Méthode de Newton ________________________________________________ 116
IV.2.3 Méthode de Gauss-Newton ___________________________________________ 117
IV.2.4 Modification de Marquardt-Levenberg __________________________________ 118
Résumé : Méthodes de descente______________________________________________ 119
IV.3 QUELQUES CARACTERISTIQUES DES MODELES ______________________ 120
IV.3.1 Résolution et variance de la solution____________________________________ 120
IV.3.2 Modèle initial _____________________________________________________ 120
IV.3.3 Discrétisation______________________________________________________ 121
Résumé : Quelques caractéristiques des modèles_________________________________ 121
IV.4 CHOIX D’UNE STRATEGIE D’INVERSION _____________________________ 121
IV.4.1 Les différentes stratégies d’inversion pour le problème électrique _____________ 121
IV.4.2 Inversion non-linéaire par méthode de champ adjoint ______________________ 123
Résumé : Choix d’une stratégie d’inversion_____________________________________ 123
IV.5 LA METHODE DE L’ETAT ADJOINT ___________________________________ 124
Résumé : La méthode de l’état adjoint _________________________________________ 126
IV.6 LA FONCTIONNELLE ET SON GRADIENT _____________________________ 127
IV.6.1 Problématique _____________________________________________________ 127
IV.6.2 Choix de la fonction objectif E ________________________________________ 127
IV.6.2.1 Utilisation du logarithme des résistivités apparentes ___________________ 128
IV.6.2.2 Utilisation directe des résistivités apparentes _________________________ 135
IV.7 LE MODULE D’INVERSION INVS ______________________________________ 136
IV.7.1 Aspect général du module d’exécution INVS _____________________________ 136
IV.7.2 Le gradient de la fonction objectif______________________________________ 137
IV.7.3 Choix d’une direction de descente : les gradients conjugués _________________ 139
IV.7.4 Choix du pas d’ajustement des paramètres _______________________________ 140
IV.7.5 Contraintes et information a priori _____________________________________ 141
IV.7.6 Critères de convergence _____________________________________________ 142
Résumé : Le module d’inversion INVS ________________________________________ 143
CHAPITRE V
FIABILITE DES RECONSTRUCTIONS ________________________ 145
V.1 LA FIABILITE DES MODELES INVERSES ______________________________ 147
Résumé : La fiabilité des modèles inversés _____________________________________ 147
V.2 LA METHODE DE GAUSS-NEWTON ET L’INDICE ROI __________________ 148
V.2.1 Optimisation du maillage et choix des paramètres _________________________ 149
V.2.2 Exemples préliminaires ______________________________________________ 151
Résumé : La méthode de Gauss-Newton et l’indice ROI___________________________ 154
9
CHAPITRE VI
MODELISATION SYNTHETIQUE ___________________________ 155
VI.1 DONNEES COLLECTEES EN SURFACE ________________________________ 157
VI.1.1 Modèle pour la prospection de surface __________________________________ 157
VI.1.2 Dispositif électrique choisi pour la prospection de surface___________________ 158
VI.1.2 Simulation des données et paramètres d’inversion _________________________ 160
VI.1.3 Hétérogénéité conductrice ____________________________________________ 160
VI.2.1 Hétérogénéité résistante _____________________________________________ 165
Résumé : Données collectées en surface _______________________________________ 167
VI.2 DONNEES COLLECTEES SUR DES STRUCTURES DE GEOMETRIE
COMPLEXE ________________________________________________________________ 168
VI.2.1 Le modèle ________________________________________________________ 168
VI.2.2 Dispositif électrique choisi ___________________________________________ 169
VI.2.3 Utilisation de différentes valeurs du pas d’ajustement des paramètres __________ 170
VI.2.4 Effet du modèle de départ ____________________________________________ 175
VI.2.5 Effet du bruit de mesure ________________________________________________ 177
VI.2.6 Utilisation d’un modèle de référence ___________________________________ 179
VI.2.7 Calcul de la région d’investigation (ROI) ___________________________________ 182
Résumé : Données collectées sur des structures de géométrie complexe ______________ 183
CHAPITRE VII
CONCLUSIONS ET PERSPECTIVES _________________________ 185
VII.1 APPORTS DU TRAVAIL ____________________________________________ 186
VII.1.1 Utilisation de CESAR-LCPC pour la modélisation électrique ________________ 186
VII.1.2 Modélisation directe ________________________________________________ 186
VII.1.3 Modélisation inverse ________________________________________________ 187
VII.2 PERSPECTIVES ___________________________________________________ 189
10
Modélisation directe et inverse en prospection électrique sur des
structures 3D complexes par la méthode des éléments finis
Ce travail a pour objectif la mise au point d’un ensemble d’outils de modélisation directe et
inverse en utilisant le code d’éléments finis CESAR-LCPC. Ces outils sont adaptés aux
données électriques collectées sur des structures 3D à géométries complexes.
Pour le problème direct, un programme utilitaire servant d’interface avec le solveur CESAR a
été créé afin de modéliser des séquences de mesures électriques (tomographies). Ce
programme permet l’utilisation d’électrodes non situées sur des nœuds. Les résistivités
apparentes sont obtenues par normalisation sur un modèle homogène de résistivité unité ce
qui permet d’obtenir ce paramètre lorsque le calcul analytique du facteur géométrique est
impossible. Ces deux caractéristiques simplifient la modélisation sur des structures 3D à
géométries complexes. De nombreux tests sur des maillages de forme variées ont également
été effectués. Une procédure d’élimination de la singularité des sources ne pouvant être
utilisée sur des structures à géométries complexes, un minimum de 5 à 6 nœuds entre les
électrodes d’injection de courant doit donc être utilisé pour garantir une bonne précision du
calcul. De plus, la résistivité apparente calculée par normalisation donne de meilleurs résultats
que l’utilisation du facteur géométrique.
Afin de pouvoir inverser un nombre important de données sur des modèles de grandes
dimensions, la fonction objectif est minimisée en utilisant la technique de l’état adjoint. Cette
approche est originale car elle vise non pas le calcul des dérivées partielles en tant que telles,
ce qui est traditionnellement fait lors d’inversions par moindres carrés, mais le calcul direct de
la variation à apporter aux paramètres du modèle, sans évaluation explicite de la matrice de
sensibilité. Le module d’inversion créé pour le progiciel CESAR-LCPC est donc capable de
calculer par éléments finis le champ de potentiel électrique et le champ adjoint sur le même
maillage, avec les conditions aux limites et les sources appropriées pour chaque champ. La
direction de descente est obtenue selon une méthode de plus grande pente pour la première
itération puis par une méthode de gradients conjugués pour les itérations suivantes.
Des données synthétiques ont été utilisées pour valider cet algorithme d’inversion. Ces
simulations montrent clairement que cet algorithme peut effectuer une inversion de manière
robuste et donner un résultat satisfaisant avec un effort de calcul réduit. Toutefois, des
régulations supplémentaires doivent être introduites dans le but d’améliorer la qualité du
résultat. Finalement, la fiabilité du modèle reconstruit peut être évaluée par la technique de
l’indice ROI (Region Of Investigation) qui utilise deux inversions successives en utilisant des
modèles de références différents afin de définir quels paramètres du modèle sont bien
contraints pas les données. Dans ces régions, les deux inversions reproduisent la même valeur
de résistivité et non pas le modèle de référence.
11
Forward and inverse resistivity modelling on complex three
dimensional structures using the finite element method
This work presents the adaptation and the use of the CESAR-LCPC finite element code for
the forward and inverse modelling of 3D resistivity data. These codes are better suited for
imaging structures with complex geometries.
The forward modelling code uses an electrode-independent mesh that allows to place the
electrodes at their exact locations and to use a coarse mesh at the same time. In this approach,
the choice for the mesh size is solely governed by the need for accurate results. It is also
possible to calculate apparent resistivities, without the use of the geometrical factor (that can
be evaluated only for simple structures). To calculate apparent resistivity values, a
normalisation approach is used that gives significantly better results than the use of the
geometrical factor and allows the modelling of any kind of complex 3D structure. As a
singularity removal technique cannot be used on complex 3D models, a minimum of 5 to 6
nodes between two current transmitting electrodes should be considered to guarantee the
quality of the results. Synthetic results are presented to illustrate the efficiency of the forward
modelling technique.
An inversion code was also presented for the processing of resistivity tomographies on
complex 3D structures using any electrode arrangement. This algorithm is well suited for the
processing of large data sets with a lot of unknown model parameters. The inversion code
uses an original strategy to avoid the explicit calculation of a sensitivity matrix. The adjoint-
state of the potential field is used to minimize an objective function for the electrical inverse
problem. Then, a steepest descent formulation can be used for the first iteration. Further
iterations are carried out using a conjugate gradient approach to improve the convergence. As
can be seen on synthetic data, a satisfactory reconstruction of the models can be achieved with
a minor computational cost. This kind of inverse problem would have been very difficult to
solve using a more traditional Gauss-Newton approach. Strategies are nevertheless needed to
improve the stabilisation of the inverse process and to include a priori information in the
problem.
Finally, a ROI (Region Of Investigation) index method is used to assess whether features in
the model are caused by the data or are artefacts of the inversion process. This method carries
out two inversions of the same data set using different values of the reference resistivity
model. The two inversions reproduce the same resistivity values in areas where the data
contain information about the resistivity of the subsurface whereas the final result depends on
the reference resistivity in areas where the data do not constrain the model.
Key words : inverse problem, geophysics, resistivity tomography, electrical imaging, finite
elements, adjoin-state, optimisation.
12
NOTATIONS
Nous définissons ici les notations employées tout au long de ce mémoire. Les unités sont
celles du système international (S.I.). Certaines notations, très spécifiques ou utilisées durant
un développement, ne sont pas mentionnées.
Les vecteurs sont notés en gras. Le produit scalaire entre A et B est noté A ⋅ B . Le produit
vectoriel est noté A×B. Les matrices sont également notées en gras. Nous utiliserons de plus
le terme de vecteur pour décrire une matrice ligne ou une matrice colonne.
Grecques majuscules
Γ frontière du domaine Ω -
Φ porosité -
Grecques minuscules
θ champ de température K
λ facteur d’amortissement -
v variance -
13
ρ résistivité électrique Ω.m
Latines majuscules
B induction magnétique T
E fonction objectif -
K matrice globale -
Q charge électrostatique C
S surface m2
Sw saturation en eau -
V champ de potentiel V
X matrice hessienne -
14
Latines minuscules
a amplitude -
c source de chaleur J
f fréquence Hz
k facteur géométrique m
t temps s
Dimensions
A 1 ampère
C 1 coulomb
F 1 farad
H 1 henry
Hz 1 hertz
J 1 joule
K 1 kelvin
m 1 mètre
S 1 siemens
15
V 1 volt
W 1 watt
Ω 1 ohm
16
CHAPITRE I
PRESENTATION
17
18
I.1 L’IMAGERIE ELECTRIQUE
19
I.2 PROBLEME DIRECT ET PROBLEME INVERSE
En science expérimentale, nous cherchons à caractériser les paramètres physiques d’un objet
en se basant sur une série de données mesurées. En général, les lois de la physique fournissent
les bases nécessaires permettant de prédire le résultat d’une mesure en fonction d’un modèle
(un modèle est la représentation simplifiée ou idéalisée de la réalité physique). Cette opération
porte le nom de problème direct. L’opération opposée, appelée problème inverse, consiste à
reconstruire un modèle à partir des données mesurées sur un objet. Ce type de reconstruction
se rencontre très fréquemment en imagerie médicale. Un CT-scan (Computerized Tomography
Scanner) mesure par exemple la perte de puissance d’une série de rayons X passant au travers
d’un patient (problème direct). Nous chercherons ensuite à reconstituer une image de la
répartition des tissus expliquant le mieux les absorptions mesurées via une procédure
d’inversion. Dans la pratique, le trajet des rayons X est indépendant des propriétés du corps
(seule l’absorption compte). Une simple procédure de rétroprojection le long des rayons
rectilignes suffit donc pour inverser les données. En tomographie électrique, la distribution du
courant suit les chemins de moindre résistivité et dépend donc des propriétés de l’objet, ce qui
signifie que le problème inverse est clairement non-linéaire et donc plus compliqué à
résoudre.
Le problème inverse est fréquemment considéré comme étant l’opération exactement opposée
au problème direct. Dans un cas idéal, il existe en effet une théorie permettant de définir
comment passer des données au modèle. Malgré une certaine élégance mathématique, de
telles théories ne sont toutefois que rarement applicables dans la pratique. Il y a plusieurs
raisons à cela. Premièrement, une telle solution nécessite des situations exactes qui
n’apparaissent que très rarement dans la pratique. Une série de données réelles contient
toujours des erreurs et ces dernières peuvent se propager aux paramètres du modèle. De plus,
le fait qu’un nombre fini de données soit disponible pour évaluer un modèle nécessitant une
infinité de degrés de liberté signifie que le problème inverse n’est pas unique. De par
l’échantillonnage, qui peut être inadéquat, ou encore la qualité des mesures réelles, entachées
d’erreurs, les données ne contiennent en général pas suffisamment d’informations pour
déterminer un modèle de manière univoque. Nous pouvons donc en conclure qu’un modèle
obtenu par inversion ne correspond pas nécessairement à la réalité que nous cherchons. Il
faudra donc inclure dans le processus d’inversion une procédure permettant d’évaluer la
fiabilité de la reconstruction par rapport à la réalité.
20
d’évaluation. L’estimation du modèle et l’évaluation constituent l’opération d’inversion au
sens large. Idéalement, toute procédure d’inversion devrait comprendre une évaluation du
résultat obtenu (calcul de la propagation de l’erreur ou résolution du résultat). Cela n’est
toutefois pas toujours facile à mettre en œuvre en pratique. En effet, les procédures
d’évaluation n’existent parfois pas, notamment pour les problèmes non-linéaires, ou sont trop
coûteuses en temps de calcul.
Des arrangements standard d’électrodes sont utilisées depuis maintenant plusieurs décennies
pour l’auscultation du sol en une ou deux dimensions (1D ou 2D respectivement). Les
modèles obtenus apportent en général des informations très utiles sur la structure interne des
objets étudiés, dans la limite où la réalité physique est effectivement uni- ou bidimensionnelle.
L’utilisation d’une méthode d’auscultation en 1D sur un corps présentant des hétérogénéités
tridimensionnelles peut en effet faire apparaître des artefacts dans le modèle. La figure 1.2
montre un exemple de modèle inversé du sous-sol en 2D avec l’interprétation géologique qui
lui est associée (Marescot et al., 2003b). Ce type de prospection électrique de surface est très
courant en géophysique, où beaucoup de structures géologiques sont localement assimilables
à des corps bidimensionnels.
21
Avec l’augmentation de la puissance de calcul ainsi que l’amélioration constante du matériel
de mesure, des prospections géophysiques de plus en plus complexes peuvent être envisagées.
Alors que bon nombre de programmes d’interprétation sont destinés à imager des structures
simples (demi-espaces avec éventuellement des électrodes sous la surface et une topographie
modérée), il devient de plus en plus envisageable de disposer d’algorithmes permettant des
calculs sur des objets plus complexes. En effet, lorsque nous désirons ausculter la structure
d’un tunnel (par des mesures en galerie), celle d’un pilier de pont, d’une éprouvette de
matériau ou encore d’une structure au relief prononcé, il est bien difficile d’assimiler l’objet à
un milieu simple (demi-espace par exemple). Les algorithmes d’inversion traditionnellement
utilisés souffrent de fortes limitations quant à leur utilisation sur ce type de structures.
Figure 1.2 : Exemple d’imagerie électrique 2D en géophysique. Application à la recherche d’anciens cours
d’eau.
Dans le cadre de ce travail de thèse en collaboration entre le Laboratoire Central des Ponts et
Chaussées (LCPC) et l’Institut de Géophysique de l’Université de Lausanne (IG), nous avons
entrepris d’adapter le progiciel CESAR-LCPC pour le calcul direct et inverse de données
électriques par la méthode des éléments finis sur des structures 3D à géométries complexes.
Ce développement n’est pas évident, le code de calcul CESAR-LCPC n’étant pas conçu pour
cela. D’un point de vue pratique, ce travail de thèse devrait permettre l’élaboration d’outils de
modélisation directe et inverse mieux adaptés à l’auscultation de structures présentant des
géométries complexes que les codes actuellement disponibles. Il est donc nécessaire de bien
cerner les besoins des utilisateurs de tels outils afin de créer un code d’inversion robuste et
bien adapté. Ce travail respecte donc l’axe de développement décrit dans le diagramme de la
figure 1.1. La résolution du problème direct et du problème inverse sur des modèles 3D à
géométries complexes va plus particulièrement engendrer les problèmes suivants :
Comme la forme du champ électrique est influencée par la géométrie de l’objet étudié, il est
indispensable de pouvoir représenter cette dernière de manière précise et détaillée. La
distorsion du champ électrique ne sera alors plus une source d’erreur durant l’inversion. La
22
méthode de résolution directe devra donc être capable de calculer la réponse d’un modèle à
géométrie complexe, ce qui élimine par exemple bon nombre de méthodes de calcul
analytiques ou semi-analytiques. Pour représenter le plus fidèlement possible l’objet étudié, il
sera indispensable d’utiliser des modèles de formes très variables, composés d’un grand
nombre de paramètres (figure 1.3). Il faudra également trouver des solutions au problème de
la localisation des électrodes dans un maillage à géométrie compliquée ou au problème du
calcul de la résistivité apparente (un calcul explicite du facteur géométrique n’existant pas
toujours). Un outil de modélisation directe va donc être nécessaire afin de pouvoir créer des
séquences de mesures synthétiques permettant de mieux comprendre la réponse de dispositifs
électriques non-conventionnels (c’est-à-dire autres que ceux couramment utilisés dans la
pratique). Cet outil de modélisation va également être utilisé dans le but de générer des jeux
de données pour tester l’algorithme d’inversion développé en seconde étape.
Figure 1.3 : Exemple de modèle à géométrie complexe : détail de l’intersection entre deux tunnels.
Finalement, nous allons ensuite implémenter une méthode permettant de tester la fiabilité du
modèle estimé sans évaluation explicite de la matrice de sensibilité.
23
Il faut encore relever que ce travail utilise une terminologie ainsi que des exemples propres à
la géophysique. Toutefois, les développements et conclusions définis ici sont aisément
transposables à d’autres branches scientifiques (domaine biomédical par exemple).
Dans le second chapitre, quelques rappels théoriques sont donnés sur la résolution du
problème direct pour le courant continu ainsi que sur le principe de la mesure des propriétés
électriques d’un corps.
Dans le troisième chapitre, nous décrivons la méthode des éléments finis (MEF) appliquée à
la résolution du problème électrique pour des structures 3D. Le code de calcul CESAR-LCPC
est ensuite brièvement exposé et le programme que nous avons mis au point afin de permettre
la modélisation directe de séquences électriques est détaillé. Finalement des exemples de
modélisation directe sur des structures simples et plus compliquées sont donnés, afin
d’exposer quelques conditions d’applicabilité de la méthode.
Le quatrième chapitre fournit des rappels théoriques sur la résolution du problème inverse
électrique et les problèmes numériques qui en découlent. Une description de la stratégie
d’inversion choisie est ensuite explicitée. Nous donnons alors une description plus complète
de notre algorithme et du module d’inversion sous CESAR-LCPC créé pour ce travail.
Le cinquième chapitre présente une approche permettant d’évaluer le résultat d’une inversion
en évitant le calcul de la matrice de sensibilité.
Le sixième chapitre est consacré à la modélisation synthétique directe et inverse sur des
structures 3D simples et complexes, afin de mieux cerner les possibilités et les limites du code
d’inversion développé.
En conclusion, nous revenons sur les différents résultats obtenus et certaines perspectives
souhaitables à l’avenir.
24
CHAPITRE II
LA PROSPECTION ELECTRIQUE
25
26
Les objectifs de cette partie sont la présentation du principe de mesure de la résistivité ainsi
que de la théorie concernant l’établissement des équations fondamentales pour le courant
continu. Les différentes méthodes permettant la simulation de mesures électriques sur un
modèle de terrain seront également brièvement décrites.
Les bases de la prospection électrique en géophysique furent posées par Gray et Wheeler en
1720 qui, parmi les premiers, mesurèrent la conductivité de certaines roches. Un peu plus tard,
en 1746, Watson constata que le sous-sol pouvait transporter un courant artificiel suivant la
composition du terrain. Le problème de la détermination de la résistivité électrique d’un
milieu non-homogène a été discuté par Maxwell en 1891. Ce dernier a souligné l’importance
de l’utilisation de quatre électrodes, plutôt que deux, pour mesurer la résistance générée par
un courant dans un milieu conducteur tridimensionnel.
Il faudra néanmoins attendre le début du XXème siècle pour que se développent de manière
conséquente les méthodes électriques, notamment par l’entremise de deux principales écoles.
L’école française, la plus active, connut son origine en 1912 lorsque Conrad Schlumberger
initia une série d’expériences dans le but de trouver des ressources minérales par les méthodes
électriques. Il mit tout d’abord au point la méthode de polarisation spontanée, puis en 1914
celle des cartes de potentiel (mise à la masse). Il fit en 1920 le premier relevé de résistivité
électrique qu’il appliqua à la recherche minière et pétrolière. Il fonda ensuite la Société de
Prospection Electrique en 1926, société qui allait donner naissance un peu plus tard à deux
grandes organisations, la Compagnie Générale de Géophysique de France (C.G.G.) et la
Schlumberger Well Surveying Corporation. L’école américaine fut instituée par Wells, Daft et
Williams en 1906, mais surtout en 1912 par Frank Wenner qui fit une étude théorique du
système de mesure de résistivité électrique au moyen de quatre électrodes, ainsi que du
théorème de réciprocité appliqué à ce système. Les Russes et Scandinaves ont également fait
des recherches importantes dans ce domaine. A partir de cette époque, la prospection
électrique par courant continu s’est principalement concentrée sur la mise en œuvre et
l’interprétation des sondages électriques et des profils (ou cartes) de résistivité (Kunetz,
1966). Dans les années 1970, nous voyons apparaître une nouvelle représentation des données
sous la forme de panneaux électriques (Edwards, 1977). Il faut toutefois attendre le début des
années 1990, et l’important développement des moyens informatiques, pour que les méthodes
d’imagerie 2D et 3D associées à des algorithmes d’inversion performants se développent
(Loke and Barker, 1996a et 1996b). Il n’est sans doute pas exagéré d’affirmer que l’imagerie
(ou la tomographie) électrique est à l’origine du nouvel essor que connaît actuellement la
prospection électrique par courant continu (Dahlin, 1993).
27
La prospection électrique est actuellement couramment utilisée en géophysique dans le but
d’étudier l’hydrogéologie d’un site (Marescot and Chapellier, 2003a et 2003b ; Marescot et
al., 2003a), caractériser des fractures (Wang et al., 1991), détecter des cavités ou des corps
gelés (Marescot et al., 2001 ; Delaloye et al., 2003 ; Reynard et al., 2003), imager des
intrusions ou des migrations d’eau salée dans le sol (Bevc and Morrison, 1991), détecter la
présence de vestiges archéologiques (Hesse et al., 1986), étudier la structure des sols et de la
proche surface (Benderitter et al., 1994 ; Panissod, 1997 ; Bourennane et al., 1998 ; Panissod
et al., 1998 ; Michot, 2003) ou encore délimiter des décharges et déceler des migrations de
polluants dans le sol (Daily et al., 1995 ; Daily and Ramirez, 1995 ; de Lima et al., 1995 ;
Park, 1998 ; Chambers et al., 1999 ; Ogilvy et al, 1999 ; Olayinka and Yaramanci, 1999 ;
Slater et al., 2000 ; Chambers et al., 2002 ; Dahlin et al., 2002). Les techniques d’imagerie
électrique suscitent également un intérêt grandissant pour l’auscultation des structures du
génie civil (Draskovits and Simon, 1992 ; Johansson and Dahlin, 1996 ; Maillol et al., 1999 ;
Yaramanci, 2000 ; Yaramanci and Kiewer, 2000 ; Denis et al., 2002 ; Lataste, 2002). Des
recherches dans le domaine de l’imagerie électrique biomédicale sont également en constant
développement (voir par exemple Linderholm et al., 2004 ; Lionheart, 2004).
Les méthodes électriques ont pour but la détermination de la conductivité électrique σ (en
S/m) des structures étudiées. En prospection électrique par courant continu, le paramètre de
résistivité électrique ρ (en Ωm), l’inverse de la conductivité, est plus couramment utilisé.
Dans ce qui suit, les termes de résistivité électrique et de conductivité électrique seront
remplacés par les termes de résistivité et conductivité. La résistivité est la capacité d’un milieu
à s’opposer au passage d’un courant électrique. Cette résistivité dépend de différents facteurs
tels que la qualité du fluide, la saturation, la porosité ou encore la température du milieu
étudié (Keller and Frischknecht, 1966 ; Zhdanov and Keller, 1994). Dans le cas de la
prospection électrique en courant continu, le courant électrique est principalement transporté
par les électrons (conduction électronique dans les métaux) ou par les ions (conduction
électrolytique dans les fluides).
La résistivité des différents matériaux, inertes ou vivants, est donc une propriété physique
variant dans de grandes proportions, ce qui constitue un atout majeur des méthodes
28
électriques. Dans la nature, la gamme des résistivités est très étendue, variant de moins de
1 Ωm à plusieurs milliers d’Ωm.
ρ r = ρ w a Φ − m S w− n (2.1)
29
II.2.2 La résistivité des tissus du corps humain
Les valeurs de la résistivité des matériaux utilisés en génie civil varient également dans de
grandes proportions. Nous donnons ici quelques indications sur les bétons, dont une étude
complète a été effectuée par Lataste (2002). Le béton frais (non durci) est très conducteur
(1 Ωm à 10 Ωm). Lorsque le béton durcit, nous pouvons noter une rapide augmentation de la
résistivité, qui passe de 10 Ωm à 200 Ωm, puis cette variation ralenti dans le temps. Pour le
béton durci âgé, la résistivité varie de 200 Ωm à 50000 Ωm selon le mélange utilisé pour le
mortier et les granulats, son état d'endommagement et d'humidité. Les armatures métalliques,
très fréquentes, rendent évidemment ces milieux assez complexes. On s'intéresse d'ailleurs
plus souvent aux problèmes de corrosion de ces armatures qu'aux propriétés intrinsèques de la
matrice. Plus un béton est conducteur (<100 Ωm), et plus la probabilité de corrosion des aciers
est importante. Au-dessus de 1000 Ωm le risque de corrosion est négligeable. Il est donc
intéressant d’étudier la résistivité de ce matériau.
30
II.3 PRINCIPE GENERAL DES MESURES
∆V ∆V
ρ app = =k (2.2)
∆V0 I
4π
k= (2.3)
1 1 1 1 1 1 1 1
− − + + − − +
AM AN BM BN A′M A′N B′M B′N
31
Figure 2.2 : Dispositif quadripôle utilisé pour la mesure de la résistivité d’un objet (domaine).
Dans la pratique, le courant employé est rarement un véritable courant continu. Pour pallier
les phénomènes de polarisation spontanée et pour améliorer le rapport signal sur bruit, un
courant alternatif en créneaux ou sinusoïdal basse fréquence est utilisé (de quelques fractions
de hertz à quelques hertz). Ceci est surtout valable lors de l’utilisation d’électrodes à contact
galvanique. Pour des instruments de mesure capacitifs, la fréquence utilisée peut être plus
élevée.
En surface, les mesures peuvent être effectuées en gardant le centre du dispositif fixe et en
écartant les électrodes d’injection (sondage électrique) ou en déplaçant un dispositif à
écartement constant (traîné électrique). Avec la première méthode nous obtenons la variation
de la résistivité en 1D sous le dispositif et avec la seconde méthode nous étudions les
variations latérales de ce paramètre. En combinant ces deux techniques, il est possible de
réaliser des panneaux électriques, sensibles aux variations tant verticales qu’horizontales de la
sub-surface. Ces mesures sont habituellement représentées sous la forme de panneaux
électriques (ou pseudo-sections en résistivités apparentes). Les mesures sont particulièrement
sensibles aux variations de la résistivité sous le dispositif. Les points de mesure sont reportés à
l’aplomb du centre du dispositif et à une ordonnée proportionnelle à la distance séparant les
électrodes (AM/2 ou AB/2 par exemple) définissant des niveaux d’acquisition. Les valeurs
sont ensuite interpolées pour tracer les lignes d’isorésistivité (figure 2.3). La détermination de
la profondeur à laquelle placer les points de mesure donne cours à de nombreux débats. Une
32
méthode de positionnement vertical des points est celle de la profondeur médiane
d'investigation (Edwards, 1977) du dispositif utilisé. La profondeur médiane d'investigation,
pour un milieu homogène, peut être considérée comme étant la profondeur à laquelle la
portion de terrain située au dessus de cette limite a la même influence que la portion de terrain
située au dessous. Cette profondeur médiane n'a donc pas la signification de profondeur
d'investigation (au sens de signal maximal, Roy, 1972). Comme l’a montré Barker (1989), la
profondeur médiane d’investigation semble être la manière la plus robuste par laquelle nous
pouvons associer une donnée mesurée et une profondeur.
Un panneau électrique donne une image très approximative de la répartition des résistivités
dans une structure. Cette image est distordue car elle dépend de la répartition des résistivités
dans l’objet mais également du dispositif utilisé. Un panneau électrique est donc uniquement
une manière commode de représenter les résistivités apparentes afin de tirer quelques
hypothèses sur la distribution des résistivités vraies. En effet, les formes engendrées par un
objet diffèrent fortement en fonction du dispositif employé. C’est la raison pour laquelle il est
quasiment impossible d’interpréter correctement un panneau électrique non inversé. Il est
juste possible de faire quelques hypothèses sur la distribution des résistivités apparentes.
Cependant, une des utilités du panneau électrique est la possibilité d'éliminer sur ces profils
les mauvaises mesures de résistivité apparente. Ces dernières se marquent par des points de
résistivité apparente anormalement haute ou basse par rapport à l'environnement.
Figure 2.3 : Représentation d’un panneau électrique en 2D pour les mesures en surface.
33
Lors de mesures entre plusieurs forages ou entre un forage et la surface, les mesures sont
sensibles aux variations des propriétés électriques dans un plan situé approximativement entre
les lignes d’électrodes. Le mode de représentation des tomogrammes selon Poirmeur (1986)
peut être alors utilisé. Les points de mesure sont reportés sur un plan en deux dimensions en
prenant la profondeur en abscisse. Pour des mesures entre deux forages, chaque forage devient
un des axes du tomogramme. Les valeurs sont ensuite interpolées pour tracer les lignes
d’isorésistivités (figure 2.4).
Figure 2.4 : Représentation d’un tomogramme en 2D pour les mesures entre forages.
Dans le cas de mesures sur des structures 3D ou à géométries complexes, il peut être difficile,
voire impossible, de représenter les données mesurées selon des panneaux électriques. Nous
devrons donc souvent nous contenter de les représenter sous la forme de courbes de
distribution pour en faire l’étude. Un exemple de simulation de mesures sur une colonne est
donné dans la figure 2.5. La complexité du dispositif de mesure autour de la colonne rend
impossible toute représentation des résistivités apparentes sous la forme de tomogrammes.
34
Figure 2.5 : Simulations d’une prospection électrique sur une colonne.
Il est souvent difficile de déterminer, a priori, quel est le meilleur dispositif électrique à
utiliser lors d’une prospection. Les caractéristiques de l’information collectée varient en effet
suivant l’agencement des électrodes (Dahlin and Loke, 1998). Les propriétés d’un dispositif
donné peuvent toutefois être étudiées en évaluant la sensibilité de la mesure en un point par
rapport à une variation des propriétés électriques du terrain (Barker, 1979). Cette fonction
nous permet de savoir dans quelle mesure les variations de la résistivité dans une région
influenceront la mesure de la différence de potentiel. Plus la valeur de cette fonction de
sensibilité est élevée, plus son influence sera grande.
Il est possible d’évaluer analytiquement les différentes sensibilités pour un sous-sol homogène
de résistivité ρ en suivant la formulation de Park et Van (1991). Loke et Barker (1995) ont
montré qu’une variation dans le champ de résistivité du modèle provoquait une variation dans
le champ de potentiel V pouvant être exprimée par :
δV 1
=
δρ ρ 2 ∫ ∇V ⋅ ∇V ′ dΩ
Ω
(2.4)
où V’ est le potentiel résultant d’une source de courant d’intensité 1 située à la position d’un
récepteur et Ω le domaine étudié.
35
Une telle solution analytique ne peut être évaluée que pour un espace (ou un demi-espace)
homogène avec des électrodes en surface ou sous la surface. Pour un modèle non-homogène
ou à géométrie plus complexe, une évaluation numérique des valeurs de sensibilité, dérivées
obtenues par différences finies par exemple, peut être nécessaire (Spitzer and Kümpel, 1997 ;
Spitzer, 1998). Nous avons toutefois créé un programme pour calculer en 3D la sensibilité de
n’importe quel dispositif d’électrodes dans le but de mieux comprendre la réponse des
dispositifs de mesures pour des modèles simples. Nous pourrons ultérieurement en tirer
quelques remarques et conclusions importantes sur le gradient de la fonction d’erreur à
minimiser utilisée dans le module d’inversion présenté plus loin. Les cas qui suivent ont donc
uniquement une valeur d’exemple et ne représentent pas une étude exhaustive de la sensibilité
des dispositifs électriques.
En dispositif Wenner, les contours des valeurs de la sensibilité sont quasiment horizontaux à
l’aplomb du centre du dispositif. Ceci implique que le dispositif Wenner présente une bonne
résolution verticale. En regardant les contours de la fonction de sensibilité du dipôle-dipôle
axial, nous constatons par contre que ce dispositif est très sensible à l’aplomb des deux
dipôles et que les contours de cette fonction sont essentiellement verticaux. Ceci implique que
ce dispositif est très sensible aux changements horizontaux de la résistivité et donc idéal pour
détecter des structures verticales. De plus, la sensibilité se concentre uniquement sous les
dipôles lorsque la distance entre ceux-ci augmente. Un écartement maximum entre les dipôles
doit donc être envisagé. Le dispositif Wenner-Schlumberger est un hybride entre le Wenner et
le Schlumberger créé pour la tomographie électrique 2D de surface. Quand nous regardons la
forme des contours des valeurs de la sensibilité sous le centre du dispositif, nous constatons
qu’ils ne sont ni horizontaux ni verticaux. C’est donc un bon compromis entre le dispositif
Wenner et le dipôle-dipôle axial.
Nous pouvons constater également qu’il y a des régions de sensibilités positives et négatives.
Une région avec une valeur de sensibilité positive implique que le signe de la variation du
potentiel est identique au signe de la variation de la résistivité (une sensibilité négative
implique le contraire). Cela explique certaines inversions du signe de l’anomalie qui peuvent
36
parfois être observées lors de mesures entre forages pour des corps 3D par exemple (Leroux,
2000). Une image erronée du sous sol est alors obtenue si un algorithme d’inversion 2D est
utilisé pour interpréter ce type de données. L’utilisation d’un algorithme d’inversion 3D se
justifie alors amplement.
Figure 2.6 : Exemples de sensibilité pour quelques dispositifs électriques couramment utilisés pour la
prospection de surface.
37
II.4.2 Exemples de sensibilité pour des dispositifs de surface-
forage
Dans la pratique, nous pouvons également mettre une partie ou toutes les électrodes sous la
surface du sol (dans un forage par exemple) afin d’améliorer la résolution en profondeur
(Daniels, 1983 ; Le Masne and Poirmeur, 1988 ; Poirmeur and Vasseur, 1988 ; Bevc and
Morrison, 1991). La sensibilité de dispositifs surface-forage est donnée dans la figure 2.7
(Marescot et al., 2002). Le dispositif pôle-pôle (M-A), qui possède uniquement une électrode
d'injection de courant et une électrode de mesure du potentiel, est fréquemment utilisé en
tomographie. La forte sensibilité négative entre les électrodes de mesure peut être relevée.
Nous pouvons remarquer que les autres dispositifs en surface-forage présentent également des
sensibilités très variables. Contrairement à ce qui est généralement supposé, une très rapide
diminution de la sensibilité peut être relevée loin de la surface et du forage. Il est donc
possible que nous surestimions souvent l’utilité de ce type de dispositifs pour la prospection
géophysique (Asch and Morrison, 1989). Une analyse des sensibilités peut être également
utile pour définir si un dispositif est sensible aux effets latéraux. En effet, si cette sensibilité
aux effets latéraux est généralement néfaste pour des acquisitions 2D, elle représente un atout
en 3D. Nous pouvons dans ce cas évaluer si la partie de la subsurface située hors du plan du
tomogramme aura une influence sur la mesure. Il sera nécessaire de tenir compte de cela dans
l’architecture des modèles utilisés pour le processus d’inversion. Comme le montre la figure
2.8 le dispositif MA-NB et plus sensible aux effet latéraux que le dispositif MN-AB par
exemple. Des informations identiques peuvent être déduites avec des dispositifs ayant toutes
leurs électrodes sous la surface (Bing and Greenhalgh, 1997).
Les dispositifs présentés ci-dessus sont maintenant bien connus. Dans la pratique, et suivant le
type d’étude, n’importe quel agencement d’électrodes peut toutefois être envisagé. Ces
dispositifs non-conventionnels peuvent présenter des réponses inattendues ou surprenantes,
pouvant parfois rendre le traitement de telles données très complexe. Nous pouvons citer par
exemple l’extrême sensibilité de certains agencements d’électrodes aux erreurs de position et
la difficulté de prévoir le signe de la résistivité apparente mesurée.
38
Figure 2.7 : Exemples de sensibilité pour quelques dispositifs électriques dipôle-dipôle utilisés pour la
prospection entre la surface et un forage.
39
Figure 2.8 : Les différentes sensibilités latérales pour les dispositifs électriques dipôle-dipôle utilisés pour la
prospection entre la surface et un forage.
40
II.5 EQUATIONS FONDAMENTALES
Cette partie a pour objectif de rappeler les équations de base qui régissent le comportement du
champ électrique dans des milieux homogènes et hétérogènes. Ces équations vont permettre,
entre autres, de prédire les réponses électriques des milieux à l’aide de calculs analytiques ou
numériques. Nous limiterons la description de la théorie de l’électromagnétisme au cas de
l’approximation statique.
Les méthodes électriques ont pour but la détermination de la conductivité électrique σ (en
S/m) du sous-sol. Ce paramètre est défini par la loi d’Ohm : la conductivité électrique
correspond à la constante de proportionnalité entre le champ électrique E (V/m) appliqué en
un point du milieu et la densité de courant J (A/m2).
J =σ E (2.5)
Dans les expressions ci-dessus, E et J sont des grandeurs vectorielles et σ une grandeur
scalaire (pour un milieu isotrope) ou un tenseur (pour un milieu anisotrope). Le courant
électrique I (A) est noté comme étant le flux du vecteur J au travers d’une surface S :
I = ∫ J ⋅ dS (2.6)
S
J. C. Maxwell (1831-1879) a réuni sous la forme de quatre lois les équations fondamentales
de l’électromagnétisme. Ces lois lient le comportement du champ électrique E (V/m), du
champ magnétique H (A/m), du champ de déplacement D (C/m2), du champ d’induction
magnétique B (Wb/m2) et de la densité de courant J (A/m2). Tous ces champs sont des
grandeurs vectorielles. En l’absence de sources, il vient :
∂B
1) ∇×E + =0 loi d’induction de Faraday (2.7)
∂t
∂D
2) ∇×H − =J équation d’Ampère-Maxwell (2.8)
∂t
41
∂p
3) ∇⋅J = − avec p la densité de charges (2.9)
∂t
4) ∇ ⋅B = 0 (2.10)
La troisième équation de Maxwell peut également être exprimée par le biais du champ de
déplacement D :
∇⋅D = p (2.11)
et dans ce cas
∂p ∂
∇⋅J = − = − ∇⋅D (2.12)
∂t ∂t
et
H (t ) = H e − iωt (2.14)
D=ε E (2.15)
B=µ H (2.16)
∇×E = i ω µ H (2.17)
∇×H = i ω ε E +σ E (2.18)
Nous voyons que nous pouvons remplacer la conductivité σ et la permittivité ε par une
conductivité complexe σ* et une permittivité complexe ε* :
σ∗ =σ +iω ε (2.19)
et
σ
ε∗ = ε + (2.20)
iω
42
II.5.3 La formulation de Maxwell pour des champs statiques
Dans le cas d’un état statique, les équations se simplifient considérablement, car les dérivées
temporelles s’annulent :
1) ∇×E = 0 (2.21)
2) ∇×H = J (2.22)
3) ∇⋅J = 0 (2.23)
4) ∇ ⋅B = 0 (2.24)
Dans la pratique, il est difficile de mesurer directement l’intensité d’un champ électrique dans
un milieu. Nous allons donc étudier le champ de potentiel V qui est une grandeur étroitement
liée au champ électrique.
L’équation (2.21) montre que E dérive d’un champ de potentiel scalaire V. Cette équation
exprime que le champ E est conservatif en vertu du théorème de Stokes (l’intégrale du champ
électrique le long d’un contour fermé est nulle). La définition du champ E peut donc être
exprimée par :
E = −∇V (2.25)
Le champ scalaire V est défini à une constante près, seules les différences de potentiel entre
deux points de l’espace ont un sens physique. Ces différences de potentiel peuvent être
exprimées comme la circulation du champ E entre ces points.
En combinant l’équation (2.23) avec la loi d’Ohm (équation 2.5), nous obtenons :
∇ ⋅ (σ ∇ V ) = 0 (2.26)
Lorsque le milieu est homogène et que la conductivité est la même dans tout l’espace, nous
obtenons :
∇ 2V = 0 (2.27)
43
Le potentiel électrique est donc un champ scalaire harmonique. Il vérifie certaines conditions
aux limites, à l’interface de deux milieux où sont localisés deux points p1 et p2, que nous
allons brièvement décrire plus loin.
∇ 2V = − I δ ( r − rs ) (2.28)
∇ ⋅ (σ ∇V ) = − I δ ( r − rs ) (2.29)
Dans le cas d’un milieu hétérogène, la conductivité, et donc V, sont fonctions des coordonnées
dans l’espace. Dans la pratique, l’espace est découpé en sous-domaines homogènes. A partir
de la définition de la tension entre deux points, p1 et p2, situés de part et d’autre d’une
frontière entre deux milieux, de conductivités σ1 et σ2 respectivement, il est possible d’obtenir
l’égalité suivante :
p2
V p1 − V p 2 = ∫ E ⋅ dl
p1
(2.30)
Lorsque les points p1 et p2 s’approchent l’un de l’autre, les potentiels deviennent égaux :
V p1 = V p 2 (2.31)
∂V p1 ∂V p 2
σ1 =σ2 (2.32)
∂n ∂n
44
II.5.5 Détermination du champ de potentiel
Trouver le champ de potentiel V défini sur le domaine spatial d’étude, noté Ω (figure 2.9), tel
que :
∇ ⋅ (σ ∇ V ) = − q (2.33)
avec Is l’intensité d’une source S, rs la position de cette source, r la position d’un point
quelconque de l’espace et δ la fonction de Dirac,
σ ∇V ⋅ n = − J (2.34)
sur ΓN la frontière dite de Neumann (frontière à flux nul), avec n le vecteur normal à la
surface,
V =V (2.35)
La solution pour le champ de potentiel V doit de plus respecter les conditions aux limites à
l’interface de deux milieux de conductivités différentes (équations 2.31 et 2.32).
45
frontières lorsque ces dernières sont loin des sources (V∞ → 0). Cette dernière condition nous
force à créer des espaces très grands. Nous pouvons également affecter à ces valeurs les
valeurs calculées pour un sol homogène ou encore tabulaire (conditions mixtes). Nous
remarquerons encore que ces conditions peuvent être naturelles (ce qui signifie que la
formulation du problème implique qu’elles sont vérifiées) ou doivent être explicitement
introduites (essentielles).
En méthode électrique par courant continu (utilisant des fréquences allant jusqu’à environ
150 Hz), un système d’électrodes est généralement utilisé pour injecter le courant dans le
milieu. Il faut dans ce cas s’assurer du contact galvanique avec le milieu. Lors de
l’auscultation de parties du corps humain, de sols gelés, de milieux urbanisés ou encore de
bâtiments (contrôle non destructif), une méthode permettant d’obtenir des informations sur les
propriétés électriques des structures, sans contact galvanique, doit être utilisée (Grard and
Tabbagh, 1991). L’utilisation de quadripôles électrostatiques (un dipôle d’injection et un
dipôle de mesure) permet de pallier ce problème. Dans ce cas, les propriétés prises en compte
sont la résistivité électrique, décrite plus haut, et la permittivité diélectrique. Une alternative à
la prospection électrostatique, dans ce type de milieu, est l’utilisation des méthodes
électromagnétiques proprement dites. Toutefois, sur des structures très résistantes, les
phénomènes d’induction sont faibles et la réponse peut être difficile à interpréter.
Le potentiel électrostatique est produit par un pôle qui peut être situé à la surface de l’objet
étudié ou encore dans l’air au-dessus de cet objet. Pour une charge électrostatique Q dans un
milieu homogène, le potentiel en un point M s’exprime par :
Q
V= (2.36)
4 π ε1 R
A proximité d’un second milieu de permittivité ε2 et si la séparation entre les deux milieux est
plane, l’équation du potentiel se modifie de la manière suivante (Tabbagh et al., 1993), figure
2.10 :
46
Figure 2.10 : Configuration de mesure en prospection électrostatique.
Q 1 ε1 − ε 2 1
V= + (2.37)
4 π ε1 R ε1 + ε 2 R ′
Si la charge est située dans l’air, le potentiel est également exprimé dans l’air. Dans ce cas,
ε1≈ε0 avec ε0 la permittivité diélectrique du vide (≅8.85 10-12 F.m-1). L’air peut être considéré
comme parfaitement isolant mais le sol n’est pas un diélectrique parfait. Nous avons alors :
σ
ε2 = ε0 εr + (2.38)
iω
I
Q= (2.39)
iω
Iρ I 1 1
V= −i − (2.40)
2π R′ 4πωε 0 R R′
Nous voyons alors que la partie réelle du potentiel est directement proportionnelle à la
résistivité et que la partie imaginaire croît avec l’épaisseur d’air séparant l’électrode du sol.
L’influence de la partie imaginaire décroît toutefois avec la dimension du dispositif R. Nous
devrons alors mesurer le potentiel en phase et en quadrature par rapport à l’intensité injectée.
Nous utiliserons la partie en phase du potentiel pour étudier les résistivités du sol par les
méthodes d’interprétation en courant continu.
47
Pour des pôles posés à la surface (R=R’), et à basse fréquence, l’expression du potentiel
devient :
Iρ
V≈ (2.41)
2π R
ce qui est équivalent au cas de la prospection électrique en courant continu. Nous pouvons
alors utiliser la mesure en phase ou la valeur efficace du potentiel pour étudier la résistivité et
les méthodes d’interprétation en courant continu pourront être utilisées dans ce cas. En
considérant des dispositifs de mesure de quelques mètres, une gamme de résistivité inférieure
à 5000 Ωm et une fréquence suffisamment basse (<100 kHz en pratique), la résistivité est le
terme dominant dans l’expression de la permittivité complexe (Leroux, 2000). Des
applications dans le domaine du contrôle non destructif ainsi que des applications en
médecine, en génie civil et en environnement sont envisageables (Leroux, 2000).
48
CHAPITRE III
LA RESOLUTION DU PROBLEME
DIRECT
49
50
Après avoir décrit la formalisation des phénomènes électriques, nous allons maintenant
montrer comment résoudre les équations différentielles pour le champ de potentiel. Une telle
solution permet de prédire une mesure en fonction d’un modèle donné, opération portant le
nom de problème direct. La résolution du problème direct est nécessaire à une résolution
itérative du problème inverse. Un outil de modélisation directe est également très utile pour
tester la réponse de différents arrangements d’électrodes, ou encore l’effet de différentes
hétérogénéités pour planifier une prospection. Une telle solution au problème direct peut être
obtenue par des méthodes analytiques, semi-analytiques, ou entièrement numériques.
Les objectifs de cette partie sont la présentation de différents aspects du problème direct
électrique. La méthode de formulation intégrale ainsi que l’approximation par éléments finis
pour la résolution du problème électrique sont décrites en particulier. De plus, seule
l’utilisation de modèles à éléments de volume (3D) est développée. La structure ainsi que
l’application du code de calcul CESAR-LCPC pour le problème électrique sont exposées. Le
programme permettant la modélisation directe de séquences électriques est ensuite détaillé et
quelques exemples de modélisation directe sur des structures simples et plus compliquées sont
données afin d’exposer quelques conditions d’applicabilité de la méthode.
Pour des milieux séparés par une interface plane, nous pouvons appliquer la méthode des
images. Nous pouvons ainsi définir la valeur du champ de potentiel pour un milieu
comportant un nombre quelconque de couches (adaptation de la formulation de Stefanescu et
Schlumberger (1930) par R. Lagabrielle, cité dans Leroux, 2000). La solution donnée par une
méthode analytique est une solution fiable de la répartition du champ de potentiel. De plus, le
temps de calcul nécessaire à la résolution du problème est généralement réduit. De par la
simplicité du milieu modélisé, les solutions analytiques ne peuvent pas décrire des modèles
plus hétérogènes que ne le permet la méthode (en général un corps de géométrie simple). Des
modèles 3D à géométries complexes ne peuvent donc pas être décrits par ce type d’approche.
Toutefois, les solutions analytiques peuvent servir à vérifier ou comparer différentes solutions
51
obtenues par des méthodes numériques. Pour des milieux plus complexes, des méthodes semi-
analytiques peuvent être utilisées. La méthode des centres alpha en est un exemple
(Stefanescu, 1970). Cette méthode connaît toutefois certaines limitations (Shima, 1990) et est
donc assez peu utilisée. En effet, elle est particulièrement mal adaptée si les contrastes de
résistivité sont forts ou si les corps modélisés présentent des limites très nettes.
Les méthodes d’équations intégrales permettent de créer des modèles plus réalistes (voir par
exemple Poirmeur, 1986 ; Das, 1987 ; Lesur, 1995). La méthode des moments en est un
exemple (Tabbagh, 1985). Dans la méthode des moments, des corps de formes quelconques,
construits à partir d’éléments parallélépipédiques, sont plongés dans un milieu homogène ou
tabulaire. Seule la zone constituant l’anomalie est discrétisée, ce qui représente un intérêt
certain (temps de résolution réduit) par rapport aux autres méthodes purement numériques qui
nécessitent une discrétisation importante de l’espace. Le temps de résolution des méthodes
intégrales augmente toutefois pour des hétérogénéités très complexes, finement discrétisées ou
très étendues. Elles sont donc moins bien adaptées que les méthodes purement numériques à
la prise en compte d’un milieu globalement complexe. Les systèmes linéaires sont de
dimensions plus modestes mais généralement moins creux que pour les méthodes numériques.
Un conditionnement est donc souvent nécessaire avant leur résolution.
Les méthodes purement numériques seront utilisées pour des modèles dont la géométrie est
très complexe en discrétisant complètement le domaine. Nous pouvons ainsi modéliser des
structures très différentes plongées dans des milieux qui ne sont pas nécessairement des demi-
espaces homogènes. Il est alors possible de concevoir des modèles de dimensions finies dans
l’espace (modèles réduits, éprouvettes). Les méthodes numériques présentent le désavantage
de nécessiter un temps de calcul important ainsi que des besoins en mémoire très élevés.
La méthode des différences finies (Mufti, 1976 ; Dey and Morrison, 1979 ; Spitzer, 1995 ;
Loke and Barker, 1996a et 1996b) est couramment utilisée. Pour la méthode des différences
finies, nous résolvons l’équation de Poisson sous sa forme différentielle. L’espace est divisé
en un réseau de mailles régulières uniquement, ce qui est une des limitations de cette méthode.
Des opérateurs de différentiation peuvent être obtenus à partir d’un développement limité. Ces
opérateurs se servent ensuite, pour exprimer le potentiel (et ses dérivées) en un nœud, des
valeurs aux nœuds voisins. La matrice du système linéaire ainsi obtenue est généralement
creuse et peut donc être résolue par une méthode numérique appropriée.
52
La méthode des éléments finis (Coggon, 1971 ; Fox et al., 1980 ; Pridmore et al., 1981 ;
Holcombe and Jiracek, 1984 ; Queralt et al., 1991 ; Sasaki, 1994 ; Tsokas et al., 1997 ;
Tsourlos et al., 1999) considère l’équation de Poisson sous une forme intégrale et une solution
au problème est définie en minimisant l’énergie du champ électrique. L’avantage de la
méthode vient du grand choix de forme de maille à disposition. Il est donc possible de
représenter la forme réelle de la structure étudiée quelle que soit sa complexité géométrique.
Cette méthode semble donc être mieux adaptée à notre objectif que la méthode des équations
intégrales ou des différences finies. L’adaptation du code d’éléments finis CESAR-LCPC
pour la modélisation directe et inverse est donc justifiée.
ρI MB − AN
∆V = ln (3.1)
π AM − BN
avec ρ la résistivité du modèle, I l’intensité du courant par unité de longueur, A et B étant les
sources linéiques.
53
III.2.1 Les formulations intégrales pour le problème électrique
Dans le cas où un problème n’admet pas de solution analytique, il est nécessaire d’évaluer une
solution approchée. Les méthodes d’approximation ont pour objectif de remplacer un
problème mathématique défini sur un milieu continu (équations différentielles ou intégrales)
par un problème discret et réécrit sous forme matricielle. Ce problème de dimension finie peut
alors être résolu numériquement par la méthode des éléments finis (MEF) par exemple.
∇ ⋅ (σ ∇V ) = −q (3.2)
σ ∇V ⋅ n = − J (3.3)
54
sur ΓN la frontière de Neumann
V =V (3.4)
Nous utilisons ici la formulation variationnelle pour le problème électrique pour obtenir une
forme intégrale. Cette méthode spécifie une fonctionnelle Π qui est définie par une forme
intégrale regroupant l’équation locale ainsi que la condition sur la frontière de Neumann. Il
est possible de résoudre le problème électrique en exigeant la stationnarité (minimisation) de
la fonctionnelle :
1
Π = ∫ σ ∇V ⋅ ∇V + q V d Ω + ∫ J V d Γ N (3.5)
Ω
2 ΓN
La condition aux limites de type Neumann est prise en compte de façon naturelle. Le potentiel
solution V est celui minimisant la fonctionnelle Π et vérifiant les conditions aux limites de
Dirichlet en certains points de la frontière du domaine :
δΠ = ∫ (σ ∇ V ⋅ ∇ δ V + q δ V ) d Ω + ∫ J δV dΓ N = 0 ∀δ V (3.6)
Ω ΓN
Ainsi, le potentiel solution V doit vérifier cette équation quel que soit le champ δV, variation
de V. Les champs V et δV doivent être admissibles, c’est-à-dire continus C0 et vérifier les
conditions aux limites. Si des dérivées d’ordre n apparaissent dans l’équation locale ou les
conditions aux limites, alors les fonctions utilisées doivent être choisies telles que leurs
dérivées d’ordre n-1 soient continues (continuité Cn-1).
55
Nous remarquons que seule la stationnarité de la fonctionnelle est assurée par cette
formulation. Le fait de poser δΠ=0 est une condition nécessaire mais non suffisante pour une
minimisation.
Les codes d’éléments finis font partie des outils couramment utilisés lors de l’analyse de
problèmes physiques. Une analyse par éléments finis nécessite plusieurs étapes. L’utilisateur
désirant résoudre un problème par la méthode des éléments finis doit tout d’abord créer un
maillage figurant le domaine d’étude. Cette étape est souvent très délicate car la qualité de
l’approximation par éléments finis dépend fortement de la structure de ce maillage.
L’utilisateur doit également imposer un certain nombre de conditions aux limites et définir
une série de sollicitations. Une fois le problème bien défini, la résolution du problème
intervient par l’appel d’un programme spécifique, le solveur. En général, cette étape se
déroule sans intervention extérieure. Une fois le résultat obtenu, il va ensuite être nécessaire
d’exploiter les résultats en calculant et en représentant graphiquement une série de paramètres
dérivés.
Les points suivants de l’approximation par éléments finis seront décrits plus en détail.
L’opération de maillage, qui constitue souvent une des parties les plus délicates de la
modélisation, doit tout d’abord être précisée. Les fonctions d’interpolation, véritable point
central de l’approximation par éléments finis, sont ensuite décrites. L’expression de ces
fonctions d’interpolation reviendra régulièrement dans les développements effectués dans ce
travail. Les opérations d’assemblage et de résolution sont ensuite explicitées afin de compléter
la description de la méthode. Finalement, des indications sur l’interpolation dans l’élément de
référence ainsi que dans l’élément réel sont données. Ces indications sont nécessaires à la
compréhension de la méthodologie de modélisation directe développée dans ce travail.
III.2.2.1 Le maillage
Les logiciels d’éléments finis disposent d’un mailleur proposant des mailles linéiques,
surfaciques ou volumiques. Les mailles doivent être bien proportionnées. Il est généralement
admis que la distorsion de la maille, le rapport de la plus grande dimension sur la plus petite,
ne doit pas être excessive (de l’ordre de 2). Les algorithmes de maillage automatique
garantissent en général une faible distorsion, mais ce n’est pas toujours le cas. Le maillage ne
doit pas être inutilement fin et nous devons généralement faire un compromis entre la finesse
56
de la représentation géométrique et le coût en temps de calcul. Nous choisirons, en fonction
des résultats escomptés, de mailler finement certaines régions et plus grossièrement d’autres.
Pour le problème électrique par exemple, il sera nécessaire d’utiliser un maillage fin dans la
région où les mesures sont effectuées et un maillage plus grossier dans la région servant à
imposer des conditions aux limites à l’infini. La phase de maillage est sans doute celle où l’on
passe le plus de temps sur la définition du problème. L’expérience de l’utilisateur, ainsi
qu’une certaine idée du résultat du calcul, sont des facteurs importants. Après examen des
résultats du calcul, nous pouvons être amenés à recommencer un maillage ou à le remanier
partiellement. Un maillage satisfaisant n’est que rarement obtenu à la première tentative.
Nous avons vu précédemment qu’il était possible d’obtenir une formulation intégrale pour le
problème électrique. Toutefois, cette formulation est soumise à une condition très
contraignante. En effet, le problème doit pouvoir être résolu quelle que soit la valeur des
fonctions δV. Or, en général, ce type de problème n’a pas de solution. Nous allons donc
remplacer cette condition en cherchant à satisfaire la formulation intégrale uniquement pour
certaines de ces fonctions. De plus, nous choisirons des fonctions faisant partie de l’espace
des fonctions admissibles. Cela signifie que nous restreignons cet espace aux seules fonctions
qui respectent les conditions aux limites.
La méthode des éléments finis donne une solution approchée du champ de potentiel qui est
obtenue par juxtaposition des champs locaux V définis dans chaque élément. Un élément est
une maille possédant un certain nombre de nœuds ainsi qu’une famille de champs locaux
destinés à fournir une solution approchée en tout point de la maille en ne connaissant que les
valeurs d’une solution approchée aux nœuds. Le nombre de degrés de liberté (ddl) par nœud
varie selon la nature du champ inconnu et la dimension de l’espace physique. Dans la suite de
cet exposé, seul le cas du maillage volumique sera détaillé. De plus, nous supposerons qu’il
n’y a qu’un seul ddl par nœud (champ potentiel scalaire). Si le champ à interpoler était
vectoriel ou tensoriel, il y aurait alors un ddl par composante du champ et nous construisons
des interpolations pour chaque ddl.
Sur chaque élément e nous définissons les approximations des champs V et δV suivantes :
n
V ≈ V" = ∑ ai N i (3.7)
i =1
et
n
V = ∑ δ ai N i
δ V ≈ δ# (3.8)
i =1
les fonctions Ni sont les fonctions de forme, n le nombre de nœuds de l’élément, et ai et δai
sont les amplitudes associées aux fonctions de forme.
57
L’approximation présentée ici utilise les mêmes fonctions de forme pour les champs V et δV
(méthode de Galerkin) mais ce n’est pas obligatoire. Ces choix donnent naissance à
différentes méthodes de résolution par éléments finis (et à différentes solutions approchées). Il
est toutefois impératif que ce choix génère un système d’équations régulier. Il est de plus
désirable que ce système d’équations linéaires soit symétrique afin de permettre l’utilisation
d’algorithmes de résolution efficaces. Enfin, les fonctions choisies doivent être suffisamment
dérivables suivant la formulation intégrale utilisée. Dans le cas où certaines dérivées
s’annulent, le système d’équations linéaires devient singulier. Pour la méthode de Galerkin,
lorsque le problème est bien posé, nous sommes assurés de la régularité du système. Cette
régularité du modèle mathématique assure des propriétés de convergence de la solution
cherchée, l'approximation étant d'autant plus précise que le nombre de nœuds augmente.
La solution approchée recherchée doit présenter une continuité C0. Cette condition peut être
remplie partiellement en choisissant de mettre des nœuds sur la frontière des mailles afin de
garantir que la solution approchée pour deux éléments voisins soit continue au moins aux
nœuds communs. Lors de l’utilisation d’éléments conformes, nous garantissons de plus que
l’interpolation sur une frontière ne va dépendre que des nœuds de la frontière d’un élément et
non de nœuds situés au centre de ce dernier. Le nombre de nœuds de la frontière doit donc
être suffisamment important pour garantir la convergence du problème.
n
V ≈ V" = ∑ ai N i = N a (3.9)
i =1
avec N la matrice ligne des fonctions de forme et a le vecteur des amplitude associées aux
fonctions de forme.
L'approximation par éléments finis est donc une approximation nodale ne faisant intervenir
que les variables nodales du domaine élémentaire. Les nœuds sont donc les points de
l'élément pour lesquels nous choisissons d'identifier l'approximation du champ V à la valeur
du champ de variables a. Nous en déduisons que Vi = ai pour un nœud i de l’élément avec
i=1,n. Une caractéristique importante de N peut être soulignée ici :
1; i = j
N i ( M j ) = δ ij = (3.10)
0; i ≠ j
58
III.2.2.3 La formulation discrète
∫ (σ ∇ V ⋅ ∇ δ V + q δ V ) d Ω + ∫ J δ V d Γ
Ω ΓN
N = 0 ∀δ V (3.11)
Dans cette formulation, les fonctions δV et V apparaissent sous la forme de leur gradient. Il
suffit alors que les fonctions de base aient partout un gradient non nul. Des interpolations
linéaires peuvent donc éventuellement être utilisées. De plus, seule la condition aux limites
sur la frontière de Dirichlet reste à imposer ce qui facilite grandement le problème. En effet, il
suffit d’imposer une valeur de potentiel aux nœuds appartenant à la frontière considérée. Dans
la pratique, on impose ces conditions aux limites en modifiant la matrice obtenue finalement
pour résoudre le problème.
n
V = ∑ ai N i (3.12)
i =1
et
n
δ V = ∑ δ ai N i (3.13)
i =1
En substituant ces expressions dans l’équation 3.11, nous obtenons alors pour un élément e :
Ωe
( )
∫ ( ∇N i ) σ e ∇N i d Ωe a + ∫ J N i d Γ N = ∫ N i q d Ωe
T
ΓN Ωe
i = 1, n (3.14)
Dans cette approximation, la valeur du champ de conductivité σe peut varier dans chaque
élément, ce qui n’était pas le cas pour la formulation différentielle. Ces intégrales ne sont
différentes de zéro que sur les éléments qui contiennent le nœud i et nous ne les calculons
donc que pour ces éléments. Il faut également remarquer que ces intégrales ne portent que sur
les fonctions de base de l’espace des fonctions d’interpolation. L’intégrale curviligne est nulle
à la surface sol.
59
utilisons, dans le progiciel CESAR-LCPC, 2x2x2 points d'intégration de Gauss, et 3x3x3
points de Gauss pour un hexaèdre à 20 nœuds. Pour les triangles en 2D, nous utilisons les
points de Hammer. Pour les pentaèdres en 3D nous utilisons alors 3 points de Hammer dans le
plan du triangle de base et 2 points de Gauss selon la troisième direction.
Ka=F (3.15)
m
K ij = ∑ K ije
e =1 i = 1, n
(3.16)
j = 1, n
m
Fi = ∑ Fi e
e =1
avec Ke et Fe les valeurs de la matrice globale et du terme source, évaluées sur chaque
élément.
De façon à uniformiser et à automatiser les calculs pour obtenir un gain de temps de calcul,
nous construisons tout d’abord un espace de fonctions d’interpolation sur une maille de
référence, topologiquement équivalente à la maille réelle. Le passage de l'élément de
référence à l'élément réel sera réalisé par une transformation géométrique. Nous entendons par
élément réel un élément quelconque du domaine discrétisé. Dans la pratique, un logiciel
d’éléments finis possède des bibliothèques dans lesquelles les interpolations dans les mailles
de référence sont déjà définies et n’ont plus à être recalculées. Nous transformons ensuite cet
espace de fonctions d’interpolation sur une maille de référence pour qu’il devienne un espace
de fonctions d’interpolation sur les mailles réelles. Les mailles de référence volumiques les
plus courantes sont données dans la figure 3.2.
60
Figure 3.2 : Les principaux éléments de référence pour les maillages de volume.
Les bases polynomiales sont définies dans l’espace de référence. Pour utiliser une base
polynomiale complète, le nombre de termes doit être égal au nombre de variables nodales à
identifier. Des bases polynomiales incomplètes peuvent également être utilisées (bases tri-
linéaires par exemple).
Pour des mailles volumiques, la fonction d’interpolation est un polynôme à trois variables ξ,
η, ζ.
61
III.2.2.6 L’interpolation dans l’élément réel
x f x (ξ ,η , ζ )
y = f y (ξ , η , ζ ) (3.17)
z f (ξ ,η , ζ )
z
Nous pouvons utiliser les fonctions de forme qui ont déjà été définies pour représenter les
variations du champ inconnu. Nous pouvons donc noter pour chaque élément :
x1 y1 z1
x = N′ x2 = N′ x y = N ′ y2 = N ′ y z = N′ z2 = N′ z (3.18a, b et c)
$ $ $
Pour des éléments réels présentant une géométrie compliquée, nous choisissons une
transformation qui est inversible et qui respecte la correspondance des nœuds. La
correspondance des frontières, qui est compliquée à trouver, n’est en général pas respectée.
Pour les éléments volumiques, cela implique que les arêtes et les faces transformées sont
différentes des arêtes et des faces réelles. En utilisant cette transformation géométrique,
l’élément de référence n’est alors qu’une approximation géométrique de l’élément réel. Seuls
les nœuds correspondent et les autres points sont distincts. Nous noterons que si l’élément réel
est fortement distordu, cette transformation peut ne pas mener à un résultat unique. Nous
pouvons vérifier cela en nous assurant que le signe du déterminant de la matrice jacobienne
(définie plus loin) reste inchangé dans un même élément.
62
Figure 3.3 : Passage d’un élément de référence à un élément réel.
L’élément est dit isoparamétrique si N=N’. L’interpolation des coordonnées peut également
être de degré inférieur (éléments subparamétriques) ou supérieur (éléments
superparamétriques).
Comme nous l’avons vu plus haut, les matrices élémentaires font apparaître des opérateurs
différentiels appliqués aux fonctions d’interpolation dans les éléments réels. En pratique, nous
connaissons les dérivées des fonctions d'interpolation par rapport aux coordonnées de
l'élément de référence. Il nous faut alors exprimer les dérivées des fonctions d'interpolation
par rapport aux coordonnées réelles. Considérons le système de coordonnées locales ξ, η, ζ et
le système de coordonnées globales x, y, z :
∂N i ∂N i ∂x ∂N i ∂y ∂N i ∂z
= + + (3.19)
∂ξ ∂x ∂ξ ∂y ∂ξ ∂z ∂ξ
∂N i ∂x ∂y ∂z ∂N i ∂N i
∂ξ ∂x ∂x
∂ξ ∂ξ ∂ξ
∂N i ∂x ∂y ∂z ∂N i ∂N i
= = Yg (3.20)
∂η ∂η ∂η ∂η ∂y ∂y
∂N i ∂x ∂y ∂z ∂N i ∂N i
∂ζ ∂ζ ∂ζ ∂ζ ∂z ∂z
63
et
∂N i ∂N i
∂x ∂ξ
∂N i −1 ∂N
= Yg
i
(3.21)
∂y ∂η
∂N i ∂N i
∂z ∂ζ
La partie gauche de l’expression précédente peut être évaluée car les fonction Ni sont
spécifiées en coordonnées locales. Comme x, y et z sont données par la relation définie en
coordonnées curvilinéaires, la matrice jacobienne peut aussi être exprimée en coordonnées
locales. La relation inverse va donc permettre de calculer les dérivées premières par rapport
aux coordonnées globales. Le calcul des dérivées dans l’élément réel nécessite donc
l’inversion de la matrice jacobienne pour chaque élément. Une singularité de Yg peut
apparaître lorsque l'élément réel est trop distordu par rapport à l'élément de référence (élément
dit dégénéré). De façon générale nous éviterons d'utiliser des éléments disproportionnés, car
ils nuisent à la précision numérique du modèle (distorsion maximale de l’ordre de 6 ou 10).
Il va de même être nécessaire de ramener les intégrales sur l’élément réel à des intégrales sur
l’élément de référence. Si nous posons Ω’ comme étant l’approximation géométrique de
l’élément réel et Ω celle de l’élément de référence, il est possible de passer de l'intégration
d'une fonction f définie sur l'élément réel à l'intégration sur l'élément de référence par le
changement de variable suivant :
∫ f ( x, y , z )
Ω′
d Ω′ = ∫ f (ξ ,η , ζ ) det Yg d Ω
Ω
(3.22)
64
être admise. En effet, lorsque l’ordre des fonctions d’interpolation augmente ou que le
nombre d’éléments s’accroît, l’approximation tend vers la solution exacte.
CESAR-LCPC (version 3.x) est la version utilisée dans ce travail. Sous ce nom se regroupent
le pré-processeur MAX, le code de calcul par éléments finis CESAR, le post-processeur
PEGGY et de nombreux programmes utilitaires. Ces différents programmes communiquent
entre eux par l'intermédiaire de bases de données.
Réaliser une modélisation avec CESAR-LCPC (version 3.x) se traduit en général par
l'enchaînement des étapes suivantes (figure 3.4) :
b) lancement du code de calcul par éléments finis CESAR pour effectuer la résolution
numérique du problème étudié ;
c) utilisation du post-processeur PEGGY pour l'exploitation des résultats sur écran graphique
et la réalisation des sorties graphiques sur traceur.
65
III.3.1 Application au problème électrique
La modélisation électrique est possible dans CESAR-LCPC car l’équation de Poisson, pour
les problèmes thermiques et électriques, s’écrit :
Les conditions aux limites (frontières de Dirichlet et Neumann) sont également similaires.
Nous noterons que le module d’exécution DTLI (résolution d'un problème de diffusion
transitoire linéaire par intégration directe) peut être utilisé de manière équivalente à LINE
lorsqu’un pas de temps est considéré (approximation continue). Sous ces conditions, les
dérivées par rapport au temps sont éliminées et le coefficient d’emmagasinement local de
chaleur disparaît. Pour les problèmes de diffusion, cinq familles d’éléments sont proposées
par CESAR. Pour le problème électrique en trois dimensions, la Famille 22 est la mieux
adaptée. Les éléments faisant partie de cette famille sont les hexaèdres à 8, 20 ou 27 nœuds,
les pentaèdres à 6, 15 ou 18 nœuds et les tétraèdres à 4 ou 10 nœuds. Une description plus
complète de cette famille d’éléments se trouve dans l’Annexe Technique en fin de travail.
Dans CESAR, les éléments du maillage doivent être répartis en groupes, en fonction de leurs
caractéristiques physiques et géométriques. Un groupe désigne donc un ensemble d’éléments
appartenant à une même famille et possédant une même ligne de propriétés. La notion de
66
groupe est donc fondamentale pour la création de modèles. Deux éléments ayant des
conductivités différentes doivent en effet être affectés à deux groupes distincts.
Comme nous l’avons décrit plus haut, les modules d’exécution LINE et DTLI sont capables
de résoudre un problème de diffusion tels que le problème thermique ou électrique. Toutefois,
la simulation d’un grand nombre de couples source et de points de mesure est très fastidieuse
(voire impraticable) dans la version standard de CESAR-LCPC. Il n’est par exemple pas
possible de lire une séquence d’acquisition et cette dernière doit être entrée manuellement.
Sans compter que la modification manuelle du jeu de données n’est pas aisée car il est
nécessaire de connaître le numéro de nœud de chaque électrode de courant. Or l’utilisateur ne
connaît en général que la position spatiale des électrodes. La lecture des valeurs de potentiel
associées à chaque couple source souffre du même problème. Finalement, une construction
manuelle du jeu de données ne permet pas de profiter de toutes les possibilités offertes par la
méthode des éléments finis. Il est donc indispensable de créer un programme utilitaire
permettant d’effectuer ces simulations de manière automatique.
III.4.1 Problématique
Nous allons définir les principaux problèmes devant être résolus par TOMELE. Dans la
pratique, l’utilisateur désire souvent utiliser la même séquence d’électrodes pour différentes
simulations. Dans ce cas, une seule série d’électrodes avec une localisation donnée est utilisée
pour différents modèles EF. Inversement, il est aussi parfois intéressant de changer la position
67
des électrodes tout en gardant le même modèle EF. Lorsque les sources ponctuelles et les
électrodes de mesure du potentiel sont placées sur les nœuds de la maille EF (figure 3.5), la
géométrie de cette maille doit être adaptée à l’agencement spatial de chaque configuration
d’électrodes. Nous effectuons cela en utilisant des éléments possédant des géométries
particulières ou en raffinant la maille afin de permettre une approximation précise de la
position des électrodes. Toutefois plusieurs problèmes peuvent survenir en choisissant l’une
ou l’autre de ces approches. Premièrement une maille très fine implique une grande quantité
d’éléments, ce qui nécessite d’importantes ressources informatiques pour la résolution du
problème. En fait, il est souvent judicieux de limiter le nombre d’éléments lors de la création
d’un modèle tridimensionnel. Deuxièmement, il est souvent difficile de reproduire avec
précision une implantation expérimentale impliquant une géométrie complexe. En effet, la
présence de structures à géométries complexes, d’obstacles, de topographie ou encore la
courbure des forages (dans le cas de mesures en forage) empêche fréquemment une
implantation rectiligne ou régulière des électrodes. Il est donc difficile de faire correspondre
les positions d’électrodes et les nœuds du maillage et l’utilisation des algorithmes de création
automatique de maillage du pré-processeur est souvent impossible. Il y a de plus des risques
de créer des éléments dégénérés. Finalement, nous pouvons aussi constater que la nécessité de
faire coïncider les électrodes et les nœuds du maillage implique généralement la création de
nouveaux maillages pour chaque jeu d’électrodes.
Figure 3.5 : Trois approches pour l’application de sollicitations électriques sur un maillage EF.
68
Dans le cas de mesures en 3D sur des structures à géométries complexes, telles que des
mesures en forages obliques, en galerie, sur des ouvrages de génie civil (contrôle non-
destructif) ou encore des éprouvettes, nous devons pouvoir obtenir le paramètre de la
résistivité apparente de la manière la plus souple possible. En effet, le paramètre de résistivité
apparente est très familier pour le géophysicien et permet ainsi une bonne compréhension du
problème. Durant le processus d’inversion, l’utilisation de la résistivité apparente, plutôt que
la résistance, est également recommandée. Dans un dispositif pôle-pôle par exemple, de
grandes valeurs de potentiel sont obtenues lorsque les électrodes d’émission et de réception
sont proches et les données mesurées sont donc essentiellement sensibles à l’environnement
immédiat des électrodes. De faibles valeurs de potentiel sont par contre observées lorsque
l’écartement entre les électrodes est plus grand. Ces données sont alors sensibles à une plus
grande part de la région étudiée. Une importance plus grande doit donc être donnée à ces
observations et la meilleure méthode pour effectuer cela est l’utilisation de la résistivité
apparente. Il est alors indispensable que le calcul des résistivités apparentes ne passe pas par
l’évaluation explicite du facteur géométrique, qui n’a de sens que pour des structures très
simples (milieux tabulaires par exemple).
La simulation automatique d'une séquence de mesures peut être vue comme la modélisation
d'un seul et même problème en considérant plusieurs cas de « chargement » successifs.
Chaque chargement équivaut à un couple de points sources. Le programme utilitaire
TOMELE a été conçu afin de produire facilement un jeu de données correspondant à un tel
cas de figure à partir des informations fournies par l'utilisateur (figure 3.6) de façon à ce qu’il
soit utilisable pas CESAR. TOMELE lit tout d’abord les données relatives au maillage,
contenues dans le jeu de données généré par MAX, puis le fichier d’acquisition contenant la
position des électrodes pour chaque mesure. Les différents cas de chargement sont ensuite
créés sur la base de ces informations et le fichier constituant le jeu de données est complété en
tenant compte des points sources qui ne sont pas situés sur des nœuds. Le solveur CESAR est
ensuite appelé. Ce solveur forme le système linéaire correspondant à la modélisation du
problème étudié et comprenant autant de seconds membres que de cas de chargement. A l'issu
de la simulation, TOMELE extrait les valeurs des potentiels en différents points,
correspondant aux couples de mesure, dont le nombre et la position varie pour chaque cas de
chargement.
Par convention, un signe de chargement correspondant à un flux entrant est donné pour
l’électrode A (source positive) et un signe de chargement correspondant à un flux sortant est
donné pour l’électrode B (source négative). A ce stade, une légère modification du code de
69
TOMELE permettrait de simuler des dispositifs non-conventionnels (dispositifs focalisés par
exemple). TOMELE supporte les simulations n’utilisant qu’un seul pôle d’injection (pôle-
pôle ou pôle-dipôle) en affectant une source d’intensité nulle sur l’électrode B.
Figure 3.6 : Description du programme utilitaire TOMELE (PRETELE est un sous-programme de préparation
des tableaux, EXTELE est le code d’exécution de TOMELE proprement dit).
En pratique, la matrice globale ne doit être factorisée qu’une seule fois par résolution du
problème direct. Pour chaque position d’un couple source, seul le vecteur du second membre
contenant les amplitudes des sources doit être modifié. Nous utilisons alors plusieurs cas de
chargement successifs pour une même matrice globale. L'utilisation de plusieurs cas de
chargement permet ainsi de réaliser des gains substantiels en temps de calcul. Dans le cas
d’un problème de diffusion, le module d’exécution LINE appelle le module d’exécution
DTLI. Ce dernier est utilisé pour résoudre des problèmes de diffusion à plusieurs pas de
70
temps. Nous modifions alors LINE dans le but d’utiliser les pas de temps pour simuler
différents cas de chargement. Le fichier résultat de CESAR contiendra alors, pour chaque pas
de temps, les valeurs de potentiel aux nœuds correspondant à chaque couple source. Cette
opération implique bien entendu l’utilisation d’une version adaptée de CESAR utilisant un
module LINE modifié.
Pain et al. (2002) utilisent une fonction Gaussienne pour distribuer l’intensité d’un point
source sur les nœuds des éléments qui l’entourent. Les valeurs nodales de la source S0 valent :
1 − ( xi − S 0 )2
q0i = exp (3.27)
ns ls2
TOMELE utilise une stratégie similaire permettant l’utilisation de points sources et de points
de mesures qui ne sont pas nécessairement situés sur des nœuds (Marescot et al., 2003c et
2003d). Le programme utilitaire TOMELE détermine l'élément dans lequel se situe l'électrode
et distribue l'intensité de la source sur les nœuds de cet élément. Pour ce faire, nous utilisons
l'approximation éléments finis de la géométrie, isoparamétrique dans CESAR pour ce type de
problème. A partir des coordonnées locales de la source dans l'élément de référence, les
fonctions d'interpolation de la géométrie associée à chaque nœud sont évaluées. En
multipliant ces grandeurs par l'intensité de la source, nous obtenons un ensemble d’injections
nodales de courant correspondant chacune à la contribution d'un nœud à la source originale.
Le programme TOMELE utilise une technique similaire pour calculer la valeur du champ de
potentiel en une position d’électrode qui n’est pas située sur un nœud. Afin de définir
précisément cette approche, revenons brièvement sur la discrétisation du terme source pour un
problème EF.
71
Traitement d’une électrode d’injection de courant
Pour une source de la forme q=q0 δ(r-rS0) située en un point S0 dans un élément particulier,
l’intégrale faisant intervenir le terme source devient :
∫ q δV dΩ = ∫ q
Ω Ω
0 δ (r − rS ) δ V d Ω = q0 δ V ( S0 )
0
(3.28)
n
δ V (ξ ,η , ζ ) = ∑ δ ai N i (ξ ,η , ζ ) (3.29)
i =1
ξ, η, ζ étant les coordonnées locales sur l’élément de référence. Si nous notons ξ0, η0, ζ0 les
coordonnées locales du point S0 sur l’élément auquel il appartient, le terme source devient :
q0 δ V( S0 ) = q0 δa N(ξ 0 , η0 ,ζ 0 ) (3.30)
δa étant le vecteur ligne des amplitudes associées aux fonctions de forme, N étant le vecteur
colonne des fonctions de forme associées à chaque nœud et évalué au point S0 (en prenant les
coordonnées locales).
δa (K A − q0 N(ξ 0 , η0 ,ζ 0 )) = 0 (3.31)
le produit scalaire étant nul et A étant le vecteur des fonctions de forme servant à approcher le
champ V sur un élément et K la matrice globale. Le problème discret consiste alors à
déterminer les inconnues contenues dans A, telle que l’équation soit vérifiée quel que soit le
champ d’inconnues discrètes δa. Nous constatons alors que le terme entre parenthèses doit
être nul car sinon il est toujours possible de trouver un vecteur δa tel que le produit scalaire ne
soit pas nul. Ainsi le vecteur colonne des amplitudes solutions vérifie :
K A = q0 N(ξ 0 , η0 ,ζ 0 ) = S (3.32)
les δa ne font alors plus partie du problème. Nous voyons alors clairement que le vecteur
source S ne contient que le produit de l’amplitude de la source par des fonctions de forme.
La figure 3.7 montre comment une source ponctuelle S en un point du maillage est traitée.
Nous isolons tout d’abord l’élément (ou les éléments) qui contiennent cette source puis nous
récupérons les coordonnées locales de cette source sur l’élément de référence. Nous pouvons
72
ensuite, connaissant la valeur des fonctions d’interpolation en ce point, construire le vecteur
source correspondant.
Figure 3.7 : Représentation schématique du calcul d’une source indépendante du maillage en utilisant
l’approximation isoparamétrique du problème EF.
Nous noterons donc la différence par rapport à la méthode de Pain et al. (2002), qui utilisent
une fonction devant être paramétrée pour distribuer l’intensité de la source sur plusieurs
éléments. Le choix que nous avons fait concernant la distribution des sources uniquement sur
l’élément (ou les éléments) qui les contiennent évite à l’utilisateur un réglage supplémentaire
et nous semble mieux adapté dans notre cas. Il est en effet difficile de définir un paramètre l
idéal (équation 3.27) en présence d’éléments à géométries irrégulières à l’intérieur d’un
maillage 3D complexe. Nous respectons de plus exactement la formulation du terme source en
éléments finis.
n
V (ξ 0 ,η0 , ζ 0 ) = ∑ ai N i (ξ 0 ,η0 , ζ 0 ) (3.33)
i =1
73
III.4.2.4 Calcul des résistivités apparentes
Dans TOMELE, les valeurs de potentiel peuvent être transformées en résistivités apparentes
de deux façons : ce paramètre peut être évalué en calculant la valeur du facteur géométrique,
qui dépend de l’agencement des électrodes, mais ce calcul n’est possible que pour des
modèles très simples, pouvant être représentés par un demi-espace délimité par un plan, où
l’analogie entre la théorie des images en optique et en électrique est applicable. Dans ce cas,
une seule simulation sur le modèle hétérogène est nécessaire. Lorsque ce n’est pas le cas
(topographie prononcée, objet 3D limité dans l’espace), nous avons recours à la définition de
la résistivité apparente comme le rapport (ou la normalisation) de la différence de potentiel
mesurée sur le terrain divisée par celle qui serait obtenue dans les mêmes conditions (même
géométrie du dispositif, même intensité du courant) sur un terrain de même géométrie mais
homogène de résistivité 1. Il faut relever que ce calcul nécessite une simulation
supplémentaire puisqu’il faut calculer la réponse du modèle homogène avant de calculer celle
du modèle hétérogène étudié (Marescot et al., 2003c). Nous pouvons encore relever que la
normalisation n’évite pas nécessairement certaines situations singulières pouvant survenir lors
du calcul de la résistivité apparente (lorsque la différence de potentiel calculée sur le modèle
homogène est nulle par exemple).
III.4.3 Conclusions
Le programme que nous avons créé permet des simulations très variées sur des modèles à
géométries complexes. Son utilisation est aisée et ne demande qu’un minimum d’informations
à l’utilisateur. La simulation d’un grand nombre de couples sources et de points de mesure
(séquence de tomographie) en est alors facilitée. Cet utilitaire, couplé au solveur CESAR,
permet l’utilisation d’électrodes indépendantes du maillage. Nous pouvons donc utiliser
n’importe quel agencement d’électrodes sur un maillage de forme quelconque. Les résistivités
apparentes sont obtenues par normalisation sur un modèle homogène de résistivité unité ce
qui permet d’obtenir ce paramètre lorsque le calcul analytique du facteur géométrique est
impossible. Ce programme semble donc bien répondre aux besoins de notre problématique.
En perspective, il serait nécessaire de transformer TOMELE en module d’exécution pour en
améliorer l’efficacité et la simplicité d’utilisation (pas de fichiers temporaires et de jeu de
données à créer par exemple).
74
du modèle ou la configuration des électrodes. Un programme interface TOMELE a donc
été créé, permettant une utilisation souple et conviviale de CESAR-LCPC pour la
simulation électrique. La formulation par éléments finis utilisée permet l’utilisation
d’électrodes indépendantes du maillage. Nous pouvons donc utiliser n’importe quel
agencement d’électrodes sur un maillage de forme quelconque. Les résistivités
apparentes sont obtenues par normalisation par rapport à un modèle homogène de
résistivité unité ce qui permet d’obtenir ce paramètre lorsque le calcul analytique du
facteur géométrique est impossible. Ce programme semble donc bien répondre aux
besoins de notre problématique.
III.5.1 Introduction
La qualité de l’approximation du champ de potentiel par la méthode des éléments finis dépend
étroitement de la relation existant entre la dimension des dispositifs et la dimension des
éléments, du type d’éléments utilisés ainsi que des contrastes de résistivité impliqués dans le
modèle. Le principe de convergence est un concept essentiel de la MEF. Nous pouvons
admettre qu’une convergence survient lorsque la dimension des éléments diminue et, par
conséquent, que le nombre de paramètres inconnus a spécifiés aux nœuds augmente. Les
arguments pour cela sont simples : si l’expansion polynomiale est capable, à la limite, de
reproduire chaque forme du champ dans le milieu, la vraie solution doit donc être approchée.
Cela doit se produire lorsque la dimension des éléments tend vers zéro. Dans certains cas
toutefois, une solution très proche de la réalité peut être obtenue avec un nombre réduit
d’éléments (ou même avec un seul élément). Dans ce cas, l’expansion polynomiale utilisée
dans cet élément ajuste bien la solution. Cela se produit par exemple si un champ a localement
la forme d’un polynôme quadratique et que les fonctions de forme contiennent tout les
polynômes de cet ordre.
La MEF décrite dans ce travail a pour but la modélisation du champ de potentiel total. Le
potentiel total est considéré comme la somme d’un potentiel primaire dû au milieu encaissant
et d’un potentiel secondaire dû à des hétérogénéités dans cet encaissant (Rijo, 1977 ;
Kaufman, 1992). Un champ secondaire existe uniquement si le champ total est différent du
champ primaire. Beaucoup de publications géophysiques, si ce n’est pas la majorité,
proposent des solutions EF utilisant une technique d’élimination de singularité (« singularity
removal technique ») pour la modélisation EF (Coggon, 1971 ; Bibby, 1978 ; Pelton et al.
1978 ; Li and Spitzer, 2002 ; Wu, 2003). Le but de l’élimination de la singularité est
d’améliorer la qualité de l’approximation du champ à proximité des sources. En effet, pour
ajuster de manière acceptable le champ dans ces régions, il devient nécessaire de mailler très
finement les environs des sources, ce qui ne peut généralement pas être fait. Dans l’approche
75
de l’élimination de la singularité, le potentiel primaire, qui représente une importante fraction
du champ total, est calculé analytiquement sur un modèle simple (demi-espace, niveaux
tabulaires ou faille verticale par exemple) et le potentiel secondaire, causé par une
hétérogénéité qui engendre une déviation du modèle primaire, est évalué par MEF. Nous
posons alors pour le champ total et le champ primaire :
K T AT = F (3.34)
K P AP = F (3.35)
K T A S = −K S A P (3.36)
Le but de cette partie du travail n’est donc pas d’effectuer une étude exhaustive de la
convergence de la méthode EF appliquée à des modélisations électriques, mais de mieux
cerner les possibilités et les limitations entourant la création de modèles EF complexes. Dans
cette optique, les principaux paramètres influençant la qualité d’une modélisation EF sont
étudiés. Il s’agit principalement des dimensions des mailles, du type d’élément et du contraste
de résistivité. Ces modélisations synthétiques sont d’autant plus importantes que nous
utilisons ici des positions d’électrodes indépendantes des positions des nœuds. Il n’est donc
pas évident de fixer a priori le nombre de nœuds minimum à utiliser entre chaque électrode
pour garantir une précision acceptable du résultat.
Pour cette partie de l’étude, nous effectuerons également quelques simulations sur des
modèles simples permettant un calcul analytique du champ de potentiel. Nous préfèrerons ici
la comparaison des MEF avec des solutions analytiques plutôt qu’à d’autres solutions
numériques. Comme le relève Li et Spitzer (2002), une modélisation effectuée en différence
finies (DF) est plus robuste par rapport à la taille de la grille qu’une modélisation effectuée en
EF. Par contre, les simulations EF semblent être plus robustes que les modélisations DF lors
de forts contrastes de résistivité. Ces différences sont essentiellement dues à la manière
d’approximer le champ de potentiel dans les deux méthodes. Dans le cas des travaux de Li et
76
Spitzer (2002), il s’agit de fonctions linéaires en MEF et de séries de Taylor de second ordre
en MDF. Il est donc difficile de tirer des conclusions précises quant à la convergence de nos
simulations en utilisant une telle approche.
Les mailles volumiques les plus fréquemment utilisées pour construire un maillage sont les
tétraèdres, les pentaèdres et les hexaèdres. Les fonctions d’interpolation utilisées peuvent êtres
des fonctions linéaires, quadratiques et plus rarement cubiques. Le choix du type d’élément
est un facteur influençant la convergence d’une modélisation et donc la précision du résultat.
Quelques exemples peuvent être trouvés dans la littérature. Sasaki (1994) utilise des fonctions
linéaires sur des éléments hexaédriques obtenus en assemblant cinq tétraèdres. Pridmore et al.
(1981) citent l’utilisation d’éléments composites obtenus par la réunion de cinq ou six
tétraèdres ainsi que d’éléments hexaédriques. Dans ce dernier travail, une série de tests a été
menée pour définir la précision du résultat en fonction du type d’élément utilisé. Un modèle
composé d’un demi-espace homogène avec un seul point source est utilisé. Les résultats les
plus précis, ainsi que les moins précis, sont obtenus selon différentes directions du maillage
avec les éléments tétraédriques. Les résultats obtenus en utilisant des éléments hexaédriques
ont une précision intermédiaire par rapport aux résultats obtenus en utilisant des éléments
tétraédriques. Par contre, les résultats sont indépendants de la direction. Des exemples
d’éléments composites créés à partir de tétraèdres sont présentés dans les figures 3.8 et 3.9.
Figure 3.8 : Eléments composites créés à partir de la réunion de cinq tétraèdres (modifié de Zienkiewicz and
Taylor, 2000).
77
Figure 3.9 : Elément composite créé à partir de la réunion de six tétraèdres (modifié de Zienkiewicz and Taylor,
2000).
Bing et Greenhalg (2000) ont comparé des modélisations effectuées en utilisant des éléments
hexaédriques avec des fonctions trilinéaires et des mailles tétraédriques (sous forme de blocs
composites obtenus par réunion de six tétraèdres, figure 3.9) et des fonctions linéaires entre
les mêmes 8 nœuds du bloc ainsi défini. Ils obtiennent en général de meilleures
approximations du champ de potentiel en utilisant les éléments tétraédriques. La majorité des
auteurs utilise toutefois des éléments hexaédriques et des fonctions d’interpolation trilinéaires
(Pain et al., 2002 ; Li and Spitzer, 2002 ; Wu, 2003). D’un point de vue pratique, les éléments
hexaédriques facilitent la modélisation et la visualisation de coupes dans le modèle. Dans
CESAR-LCPC nous préférerons utiliser des super-éléments tant pour la modélisation directe
que pour la modélisation inverse. Un super-élément est un volume parallélépipédique, de
forme quelconque, qui peut être rempli automatiquement au moyen d’hexaèdres à 8 ou 20
nœuds. Nous pouvons alors assembler plusieurs super-éléments pour créer un maillage 3D
complexe en fusionnant ensuite les nœuds communs.
Pour effectuer des simulations sur un modèle figurant un demi-espace, un potentiel nul est
imposé aux nœuds situés sur les bords verticaux et le bord inférieur du maillage (frontières de
Dirichlet). Une condition de flux de courant nul (sur la frontière de Neumann) est considérée
sur le bord supérieur (en surface, la densité de courant doit être tangentielle à l’interface avec
l’air). Cette condition est naturelle comme nous l’avons vu plus haut. Le respect de la
condition sur la frontière de Neumann ne présentera donc pas de difficultés particulières. Un
exemple de ce type de maillage est montré en figure 3.10. Nous noterons que, contrairement à
ce qui peut être pensé, la création d’un maillage figurant un demi-espace est relativement
problématique. En effet, la condition de potentiel imposé sur la frontière de Dirichlet implique
78
généralement la création de maillages comportant beaucoup d’éléments (et donc beaucoup
d’inconnues). L’utilisation d’éléments infinis serait une alternative à ce problème. Ces
derniers tiennent compte de manière explicite des conditions aux limites et permettent donc de
réduire la dimension des maillages (Lajarthe et al., 1999). Nous n’utilisons toutefois pas ce
type d’approche car les éléments infinis n’existent pas pour le problème de diffusion dans
CESAR-LCPC.
Figure 3.10 : Exemples de maillages de forme cubique (à gauche) et de forme cylindrique (à droite) utilisés pour
des simulations sur un demi-espace.
Figure 3.11 : Exemple de maillage de forme hémisphérique utilisé pour des simulations sur un demi-espace. Une
génération d’un maillage 3D par rotation autour de l’axe z du maillage 2D représenté à droite n’est pas possible,
cette opération provoquant l’apparition d’éléments dégénérés vers l’axe (en gris).
79
Divers tests ont montré que la forme extérieure du maillage (cube, demi-sphère, cylindre), où
sont imposées les conditions de potentiel nul, n’avait pas d’effet important sur le calcul du
champ de potentiel, en particulier pour les résistivités apparentes obtenues par normalisation,
pour autant que les bords soient suffisamment éloignés de la zone d’intérêt où se trouvent les
électrodes. En général, la création d’une frontière cylindrique ou sphérique complique
considérablement la création du maillage. Il est en effet souvent nécessaire d’utiliser des
éléments de transition, ou encore de changer de type d’élément, pour raccorder différents
groupes entre eux. Nous relèverons de plus qu’une génération de maillage 3D par rotation
d’un maillage 2D, opération courante pour créer une demi-sphère, peut faire apparaître des
éléments dégénérés le long de l’axe de rotation (figure 3.11) et une telle opération n’est donc
pas recommandée. Dans la plupart des cas, une frontière de forme cubique suffira. De
nombreuses simulations ont montré que l’influence de ces frontières est en général
négligeable et que le potentiel peut très bien être imposé à la valeur de zéro à une distance
valant environ 1.5 fois la dimension de la région centrale (des exemples seront donnés plus
loin). Nous n’avons donc pas utilisé ici des conditions aux limites plus élaborées, telles que
des conditions mixtes tenant compte du potentiel et de sa dérivée sur la frontière de Dirichlet
(Dey and Morrison 1979 ; Li and Spitzer 2002) qui permettraient de limiter la dimension du
domaine.
Nous construirons en général des maillages dont les éléments sont fins et de distorsion faible
dans la zone d’intérêt (c’est-à-dire où sont situées les hétérogénéités et les électrodes) et plus
grands dans les régions servant à imposer les conditions aux limites de Dirichlet. La
dimension des mailles augmente donc en direction des bords du maillage pour un modèle
figurant un demi-espace (figure 3.10). Dans ces régions, certains éléments présentent une forte
distorsion, notamment vers les bords des modèles. De telles géométries d’éléments peuvent
être acceptées dans ces régions où le champ de potentiel varie très peu. L’approximation du
champ est donc acceptable ou du moins, si elle est médiocre, ne présente que peu d’intérêt
pour l’utilisateur.
Il est juste nécessaire de s’assurer de la régularité du jacobien pour ces éléments, afin de
garantir le bon conditionnement de la matrice globale. Un jacobien nul ou négatif provoquera
immanquablement un arrêt d’exécution du solveur. Nous insisterons encore sur le fait que des
éléments présentant une forte distorsion ne doivent jamais être utilisés à proximité des
sources. De plus, la dominance diagonale de la matrice élémentaire est étroitement liée à la
distorsion de l’élément (Pridmore et al. 1981). Dans le cas où une méthode itérative de
résolution du système linéaire est utilisée (incomplete Cholesky conjugate gradient method),
la présence d’éléments fins et longs dans un modèle diminue le taux de convergence du
processus et peut mener à des résultats imprécis. Comme l’a montré Wu (2003), des
modifications doivent être apportées aux algorithmes de résolution itératifs dans ce cas
(shifted incomplete Cholesky conjugate gradient method). Nous évitons ce genre de problème
en utilisant une résolution directe du problème dans le solveur CESAR.
80
Ce type d’architecture de maillage, présentant une ou plusieurs faces à potentiel imposé, peut
être utilisé pour construire des modèles figurant des structures plus complexes comme des
murs ou des piliers. Dans ce cas, il est possible d’imposer un potentiel sur les nœuds situés au
contact entre la structure étudiée et le sol. Cette solution n’est toutefois plus valable lorsque le
modèle n’est plus en contact avec le sol (ou du moins lorsque le courant passant dans ce
dernier est négligeable). Cela peut se produire pour des modèles figurant une éprouvette de
matériau ou une cuve instrumentée. Nous pouvons alors imposer une valeur de potentiel à un
nœud éloigné des dispositifs de mesure. Un exemple de mesures sur une éprouvette de
matériau est présenté à la figure 3.12. Le modèle est constitué d’hexaèdres à 8 nœuds et le
champ est approximé en utilisant des fonctions linéaires. Les surfaces extérieures du modèle
sont des frontières de Neuman à l’exception d’un nœud où un potentiel nul est imposé (cas 1,
figure 3.12). Un profil de résistivité utilisant un dispositif Schlumberger (MN=3 m, AB=12 m)
est simulé en déplaçant le quadripôle selon la direction y et en orientant le dispositif selon y
puis selon x.
Nous donnons tout d’abord une résistivité homogène (100 Ωm) au matériau. Nous pouvons
voir que la résistivité apparente calculée par normalisation, est très proche de la résistivité
vraie (figure 3.13). L’utilisation du facteur géométrique pour un demi-espace donne par contre
des résistivités supérieures à 100 Ωm, avec de forts effets de bord car ce modèle ne peut pas
être considéré comme un demi-espace. Par conséquent, le processus de normalisation permet
d’améliorer la qualité du résultat en respectant exactement la définition de la résistivité
apparente.
Dans la seconde modélisation, nous donnons ensuite une résistivité de 100 Ωm au modèle et
nous créons un parallélépipède de résistivité 10 Ωm pour figurer une anomalie conductrice
(figure 3.12). Nous pouvons voir que les résistivités apparentes calculées par normalisation
81
sont parfaitement réalistes, avec une diminution de la résistivité apparente à l’aplomb du corps
conducteur (figure 3.13) qui atteint 25 Ωm perpendiculairement et 30 Ωm parallèlement à
l’hétérogénéité. L’utilisation du facteur géométrique surestime, là encore, la résistivité du
milieu. Des simulations semblables effectuées en imposant un potentiel de 10V donnent des
résultats très similaires. En effet, la différence entre les deux simulations est inférieure à
0.0002% sur la valeur de la résistivité apparente et inférieure à 0.0001% sur la valeur de la
différence de potentiel. Les variations sont dues uniquement à des imprécisions numériques.
Il est par contre évident que les valeurs du second champ de potentiel (potentiel imposé à
10V) prises séparément sont égales aux valeurs du premier champ de potentiel (potentiel
imposé à 0V) augmentées de 10, les champs de potentiel étant définis à une constante près. En
théorie, il est possible de localiser le nœud à potentiel imposé à un endroit quelconque du
maillage. Un nœud à potentiel nul situé très près des dispositifs (cas 2) de mesure ne perturbe
pas le calcul de la résistivité apparente, car seule la différence de potentiel est considérée.
Nous remarquerons toutefois que l’option visant à imposer un potentiel à un nœud proche des
dispositifs de mesure n’est pas conseillée : premièrement, cela produit un fort gradient de
potentiel en un endroit où nous désirons évaluer le champ avec précision et comme nous le
verrons plus tard, la qualité de l’approximation EF dépend fortement de la relation existant
entre le gradient du champ de potentiel et la dimension de la maille. Il y a donc un risque de
perte de précision dans ce cas. De plus, ce fort gradient risque de masquer des variations plus
faibles dues aux cibles que nous désirons étudier dans le modèle. Nous notons également qu’il
y a un risque, non négligeable, d’avoir une position d’électrode d’injection concordant avec la
position du nœud à potentiel imposé. Or, il est impossible de solliciter un nœud à potentiel
imposé (gestion des conditions aux limites par élimination dans CESAR, cf. Annexe
Technique). Nous remarquons de plus que le champ de potentiel est fortement influencé par le
potentiel imposé comme il est possible de le constater sur la figure 3.14 : cette figure montre
la valeur du signal, mesuré par l’électrode M du dispositif orienté selon y, pour le modèle
hétérogène. L’influence du point à potentiel imposé se fait ressentir par une forte décroissance
des valeurs mesurées.
Nous ne pouvons que souligner l’importance de la normalisation pour des modélisations sur
ce type de modèle. Ce processus de calcul de la résistivité apparente tend à éliminer les effets
de bord de la cuve (ou de l’échantillon) et permet d’obtenir la résistivité du milieu. Nous
montrerons un exemple de modélisation en cuve à la fin de ce chapitre.
82
Figure 3.13 : Simulations en résistivité apparente sur le modèle de l’éprouvette. Potentiel imposé selon le cas 1.
Figure 3.14 : Valeurs du signal pour l’électrode M pour différentes localisations du nœud à potentiel imposé. Les
localisations des potentiels imposés sont montrées dans la figure 3.12.
83
III.5.2.3 Dimension des mailles
Figure 3.15 : Modèle utilisé pour simuler l’effet d’une faille verticale sur un sondage électrique.
Un premier exemple est calculé en considérant une maille centrale grossière de 10mx10m
(figure 3.16). Nous pouvons constater que le début du sondage présente de fortes oscillations,
particulièrement pour les valeurs de résistivité calculées en utilisant le facteur géométrique.
Nous remarquons également que la perturbation est plus importante lorsque le centre du
sondage se situe dans le milieu résistant et lorsque le sondage est parallèle à la faille. En fait,
peu de valeurs de potentiel ont une erreur inférieure à 5%. Nous pouvons donc voir ici un
effet de la dimension de la maille (ou plus précisément du nombre de nœuds variable autour
des électrodes d’injection) mais aussi du contraste de résistivité existant.
84
Figure 3.16 : Valeurs de la résistivité apparente pour un sondage effectué à proximité d’une faille verticale. La
maille de la région centrale a une dimension de 10mx10m et le contraste est de 100. Les fonctions d’interpolation
sont linéaires.
85
Les oscillations en début de sondage proviennent principalement de la proximité des sources
de courant, spécialement lorsqu’une électrode de mesure (ou les deux) est (sont) dans le
même élément qu’une source. Le champ de potentiel total théorique présente une singularité à
la position de la source, ce qui perturbe fortement l’évaluation de l’approximation du champ.
Nous devrions, idéalement, mailler très finement l’environnement immédiat des sources, ce
qui complique toutefois l’opération de maillage.
Nous noterons que la fin du sondage, pour les plus grandes longueurs de ligne (AB/2>100 m),
varie fortement que ce soit pour les résistivités obtenues par normalisation ou calculées avec
le facteur géométrique. Ce comportement est probablement dû à l’utilisation d’éléments très
allongés sur lesquels nous appliquons une condition aux limites (plus ou moins) incorrecte
étant donné qu’une source de courant se trouve dans ces éléments (le potentiel ne devrait pas
être exactement nul en certains nœuds). Ces éléments produisent donc un résultat de moindre
qualité. Ce phénomène n’est pas gênant car nous ne chercherons pas à exploiter un résultat
obtenu avec des électrodes situées si près d’une frontière à potentiel imposé. Nous pouvons
toutefois souligner qu’il n’est visiblement pas nécessaire de créer des frontières à potentiel
imposé très éloignées de la zone d’intérêt, les perturbations ne se faisant sentir que pour la fin
du sondage.
Nous pouvons remarquer que le champ de potentiel varie de manière différente si les sources
sont situées dans le milieu résistant ou dans le milieu conducteur. Comme il est possible de le
voir sur la figure 3.17, où le champ de potentiel en surface est calculé analytiquement pour un
dispositif parallèle et oblique à la faille, les équipotentielles présentent un plus fort gradient au
contact de la faille si les électrodes sont situées dans le milieu résistant. Un maillage plus fin
devra alors être utilisé si nous désirons évaluer correctement le champ de potentiel créé par
une telle disposition d’électrodes. Lorsque le sondage est situé à l’aplomb de la partie
conductrice, le gradient du champ de potentiel est moins important. Nous remarquons, de
plus, que la structure du champ de potentiel est très différente si le dispositif est parallèle, ou
oblique (voire perpendiculaire) à la faille.
86
Figure 3.17 : Figure des équipotentielles pour une paire de points sources. Différents contrastes de résistivité sont
représentés pour la faille et un modèle homogène est également proposé.
87
h- refinement
Nous pouvons utiliser la même classe d’éléments mais en diminuer la taille à certains endroits
et éventuellement l’augmenter à d’autres afin de ne pas rendre le calcul trop lourd (h-
refinement). Suivant cette approche, nous agissons localement en divisant certains éléments
où le champ de potentiel varie rapidement et laissons les frontières des autres éléments
inchangées. Cette approche est néanmoins problématique, car nous devons alors créer des
éléments possédant des sommets situés sur les segments joignant les nœuds des autres
éléments (éléments de transition). Nous pouvons aussi maintenir constant le nombre de nœuds
dans le maillage et simplement les déplacer aux endroits où le champ varie rapidement. Cette
option est toutefois difficile à mettre en œuvre en 3D. Nous pouvons également reconstruire
intégralement, ou partiellement (par groupes par exemple), le maillage en tenant compte des
résultats de la simulation précédente. Cette approche est la plus efficace (Zienkiewicz and
Taylor, 2000). Il faut relever qu’il existe des codes EF permettant un calcul automatique du
raffinement, notamment pour des éléments 2D triangulaires où 3D tétraédriques suivant la
procédure de triangulation de Delaunay. Des tentatives ont été faites pour des quadrilatères
2D (Zhu and Zienkiewicz, 1988), mais il ne semble actuellement pas exister de solution pour
les hexaèdres (Zienkiewicz and Taylor, 2000). Nous devons alors nous contenter d’une
approche effectuée directement par l’utilisateur.
p- refinement
Nous pouvons donc théoriquement obtenir une convergence, soit en augmentant l’ordre du
polynôme utilisé dans les fonctions d’interpolation (p convergence), soit en raffinant le
maillage (h-convergence). Il n’existe pas de procédure directe permettant de définir le
meilleur raffinement à utiliser pour obtenir une erreur donnée. Ce processus est généralement
itératif. Nous effectuons donc ici un deuxième calcul sur le même modèle, mais en
considérant un maillage dont la partie centrale est composée d’hexaèdres à 8 nœuds de
dimension 5x5m (h-refinement) (figure 3.18). Nous effectuons également une simulation en
utilisant le même maillage que précédemment (10mx10m) mais en utilisant une base
polynomiale quadratique (p-refinement) (figure 3.19).
88
Figure 3.18 : Valeurs de la résistivité apparente pour un sondage effectué à proximité d’une faille verticale. La
maille de la région centrale a une dimension de 5x5m et le contraste est de 100. Les fonctions d’interpolation
sont linéaires.
89
Figure 3.19 : Valeurs de la résistivité apparente pour un sondage effectué à proximité d’une faille verticale. La
maille de la région centrale a une dimension de 10mx10m et le contraste est de 100. Les fonctions d’interpolation
sont quadratiques.
90
Comme il est possible de le voir sur la figure 3.18, la précision de l’approximation effectuée
sur le maillage 5mx5m est comparable à celle effectuée sur le maillage quadratique
10mx10m. Certaines différences peuvent provenir en partie de l’intégration numérique qui
introduit une approximation supplémentaire dans le problème. Comme précédemment, la
résistivité apparente calculée par normalisation est plus proche de la solution analytique que
celle obtenue en utilisant le facteur géométrique.
Nous remarquons toutefois que le maillage 5mx5m présente encore des oscillations pour les
petites longueurs de lignes lorsque le champ de potentiel varie rapidement. Nous pouvons
également remarquer le très fort effet du contraste de résistivité : les grandes longueurs de
ligne n’arrivent toujours pas à effectuer une approximation de champ de potentiel correcte
pour le sondage à 35°. Il est donc possible de conclure que ce maillage n’est pas optimal pour
cette dimension de dispositif et pour un fort gradient du champ de potentiel. Pour le problème
électrique, il convient donc d’assurer une meilleure approximation du champ dans les régions
où celui-ci varie rapidement. Cela survient particulièrement aux environs des sources de
courant et en bordure des hétérogénéités.
Pour avoir des mesures de potentiel fiables pour les petites longueurs de ligne, des éléments
plus fins doivent être utilisés au contact de la faille et à l’aplomb du sondage, du moins
lorsque la longueur de ligne est petite. Nous pourrions dans ce cas diminuer uniformément la
dimension des éléments sur tout le maillage, mais cela occasionnerait une très forte
augmentation du nombre d’inconnues. Une meilleure approche consiste à affiner uniquement
les régions où le potentiel varie rapidement : nous créons pour cela deux régions (groupes)
vers la faille, qui vont être maillées plus finement. Cependant, afin de conserver un maillage
plus grossier à l’extérieur, nous allons être forcés d’utiliser un autre type d’éléments. Les
régions au contact de la faille seront donc maillées en éléments pentaédriques à 6 nœuds.
Nous noterons que ces éléments prismatiques sont très petits vers la faille et s’agrandissent
ensuite (la zone centrale de ce maillage est présentée en figure 3.20). Ce type d’éléments n’est
pas utilisé pour l’intégralité du maillage afin de limiter le nombre d’inconnues dans le
problème. Le résultat de la simulation sur ce maillage est présenté en figure 3.21. Nous
pouvons voir que la qualité du résultat s’est améliorée spécialement pour les valeurs de
résistivité apparente obtenues par normalisation. Nous remarquons également que les
oscillations des valeurs de résistivité calculées à partir du facteur géométrique se sont
également améliorées. Nous atténuons donc les effets de la singularité du champ de potentiel à
proximité des sources. Il est également possible de conclure que la MEF est globalement
convergente pour le problème électrique proposé : nous nous approchons de la vraie valeur du
champ de potentiel lorsque la dimension des éléments tend vers zéro.
91
Figure 3.20 : Représentation de la région centrale du maillage avec une raffinement local vers la faille.
Une remarque doit être encore faite concernant l’utilisation de maillages composés de
différents types d’éléments dont la taille varie fortement. Etant donné que la précision de
l’approximation du champ va varier selon la localisation des électrodes dans le maillage, il est
possible que le théorème de réciprocité ne soit pas vérifié. Or le respect de la réciprocité est
un indicateur de la qualité de l’approximation EF du champ de potentiel. Nous essaierons
donc de construire un maillage dont la texture est suffisamment uniforme autour des
électrodes afin de limiter les erreurs numériques. Cela s’appliquera surtout pour des mesures
de type tomographie électrique, où une électrode peut être alternativement utilisée comme
source ou comme électrode de mesure. Un autre problème peut survenir dans une situation de
pseudo-pôle-pôle (Robain et al., 1999) simulée, en positionnant une des électrodes de courant
loin de la région centrale : pour une bonne approximation du champ, un maillage fin autour de
cette électrode devrait être envisagé.
92
Figure 3.21 : Valeurs de la résistivité apparente pour un sondage effectué à proximité d’une faille verticale. La
maille de la région centrale présente un raffinement local vers la faille (Figure 3.20) et le contraste est de 100.
Les fonctions d’interpolation sont linéaires.
93
III.5.2.4 Variation du contraste de résistivité
Les mêmes simulations ont été répétées sur les maillages précédents mais avec un contraste de
résistivité diminué (contraste de 10, figure 3.22 et figure 3.23) ou sur des modèles homogènes
(contraste de 1, figures 3.24 et 3.25). Nous pouvons remarquer que l’approximation a
tendance à s’améliorer lorsque le contraste de résistivité diminue. Nous pouvons par exemple
le constater sur les grandes longueurs de ligne pour le sondage à 35° influencé par un
conducteur sur le maillage 5mx5m. Cela se comprend, car le gradient du champ de potentiel
diminue à l’interface des deux milieux et les fonctions d’interpolation linéaires ajustent mieux
le champ dans ces régions. Lorsque le maillage devient homogène, nous pouvons constater
que la résistivité apparente calculée par normalisation est bonne quelle que soit la dimension
des mailles. La solution obtenue en utilisant le facteur géométrique présente néanmoins
encore des oscillations. Nous pouvons donc conclure que ces oscillations en début de sondage
sont essentiellement dues à la dimension excessive des mailles par rapport à la proximité des
sources (singularité du champ de potentiel). Selon Wu (2003), en présence d’un très fort
contraste de résistivité, l’évaluation du champ de potentiel en utilisant une technique
d’élimination de la singularité est bien meilleure que celle obtenue à partir du champ total.
Pour un modèle hétérogène, le champ de potentiel peut varier fortement. En tout début de
sondage, où la résistivité du milieu peut encore être considérée comme étant
approximativement homogène, le processus de normalisation permet de corriger ces
oscillations. Lorsque les longueurs de ligne sont beaucoup plus grandes (AB>60 m dans ces
exemples), le sous-sol est perçu comme un milieu hétérogène mais le maillage est à ce
moment là suffisamment fin pour assurer une bonne approximation du champ. Cependant, un
problème peut survenir si de fortes variations du champ surviennent lorsque le maillage est
encore grossier. Dans ce cas, la normalisation ne permet plus d’obtenir une correction
satisfaisante, car le rapport V/V0 varie encore trop rapidement pour le maillage utilisé.
94
Figure 3.22 : Valeurs de la résistivité apparente pour un sondage effectué à proximité d’une faille verticale. La
maille de la région centrale a une dimension de 10mx10m et le contraste est de 10. Les fonctions d’interpolation
sont linéaires.
95
Figure 3.23 : Valeurs de la résistivité apparente pour un sondage effectué à proximité d’une faille verticale. La
maille de la région centrale a une dimension de 5mx5m et le contraste est de 10. Les fonctions d’interpolation
sont linéaires.
96
Figure 3.24 : Valeurs de la résistivité apparente pour un sondage effectué parallèlement à une faille verticale. La
maille de la région centrale a une dimension de 5x5m et le contraste est de 1 (milieu homogène). Les fonctions
d’interpolation sont linéaires.
97
Figure 3.25 : Valeurs de la résistivité apparente pour un sondage effectué obliquement à une faille verticale. La
maille de la région centrale a une dimension de 5mx5m et le contraste est de 1 (milieu homogène). Les fonctions
d’interpolation sont linéaires.
Comme nous l’avons vu précédemment, il est possible de créer des maillages adaptés pour
des modèles admettant des solutions analytiques. Toutefois, l’intérêt de la méthode des
éléments finis réside justement dans sa flexibilité lors de la création de modèles complexes.
Dans ce cas, il n’est pas possible de tester par avance le maillage utilisé afin de s’assurer de la
convergence de la simulation pour une séquence de mesures donnée. Un nombre minimum de
nœuds doit donc être utilisé entre les électrodes de courant pour permettre une bonne
approximation du champ. Comme le géophysicien connaît le dispositif qu’il va utiliser, cela
ne pose pas de problème.
98
Le géophysicien devra donc s’assurer que le maillage est suffisamment fin relativement aux
contrastes de résistivité présents dans le modèle. Lorsque nous créons un maillage dans le but
de résoudre un problème inverse, nous ne savons pas, par définition, quel va être le contraste
de résistivité présent dans le modèle. Nous pouvons alors parfois assister à une dégradation de
la qualité de l’approximation EF au fil des itérations. Lors de la création d’un maillage, qui
sera ensuite utilisé pour une inversion, les connaissances a priori de l’utilisateur seront donc
capitales dès cette étape. Le maillage devra en effet présenter une bonne convergence, quel
que soit le contraste de résistivité pouvant apparaître dans le modèle au cours du processus
itératif. Lorsque le type d’application le permet (existence d’une solution analytique), nous ne
pouvons qu’encourager une étude détaillée de la convergence en surestimant le contraste de
résistivité.
Les tests sur des maillages, en présence d’une résistivité homogène, montrent que le nombre
minimum de nœuds pour une erreur inférieure à 5% est de 5 à 6 nœuds entre les électrodes de
courant présentant le plus petit écartement lorsque le facteur géométrique est utilisé. Des
contrastes de résistivité jusqu’à 10 permettent en général une bonne qualité de
l’approximation avec également un minimum de 5 ou 6 nœuds. Pour des contrastes plus
élevés, des maillages beaucoup plus fins (7 à 8 nœuds) devront être utilisés. Nous noterons
toutefois que, dans la pratique, les contrastes rencontrés sont souvent plus faibles (de l’ordre
de 2 à 5), ce qui a tendance à améliorer la qualité du résultat. Yi et al. (2001) ont montré qu’un
minimum de quatre éléments hexaédriques devait être utilisé entre chaque électrode pour un
contraste de 10. Lors du calcul de la résistivité apparente par normalisation, des résultats très
proches des solutions analytiques peuvent être obtenus avec des écartements d’électrode plus
petits. Il est donc particulièrement important d’utiliser un grand nombre de nœuds lorsque
nous désirons exploiter directement les différences de potentiel et non la résistivité apparente
normalisée.
Nous pouvons encore relever que ces conclusions rejoignent les observations de Artus (2003).
Cette dernière a utilisé l’utilitaire TOMELE et le progiciel CESAR-LCPC pour calculer la
réponse d’une flûte multi-électrodes enfouie dans un milieu tabulaire. Le dispositif utilisé
pour les panneaux électriques est un dispositif Wenner et le modèle comporte des contrastes
de résistivité de l’ordre de 10 (une des couches est composée d’eau de mer). Nous pouvons
également relever dans ses expériences une forte corrélation entre la distance du dispositif au
conducteur, la dimension de la maille et la qualité de l’approximation.
99
Les éléments qui sont utilisés pour les simulations sont principalement des hexaèdres
regroupés sous la forme de super-éléments. Ce choix est fait pour des raisons pratiques
dans MAX3D mais d’autres types d’éléments peuvent être utilisés selon les besoins.
L’utilisation d’éléments tétraédriques, moins évidents à générer dans CESAR-LCPC,
devrait toutefois donner de meilleurs résultats.
Nous utilisons des séquences d’acquisition avec des dispositifs pôle-pôle, c’est-à-dire qu’une
électrode d’injection de courant (B) et une électrode de potentiel (N) sont fixes et placées loin
100
de la zone auscultée (plus de 10 m), tandis que les deux autres (A et M) balayent toutes les
positions possibles autour du pilier. Il est à noter qu’ici la position des électrodes B et N est
donnée explicitement et donc que leur effet est pris en compte, sans supposer comme on le fait
habituellement qu’elles sont à une distance infinie du reste du modèle, limite qui ne peut pas
toujours être approchée sur le terrain.
Figure 3.26 : Modèle d’un pilier de carrière présentant une hétérogénéité conductrice. Une section du pilier est
présentée avec la position des électrodes.
Le plancher, le pilier et le toit de la carrière sont homogènes de résistivité 1000 Ωm. Une
hétérogénéité est introduite dans le pilier, décentrée par rapport à l’axe vertical, et de moindre
résistivité (100 Ωm), pouvant représenter une zone dégradée ou humidifiée.
Nous représentons les résultats sous la forme de tomogrammes obtenus en placant chaque
point de mesure au milieu du segment joignant A et M. Sur les tomogrammes, du bas vers le
haut du pilier (figure 3.27), une zone de résistivités apparentes plus faibles apparaît, décentrée
comme l’hétérogénéité, puis commence à disparaître à nouveau. L’amplitude de l’anomalie
est plutôt faible ce qui pourrait signifier que ce dispositif n’est pas optimal pour imager cette
structure. Bien que les électrodes actives (A et M) soient situées à une altitude de 32 m sur le
dernier tomogramme de la figure 3.27, nous pouvons encore remarquer que le conducteur se
fait toujours ressentir. Le champ électrique traverse en effet toujours cette structure
conductrice pour rejoindre les électrodes B et N situées sur le plancher de la carrière. Il en
101
résulte un effet qui rend mal aisée la localisation de l’hétérogénéité et tend à confirmer que ce
dispositif est à éviter. De plus, comme la zone située entre les électrodes A et M présente une
sensibilité négative (figure 2.7), une inversion du signe de l’anomalie peut subvenir. Nous
pouvons constater sur le tomogramme situé à 23 m que la résistivité apparente est supérieure à
1000 Ωm pour les données collectées avec un grand dispositif A-M.
Figure 3.27 : Tomogrammes de résistivité apparente simulés sur le pilier de carrière avec un dispositif en pôle-
pôle.
Nous pouvons donc voir que la modélisation synthétique directe est une aide utile pour
planifier une campagne de mesure en utilisant des dispositifs non-conventionnels sur des
structures à géométries complexes.
102
Résumé : Exemple de modèle synthétique de dimension finie
Un exemple de modélisation synthétique sur un pilier de carrière a permis d’illustrer
l’utilité de notre programme TOMELE. Ces modélisations permettent de mieux
comprendre la réponse obtenue lors d’acquisitions effectuées avec des dispositifs non-
conventionnels.
Un exemple de mesures en laboratoire est présenté ici afin d’illustrer une utilisation possible
du programme utilitaire TOMELE et de mettre en pratique les conclusions que nous avons
tirées concernant la modélisation directe par éléments finis. Il s’agit ici de mesurer la
résistivité d’un sédiment saturé en eau contenu dans une cuve en PVC (figure 3.28).
Il est souvent difficile d’obtenir une mesure réaliste de la résistivité d’un matériau lors de
mesures sur des modèles de dimensions finies (éprouvettes, échantillons de matériaux). En
effectuant une mesure de la résistivité sur ce type de structure, il est en effet indispensable
d’utiliser un facteur géométrique (ou constante de cellule) adapté qui ne peut être calculé
analytiquement que pour des modèles à géométrie simple (cylindre ou cube pour des
103
électrodes en forme de plaques). Les dispositifs de mesure doivent de plus être adaptés à la
géométrie de l’échantillon, ce qui rend difficile l’utilisation d’un quadripôle conventionnel et
rend obligatoire le façonnage de l’échantillon. Ce type d’approche n’est pas satisfaisante si
nous désirons conserver l’aspect non-destructif de la méthode électrique.
Le sédiment choisi est un sable de fonderie, dont les propriétés pétrophysiques sont très bien
connues : la composition minéralogique du sable a été déterminée par diffractométrie aux
rayons X par le GEOLEP à l’EPFL (Huot, 1999). Les conclusions montrent qu’il s’agit d’un
sable composé de quartz pur avec quelques petites traces de feldspath et quelques rares
observations d’oxyde de fer. Ce sable peut donc être considéré comme formant une matrice de
quartz pur. La distribution granulométrique de ce sable est étroite, étant donné que ce dernier
a été lavé et tamisé à 0.4 mm. Les courbes granulométriques montrent qu’une taille moyenne
de grain de 0.3 mm peut être retenue. La porosité maximum est très importante. En effet, les
analyses montrent une porosité maximum de 40%, avec une incertitude de +/- 0.28%, valeur
suffisamment petite pour ne pas être prise en compte. L’eau utilisée pour saturer le sable
provient du circuit d’eau courante de l’Université de Lausanne. Nous avons laissé couler l’eau
pendant un certain temps afin d’éliminer les particules contenues dans les canalisations et
d’obtenir ainsi un liquide de composition constante.
L’échantillon est saturé par gravitation dans la cuve. La résistivité, ainsi que la température du
fluide, sont mesurées régulièrement au cours de l’opération en divers endroits de la cuve.
L’eau et le sable n’étant pas à la même température, les résistivités de l’eau mesurées sont
ramenées à 20°C selon la relation suivante (Waic, 1985) :
T1 + 21.5
ρ 2 = ρ1 (3.38)
T2 + 21.5
104
avec ρr la résistivité du matériau et ρw la résistivité de l’eau d’imbibition. La résistivité de
l’eau varie légèrement au cours de la saturation. Avant mélange avec la matrice, cette dernière
vaut 36.9 Ωm. Elle tombe à 34.9 Ωm en fin de saturation. Cette légère variation peut être
expliquée par la mise en solution de la partie fine du sable. Nous ne tenons pas compte des
erreurs de mesure de la température, ces erreurs étant très faibles (environ 1°C). En utilisant
ces valeurs et pour une porosité de 40%, nous obtenons alors une résistivité du sédiment
comprise entre 164 Ωm et 155 Ωm, ce qui est parfaitement plausible. Ces valeurs concordent
bien avec les mesures effectuées par Gigon (2002) sur le même sédiment mais dans une cuve
de plus grande dimension (x=125cm, y=86cm, z=59.5 cm) afin de limiter les effets de bord.
Des mesures électriques sont ensuite effectuées sur l’échantillon en suivant l’implantation
décrite dans la figure 3.28. Ces résistivités apparentes mesurées sont également ramenées à
20°C. Un total de neuf stations de mesures sont implantées, certaines au centre de
l’échantillon, d’autres très près du bord. Le dispositif utilisé est un quadripôle Wenner de
12 cm de long, la position étant connue avec une précision inférieure à 0.5 cm. Les électrodes
sont en cuivre couvert d’or afin de limiter les réactions électrochimiques d’électrolyse (en
utilisant des électrodes en cuivre, nous observons un dépôt de cuprite Cu2O et un dégagement
d’hydrogène), car ces réactions peuvent perturber les mesures.
105
qualité suffisante, étant donné les écartements des dispositifs utilisés ici. Un potentiel nul est
imposé sur un nœud situé sur un coin du fond de la cuve.
Des simulations numériques sur un modèle homogène de résistivité unité sont alors effectuées
par le biais de TOMELE. La résistivité du sédiment peut être calculée en divisant les
différences de potentiel mesurées par celles évaluées sur le modèle numérique homogène. Il
est possible de constater dans la figure 3.30 que les valeurs de résistivité obtenues concordent
bien avec l’estimation donnée par la loi d’Archie pour les mailles de dimensions inférieures à
2 cm. Il n’y a en particulier pas de différence importante entre le maillage utilisant des mailles
de 0.5 cm et 1 cm, ce qui laisse à penser que l’utilisation d’un maillage très fin est inutile (la
précision du problème peut être garantie avec des mailles de 1 cm). L’utilisation de mailles de
3 cm semble par contre inadaptée. Nous pouvons également noter que le point choisi pour
imposer un potentiel nul ne perturbe pas l’évaluation de la résistivité. Ces résultats concordent
avec les conclusions obtenues sur les modèles synthétiques de la faille et de l’éprouvette.
Il est évident que cette expérience peut être étendue à des échantillons de formes quelconques
pour l’évaluation paramétrique de la résistivité (carottes de forage, fragments architecturaux
ou pièces en béton par exemple). De plus, des arrangements d’électrodes quelconques peuvent
être envisagés. Lorsque la géométrie de la cellule de mesure ne change pas, la simulation
numérique ne doit être effectuée qu’une seule fois et les différences de potentiel obtenues sur
le modèle homogène vont servir à corriger toutes les mesures effectuées dans cette cellule.
Ces différences de potentiel représentent donc une évaluation purement numérique de la
constante de cellule.
106
Figure 3.30 : Valeur de la résistivité (apparente) mesurée en utilisant le facteur géométrique (colonne de gauche)
et différentes évaluations numériques de la constante de cellule (4 colonnes de droite).
107
108
CHAPITRE IV
LE PROBLEME INVERSE
109
110
IV.1 PRESENTATION DU PROBLEME INVERSE
Le problème inverse en méthodes électriques a été étudié par de nombreux auteurs durant
plusieurs décennies. Si les méthodes de résolution ont relativement peu changé depuis les
années 1980, l’aspect de la résolution numérique du problème inverse fut, quant à lui, étudié
de manière intensive. Les algorithmes issus de ces investigations sont étroitement liés à la
puissance de calcul existant à chaque époque.
L’opération inverse du problème direct est utilisée pour remonter aux caractéristiques
inconnues du terrain à partir de la réponse mesurée. Il s’agit, à partir des potentiels (ou des
résistivités apparentes) mesurés pour N positions d’électrodes, de retrouver M paramètres, en
général une répartition des résistivités, décrivant la structure étudiée de manière plausible et
expliquant bien les données mesurées. Cette opération s’effectue en général par une
minimisation des écarts entre les résistivités apparentes mesurées et celles calculées par
modélisation sur le modèle à ajuster.
Le problème inverse électrique est non-linéaire, ce qui suppose généralement une résolution
itérative (Lines and Treitel, 1984) et différentes approches peuvent être envisagées.
L’utilisation d’une formulation linéarisée (méthodes de dérivées) est sans doute le choix le
plus courant en méthode électrique, où l’approximation linéaire est généralement valide
(méthodes linéaires itératives ou encore méthodes de descente). Des méthodes de recherches
systématiques (Grid Search Methods) ou faisant appel à des processus aléatoires (Monte
Carlo Methods) peuvent également être utilisées pour explorer l’espace des paramètres du
modèle. La recherche d’un optimum peut être orientée de manière plus efficace par
l’utilisation de méthodes de recuit simulé (Simulated Annealing) ou d’algorithmes génétiques.
Le problème inverse non-linéaire peut également être résolu en utilisant un point de vue
111
probabiliste (Tarantola and Valette, 1982a et 1982b). Cette méthode mène à une formulation
objective du problème inverse, si nous considérons que l’information a priori utilisée a une
véritable signification physique. Nous supposons ici que tous les paramètres (données et
modèle) suivent une distribution gaussienne et peuvent donc être caractérisés par une variance
et une valeur moyenne. Cette méthode statistique est basée sur le fait que la valeur optimale
des paramètres maximise la probabilité que les données observées soient effectivement
observées. Pour une distribution gaussienne, le point de probabilité maximum (ou espérance)
est identique à la valeur moyenne, ce qui n’est pas forcément le cas pour les autres
distributions.
Les méthodes de dérivées ont l’avantage de présenter une convergence rapide à proximité
d’un minimum mais sont très sensibles au choix du modèle de départ et aux minima locaux.
Les méthodes faisant appel à des phénomènes stochastiques ne nécessitent pas le calcul de
dérivées et sont capables d’éviter certains minima locaux. Elles présentent par contre une
convergence lente à proximité d’un minimum et le réglage d’un grand nombre de paramètres
est nécessaire pour arriver à un résultat satisfaisant. De plus, l’utilisation de ces méthodes
requiert de nombreuses résolutions du problème direct et par conséquent un gros effort de
calcul. Une méthode de dérivées semble donc la meilleure approche dans le cas de modèles
présentant un grand nombre de paramètres inconnus.
Le but de l’inversion est de définir les paramètres m d’un modèle optimal. Pour un tel
problème d’optimisation, la somme des résidus entre les données observées et les données
calculées sur le modèle va être minimisée. Cette fonction de résidu E, appelée fonction de
coût ou encore fonction objectif, est fréquemment définie en utilisant une norme. Avec le
vecteur d’erreur e entre les données mesurées d et calculées g(m), une norme générale peut
être définie comme suit :
1
N p
p
e = ∑ ei (4.1)
i =1
avec
ei = di − gi ( m ) (4.2)
Lorsque p=2, la norme quadratique L2 ainsi obtenue mène à la méthode des moindres carrés.
L’utilisation d’une norme L2 suppose une distribution gaussienne de l’erreur sur les données.
Toutefois, ce type de distribution peut ne pas être adapté à un certain type de données.
L’utilisation du critère des moindres carrés avec un autre type de distribution (exponentielle,
uniforme ou asymétrique par exemple) mène généralement à des résultats inacceptables. Il est
donc important d’éliminer les (mauvaises) données trop isolées de la distribution (qui ont une
influence prédominante sur la norme utilisée) afin de rendre le problème compatible avec le
critère des moindres carrés et d’améliorer, par la même occasion, la variance de la solution.
112
Dans le cas de données fortement perturbées, l’utilisation de normes plus faibles (inversion
dite robuste, avec L1 ou L0.5 par exemple) donne de meilleurs résultats (Al-Chalabi, 1992).
Une distribution exponentielle, plus étalée que la distribution gaussienne, convient en effet
mieux aux jeux de données présentant des éléments fortement bruités. Nous noterons que
l’utilisation d’une norme différente, telle que la norme L1 peut mener à devoir transformer des
formulations préexistantes ou à utiliser des algorithmes plus spécifiques. Nous pouvons citer
par exemple l’algorithme du Simplex ou encore la méthode IRLS (Iteratively Reweighted
Least Squares). Remarquons encore qu’une minimisation de la norme L1 effectuée sur des
données de distribution gaussienne ne semble pas adaptée (Al-Chalabi, 1992).
Une des manières de déterminer l’unicité d’un problème inverse est de résoudre ce problème
pour un grand choix d’estimations initiales. Mais, comme le nombre d’expérimentations ne
peut être infini, rien ne nous garantit que la totalité de la topographie de la surface d’erreur a
été ainsi appréhendée. Cependant, il n’est souvent pas nécessaire de connaître toutes les
solutions possibles mais uniquement celles qui semblent plausibles et pour parvenir à
113
interpréter de manière univoque les mesures de terrain, des informations a priori sont souvent
nécessaires.
La résolution itérative d’un problème non-linéaire passe par les étapes suivantes :
Le vecteur de modification dm peut être caractérisé par une direction de descente v et un pas
α:
dm i = α i v i (4.3)
114
La fonction objectif peut être estimée au pas suivant en utilisant un développement limité de
premier ordre :
( ) ( ) ( ) ( )
T
E m i + dm i = E m i + hi dm i + o dm i (4.4)
( ) ( ) ( ) ( )
T
E m i +1 = E m i + α i hi vi + o α vi (4.5)
Comme nous souhaitons voir décroître la fonction objectif au fil des itérations,
E(mi+1)<E(mi), il découle que hT v <0, qui est la condition nécessaire pour avoir une direction
de descente acceptable. En choisissant v = -R h, avec R une matrice MxM, la condition s’écrit
alors hT R h > 0. Si R est définie positive cette condition est toujours vérifiée. Rappelons
qu’une matrice symétrique à diagonale dominante, telle la matrice unité, est toujours positive
et qu’une matrice non-symétrique ne peut pas être définie positive. Nous noterons donc la
mise à jour du modèle pour l’itération i :
m i +1 = m i + α i v i = m i − α i R i hi (4.6)
Les méthodes de descente se différencient donc par le choix de R et α. Notons qu’il n’y a pas
de choix optimal pour la résolution du problème inverse : des méthodes très élaborées vont
converger en peu d’itérations mais vont exiger le calcul de gradients et de dérivées secondes
et d’autres approches plus simples et nécessitant moins de calculs, auront par contre une
convergence plus lente. Le choix de la matrice R est délicat et donne naissance à diverses
méthodes de descente.
La méthode de descente la plus simple consiste à utiliser une matrice identité I (MxM) comme
matrice définie positive. Nous obtenons dans ce cas la méthode de steepest descent ou
méthode de plus grande pente (MPGP).
m i +1 = m i − α i I hi (4.7)
Dans ce cas, la direction de descente suit une direction –h, ce qui provoque la diminution
locale de la fonction objectif la plus rapide (figure 4.1). Malheureusement, cette méthode peut
présenter des convergences très lentes si la topographie de la fonction objectif présente des
vallées étroites, spécialement à proximité d’un minimum. Un avantage de la méthode est que
R=I est toujours définie positive, ce qui confère une certaine robustesse au processus.
115
En utilisant une MPGP, il est nécessaire de définir non seulement la direction de descente
mais également une longueur de pas α. Le choix du pas α consiste en général à calculer une
valeur de α minimisant la fonction objectif à l’itération suivante E(mi+dmi). Nous noterons
toutefois que ces méthodes nécessitent l’évaluation de problèmes directs supplémentaires à
chaque itération.
Figure 4.1 : Représentation schématique de la topographie d’une fonction objectif pour deux paramètres ma et
mb. Un exemple de recherche d’un minimum en utilisant une méthode de plus grande pente est illustré. Il est
également possible d’observer un minium local à droite de la figure.
1
( ) ( ) ( ) ( ) ( )
T T
E m i +1 ≈ E m i + hi dm i + dm i X i dm i (4.8)
2
∇E mi+1 = hi + Xi dm i = 0 (4.9)
c’est à dire
( )
−1
m i +1 = m i − Xi hi (4.10)
116
Dans ce cas, R vaut X-1. Lorsque E est quadratique vers un minimum, cette formulation
permet de trouver le point stationnaire en un seul pas. Lorsque X est définie positive, X-1 l’est
aussi et le processus converge dans tous les cas vers des valeurs plus faibles de E.
N N
E ( m ) = ∑ ( d k − g k ( m ) ) = ∑ ek2
2
(4.11)
k =1 k =1
∂E N
∂g
hl = = −2∑ ek k (4.12)
∂ml k =1 ∂ml
soit
∂g k
h = −2 Y T e, Ykl = (4.13)
∂ml
Avec Y la matrice jacobienne des dérivées partielles de dimensions NxM ou matrice des
dérivées de Fréchet. Les coefficients de cette matrice représentent en un point la sensibilité de
la mesure à une variation des paramètres du modèle. On l’appelle donc souvent matrice de
sensibilité.
∂2E N
∂ 2 ek N
∂g ∂g k
X lj = = 2∑ ek + 2∑ k (4.14)
∂ml ∂m j k =1 ∂ml ∂m j k =1 ∂ml ∂m j
∂ek ∂g
avec =− k (4.15)
∂m j ∂m j
117
X est de dimensions MxM. La méthode de Gauss va donc approximer le Hessien dans la
formulation de Newton en utilisant la relation 4.14 et en supprimant le terme de second ordre.
Cette approximation peut être faite si le problème est faiblement non-linéaire, c’est-à-dire que
les erreurs sont approximativement linéaires par rapport aux variations des paramètres. Dans
ce cas :
X ≈ 2 YT Y (4.16)
Dans cette formulation, il est possible de voir que le Hessien peut être obtenu sans calcul
explicite des dérivées secondes. Ainsi, la méthode de Newton utilisant la formulation de
Gauss pour X et h est :
( )
−1
m i +1 = m i + Y T Y YT e (4.17)
Cette expression est parfaitement similaire à celle obtenue par linéarisation de l’opérateur g en
une série de Taylor du premier ordre autour d’un ensemble de paramètres estimés. De fait, la
formulation 4.17 est très fréquemment utilisée pour l’inversion de données électriques. Nous
pouvons donc constater que la méthode consistant à rendre linéaire l’opérateur g et à résoudre
ensuite itérativement un système de relations linéaires revient à négliger les dérivées secondes
de la matrice hessienne du problème non-linéaire.
dm = −I h = 2 I Y T e (4.18)
ou Y T e = λ I dm (4.19)
118
( )
−1
m i +1 = m i + Y T Y + λ I YT e (4.20)
Le fait d’augmenter, par le biais du terme en λI, la taille des faibles valeurs propres de YTY
diminue la longueur du vecteur de modification à appliquer au modèle, ce qui a pour
conséquence de donner des solutions plus proches de la réalité et de ralentir la convergence.
De plus, lorsque ce vecteur de modification est trop grand, de par l’effet des valeurs propres
faibles, la linéarisation perd en précision. Le facteur λ est donc un moyen d’ajouter une valeur
scalaire aux valeurs propres de la matrice YTY (donc de X), évitant ainsi que cette dernière,
dans le cas où le conditionnement est médiocre, devienne singulière au cours du processus
itératif. De plus, les faibles valeurs propres sont associées à des groupes de données très
localisés, ce qui n’est pas le cas des fortes valeurs propres qui représentent une moyenne de
toutes les données. Ces faibles valeurs propres ne doivent être tolérées qu’à proximité de la
solution.
119
qui facilite le calcul. Pour stabiliser l’inversion, la modification de Marquardt-
Levenberg est couramment employée. Cette dernière formulation, souvent complétée de
matrices permettant d’introduire de l’information a priori, est fréquemment utilisée
pour résoudre le problème inverse électrique.
Le modèle de départ d’un processus itératif d’inversion est le plus souvent homogène, de
résistivité égale à la moyenne des résistivités apparentes mesurées (Loke and Barker, 1996a)
ou encore égale à la résistivité d’une zone reconnue comme ne faisant pas partie de la cible
recherchée (proche des électrodes par exemple). Nous pouvons aussi utiliser la première
itération comme modèle de départ. Un premier modèle très approximatif peut aussi être
obtenu en utilisant, soit l’approximation de Born, où le champ primaire est assimilé au champ
secondaire, soit la méthode des centres alpha, qui peut être complétée par une autre méthode
telle que les éléments finis (Shima, 1992) ou encore une méthode de type SIRT (Simultaneous
Reconstruction Technique). Idéalement, le modèle de départ devrait contenir un maximum
d’informations a priori, qui peuvent être présentes dans la forme du maillage utilisé par
exemple. Ce dernier peut être construit afin de refléter certaines structures, comme des limites
de couches. L’importance du modèle de départ, qui peut fortement influencer la convergence
de la méthode, n’est pas à négliger.
120
IV.3.3 Discrétisation
La taille des cellules doit être choisie de façon à avoir un bon compromis entre résolution et
stabilité. Sasaki (1992) et Loke and Barker (1996a) préconisent l’utilisation de cellules dont la
dimension est équivalente à 0.5 fois la plus petite distance entre les électrodes. Lorsque cela
est possible, la dimension des cellules peut être adaptée au dispositif utilisé (Loke and Barker,
1996a) en fonction de la sensibilité de ce dernier (Edwards, 1977). Ceci est surtout valable
pour les mesures en surface. Les cellules proches de la surface sont prises suffisamment
petites pour tenir compte des variations de résistivités qui peuvent être importantes. Lors de
mesures entre forages, il faut considérer les effets provenant de corps situés en dehors de la
région d’intérêt (zone interforage) et la région extérieure doit être discrétisée proprement de
façon à tenir compte des variations de résistivité (Zhao et al., 1986). De plus, si la méthode le
permet, il est préférable d’élaborer un maillage reflétant le plus possible la structure supposée
du sous sol (Beasley and Tripp, 1991 ; Sasaki, 1994 ; Olayinka and Yaramanci, 1999).
Lorsque la structure du sous-sol est mal connue et que nous ne désirons pas influencer le
processus d’inversion, un maillage régulier doit être utilisé.
Plusieurs auteurs ont présenté, depuis une vingtaine d’années, des algorithmes d’inversion
pour les données électriques. Des tentatives ont été faites pour utiliser des algorithmes de
reconstruction de type RBPT (Resistivity Back-Projection Technique, Shima, 1992), ART
(Algebraic Reconstruction Technique) ou encore SIRT (Simultaneous Reconstruction
Technique) (par exemple Noël and Xu, 1991 ; Olayinka and Weller, 1997). Bien que rapides,
ces méthodes ne donnent toutefois pas des résultats satisfaisants pour le problème électrique.
En effet, la théorie des rais s’applique mal à un problème correspondant à la résolution d’une
121
équation de Laplace. Une méthode de recuit simulé a été également proposée (Chunduru et
al., 1996 ; Pessel, 2000), mais bien que donnant de bons résultats, cette méthode est très
exigeante en temps de calcul. Nous pouvons encore relever l’approche de Mauriello et Patella
(1999). Ils proposent une probability tomography dont le résultat n’est toutefois que semi-
quantitatif avec une localisation du corps mais sans détermination de la résistivité. Une
approche par réseaux neuronaux a également été présentée (El-Qady and Ushijima, 2001). En
général, la majorité des auteurs utilise une méthode de Gauss-Newton (moindres carrés
itératifs) avec une condition de régularisation de type Marquardt-Levenberg (voir entre autres
Pelton et al., 1978 ; Tripp et al., 1984 ; Daily and Owen, 1991 ; Park and Van, 1991 ; Sasaki,
1992 ; Shima, 1992 ; Beard et al., 1996 ; Loke and Barker, 1996a et 1996b ; Morelli and
LaBrecque, 1996 ; Olayinka and Yaramanci, 1999 ; Yi et al., 2001 ; Jackson et al., 2001 ; Pain
et al., 2002). Cette formulation est souvent complétée en y insérant différentes matrices de
lissage ou de pondération dont le rôle est d’introduire de l’information a priori (Pous et al.,
1987 ; Marescot, 2003). Toutefois, dans le cadre de la résolution du problème inverse
appliqué à des modèles 3D complexes, cette formulation possède un handicap majeur : elle
nécessite en effet d’évaluer explicitement la matrice jacobienne des dérivées partielles Y (ou
matrice de sensibilité). Cette matrice peut parfois être évaluée analytiquement, comme nous
l’avons vu au Chapitre II, mais, pour des modèles quelconques, une solution numérique sera
souvent nécessaire.
122
IV.4.2 Inversion non-linéaire par méthode de champ adjoint
Une autre approche consiste à utiliser la formulation du champ adjoint au champ de potentiel
pour directement minimiser la fonction objectif E (calcul du gradient h), ce qui est une
technique d’inversion purement non-linéaire. Cette méthode reste toutefois très peu utilisée
pour le problème électrique. Cela vient probablement de la popularité de la méthode de
Gauss-Newton dans le domaine de la géophysique. Cette approche est néanmoins citée par
McGillivray and Oldenburg (1990) et utilisée par Ellis and Oldenburg (1994b), Spies and
Ellis (1995), Lesur et al. (1999) et Abubakar and van den Berg (2000) pour inverser des
données sur des modèles représentant un demi-espace et en utilisant des méthodes d’équations
intégrales ou de différences finies.
Dans cette approche, le gradient h de la fonction objectif peut ensuite être utilisé dans une
formulation de type MPGP. Avec cette stratégie, une factorisation de la matrice globale et 2xS
résolutions du système linéaire sont nécessaires par itération. Nous proposons donc d’utiliser
la technique de l’état adjoint (Ellis and Oldenburg, 1994b) qui semble bien adaptée à notre
problématique (Marescot et al., 2004). Nous adapterons toutefois l’algorithme à des calculs
par éléments finis sur des modèles 3D à géométries complexes.
Nous pouvons noter que Abubakar and van den Berg (2000) considèrent le contraste de
conductivité (le produit du champ électrique total et de la conductivité) comme paramètre
inconnu. Des modélisations synthétiques effectuées en utilisant cet algorithme donnent des
reconstructions acceptables qui semblent également indiquer que la procédure d’inversion est
relativement insensible au bruit. Nous utiliserons quant à nous la résistivité (ou la
conductivité) de chaque cellule comme paramètre inconnu.
123
IV.5 LA METHODE DE L’ETAT ADJOINT
Comme nous l’avons vu, les méthodes de descente de type MPGP nécessitent le calcul du
gradient h de la fonction objectif E. Ce gradient pourrait être évalué en utilisant une
formulation par différences finies, ce qui représente un gros effort de calcul. La méthode de
l’état adjoint est par contre une technique efficace permettant cette évaluation. Dans cette
optique, il est tout d’abord nécessaire de définir les équations différentielles permettant
l’évaluation du champ adjoint avant de décrire explicitement l’algorithme d’inversion utilisé
dans ce travail, le problème à résoudre consistant à minimiser la fonction E sur le champ σ :
E= ∫ f (V (σ ), σ )
Ω
dΩ (4.21)
où V est solution de :
∇ ⋅ (σ ∇V ) = − q (4.22)
avec Is l’intensité d’une source S, rs la position de cette source, r la position d’un point
quelconque de l’espace et δ la distribution de Dirac (dans l’espace à trois dimensions). Les
conditions aux limites sont :
σ ∇V ⋅ n = − J (4.23)
V =V (4.24)
Dans l’équation 4.21, f est une fonction scalaire supposée dérivable en V. Le champ V est
résolu ici au niveau d’un seul couple source, et non pas au niveau de l’ensemble des sources
d’une séquence de tomographie. Les champs V et σ sont ici des champs scalaires qui
dépendent des coordonnées de l’espace, bien que cela soit omis dans la notation.
Par différentiation du problème dont V est solution par rapport à σ, le champ δV est solution
du problème suivant :
124
σ ∇δ V ⋅ n = −δσ ∇V ⋅ n sur ΓN (4.26)
δV = 0 sur ΓD (4.27)
∂f
δ E = ∫ γ δV dΩ en δE = ∫ δσ d Ω
Ω Ω
∂σ
∂f
δE = ∫ δV dΩ = ∫ γ δV dΩ (4.28)
Ω
∂V Ω
∂f
avec γ = . (4.29)
∂V
∇ ⋅ ( σ ∇U ) = γ dans Ω (4.30)
σ ∇U ⋅ n = 0 sur ΓN (4.31)
U =0 sur ΓD (4.32)
U est solution d’un problème classique de diffusion, avec une équation de Poisson sur le
même champ de conductivité σ, un terme de source volumique égal à γ et des conditions aux
limites sur les mêmes frontières de Dirichlet et Neumann que le champ V.
δ E = ∫ γ δ V d Ω = ∫ ∇ ⋅ ( σ ∇U ) δ V d Ω (4.33)
Ω Ω
δ E = ∫ ∇ ⋅ (δ V σ ∇U ) d Ω − ∫ σ ∇U ⋅∇δ V d Ω (4.34)
Ω Ω
δ E = ∫ δ V σ ∇U ⋅ n d Γ − ∫ σ ∇U ⋅∇δ V d Ω (4.35)
Γ Ω
125
l’intégrale sur Γ=ΓD ∪ ΓN s’annule car δV = 0 sur ΓD et σ ∇U ⋅ n = 0 sur ΓN (conditions aux
limites 4.27 et 4.31).
Alors :
δ E = − ∫ σ ∇U ⋅∇δ V d Ω (4.36)
Ω
δ E = − ∫ ∇ ⋅ (U σ ∇δ V ) d Ω + ∫ U ∇ ⋅ (σ ∇δ V ) d Ω (4.37)
Ω Ω
δ E = − ∫ U σ ∇δ V ⋅ n d Γ − ∫ U ∇ ⋅ (δσ ∇V ) d Ω (4.38)
Γ Ω
δ E = − ∫ U σ ∇δ V ⋅ n d Γ − ∫ ∇ ⋅ (U δσ ∇V ) d Ω + ∫ δσ ∇V ⋅∇U d Ω (4.39)
Γ Ω Ω
δ E = − ∫ U (σ ∇δ V + δσ ∇V ) ⋅ n d Γ + ∫ ∇U ⋅∇V δσ d Ω (4.40)
Γ Ω
∂f
δ E = ∫ ∇U ⋅∇V δσ d Ω = ∫ δσ d Ω (4.41)
Ω Ω
∂σ
∂f
avec = ∇U ⋅∇V (4.42)
∂σ
L’état adjoint U peut donc être calculé (par MEF notamment) de la même manière que V,
mais en considérant les conditions aux limites et les termes sources qui lui sont propres
(données par la définition de l’état adjoint).
126
IV.6 LA FONCTIONNELLE ET SON GRADIENT
IV.6.1 Problématique
L’algorithme d’inversion doit être capable de traiter des jeux de données contenant un très
grand nombre de mesures, souvent plusieurs milliers, sur des modèles à géométrie complexe
présentant de nombreux paramètres inconnus. Les méthodes de minimisation traditionnelles,
de type Gauss-Newton par exemple, où le calcul numérique de la matrice jacobienne doit être
envisagé, sont impraticables. Il est donc souhaitable que l’algorithme utilisé évite le stockage
et l’inversion de matrices de grandes tailles et limite au maximum le nombre de problèmes
directs à résoudre durant le processus itératif. Il est également souhaitable que cet algorithme
présente une certaine robustesse et une certaine polyvalence en ne nécessitant pas de réglages
délicats pour obtenir un résultat satisfaisant. En effet, dans les algorithmes de type Gauss-
Newton, nous devons généralement adapter certains éléments de la formulation servant à la
stabilisation du calcul, tels que le facteur d’amortissement (inversion de type Maquardt-
Levenberg) ou encore les matrices de lissage (Sasaki, 1994), en fonction de la distance entre
les cellules du modèle et les électrodes ou en fonction de l’agencement des cellules du modèle
par exemple (Loke and Barker, 1996a). La géométrie complexe de nos modèles et
l’agencement quelconque des électrodes ne permettra pas de définir, a priori et de manière
standard, des réglages de ce type.
Les dispositifs non-conventionnels qui seront utilisés pour imager l’intérieur de structures à
géométries complexes présenteront des propriétés (résolution, profondeur d’investigation)
difficiles à appréhender par le géophysicien. Nous pouvons donc supposer que l’information
collectée durant le processus d’acquisition ne sera pas optimale et que le problème inverse
sera mal posé. L’utilisation d’informations a priori et de contraintes sera alors capitale lors de
la résolution du problème inverse, afin de limiter au maximum la dimension de l’espace des
modèles possibles. Dans cette approche du problème inverse, l’utilisateur construira un certain
modèle sur la base d’informations a priori disponibles puis cherchera à tester et
éventuellement modifier ce modèle par le biais de l’algorithme d’inversion. L’influence des
données permettra alors de transformer certaines parties du modèle a priori.
Dans tout problème d’optimisation, il est nécessaire de définir une expression de la fonction à
minimiser E, qui peut être :
127
avec, dans le cas du problème électrique :
ERMS une fonction minimisant la norme L2 de la différence entre les résistivités apparentes
calculées et les résistivités apparentes mesurées. La fonction ERMS est la somme des fonctions
ERMSi des S couples sources.
S
ERMS = ∑ ERMS
i
(4.44)
i =1
Eref une fonction minimisant la norme L2 de la différence entre les résistivités du modèle
calculées et les résistivités imposées d’un modèle de référence.
Pour la résolution du problème inverse, il est en général nécessaire de pondérer les données au
moyen d’une fonction permettant de considérer des variations significatives de la résistivité et
de tenir compte de la grande variabilité de ce paramètre dans la nature. La fonction logarithme
est couramment utilisée dans ce but. En effet, en considérant les résistivités apparentes
directement, nous introduirions un déséquilibre entre les valeurs de résistivités apparentes
extrêmes, les fortes valeurs étant rendues artificiellement plus influentes.
L’utilisation d’une fonction logarithme pour pondérer les données est fréquente (Pelton et al.,
1978 ; Tripp et al., 1984 ; Pous et al., 1987 ; Sasaki, 1992 et 1994 ; Morelli and LaBrecque,
1996 ; LaBrecque et al.,1996 ou encore Loke, 2000). Comme nous pouvons le supposer, ce
type de paramétrage est très efficace pour des données dont les valeurs sont supérieures à 1.
L’effet bénéfique de la fonction logarithme disparaît toutefois pour les valeurs inférieures à 1
et cette fonction empêche l’inversion de données nulles ou négatives. Ce phénomène n’est en
général pas gênant lors de mesures en surface avec des dispositifs conventionnels. Dans ce
cas, il est en effet possible de s’assurer du signe positif de la résistivité apparente mesurée en
exerçant un contrôle du signe du facteur géométrique ainsi que de la forme globale du champ
de potentiel primaire. En surface, une résistivité apparente négative peut subvenir si le champ
de potentiel secondaire est très fort, ce qui est rarement le cas. Par contre, dans le cas de
mesures sur des structures 3D complexes avec des dispositifs non-conventionnels
(tomographie avec des électrodes autour de la structure ou en forage par exemple), la
résistivité apparente mesurée peut très bien être nulle ou négative, car le champ de potentiel
secondaire ou le facteur géométrique peuvent fréquemment être de signes opposés.
128
Les expressions détaillées de ces fonctions sont les suivantes, en considérant r et r’ les points
du domaine spatial Ω à 3 dimensions :
2
1 1 Acalc
i
(r, r′) i
Ames (r, r′) i
= ∫∫ − Φ ( r , r ′ ) dr d r ′
i
E ln ln (4.45)
2 v (r, r′) A0 (r, r′) A0 (r, r′)
RMS i i i
ΩΩ
2
1 Acalc (r, r′) i
i
1
= ∫∫ Φ ( r, r′ ) dr dr′
i
E ln i (4.46)
RMS
ΩΩ
2 v i
(r , r ′) Ames (r , r ′)
avec
i
Acalc (r, r′) la fonction continue et dérivable de la différence de potentiel calculée sur le
modèle entre les points r et r’ du domaine Ω ;
A0i (r, r′) la fonction continue et dérivable de la différence de potentiel calculée sur un modèle
homogène de résistivité unitaire entre les points r et r’ du domaine Ω ;
i
Ames (r, r′) la fonction continue et dérivable des différences de potentiel mesurées sur le
terrain entre les points r et r’ du domaine Ω. Dans la pratique, la fonction Ames
i
(r, r′) n’est pas
connue partout car l’échantillonnage des points de mesure sur le terrain est forcément discret.
Φi (r, r′) une fonction de pondération (pouvant être constituée de Diracs en un certain nombre
de points de mesures).
v i (r, r′) la variance sur les mesures du logarithme de la résistivité apparente (qui n’est pas
notée σ2 afin d’éviter toute confusion avec la conductivité).
2 V (σ ; r ) − V (σ ; r ′)
i i
1 1
i
ERMS = ∫∫ ln i Φ (r, r′) dr dr′
i
(4.47)
ΩΩ
i
′
2 v (r, r ) i
′
Vmes (r ) − Vmes (r )
i
avec Acalc (r, r′) = V i (σ ; r ) − V i (σ ; r′)
i
L’expression Vmes (r ) − Vmes
i
(r′) ne dépend pas du champ σ. Nous pouvons donc continuer à la
i
noter Ames (r, r′) .
129
Rappelons que i représente la dépendance de la mesure du potentiel aux sources d’injection de
courant.
2
1 1 1
Eref = ∫ Λ g ln − ln dΩ . (4.48)
2 σ σ ref
Ω
Cette fonction représente la contrainte par région sur le modèle de référence et Λg une
fonction réglant la contrainte sur le modèle de référence par région ou par groupe (notion vue
lors de la description de CESAR-LCPC, Chapitre III). Là encore, l’utilisation du logarithme
des champs de résistivité évite les effets indésirables causés par la large gamme de variation
de ce paramètre dans la nature. L’utilisation du logarithme nous évite également d’imposer la
positivité de la conductivité.
Nous ne considérons pas ici de contrainte de lissage sur la solution (ou sur le vecteur de
modification des résistivités) car elles ne nous semblent pas indispensables dans un premier
temps. En effet, beaucoup de cibles que nous désirons imager présentent des limites franches
avec l’encaissant, ce qui est en contradiction avec l’utilisation d’un lissage (Loke et al., 2001).
De plus, la sous-détermination du problème ne présente pas de difficulté de stabilité
numérique. Une telle sous-détermination provoquerait par contre la singularité du jacobien
dans la formulation de Gauss-Newton notamment.
Soit δσ une petite variation du champ σ. Nous souhaitons évaluer δE pour cette variation de
δσ, soit :
Pour la fonction de la contrainte par région sur le modèle de référence, cela ne pose pas de
problème et le recours à l’état adjoint est inutile :
2
1 1 1
Si nous posons f ref = Λ g ln − ln (4.50)
2 σ σ ref
alors
∂f ref 1 σ ref
δ Eref = ∫ δσ d Ω = ∫ Λ g − ln δσ d Ω (4.51)
Ω
∂σ Ω σ σ
130
où
∂f ref 1 σ ref
= Λ g − ln (4.52)
∂σ σ σ
Pour appliquer ici la technique de l’état adjoint à la minimisation par moindres carrés
traditionnelle, il faut auparavant transformer la double intégrale sur le domaine Ω en une
intégrale simple sur Ω.
Dans un premier temps, nous pouvons différencier la fonction ERMSi d’un couple source i par
rapport à V :
1 V i (σ ; r ) − V i (σ ; r′) δ V i (σ ; r ) − δ V i (σ ; r′) i
δ ERMS = ∫∫ Φ ( r , r ′ ) dr d r ′
i
ln i
ΩΩ
v i
(r , r ′)
A i
mes (r , r ′)
V (σ ; r ) − V i
(σ ; r ′)
(4.53)
1 1 V i (σ ; r ) − V i (σ ; r′)
δE = ∫∫ i δ V (σ ; r ) Φ ( r, r′ ) dr dr′
i i i
ln
v (r, r′) V (σ ; r ) − V (σ ; r′) Ames (r, r′)
RMS i i i
ΩΩ
1 1 V i (σ ; r ) − V i (σ ; r′)
−∫ ∫ i δ V (σ ; r′) Φ ( r, r′ ) dr dr′
i i
ln
ΩΩ
v (r, r′) V (σ ; r ) − V (σ ; r′)
i i
Ames (r, r′)
i
(4.54)
1 1 V i (σ ; r ) − V i (σ ; r′) i
δ ERMS = ∫ δ V i (σ ; r ) ∫ Φ ( r , r ′ ) dr ′ d r
i
ln
Ω v (r, r ) V (σ ; r ) − V (σ ; r )
i
′ i i
′ Ames (r, r′)
i
Ω
1 1 V i (σ ; r ) − V i (σ ; r′) i
− ∫ δ V i (σ ; r ′) ∫ i ln Φ ( r , r ′ ) d r dr ′
Ω v (r, r′) V (σ ; r ) − V (σ ; r′) (r, r′)
i i i
Ω
Ames
(4.55)
soit :
δ ERMS
i
= ∫ Li (σ ; r) δ V i (σ ; r) dr − ∫ Pi (σ ; r′) δ V i (σ ; r′) dr′ (4.56)
Ω Ω
avec
131
1 1 V i (σ ; r ) − V i (σ ; r′) i
Li (σ ; r ) = ∫ ln Φ ( r , r ′ ) dr ′
Ω
vi (r, r′) V i (σ ; r ) − V i (σ ; r′)
i
Ames (r, r′)
(4.57)
1 1 V i (σ ; r ) − V i (σ ; r′) i
P (σ ; r′) = ∫ Φ ( r , r ′ ) dr
i
ln
Ω
v i
(r , r ′) V i
(σ ; r ) − V i
(σ ; r ′) A i
mes (r , r ′)
(4.58)
En se plaçant au même point r∈Ω et en prenant une même variable d’intégration muette r’,
les expressions précédentes deviennent :
1 1 V i (σ ; r ) − V i (σ ; r′) i
Li (σ ; r ) = ∫ ln Φ ( r , r ′ ) dr ′
Ω
v i
(r , r ′) V i
(σ ; r ) − V i
(σ ; r ′)
A i
mes (r , r ′)
(4.59)
1 1 V i (σ ; r′) − V i (σ ; r ) i
P i (σ ; r ) = ∫ ln Φ ( r′, r ) dr′
Ω
v i (r′, r ) V i (σ ; r′) − V i (σ ; r ) i
Ames (r′, r )
(4.60)
et alors
δ ERMS
i
= ∫ [ L(σ ; r ) − P (σ ; r )] δ V i (σ ; r ) dr (4.61)
Ω
δ ERMS = ∫ γ RMS (σ ; r ) δ V i (σ ; r ) dΩ
i i
(4.62)
Ω
avec γ RMS
i
(σ ; r ) = Li (σ ; r ) − P i (σ ; r ) le terme source de l’état adjoint.
Il est donc possible de calculer la différentielle de la fonction objectif E par rapport au champ
σ. Nous obtenons alors, pour un couple source :
∂f RMS
i
= ∇U i (σ ; r ) ⋅ ∇V i (σ ; r ) (4.63)
∂σ
∂f RMS ∂f ref ∂f
δ E = δ ERMS + δ Eref = ∫ δσ d Ω + ∫ δσ d Ω = ∫ δσ d Ω (4.64)
Ω ∂σ Ω ∂σ Ω ∂σ
avec :
132
∂f RMS S
∂f i
= ∑ RMS (4.65)
∂σ i =1 ∂σ
et
S
δ ERMS = ∑ δ ERMS
i
(4.66)
i =1
Il est maintenant nécessaire d’expliciter le terme source de l’état adjoint. Soit le premier terme
de δEiRMS :
1 1 V i (σ ; r ) − V i (σ ; r′) i
L (σ ; r ) = ∫ i Φ ( r , r ′ ) dr ′
i
ln
Ω
v (r , r ′) V i
(σ ; r ) − V i
(σ ; r ′) A i
mes (r , r ′)
(4.67)
Pour représenter nos mesures discrètes en des points définis de Ω nous exprimons Φi sous la
forme :
mi
(
Φ i ( r, r′ ) = ∑ δ M ij − r δ N ij − r′ ) ( ) (4.68)
j =1
Mij et Nij étant le jème couple d’électrodes de mesure considéré pour le couple d’électrodes
d’injection i.
mi
1 δ N ij − r′ ( )
V i (σ ; r ) − V i (σ ; r′)
i
(
L (σ ; r ) = ∑ δ M − r ∫ i i
)
v (r, r′) V i (σ ; r ) − V i (σ ; r′)
j ln i
Ames (r, r′)
dr ′
j =1 Ω
(4.69)
mi
1 1 V i (σ ; r ) − V i (σ ; N ij )
(
Li (σ ; r ) = ∑ δ M ij − r ) vi (r, N ij ) V i (σ ; r ) − V i (σ ; N ij )
ln i
Ames (r, N ij )
j =1
(4.70)
133
soit :
mi
Li (σ ; r ) = ∑ ℑij (σ ; r ) δ M ij − r ( ) (4.71)
j =1
Le terme Li (σ ; r ) représente alors la somme des sources localisées aux points Mij et
d’intensités ℑij.
1 1 V i (σ ; r′) − V i (σ ; r ) i
P i (σ ; r ) = ∫ ln Φ ( r′, r ) dr′
Ω
v i (r′, r ) V i (σ ; r′) − V i (σ ; r ) i
Ames (r′, r )
(4.72)
avec :
mi
Φ i ( r′, r ) = ∑δ ( M
j =1
i
j ) (
− r′ δ N ij − r ) (4.73)
mi
1 δ M ij − r′ ( )
V i (σ ; r′) − V i (σ ; r )
P (σ ; r ) = ∑ δ N − r ∫ i
i
( i
)
v (r′, r ) V i (σ ; r′) − V i (σ ; r )
j ln i
Ames (r′, r )
dr ′
j =1 Ω
(4.74)
mi
1 1 V i (σ ; M ij ) − V i (σ ; r )
P i (σ ; r ) = ∑ δ N ij − r ( ) v i ( M ij , r ) V i (σ ; M ij ) − V i (σ ; r )
ln i
Ames ( M ij , r )
j =1
(4.75)
soit :
mi
P (σ ; r ) = ∑ ℜij (σ ; r ) δ N ij − r
i
( ) (4.76)
j =1
Le terme P i (σ ; r ) représente alors la somme des sources localisées aux points Nij et
d’intensités -ℜij.
134
mi
γ RMS
i
(σ ; r ) = ∑ ℑ (σ ; r) δ ( M
j =1
i
j
i
j ) (
− r − ℜij (σ ; r ) δ N ij − r ) (4.77)
Il est maintenant intéressant de faire un parallèle entre la signification concrète des champs V
et U : Pour une position de couple source i, un champ de potentiel Vi est créé, le courant étant
injecté par un couple d’électrodes Ai (intensité +q) et Bi (intensité -q). Nous pouvons
remarquer que la méthode de l’état adjoint reste valable quel que soit le nombre, le signe ou la
forme des sources (ponctuelles, linéiques, planes). Nous mesurons le potentiel Vi à différents
emplacements dans l’espace Ω à l’aide des électrodes Mij et Nij. Il y a mi couples de mesure.
Dans le cas du champ adjoint Ui, tout se passe comme si nous avions des sources d’intensité
ℑij aux différentes positions Mij et des sources d’intensité -ℜij aux différentes positions Nij. Le
champ Ui est alors calculé sur la totalité de l’espace Ω (dans le cas d’un problème résolu par
MEF, dans chaque élément). Nous pouvons encore remarquer que pour le calcul du gradient
de la fonction objectif E nous n’utilisons pas directement le champ U mais son gradient ∇U.
Bien qu’il ne soit pas conseillé d’utiliser la valeur des résistivités directement, sans le
logarithme, nous donnons ici l’expression de la fonction objectif ainsi que du terme source de
l’état adjoint que l’on obtient dans ce cas :
2
1 1 Acalc
i
(r, r′) Ames
i
(r, r′) i
= ∫∫ − Φ ( r , r ′ ) dr dr ′
i
E (4.78)
2 v (r, r′) A0 (r, r′) A0 (r, r′)
RMS i i i
ΩΩ
Dans le cas présent, v i (r, r′) est la variance sur les mesures de la résistivité apparente
directement et non plus sur leurs logarithmes.
Le terme source de l’état adjoint peut s’obtenir de la même manière que précédemment :
1 V i (σ ; r ) − V i (σ ; r′) Ames
i
(r, r′) 1
Li (σ ; r ) = ∫ − i Φ i ( r , r ′ ) dr ′
Ω
v (r, r′)
i
A0 (r, r′)
i
A0 (r, r′) A0 (r, r′)
i
(4.79)
1 V i (σ ; r′) − V i (σ ; r ) Ames
i
(r′, r ) 1
P i (σ ; r ) = ∫ − i Φ i ( r′, r ) dr′
Ω
v (r′, r )
i
i
′
A0 (r , r ) i
′ ′
A0 (r , r ) A0 (r , r )
(4.80)
135
δ ERMS = ∫ γ RMS (σ ; r ) δ V i (σ ; r ) dΩ
i i
(4.81)
Ω
avec
mi
γ RMS
i
(σ ; r ) = ∑ ℑ (σ ; r) δ ( M
j =1
i
j
i
j ) ( )
− r − ℜij (σ ; r ) δ N ij − r (4.82)
où les intensités ℑij et -ℜij des sources de l’état adjoint Ui sont définies suivant les expressions
(4.79) et (4.80).
Un code de calcul a été créé dans le but de permettre l’inversion de données électriques par
courant continu. A la différence du programme utilitaire TOMELE utilisé pour la
modélisation directe, le module d’exécution INVS (pour INVersion électroStatique) est conçu
comme un module d’exécution de CESAR-LCPC (Marescot et al., 2003e ; Marescot et al.,
2004) . Il doit donc être appelé par mot clef dans le jeu de données créé par le préprocesseur
MAX3D pour le solveur CESAR. Sous ce mot clef sont regroupés toute une série de
paramètres pour l’inversion ainsi que les données de potentiel mesurées. Une description
détaillée du module ainsi que du jeu de données à créer se trouve dans l’Annexe Technique en
fin de travail.
Nous décrivons ici brièvement la structure générale du module d’exécution INVS. Le module
d’exécution INVS suit l’architecture de tous les modules d’exécution de CESAR-LCPC. Nous
distinguons donc tout d’abord un premier sous-programme (BLINVS) pour la préparation des
tableaux et la réservation de l’espace mémoire, puis le sous programme d’exécution
(EXINVS) pour l’inversion proprement dite. Finalement, deux sous-programmes sont
également présents à la fin du code pour la résolution numérique du problème.
Le sous-programme EXINVS effectue tout d’abord le lecture des données dans le jeu de
données destiné au solveur CESAR. Nous trouvons entre autres dans ce jeu de données les
informations suivantes :
136
! La valeur du modèle de référence par groupe
! La contrainte (poids) du modèle de référence par groupe
! Les limites supérieure et inférieure pour la conductivité du modèle
! Le nombre maximum d’itérations
! La valeur maximum désirée pour la fonction objectif E
! Le taux de variation minimal entre deux valeurs consécutives de E pour admettre une
convergence
! Le type de fonction objectif à utiliser (logarithme des résistivités apparentes ou
résistivités apparentes directement)
L’inversion se déroule de la manière suivante. Un premier calcul est effectué sur un modèle
homogène de résistivité unité pour le calcul des résistivités apparentes. Les différences de
potentiel ainsi calculées serviront à l’évaluation des résistivités apparentes. Nous initialisons
ensuite le modèle en utilisant les résistivités données par groupes pour le modèle de départ
puis nous résolvons une première fois le problème direct pour le calcul du champ de potentiel
V et de l’état adjoint U. Le gradient de la fonction objectif ainsi obtenu est utilisé pour mettre
à jour le modèle de départ selon une MPGP.
Le processus itératif commence ensuite et le modèle est progressivement mis à jour selon la
méthode des gradients conjugués. Pour chaque itération, deux résolutions du problème direct
sont nécessaires pour le calcul de la mise à jour du modèle (nous considérons à chaque fois
une résolution pour le champ V et une résolution pour le champ U pour chaque couple
source). Nous répétons ensuite cette opération jusqu’à ce qu’un des critères d’arrêt de
l’inversion soit rempli. Ces critères d’arrêt sont développés plus loin.
137
particulier fortement négatives entre M et N. Une variation de la conductivité dans l’autre sens
aurait fait apparaître des composantes du gradient globalement positives pour le modèle.
Figure 4.2 : Composantes du gradient de la fonction objectif dans chaque cellule pour quatre électrodes.
Nous pouvons également remarquer que, comme dans le cas de la fonction de sensibilité, les
composantes du gradient de E sont très fortes à proximité des électrodes. Les paramètres du
modèle dans ces régions auront alors une influence prédominante sur la correction apportée au
modèle. Ces fortes modifications peuvent créer des cas d’équivalence en créant des structures
présentant de forts contrastes de résistivité à proximité des électrodes pour expliquer des
variations plus éloignées dans le modèle. Nous pouvons limiter cet effet en définissant une
résistivité moyenne pour le modèle de départ dans les cellules du modèle proches des
électrodes (en utilisant les résistivités mesurées par les plus petits dispositifs par exemple). Il
s’agira ensuite de diminuer l’influence de ces cellules en limitant les composantes du vecteur
de modification dans ces régions (Zhang et al., 1995).
A proximité des frontières à potentiel imposé (conditions aux limites de Dirichlet), nous
pouvons noter que des composantes aberrantes (très élevées) du gradient de E peuvent être
parfois obtenues. L’apparition de telles valeurs aberrantes n’est pas systématique pour tous les
éléments des frontières. Elle est plus fréquente pour les éléments présentant une forte
distorsion. Cela peut s’expliquer par l’instabilité sur les bords des variables dérivées (∇V et
∇U) lorsqu'on impose des conditions aux limites inexactes (potentiel nul par exemple) sur les
variables primaires (V et U). Nous stabiliserons le processus d’inversion en mettant ces
valeurs de gradient à zéro. La conductivité des éléments concernés n’évolue donc pas au cours
du processus itératif ce qui n’est pas problématique, leur effet sur la mesure étant très faible.
138
IV.7.3 Choix d’une direction de descente : les gradients
conjugués
m i +1 = m i − α i R i hi (4.83)
Cette méthode peut être alors utilisée dans un algorithme d’inversion à condition de pouvoir
évaluer le gradient de la fonction objectif par la méthode des éléments finis. Une résolution
numérique par différences finies étant trop coûteuse en temps, nous utilisons la formulation de
l’état adjoint. En effet, l’état adjoint permet le calcul du gradient h en limitant le nombre de
résolutions du problème direct.
Nous devons également choisir une matrice R en limitant les évaluations supplémentaires du
problème direct. En utilisant une matrice identité comme matrice définie positive, nous
obtenons la méthode de plus grande pente (MPGP). Le vecteur -I h est ainsi une direction de
descente :
m i +1 = m i − α i I hi (4.84)
Dans l’algorithme proposé, nous utilisons une MPGP pour la première itération, cette
méthode étant toujours acceptable et robuste quel que soit le modèle de départ utilisé (R est
ainsi toujours définie positive, même pour un modèle éloigné de la réalité). Nous améliorons
ensuite la direction de descente en utilisant une méthode de gradients conjugués afin de
limiter les oscillations en direction du minimum (Polyak et Ribiere, 1969). Dans la méthode
des gradients conjugués, la direction de descente choisie est composée du gradient de la
fonction objectif pour le modèle courant, conjuguée aux directions de descente des itérations
précédentes.
139
L’algorithme de mise à jour de la direction de descente se décrit alors, avec i le numéro de
l’itération courante :
r1 = −h1 , p1 = r1
m i +1 = m i + α i pi , r i +1 = −hi+1
avec
(r )
T
i +1
− ri r i +1
p i +1
=r i +1
+β p , β
i i i
= (4.85)
(r )
T
i
r i +1
En théorie, l’algorithme doit repartir depuis le début toutes les M itérations, avec M le nombre
de paramètres du modèle. Dans la pratique toutefois, le processus converge avant l’itération
M.
Idéalement, le choix du pas d’ajustement dans l’espace des paramètres consiste à calculer une
valeur de α minimisant la fonction objectif à l’itération suivante E(mi+dmi). Ce problème
d’optimisation à une variable peut être résolu par un grand nombre d’algorithmes différents
(Press et al., 1992). Les algorithmes de la section d’or (ou Golden Section) ou de Fibonacci
sont très fréquemment utilisés en optimisation. Ces méthodes effectuent une recherche d’un
minimum par dichotomie. Des algorithmes de recherche linéaire (en utilisant par exemple les
conditions d’Armijo-Goldstein) peuvent également être utilisés. Toutes ces méthodes exigent
un nombre conséquent d’évaluations de E (et donc de résolutions du problème direct) pour
atteindre un minimum. Ce type d’approche semble donc peu adapté à notre problème.
Dans le module d’exécution INVS, l’utilisateur sélectionne la taille du pas utilisé lors de la
première itération et utilise ce pas constant pour toutes les itérations. A chaque itération, un
contrôle est effectué sur la valeur de la fonction objectif. Si cette valeur est supérieure à la
valeur de l’itération précédente, nous recommençons l’itération courante avec un pas diminué
d’un facteur deux. Cette technique est très robuste mais nécessite toutefois un nombre
important d’itérations pour atteindre un minimum, le pas n’étant pas optimal.
140
IV.7.5 Contraintes et information a priori
Le module d’exécution INVS a été conçu de telle façon à laisser un maximum de liberté à
l’utilisateur : dans ce module, un modèle de départ ainsi qu’un modèle de référence peuvent
être utilisés. Nous disposons en effet fréquemment d’information a priori pour les applications
concernées par ce travail (forages en géotechnique par exemple). Ces modèles peuvent être
homogènes ou hétérogènes, c’est-à-dire composés de groupes de géométries et de résistivités
variables en fonction de l’information a priori disponible. Un poids par groupe peut être
donné pour le modèle de référence. De cette manière, nous pouvons définir un certain degré
de certitude pour l’information a priori utilisée et lorsque ce poids est fort, l’algorithme aura
tendance à ne pas trop s’éloigner du modèle de référence. Lorsque ce poids est nul, la
contrainte sur le modèle de référence ne s’applique pas et la fonction objectif a simplement la
forme d’un ajustement par moindres carrés sur les données. Il est également possible de
relâcher la contrainte sur le modèle de référence au cours de l’inversion afin d’orienter la
direction de minimisation au début du processus uniquement, à un moment où l’information a
priori est cruciale. La moyenne des résistivités apparentes peut être utilisée comme modèle de
référence homogène dans le cas où aucune autre information a priori n’existe. Dans ce cas, la
reconstruction obtenue ne s’éloignera pas trop de cette valeur de référence.
Nous n’utilisons pas de lissage limitant les variations de résistivité entre deux cellules
adjacentes dans cette version de notre algorithme. Un lissage des paramètres du modèle est
généralement appliqué afin de réduire le domaine d’équivalence de la solution. Le modèle
référence peut également être utilisé à cette fin dans notre algorithme d’inversion. De plus,
comme nous l’avons dit précédemment, un lissage ne nous semble pas être la meilleure
contrainte à utiliser par rapport aux cibles que nous cherchons, ces dernières présentant
fréquemment des limites très franches (fissures dans la roche, délaminations dans le béton,
interface entre le sol et le substratum). Nous pouvons d’ailleurs voir dans Lesur et al. (1999)
que le lissage utilisé est en conflit avec la forme supposée des cibles recherchées. Des
réglages délicats ainsi que l’utilisation d’une fonction de pénalisation (favorisant une certaine
discontinuité de résistivité entre deux cellules adjacentes) doivent être utilisés pour améliorer
le résultat. Comme le relèvent les auteurs, cette fonction de pénalisation est une forte
contrainte supplémentaire sur le modèle qui nécessite de très bonnes informations a priori.
Son utilisation semble donc très délicate.
L’utilisateur peut également rentrer une valeur maximale et minimale pour la résistivité des
cellules du modèle. Lorsqu’une des cellules approche cette valeur limite, la composante du
vecteur de mise à jour de cette cellule est progressivement diminué. Cela permet de
contraindre le résultat de l’inversion et d’éviter l’apparition de résistivités aberrantes dans le
modèle. Nous ne fixons toutefois pas des limites rigides pour la conductivité du modèle. Il y a
plusieurs raisons à cela. Le fait de fixer de manière rigide la conductivité de certaines cellules
141
approchant les limites prédéfinies peut créer des instabilités dans le processus d’inversion. De
plus, la fiabilité de l’information a priori ne peut jamais être parfaitement garantie.
E% i =
(E i −1
− Ei ) (4.86)
i
E
En général, nous mettons fin au processus d’inversion lorsque ce taux de variation est
inférieur à 5%. Cette valeur limite pour le taux de variation est couramment utilisée en
géophysique (Loke and Barker, 1996a).
Il est de même nécessaire de définir une valeur optimale pour la fonction objectif, tout en
tenant compte du bruit de mesure. En effet, si la valeur de la fonction objectif est très
supérieure à la valeur optimale, cela signifie en général que la variance des données est sous-
estimée ou encore que le processus itératif n’a pas été suffisamment prolongé. Dans ce cas,
nous risquons de manquer certaines structures importantes dans le modèle. Dans le cas où la
valeur de la fonction objectif est plus petite que la valeur optimale, cela peut signifier que le
modèle est ajusté aux données au delà du niveau de bruit. En théorie, les écarts de prédiction
aux données ne doivent pas être inférieurs aux erreurs de mesure. Cela peut également
signifier que la variance des données est surestimée. Cependant, il difficile d’évaluer
correctement la variance des données (Zhou et Dahlin, 2003) et donc, la valeur optimale pour
la fonction objectif.
Dans ce qui suit, nous déterminons la valeur optimale de la fonction objectif qui concerne
l’ajustement des données par moindres carrés (on ne considère pas la partie relative au modèle
de référence). Nous supposons ici que les erreurs suivent une distribution normale, ce qui
devrait être le cas pour une minimisation par moindres carrés.
ρ a = ρ a* (1 + b randn ) = ρ a* (1 + τ ) (4.87)
avec ρa la résistivité apparente bruitée, ρa* la résistivité apparente non bruitée (a priori
inconnue, sauf dans le cas de modélisations numériques), b un niveau de bruit (par exemple
142
b=0.05 pour 5%) et randn une fonction donnant une valeur aléatoire suivant une distribution
normale de moyenne nulle et de variance (et d’écart type) unité.
Pour la fonction objectif utilisant le logarithme des données, nous pouvons écrire :
( )
ln ( ρ a ) = ln ρ a* + ln (1 + τ ) (4.88)
En supposant que τ est petit (bruit faible, en pratique inférieur à 20%, soit |τ| ≤ 0.2), nous
pouvons alors effectuer un développement limité et écrire :
ln (1 + τ ) ≈ τ (4.89)
donc
( )
ln ( ρ a ) ≈ ln ρ a* + τ (4.90)
( ( )) + v (τ ) = v (b randn )
v ( ln ( ρ a ) ) ≈ v ln ρ a* (4.91)
car la variance sur la solution exacte est nulle. Nous obtenons finalement :
v ( ln ( ρ a ) ) ≈ b v ( randn ) = b (4.92)
Nous voyons donc que la variance sur le logarithme des résistivités apparentes est une
constante dépendant du niveau de bruit choisi. Si ce niveau de bruit est le même pour toutes
les données, la valeur optimale de la fonction objectif vaut :
N
E* ≅ (b) (4.93)
2
Cette estimation de la valeur optimale n’est toutefois valable que lorsque l’influence du
modèle de référence est nulle, lorsque nous ne cherchons qu’à ajuster les données calculées et
mesurées. Lors de l’utilisation d’un modèle de référence, la valeur optimale de la fonction est
supérieure à E*, sauf si le modèle final respecte exactement le modèle de référence (ce qui
n’est pas l’objectif de l’inversion).
143
nombreux paramètres inconnus. L’algorithme utilisé est donc robuste, évite le stockage
et l’inversion de matrices de grandes tailles et limite au maximum le nombre de
problèmes directs à résoudre durant le processus itératif. Il ne nécessite également
qu’un nombre minimum de réglages pour obtenir un résultat satisfaisant, les réglages
principaux étant la valeur du pas d’ajustement dans l’espace des paramètres et les
critères d’arrêt.
La fonction objectif choisie permet l’utilisation d’un modèle de référence par groupes
pour introduire de l’information a priori. L’utilisateur construit un modèle sur la base
d’informations disponibles puis cherche à modifier ce modèle par le biais de
l’algorithme d’inversion. L’influence des données permettra alors de transformer
certaines parties du modèle a priori.
Le gradient de la fonction objectif étant très fort à proximité des électrodes, les
paramètres du modèle dans ces régions auront une influence prédominante sur la
correction apportée au modèle. Ces fortes modifications peuvent alors créer des cas
d’équivalence. Nous pouvons limiter cet effet en diminuant l’influence des cellules
proches des électrodes.
La direction de descente est obtenue selon une méthode de plus grande pente pour la
première itération, puis, pour les itérations suivantes, par une méthode de gradients
conjugués afin de limiter les oscillations en direction du minimum. Dans la méthode des
gradients conjugués, la direction de descente choisie est composée du gradient de la
fonction objectif pour le modèle courant conjuguée aux directions de descente des
itérations précédentes. Dans la version actuelle de l’algorithme, le pas est choisi
constant.
144
CHAPITRE V
FIABILITE DES
RECONSTRUCTIONS
145
146
V.1 LA FIABILITE DES MODELES INVERSES
Lors d’une procédure de modélisation inverse, il est nécessaire de déterminer si les structures
modélisées sont exigées par les données ou sont des artefacts du processus d’inversion. Cette
étude est particulièrement utile lorsque le modèle présente de forts contrastes de résistivité
vers la surface (permafrost, cavités, dalles). Dans le cas d’un problème inverse linéaire, il est
courant d’évaluer une matrice de résolution des paramètres du modèle et des données (voir
par exemple Menke, 1989). Cette approche n’est toutefois qu’une approximation dans le cas
d’un problème inverse non-linéaire et nécessite de plus le calcul explicite de la matrice
jacobienne des dérivées partielles. Or notre procédure d’inversion ne calcule pas cette matrice.
Il est donc nécessaire de définir une autre approche dans notre cas.
Une autre solution à ce problème serait de discriminer les régions du modèle qui ont une
influence sur les données de celles dont l’influence est moindre. Cela revient en fait à
quantifier la profondeur d’investigation d’une étude électrique. Les approches les plus
traditionnelles calculent le signal maximum en profondeur (Roy and Apparao, 1971) ou la
profondeur médiane d’investigation (Edwards, 1977) pour un terrain homogène. Lorsque le
sous-sol présente de forts contrastes de résistivité, ces méthodes ne sont toutefois plus
applicables. De plus, pour des modèles tridimensionnels à géométries complexes, les solutions
analytiques permettant de définir des profondeurs d’investigations ne sont plus applicables.
Notre approche consiste alors à utiliser le calcul de l’indice DOI (Depth Of Investigation)
pour évaluer la profondeur en dessous de laquelle les données ne sont plus sensibles aux
paramètres physiques du sous-sol (Oldenburg and Li, 1999).
Dans cette partie du travail, nous présentons tout d’abord l’implémentation du calcul de
l’indice DOI en utilisant la formulation de Gauss-Newton. Il nous a en effet paru nécessaire
de tester tout d’abord l’applicabilité de cette méthode dans un algorithme très fréquemment
utilisé et qui soit très similaire à la formulation inverse de Oldenburg et Li (1999). Nous
serons ensuite à même d’en tirer quelques conclusions qui pourront nous être utiles pour
transposer le calcul de l’indice DOI dans le cadre de la formulation inverse développée dans
ce travail. On notera encore que pour des mesures sur des structures tridimensionnelles
complexes ou encore des mesures en forages, le terme d’indice DOI n’est peut-être pas idéal.
Nous proposons alors d’utiliser le terme de Region Of Investigation (ROI) qui est plus
général.
147
V.2 LA METHODE DE GAUSS-NEWTON ET L’INDICE ROI
Le programme RES2DINV est utilisé pour inverser les résistivités apparentes mesurées par
une méthode de Gauss-Newton avec la modification de Marquardt-Levenberg (Ellis and
Oldenburg, 1994a ; Loke and Barker, 1996a ; Farquharson and Oldenburg, 1998). Cette
formulation est identique à l’équation 4.20, avec toutefois l’adjonction de matrices de lissages
et l’utilisation d’un modèle de référence. Nous utilisons donc la formulation suivante :
(Y i
T
)
R d Yi + λk FR ∆m i = YiT R d ei − λk FR ( m i −1 − m 0 )
avec FR = α s R s + α x CTx R x Cx + α z CTz R z Cz (5.1)
où i est l’itération courante, ∆mi est la modification à apporter aux paramètres du modèle, mi-1
est le vecteur contenant le logarithme des résistivités du modèle, m0 est un modèle de
référence homogène, ei est le vecteur des différences entre les logarithmes des résistivités
apparentes mesurées et calculées. Rd, Rx, Rz et Rs sont des matrices de pondération. Cx et Cz
sont des matrices de lissage et αs, αx, αz et λk sont des facteurs d’amortissement. Yi est la
matrice jacobienne des dérivées partielles telle qu’elle a été définie plus haut. Le problème
direct est résolu par méthode EF et la topographie peut être prise en compte dans le modèle
par distorsion du maillage (Loke, 2000).
La méthode de calcul de l’indice ROI (indice DOI de Oldenburg and Li, 1999) effectue deux
inversions à partir du même jeu de données en utilisant différentes valeurs pour le modèle de
référence m0 dans l’équation (5.1). La valeur de l’indice ROI pour une cellule du modèle est
donnée par :
mA ( x, z ) − mB ( x, z )
RAB ( x, z ) = (5.2)
mA − mB
avec mA et mB les deux modèles de référence utilisés. La valeur de R va approcher 0 dans les
parties du modèle où les deux inversions reproduisent la même valeur de résistivité. La
résistivité des cellules est alors bien contrainte par les données. Dans les régions où les
données ne fournissent que peu d’information, R va approcher la valeur de 1 car la résistivité
de ces cellules sera similaire à la résistivité du modèle de référence. Ceci va particulièrement
se produire à grande profondeur ainsi que sur les côtés des profils. Afin de réduire l’effet du
choix du facteur αs ainsi que des résistivités initiales mA et mB, un indice normalisé a
également été proposé par Oldenburg et Li (1999) :
148
mA ( x, z ) − mB ( x, z )
R ( x, z ) = (5.3)
RM ( mA − mB )
avec RM la valeur maximale de l’indice ROI calculée avec l’équation (5.2) sur le modèle.
Le programme RES2DINV a été adapté au calcul de l’indice ROI. Pour des mesures en
surface, l’extension verticale du modèle 2D doit être tout d’abord prolongée à une profondeur
suffisante de façon à ce que les données mesurées contiennent très peu d’information
concernant la résistivité des cellules les plus profondes. La figure 5.1 montre l’agencement
des cellules du modèle que nous avons utilisé pour le calcul de l’indice ROI dans RES2DINV.
La position horizontale des points de données est placée au centre du quadripôle utilisé pour la
mesure alors que la position verticale est fixée par la profondeur médiane d’investigation
(Edwards, 1977). Nous avons utilisé la profondeur médiane d’investigation du plus grand
dispositif de mesure pour estimer la profondeur d’investigation maximale de la série de
mesures. Pour déterminer la profondeur optimale à accorder à nos maillages tout en
optimisant le temps de calcul, nous avons répété les calculs d’indice ROI en utilisant des
modèles où la profondeur maximale de la dernière couche variait de 2 à 5 fois la profondeur
d’investigation maximale. Nous avons constaté que les valeurs de ROI sont généralement
beaucoup plus grandes que 0.2 pour des profondeurs supérieures à 3 fois la profondeur
d’investigation maximale (Marescot et al. 2003b). Suivant Oldenburg et Li (1999), la valeur
de ROI augmente rapidement avec la profondeur pour des valeurs supérieures à 0.1. C’est
pourquoi nous avons choisi d’étendre la profondeur du maillage à 3.5 fois la profondeur
d’investigation maximale estimée. La figure 5.2 présente le type de modèle 2D étendu qui
peut être utilisé pour des mesures entre forages ou entre un forage et la surface. L’extension
latérale du modèle doit dans ce cas être également envisagée (Marescot and Loke, 2004).
La valeur du facteur αs, qui détermine le degré d’impact du modèle de référence sur le
processus d’inversion, a été fixée à 0.01 fois la valeur des facteurs d’amortissement αx et αz
(fixés à 1.0). De par la procédure de normalisation, la résistivité en bas des modèles étendus
peut ne pas atteindre la valeur de la résistivité du modèle de référence. Selon Oldenburg et Li,
il ne faut pas accorder trop d’importance aux détails des figures de ROI lorsque la valeur de
cet indice est supérieure à 0.1. La profondeur d’investigation est indiquée par la profondeur où
le gradient de l’indice ROI est important. Pour le calcul de l’indice ROI, il est nécessaire de
définir si le modèle perturbé doit être plus conducteur ou plus résistant que m0 et quel doit être
le facteur multiplicatif. Nous devons également décider si nous voulons faire la différence
entre m0 et un modèle plus résistant (ou plus conducteur) ou entre deux modèles
respectivement plus résistant et conducteur que m0. Nous avons utilisé des modèles perturbés
symétriquement avec une résistivité valant 0.1 et 10 fois la valeur de m0. En outre, nous avons
effectué des tests avec des valeurs extrêmes pour le facteur multiplicatif (jusqu’à 100). Les
figures de ROI qui en résultent se sont montrées très semblables, avec quelques variations qui
149
n’auraient pas eu de grandes conséquences sur l’interprétation. Cela s’explique en partie par
l’opération de normalisation de R.
150
V.2.2 Exemples préliminaires
Un exemple synthétique simple (Marescot and Loke, 2003) est illustré figure 5.3, où une
acquisition en dipôle-dipôle est simulée sur un modèle présentant une cavité (résistivité très
élevée, 200000 Ωm) dans un substratum plus conducteur (1000 Ωm). La figure 5.3 présente le
modèle inversé avec des profondeurs étendues ainsi que le profil de l’indice ROI (modèles
perturbés symétriquement avec une résistivité valant 0.1 et 10 fois la valeurs de
m0=1916 Ωm). L’augmentation rapide de l’indice ROI sur la droite du profil indique que la
profondeur d’investigation est plus faible à l’aplomb de la cavité (ROI≅1 à moins de 10 m de
profondeur). La profondeur d’investigation est plus importante sur la gauche du profil où la
résistivité est plus faible. Certains artefacts produits par l’inversion (probablement dus aux
contraintes de lissage et au fort contraste de résistivité) sont également mis en évidence par
l’indice ROI. L’utilisation de résistivités valant 0.01 et 100 fois la valeurs de m0 donne des
résultats très semblables.
Dans l’exemple de la figure 5.5, une acquisition forage-surface a été effectuée sur un site test
vers l’Université de Lausanne. Le but d’une telle acquisition surface-forage est de tenter
d’augmenter notre connaissance du sous-sol loin de la surface ou du forage. Dans la région
étudiée, le substratum tertiaire, composé de marnes et de grès, est recouvert par environ 30 m
de sédiments quaternaires (argiles, sables et graviers). Lors des mesures, une paire
d’électrodes de courant et de potentiel est déplacée dans le forage alors qu’une autre paire
d’électrodes est déplacée en surface (figure 2.7d). De plus, des données de surface
uniquement ont également été collectées en utilisant un dispositif Wenner-Schlumberger. Au
total, 2543 points de mesure sont utilisés pour l’inversion. Le résultat de l’inversion ainsi que
la coupe de l’indice ROI sont montrés dans la figure 5.5. Le modèle de référence utilisé est un
demi-espace homogène de résistivité 36.4 Ωm. Le modèle inversé est en accord avec les
informations lithologiques dans les sédiments quaternaires jusqu’à une profondeur de 20 m
environ. Certaines structures, tels le niveau de la nappe ou encore le bloc de calcaire rencontré
dans le forage, peuvent être identifiés sur le profil. Toutefois, un certain nombre d’artefacts
peut également être observé sur le profil de l’indice ROI. On remarque également la rapide
décroissance de la résolution de l’étude loin du forage et de la surface, comportement en
accord avec les conclusions que nous avions tirées sur la fonction de sensibilité des dispositifs
surface-forage (Chapitre II). Cela semble indiquer de manière très explicite la forte limitation
d’utilisation de ce type de mise en œuvre (Leroux, 2000).
151
Figure 5.3 : Modèle synthétique d’une cavité et sa réponse électrique modélisée en dipôle-dipôle. Le résultat de
l’inversion ainsi que l’indice ROI sont présentés.
152
Figure 5.4 : Résultat de l’inversion et du calcul de l’indice ROI pour un panneau électrique dont une partie des
électrodes est immergée (à gauche du point indiqué par une flèche). Mesures en milieu littoral (Danemark).
Figure 5.5 : Résultat de l’inversion d’un panneau électrique en surface-forage et image de l’indice ROI.
153
Résumé : La méthode de Gauss-Newton et l’indice ROI
La méthode de calcul de l’indice ROI (indice DOI de Oldenburg and Li, 1999) effectue
deux inversions à partir du même jeu de données en utilisant différentes valeurs pour le
modèle de référence. La valeur de cet indice va approcher 0 dans les parties du modèle
où les deux inversions reproduisent la même valeur de résistivité. La résistivité des
cellules est alors bien contrainte par les données. Dans les régions où les données ne
fournissent que peu d’information, l’indice va approcher la valeur de 1 car la résistivité
de ces cellules sera similaire à la résistivité du modèle de référence. Des exemples
synthétiques et de terrain, inversés avec la méthode de Gauss-Newton, montrent la
pertinence de cette approche.
154
CHAPITRE VI
MODELISATION SYNTHETIQUE
155
156
Nous présentons ici une série de modélisations synthétiques, afin de mieux cerner les
possibilités ainsi que les limites de notre algorithme d’inversion. Nous pouvons insister sur le
fait que cet algorithme est actuellement très simple et ne comporte en particulier aucune
contrainte sur un lissage spatial des résistivités.
Un premier modèle est proposé en guise d’introduction. Ce modèle comprend uniquement des
électrodes en surface et permet de présenter le comportement général de notre algorithme. Le
second modèle, bien plus complexe, comporte des électrodes autour d’une structure à
géométrie réellement 3D. Pour les deux modèles, les éléments du maillage utilisés pour la
résolution du problème direct EF représentent également les paramètres inconnus du problème
inverse.
Dans ce qui suit, nous appellerons données simulées les données synthétiques calculées sur le
modèle puis introduites dans le problème inverse et données calculées la réponse électrique
d’un modèle obtenu à une itération donnée du processus d’inversion. Un bruit statistique,
figurant le bruit de mesure, est ajouté aux données simulées sur un modèle avant inversion en
utilisant la fonction randn du logiciel Matlab.
Le premier modèle consiste en un demi-espace dont la surface est plane et dans lequel nous
plongeons une forme tridimensionnelle (une structure en forme de « L »). Cette simulation
représente une situation très courante en géophysique, où les capteurs (électrodes) ne peuvent
être mis qu’en surface. Les dimensions de cette hétérogénéité sont données dans la figure 6.1.
Nous fixons la valeur de la résistivité de l’encaissant à 100 Ωm (0.01 S/m). La résistivité de
l’hétérogénéité sera fixée à 10 Ωm (0.1 S/m) ou 1000 Ωm (0.001 S/m) selon les simulations.
Le maillage utilisé dans cet exemple est composé d’hexaèdres à 8 nœuds pour le problème de
diffusion (DTH8) formant une maille régulière dans la zone centrale où sont situées les
électrodes et l’anomalie. Ce maillage régulier est composé de cellules de 1 m3, s’étend jusqu’à
une profondeur de 10 m et représente une surface carrée de 32 m de côté. La dimension des
mailles augmente en direction des bords du modèle afin de pouvoir imposer des limites de
potentiel nul. Ce maillage comprend 18816 éléments et 21015 nœuds au total.
157
Figure 6.1 : Modèle et maillage utilisé pour la simulation sur un demi-espace.
Un total de 225 électrodes est disposé selon une grille régulière de 15 électrodes par 15
électrodes espacées de 2 m selon les directions x et y. Nous simulons sur ce modèle une
acquisition effectuée en dipôle-dipôle équatorial. La structure ainsi que la distribution de
sensibilité de ce dispositif sont représentées dans la figure 6.2. Nous remarquons que cette
158
configuration présente une région de sensibilité positive entre les deux dipôles, flanquée de
deux régions de sensibilité négative de plus faible dimension en surface. Plus en profondeur,
la sensibilité de la configuration est clairement positive. Ce dispositif semble donc bien
correspondre à nos attentes puisque nous désirons imager la partie du sous-sol située à
l’aplomb des quatre électrodes. Nous pouvons relever que le terme de dipôle est relativement
impropre ici, étant donné la dimension non négligeable des paires d’électrodes de mesure et
de courant, relativement à la taille totale du dispositif. Certains auteurs utilisent le terme de
bipôle (par exemple Daniels, 1977 ; Bing and Greenhalg, 2000). Nous garderons toutefois ici
le terme de dipôle fréquemment utilisé en prospection géophysique. Comme le montre la
figure 6.2, la distance entre le dipôle de mesure et le dipôle de courant (m) peut varier,
permettant ainsi une prospection du sous-sol en profondeur. Nous utilisons dans cette
simulation des dipôles dont la taille (l) est 4 m et un écartement entre les dipôles m de 4 à
20 m. Nous aurions pu également utiliser des dipôles de tailles l différentes afin d’augmenter
la quantité d’information collectée mais cela accroît également le nombre de points sources
dans la simulation. Une taille de dipôle fixée à 4 m garantit de plus la convergence de la
modélisation EF (nous avons 5 nœuds par dipôle de courant). Les dispositifs sont orientés
tantôt selon l’axe x, tantôt selon l’axe y, afin d’appréhender les variations tridimensionnelles
du modèle (Habberjam, 1979). Un total de 2288 données est ainsi collecté en utilisant 338
couples sources.
Le dipôle-dipôle équatorial n’est pas le dispositif le plus efficace du point de vue de la rapidité
de la résolution du problème direct. En effet, très peu de différences de potentiel sont
collectées pour chaque couple source (maximum 11 pour cette séquence). La vitesse de
résolution du problème direct augmentant avec le nombre de couples sources utilisé, il est
intéressant d’utiliser un minimum de couples sources tout en récupérant un maximum de
valeurs de potentiel. Il est possible de collecter une plus grande quantité de points par couple
source en utilisant un dispositif dipôle-dipôle axial, mais cela se fait au détriment de la
159
couverture horizontale des mesures sur les bords du modèle. De plus, l’information collectée
n’est pas réellement 3D, bien que le dipôle-dipôle axial soit relativement sensible aux
hétérogénéités latérales. Le dispositif dipôle-dipôle axial n’est donc pas très approprié pour
une prospection 3D, à moins que la grille d’électrodes utilisée soit de dimension importante.
En revanche, le dipôle-dipôle équatorial permet d’obtenir des informations sur les bords du
modèle.
Afin de tester les possibilités réelles de l’algorithme, nous n’utiliserons ici que des
informations disponibles dans la pratique. En particulier, aucune résistivité n’est connue a
priori : le modèle de départ sera homogène, sa résistivité étant fixée à la résistivité apparente
moyenne simulée. De plus, aucun modèle de référence ne sera utilisé. Nous appliquons ici un
niveau de bruit sur les mesures de 1%. Les positions des électrodes sont par contre
considérées comme parfaitement connues.
La dimension du pas d’ajustement des paramètres est définie empiriquement et ce dernier est
constant au cours du processus itératif (IV.8). Le choix d’une dimension de pas constante
n’est sans doute pas optimal mais permet une économie substantielle de temps, aucune
recherche linéaire n’étant nécessaire. Dans le module INVS, la longueur du pas est définie en
fonction du nombre de couples sources utilisés (dans ce cas NCS=338) :
µ
α= (6.1)
NCS
avec µ un facteur devant être réglé par l’utilisateur. Cette normalisation est naturelle car la
dimension du gradient de la fonction objectif dépend du nombre de couples sources.
Des procédures de stabilisation du processus inverse doivent également être mises en œuvre.
Nous diminuons d’un facteur 10 la valeur du gradient de la fonction objectif pour la première
couche de cellules en surface. Comme ces cellules sont au contact des électrodes, elles
présentent, comme nous l’avons vu, de très fortes valeurs de sensibilité qu’il est nécessaire
d’atténuer. Aussi, les propriétés électriques de la première couche de cellules ne devraient pas
trop évoluer au cours du processus d’inversion.
Les données bruitées simulées dans le cas de l’hétérogénéité conductrice sont présentées par
ordre croissant de résistivité apparente dans le figure 6.3. Nous pouvons noter que le corps
conducteur provoque une nette décroissance de la résistivité apparente. Nous pouvons
160
également remarquer que 409 données sont supérieures à 100 Ωm : ce phénomène, plus
fréquent pour les dispositifs de grandes tailles, résulte de relations complexes entre la
géométrie de l’hétérogénéité et les régions de sensibilité négative du dispositif utilisé.
Figure 6.3 : Résistivités apparentes pour la simulation sur une hétérogénéité conductrice (10 Ωm) plongée dans
un demi-espace homogène (100 Ωm) et pour un dispositif dipôle-dipôle équatorial.
161
Figure 6.5 : Résultat de l’inversion à l’itération 10 dans le cas de l’hétérogénéité conductrice.
Comme toutes les résistivités apparentes sont positives (> 49.3 Ωm), une inversion avec le
logarithme des données peut être tenté. En fonction de ce qui a été dit plus haut (IV.8), la
valeur optimale E* de la fonction objectif, pour ce nombre de données et ce niveau de bruit,
est de l’ordre de 10. Il est toutefois fort probable que le processus converge en-dessous de E*
dans le cas de données synthétiques générées en utilisant un bruit idéal et de faible amplitude.
162
La figure 6.5 montre le résultat de l’inversion à l’itération 10 en utilisant µ=0.05. La
résistivité des cellules est représentée selon des coupes horizontales et verticales en utilisant
une échelle logarithmique des résistivités. Nous pouvons relever la reconstruction correcte de
la position latérale du corps conducteur, bien que celui-ci apparaisse légèrement plus large et
trop résistant par rapport au modèle (au minimum 48 Ωm). Le contraste retrouvé n’est que de
2, ce qui est bien inférieur au contraste réel (10). Nous voyons ici que le théorème
d’équivalence peut se traduire par la reconstruction d’un corps plus large et moins conducteur
en profondeur.
Nous proposons, dans une approche purement empirique, de pondérer les contributions au
gradient de la fonction objectif en fonction de la profondeur de chaque élément de manière
linéaire, d’autres types de pondérations pouvant être utilisés. La contribution élémentaire au
gradient pondéré vaut alors, pour une cellule k :
163
pk
hkw = hk (6.2)
pmoy
Figure 6.6 : Résultat de l’inversion à l’itération 11 dans le cas de l’hétérogénéité conductrice et pour un
pondération linéaire en fonction de la profondeur.
164
VI.2.1 Hétérogénéité résistante
La même étude a été menée sur une hétérogénéité résistante (1000 Ωm). Nous pouvons noter
que le corps résistant provoque une augmentation de la résistivité apparente jusqu’à environ
140 Ωm mais la majorité des résistivités est située vers 100 Ωm (figure 6.7). Ce manque
d’amplitude dans la valeur de la résistivité apparente fait que ce type de structure résistante est
difficile à imager. Comme dans le cas d’un corps conducteur, nous pouvons noter que toutes
les résistivités apparentes sont positives (supérieures à 91.4 Ωm) et que certaines valeurs de la
résistivité sont inférieures à 100 Ωm.
Figure 6.7 : Résistivités apparentes pour la simulation sur une structure résistante (1000 Ωm) plongée dans un
demi-espace homogène (100 Ωm) et pour un dispositif dipôle-dipôle équatorial.
165
Figure 6.8 : Convergence du processus inverse dans le cas de l’anomalie résistante.
166
Figure 6.9 : Résultat de l’inversion à l’itération 10 dans le cas de l’hétérogénéité résistante et pour un
pondération linéaire en fonction de la profondeur.
167
VI.2 DONNEES COLLECTEES SUR DES STRUCTURES DE
GEOMETRIE COMPLEXE
VI.2.1 Le modèle
Nous avons appliqué notre algorithme au cas de données simulées sur une structure 3D à
géométrie complexe. Le modèle consiste en un parallélépipède (735 m3) dans lequel sont
plongées deux hétérogénéités (figure 6.10). La première hétérogénéité figure une structure
horizontale d’épaisseur réduite (10 m3), la seconde une structure plutôt verticale de volume
plus important (21 m3). Les dimensions exactes des hétérogénéités sont données dans la figure
6.10.
Ces deux hétérogénéités ont donc un volume plutôt modeste relativement à la dimension de la
structure globale. Par conséquent, il ne sera pas évident de les imager par la méthode
électrique, ce qui constitue une excellente opportunité de tester notre algorithme d’inversion.
Ce modèle peut figurer un bloc de matériau ou un élément architectural posé sur une surface
isolante. Il n’y a en effet pas de réel contact électrique entre la base du bloc et le sol, à la
différence d’une colonne par exemple. Cet exemple peut toutefois se généraliser à toutes
sortes de structures rencontrées dans la pratique (pilier de pont, éprouvettes par exemple). Une
condition de potentiel imposé nul est appliquée en un nœud unique vers le bas du modèle
(figure 6.10). Dans la pratique, nous pourrions soit négliger ce paramètre, soit effectivement
mettre à la terre une partie du bloc, ce qui revient alors à imposer un potentiel constant en ce
point.
Le maillage utilisé dans cet exemple est composé d’hexaèdres à 8 nœuds. Les cellules sont
cubiques de côté 0.5 m à l’exception des cellules au bas du modèle, utilisées pour imposer la
condition de potentiel nul et qui ne sont pas auscultées par les dispositifs électriques. Ce
modèle comprend 5096 éléments hexaédriques et 6075 nœuds.
168
Figure 6.10 : Modèle et maillage utilisé pour la simulation sur un bloc de matériau 3D.
169
contrairement à ces auteurs, nous ne nous limitons pas au cas où la dimension de AM est
identique à la dimension de BN, tous les écartements d’électrodes étant pris en compte dans
notre jeu de données. Il en résulte un total de 11466 différences de potentiel mesurées pour
936 couples source (NCS=936). Bien que comportant beaucoup de mesures, une telle
acquisition est parfaitement envisageable dans la pratique en utilisant un résistivimètre
disposant de plusieurs canaux de mesure. Le dispositif utilisé se prête d’ailleurs bien à ce type
d’acquisition en permettant la mesure de plusieurs différences de potentiel pour un même
couple source (jusqu’à un maximum de 36 différences de potentiel par couple source dans le
cas de notre modèle). Nous pouvons toutefois relever que le dispositif utilisé n’est pas
nécessairement le plus performant pour imager ce type de structure et que ce problème
mériterait une étude plus approfondie.
Nous pouvons déjà remarquer que l’évaluation explicite de la matrice de sensibilité pour une
résolution par une formulation de Gauss-Newton serait très lourde et nécessiterait
l’application de nombreuses approximations. Dans notre algorithme, par contre, la seule
approximation effectuée est celle inhérente à l’utilisation de la méthode des éléments finis.
Cette approximation peut être relativement bien contrôlée en s’assurant de la convergence de
la modélisation EF.
Les dimensions des hétérogénéités ainsi que les caractéristiques du maillage pour cette
première série de simulations sont données dans la figure 6.10. Nous fixons la valeur de la
résistivité de l’encaissant à 100 Ωm (0.01 S/m). Le premier modèle est créé en fixant la
résistivité des deux hétérogénéités à 10 Ωm (0.1 S/m). Dans le second modèle, la résistivité de
l’hétérogénéité horizontale est fixée à 10 Ωm (0.1 S/m), alors que la résistivité de
l’hétérogénéité verticale est fixée à 1000 Ωm (0.001 S/m). La figure 6.11 montre les gammes
de valeurs de résistivité apparente simulées sur les deux modèles. Nous pouvons constater
qu’il est parfaitement possible de déceler la présence des deux hétérogénéités conductrices sur
les résistivités apparentes. De même, les corps résistants et conducteurs sont bien visibles
lorsque nous observons les données simulées sur le second modèle.
Nous pouvons remarquer que la résistivité apparente simulée ne revient pas à la valeur de
l’encaissant pour les dispositifs situés vers la partie supérieure du bloc (altitude supérieure à
13 m). Cela vient en partie du fait que le bloc présente une frontière de flux nul en son
sommet (contrairement à un colonne qui supporterait un toit non-électriquement isolant). Le
champ électrique est donc confiné dans cette partie du modèle et l’influence de l’hétérogénéité
supérieure est très importante.
Nous ne présentons pas de simulation utilisant une hétérogénéité horizontale résistante. Nous
avons en effet constaté que cet arrangement d’électrodes n’est pas capable de détecter
170
correctement ce type de structure, car elle a peu d’effet sur les résistivités apparentes
simulées. Ce manque de sensibilité à des structures fines et résistantes situées parallèlement
au plan des tomographies est une limitation intrinsèque de la méthode de prospection
électrique. Des lignes d’électrodes verticales pourraient certainement mieux appréhender ce
type de structure.
Figure 6.11 : Distribution des résistivités apparentes pour chaque tomographie en fonction de la hauteur du bloc.
Comme les résistivités apparentes simulées sont toutes positives, l’inversion avec le
logarithme des données peut être tentée. La valeur optimale E* de la fonction objectif pour ce
nombre de données et ce niveau de bruit (1%) est comprise entre 50 et 60. Nous pouvons déjà
relever qu’il est probable que le processus converge en dessous de E* car nous sommes dans
le cas de données synthétiques générées en utilisant un bruit idéal de faible amplitude. Là
encore, l’utilisation du taux de variation entre deux itérations comme second critère de
convergence peut s’avérer utile.
Pour cette première série d’inversions, un modèle de départ homogène de résistivité égale à la
résistivité apparente moyenne simulée est choisi. Différentes simulations ont été tentées en
utilisant des pas de dimensions variées (entre µ=0.01 et µ=1). Comme le montre la figure
6.12, si le pas est trop petit (µ=0.01), le processus a tendance à présenter une convergence
linéaire lente, quel que soit le modèle considéré. Nous pouvons par contre remarquer que la
diminution de la valeur de la fonction objectif est plus forte suivant le modèle considéré pour
des facteurs µ supérieurs à 0.01. Dans le cas du modèle contenant les deux hétérogénéités
conductrices, la décroissance reste approximativement linéaire pour µ=0.01 à µ=0.35. Il est
nécessaire de prendre µ=1 pour avoir un convergence rapide. Dans le cas du modèle contenant
un corps résistant et un corps conducteur, nous pouvons constater une accélération de la
convergence pour des facteurs supérieurs à µ=0.1. Dans ce cas, la décroissance de la fonction
objectif tend à suivre une loi de puissance.
171
Figure 6.12 : Convergence du processus inverse pour les deux simulations effectuées sur le bloc 3D.
La figure 6.13 montre le résultat de l’inversion à l’itération 16 en utilisant µ=1 pour le modèle
contenant deux corps conducteurs. Nous représentons la résistivité des cellules selon des
coupes horizontales et verticales. Nous pouvons relever la reconstruction correcte de la
position latérale des hétérogénéités conductrices bien que celles-ci apparaissent comme plus
larges et trop résistantes (au minimum 43 Ωm) par rapport au modèle bien que l’ajustement
des données soit bon. Le contraste retrouvé n’est donc que de 2, ce qui est inférieur au
contraste réel (qui vaut 10). Nous voyons donc, là encore, que les mesures électriques ne
peuvent pas bien séparer les effets du volume et du contraste (équivalence électrique).
Toutefois, le minimum de l’anomalie permet de localiser les structures dans le modèle.
172
Figure 6.13 : Résultat de l’inversion à l’itération 16 pour le modèle contenant deux corps conducteurs.
173
Figure 6.14 : Résultat de l’inversion à l’itération 15 pour le modèle contenant un corps conducteur et un corps
résistant.
174
VI.2.4 Effet du modèle de départ
Nous allons maintenant inverser le jeu de données dans le cas du modèle contenant un corps
conducteur et un corps résistant en utilisant deux modèles de départ différents. Deux
inversions sont effectuées en utilisant le maximum (166 Ωm, soit 0.006 S/m) ou le minimum
(50 Ωm, soit 0.02 S/m) de la résistivité apparente simulée pour amorcer le processus. Le pas
est réglé en utilisant un facteur µ=0.35, utilisé pour les inversions précédentes.
Figure 6.15 : Résultat de l’inversion à l’itération 19 pour le modèle contenant un corps conducteur et un corps
résistant et en utilisant un modèle de départ de 50 Ωm.
175
Comme nous pouvons le voir sur les résultats des inversions (figures 6.15 et 6.16), les
structures internes du bloc restent identifiables. Nous pouvons relever que la résistivité des
cellules, dont la sensibilité a été diminuée, n’a pas évolué. Il semble toutefois qu’un modèle
de départ à 166 Ωm donne de meilleurs résultats comme nous pouvons le voir sur l’ajustement
des données et la valeur de la fonction objective pour l’itération choisie. Le choix soigneux
d’un modèle de départ est donc de rigueur lors de la résolution d’un problème inverse utilisant
un algorithme non-linéaire. En règle générale, une valeur proche de la résistivité apparente
moyenne semble être un bon modèle de départ en absence d’informations a priori.
Figure 6.16 : Résultat de l’inversion à l’itération 17 pour le modèle contenant un corps conducteur et un corps
résistant et en utilisant un modèle de départ de 166 Ωm.
176
VI.2.5 Effet du bruit de mesure
Nous pouvons constater sur la figure 6.17 que la courbe de décroissance de la fonction
objectif présente, logiquement, une convergence à des valeurs plus élevées lorsque le niveau
de bruit augmente. La difficulté à faire diminuer la valeur de la fonction objectif est donc un
indice du niveau de bruit.
Figure 6.17 : Convergence du processus inverse pour les deux simulations effectuées sur le bloc 3D (un corps
conducteur et un corps résistant) pour différents niveaux de bruit.
Lors de l’inversion, nous voyons que les résultats restent comparables à ceux obtenus lorsque
le niveau de bruit est faible (figures 6.18 et 6.19) bien que les graphiques d’ajustement des
données reflètent le niveau de bruit utilisé. En particulier, il n’y a pas d’apparition de corps
supplémentaires de dimensions semblables à celles des deux hétérogénéités simulées et qui
induirait en erreur. Il n’y a pas non plus d’oscillation et la décroissance est similaire à celle
des modèles précédents (forte diminution de la valeur de la fonction objectif au début, puis
177
convergence plus lente). La procédure d’inversion semble donc robuste et assez insensible au
niveau de bruit.
Figure 6.18 : Résultat de l’inversion à l’itération 7 pour le modèle contenant un corps conducteur et un corps
résistant pour un niveau de bruit de 5%.
178
partie de l’absence de contrainte de lissage dans notre algorithme ainsi que des fortes valeurs
de sensibilité à proximité des électrodes.
Figure 6.19 : Résultat de l’inversion à l’itération 4 pour le modèle contenant un corps conducteur et un corps
résistant pour un niveau de bruit de 10%.
Aucune contrainte sur le modèle n’a été utilisée pour le moment. Toutefois, la fonction
objectif choisie permet également l’utilisation d’un modèle de référence par groupes pour
179
introduire de l’information a priori. Dans cette approche du problème inverse, l’utilisateur
construit un modèle sur la base d’informations disponibles puis cherche à tester et
éventuellement à modifier ce modèle par le biais de l’algorithme d’inversion.
Un modèle 3D de mêmes dimensions que précédemment est utilisé pour cette simulation.
Nous créons toutefois une hétérogénéité figurant une fissure conductrice (10 Ωm) dans un
bloc homogène (100 Ωm). Cette fissure est visible sur une des faces du modèle, sur la face
y=0, entre z=9.5 et z=11 (figure 6.20), bien que cette information ne permette pas de savoir si
la fissure est horizontale ou plutôt oblique. Nous pouvons donc tenter d’inverser nos données
en utilisant un modèle de référence figurant une fissure horizontale. Les données mesurées sur
le bloc permettront de valider ou d’invalider cette hypothèse.
Figure 6.20 : Modèle et maillage utilisé pour la simulation sur un bloc de matériau 3D contenant une fissure.
180
Figure 6.21 : Résultat de l’inversion pour le modèle contenant une fissure conductrice et un modèle de référence.
181
Une première inversion est effectuée en donnant un poids faible au modèle de référence
(Λg=0.0001 dans l’expression 4.48). Etant donné que l’information a priori utilisée est
erronée, la reconstruction obtenue ne reflète pas le modèle de référence utilisé (figure 6.21).
Dans ce cas, les données ont une influence suffisante pour que le modèle ajusté s’affranchisse
du modèle de référence utilisé. Nous pouvons noter que le résultat obtenu est très proche de la
réalité. Le pendage de la fissure est en particulier bien évalué. Le volume de la fissure est
toutefois encore trop important et le contraste de résistivité trop faible. Nous pouvons à
nouveau constater que les mesures électriques ne peuvent pas bien séparer les effets du
volume et du contraste. Des inversions ont été également effectuées en augmentant le poids de
Λg. Pour Λg=0.1, l’influence du modèle de référence erroné persiste durant le processus
d’inversion (figure 6.21). Par ailleurs, la valeur finale de la fonction objectif pour ce modèle
est légèrement plus élevée que précédemment (39.3 au lieu de 30.3), ce qui indique que ce
modèle de référence utilisé ne correspond pas à la réalité.
Nous présentons ici un exemple d’utilisation de l’indice ROI. Nous simulons l’auscultation
d’un pan du bloc précédent (figure 6.10) dans lequel est plongée une petite hétérogénéité
conductrice au lieu de la fissure. Nous ne considérons toutefois que les électrodes situées sur
la face y=0 et utilisons alors cette grille verticale de 13x8 électrodes pour simuler une
acquisition en dipôle-dipôle équatorial sur la paroi. La séquence comprend 72 couples sources
et 468 points de mesure. Un bruit de 1% est ajouté aux données.
Une première inversion est effectuée en utilisant un modèle de référence égal au modèle de
départ (85 Ωm) et un facteur Λg=0.01. Le résultat de l’inversion est montré dans la figure
6.22. Nous pouvons constater une bonne localisation du corps et une bonne estimation de la
résistivité de l’encaissant (100 Ωm). La partie profonde de l’hétérogénéité semble par contre
plus difficile à appréhender. Une seconde inversion est alors effectuée en utilisant un modèle
de départ et un modèle de référence environ 1.5 fois plus résistant (130 Ωm). Comme notre
algorithme peut ne pas converger lors de l’utilisation d’un modèle de départ trop éloigné de la
réalité, le facteur multiplicatif est choisi plus faible que pour l’indice ROI calculé
précédemment avec la méthode de Gauss-Newton (cf. chapitre V). Sur la section de l’indice
ROI, nous pouvons voir que la profondeur maximale d’investigation dans ce cas est de l’ordre
de 3 m. Dans ces conditions, la forme de l’hétérogénéité ne pourra pas être correctement
reconstruite au centre du bloc avec ce dispositif. Les fortes valeurs pour l’indice ROI vers les
électrodes sont évidemment dues au fait que nous fixons la résistivité de ces cellules durant le
processus d’inversion. Ces dernière reflètent alors directement le modèle de départ (et de
référence) utilisé.
182
Figure 6.22 : Inversion de données collectées sur une des parois du bloc avec une hétérogénéité conductrice et
figure de l’indice ROI.
183
184
CHAPITRE VII
CONCLUSIONS ET PERSPECTIVES
185
Ce travail de thèse avait pour objectif la mise au point d’un ensemble d’outils de modélisation
directe et inverse pour les données électriques sur des structures 3D à géométrie complexe.
Ces outils devaient permettre la modélisation des propriétés électriques d’un objet à partir de
données collectées avec des dispositifs électriques de géométries quelconques. Une procédure
permettant l’évaluation de la fiabilité du modèle reconstruit devait être également développée.
Nous avons défini une démarche permettant l’utilisation de CESAR-LCPC pour la résolution
du problème direct électrique, le progiciel CESAR-LCPC permettant la résolution d’un
problème de thermique linéaire en régime stationnaire, ce problème de diffusion étant
analogue au problème électrique.
Nous avons rapidement constaté que la simulation d’un grand nombre de couples source et de
points de mesure (séquence de tomographie) est impraticable dans la version standard de
CESAR-LCPC et qu’un programme utilitaire devait être élaboré dans ce but. Cette étape a
quelque peu retardé la mise au point du module d’inversion mais s’est avérée finalement très
utile. Nous avons en effet élaboré un programme interface TOMELE permettant une
186
utilisation souple et plus conviviale de CESAR-LCPC pour la simulation électrique et
permettant de profiter de tous les avantages de la méthode des éléments finis. Par le biais de
TOMELE, il est possible d’utiliser des électrodes indépendantes du maillage. Nous pouvons
donc simuler des mesures effectuées avec n’importe quel agencement d’électrodes sur un
maillage de forme quelconque. Les résistivités apparentes sont obtenues par normalisation sur
un modèle homogène de résistivité unité ce qui permet d’obtenir ce paramètre lorsque le
calcul analytique du facteur géométrique est impossible. Ce programme semble donc bien
répondre aux besoins de notre problématique et plusieurs collaborateurs du LCPC l’utilisent
actuellement avec succès.
Nous avons vu qu’il n’est pas possible d’utiliser une procédure d’élimination de la singularité
des sources pour améliorer la qualité de l’approximation pour des simulations sur des
structures à géométrie complexe (décomposition du problème en champ de potentiel primaire
et secondaire). L’architecture du maillage doit être adaptée en conséquence et suffisamment
fine dans la région où les mesures sont simulées. Les éléments qui seront utilisés pour les
simulations seront principalement des hexaèdres regroupés sous la forme de super-éléments.
Nous avons également pu voir sur les simulations que la forme de la frontière à potentiel
imposé n’a pas une importance primordiale pourvu que cette frontière soit suffisamment
éloignée de la zone d’intérêt. Il n’est toutefois pas nécessaire de s’éloigner de plus de 1.5 fois
la dimension de la région centrale où sont effectuées les mesures. Pour des modèles de
dimensions finies (éprouvettes par exemple), un potentiel imposé peut être placé en un nœud
du maillage sans créer de perturbation dans l’approximation. En général, lorsque la différence
de potentiel seule est utilisée, la valeur du potentiel imposé importe peu.
Pour garantir une bonne approximation du champ de potentiel (erreur < 5% avec une solution
analytique), nous conseillons l’utilisation d’un minimum de 5 à 6 nœuds entre les électrodes
d’injection de courant. Lorsque le contraste de résistivité est supposé très fort, un minimum de
7 ou 8 nœuds devrait être utilisé. Au besoin, des régions présentant des finesses de maillage
différentes peuvent être créées. Nous avons montré que le calcul de la résistivité apparente par
normalisation donne de meilleurs résultats que l’utilisation du facteur géométrique.
187
recours à un calcul explicite (par différences finies par exemple). Le gradient de la fonction
objectif peut ensuite être utilisé dans une méthode de descente. Cette approche est
relativement peu utilisée en inversion électrique.
Durant la phase de modélisation synthétique, nous avons pu constater que les composantes du
gradient de la fonction objectif sont très fortes pour des éléments à proximité des électrodes et
que les paramètres du modèle dans ces régions ont une influence prédominante sur la
correction apportée au modèle. Ces fortes modifications peuvent créer des cas d’équivalence
et nous devons donc limiter cet effet en diminuant l’amplitude du gradient de la fonction
objectif pour des cellules proches des électrodes.
Nous avons utilisé un modèle de référence afin de pouvoir appliquer une contrainte sur la
forme de la solution. Nous avons pu constater que le choix de ce modèle a priori est délicat et
que le poids qui lui est associé dans la minimisation doit être judicieusement choisi. Un des
critères d’arrêt pour le processus d’inversion est le taux de variation de la fonction objectif
entre deux itérations successives. Dans le cas où le niveau de bruit peut être estimé, il est
également possible d’évaluer une valeur optimale pour la fonction objectif. En général, la
combinaison de ces deux critères permet un bon diagnostic de convergence du processus
inverse.
188
VII.2 PERSPECTIVES
Nous avons fourni dans ce travail l’architecture générale d’un code d’inversion efficace en
utilisant le progiciel CESAR-LCPC. Un effort important a dû être consacré à l’implantation et
à la programmation du module dans l’environnement propre à CESAR-LCPC, ce qui s’est fait
au détriment de l’approfondissement de certains problèmes numériques. Le code d’inversion
utilisé dans ce travail mérite donc encore des raffinements. Nous pouvons en partie souligner
quelques points importants :
Nous avons utilisé un pas d’ajustement constant dans ce travail afin de limiter le nombre de
résolutions du problème direct. Cette solution n’est certainement pas la meilleure et une étude
approfondie des diverses techniques numériques disponibles doit être prévue dans le futur. De
nombreux algorithmes d’optimisation existent actuellement et peuvent être utilisés dans ce
but. Un tel développement devrait être facilité par l’augmentation de la puissance de calcul
dans les années qui viennent, puisque toute technique d’optimisation du pas impliquera des
résolutions supplémentaires du problème direct.
Il peut également être nécessaire d’introduire des matrices de lissage orienté dans l’espace
afin de stabiliser la solution. En particulier, le problème de la perte de résolution en
profondeur ainsi que de la forte sensibilité des composantes du gradient de la fonction objectif
venant d’éléments à proximité des électrodes doit être étudié. Le modèle de référence peut
être adapté et pondéré dans ce but, selon la forme du modèle et l’agencement des électrodes. Il
semble probable qu’une fois ces problèmes résolus, la qualité des reconstructions devrait être
similaire à celles obtenues en utilisant la formulation de Marquardt-Levenberg.
Il sera finalement nécessaire de tester l’algorithme avec des données réelles provenant de
différents domaines (géophysique, génie civil ou encore ingénierie biomédicale). Seul le
traitement de mesures réelles sera à même de définir les améliorations à apporter aux codes et
de cerner les besoins des utilisateurs des outils développés ici.
189
190
BIBLIOGRAPHIE
191
192
Abubakar, A. and van den Berg, P. M., 2000. Non-linear three dimensional inversion of cross-
well electrical measurements. Geophysical Prospecting, 48, 109-134.
Al-Chalabi, M., 1992. When 'Least-squares' squares least. Geophysical Prospecting, 40, 359-
378.
Archie, G.E., 1942. The electrical resistivity logs as an aid in determining some reservoir
characteristics. Trans. AIME, 146, 54.
Artus, J., 2003. Problème direct et inverse pour le suivi topographique en environnement
aquatique par tomographie de résistivité électrique. DESS de Géophysique de Surface et de
Subsurface, Institut de Physique du Globe de Paris, 64 p.
Asch, T.H. and Morrison, H.F., 1989. Mapping and monitoring electrical resistivity with
surface and subsurface electrode arrays. Geophysics, 54, 235-244.
Benderitter, Y., Jolivet, A., Mounir, A., and Tabbagh, A., 1994. Application of the
electrostatic quadrupole to sounding in the hectometric depth range. Journal of Applied
Geophysics, 31, 1-6.
Barker, R.D., 1979. Signal contribution sections and their use in resistivity studies.
Geophysical Journal of the Royal Astronomical Society, 54, 1031-1037.
Beard, L.P., Hohmann, G.W. and Tripp, A.C., 1996. Fast resistivity/IP inversion using a low-
contrast approximation. Geophysics, 61, 169-179.
Beasley, C.W. and Tripp, A.C., 1991. Application of the cross-borehole direct-current
resistivity technique for EOR process monitoring – a feasibility study. Geoexploration, 28,
313-328.
Bibby, H.M., 1978. Direct-current resistivity modeling for axially symmetric bodies using the
finite-element method. Geophysics, 43, 550-562
Bing, Z. and Greenhalgh, S.A., 1997. A synthetic study on crosshole resistivity imaging using
different electrode arrays. Exploration Geophysics, 28, 1-5.
Bing, Z. and Greenhalgh, S.A., 2000. Cross-hole resistivity tomography using different
electrode configurations. Geophysical Prospecting, 48, 887-912.
Bourennane, H., King, D., Le Parco, R., Isambert, M. and Tabbagh, A., 1998. Three-
dimensional analysis of soil and surface materials by electrical resistivity survey. European
Journal of Environmental and Engineering Geophysics, 3, 5-23.
193
Chambers, J.E., Ogilvy, R.D., Kuras, O., Cripps, J.C. and Meldrum, P.L., 2002. 3D electrical
imaging of known targets at a controlled environmental test site. Environmental Geology, 41,
690-704.
Chambers, J., Ogilvy, R. and Meldrum, P., 1999. 3D resistivity imaging of buried oil- and tar-
contaminated waste deposits. European Journal of Environmental and Engineering
Geophysics, 4, 3-14.
Chunduru, R.K., Sen, M.K. and Stoffa, P.L., 1996. 2-D resistivity inversion using spline
parameterization and simulated annealing. Geophysics, 61, 151-161.
Coggon, J.H., 1971. Electromagnetic and electrical modeling by the finite element method.
Geophysics, 36, 132-155.
Dabas, M., Tabbagh, A. and Tabbagh, J., 1994. 3-D inversion in subsurface electrical
surveying - I. Theory. Geophysical Journal International, 119, 975-990.
Dahlin, T., 1993. On the automation of 2D resistivity surveying for engineering and
environmental applications. Thèse de doctorat de l’Université de Lund, 187 p.
Dahlin, T., Bernstone, C. and Loke, M.H., 2002. A 3-D resistivity investigation of a
contaminated site at Lernacken, Sweden. Geophysics, 67, 1692-1700.
Dahlin, T. and Loke, M.H., 1998. Resolution of 2D Wenner resistivity imaging as assessed by
numerical modelling. Journal of Applied Geophysics, 38, 237-259.
Daily, W. and Owen, E., 1991. Cross-borehole resistivity tomography. Geophysics, 56, 1228-
1235.
Daily, W. and Ramirez, A., 1995. Electrical resistance tomography during in-situ
trichlorethylene remediation at the Savannah River Site. Journal of Applied Geophysics, 33,
239-249.
Daily, W., Ramirez, A., LaBrecque, D. and Barber, W., 1995. Electrical resistance
tomography experiments at the Oregon Graduate Institute. Journal of Applied Geophysics, 33,
227-237.
Das, U.C. and Parasnis, D.S., 1987. Resistivity and induced-polarization responses of
arbitrarily shaped Three-D bodies in a two-layered earth. Geophysical Prospecting, 35, 98-
109.
Dey, A. and Morrison, H.F., 1979. Resistivity modeling for arbitrarily shaped three-
dimensional structures. Geophysics, 44, 753-780.
Delaloye, R., Reynard, E., Lambiel, C., Marescot, L., Monnet, R., 2003. Thermal anomaly
and processes in a cold scree slope (Creux du Van, Switzerland). The 8th International
Conference on Permafrost, Zurich, Switzerland, July 2003, 175-180.
194
Denis. A., Marache, A., Obellianne, T. and Breysse, D., 2002. Electrical resistivity borehole
measurements: application to an urban tunnel site. Journal of Applied Geophysics, 50, 319-
331.
Draskovits, P. and Simon, A., 1992. Application of geoelectric methods using buried
electrodes in exploration and mining. Geophysical Prospecting, 40, 573-586.
Ellis, R.G. and Oldenburg, D.W., 1994a. Applied geophysical inversion. Geophysical Journal
International, 116, 5-11.
Ellis, R.G. and Oldenburg, D.W., 1994b. The pole-pole 3-D DC-resistivity inverse problem: a
conjugate gradient approach. Geophysical Journal International, 119, 187-194.
El-Qady, G. and Ushijima, K., 2001. Inversion of DC resistivity data using neural networks.
Geophysical Prospecting, 417-430.
Faes, T.J.C., van der Meij, H.A., de Munck J.C. and Heethaar, R.M., 1999. The electric
resistivity of human tissues (100 Hz - 10 MHz): a meta-analysis of review studies.
Physiological Measurement, 20,R1-R10.
Farquharson, C.G. and Oldenburg, D.W., 1998. Non-linear inversion using general measures
of data misfit and model structure. Geophysical Journal International, 134, 213-227.
Fox, R.C., Hohmann, G.W., Killpack, T.J. and Rijo, L., 1980. Topographic effects in
resistivity and induced-polarization surveys. Geophysics, 45, 75-93.
Grard, R. and Tabbagh, A., 1991. A mobile four-electrode array and its application to the
electrical survey of planetary grounds at shallow depths. Journal of Geophysical Research,
96, 4117-4123.
Griffiths, D.H. and Barker, R.D, 1993.Two-dimensional resistivity imaging and modelling in
areas of complex geology. Journal of Applied Geophysics, 29, 211-226.
Habberjam, G.M., 1979. Apparent resistivity observations and the use of the square array
technique. Gebrüder-Bornträger, Berlin-Nikolassee, 149 p.
Hesse, A., Jolivet, A. and Tabbagh, A., 1986. New prospects in shallow depth electrical
surveying for archaeological and pedological applications. Geophysics, 51, 585-594.
Holcombe, H.T. and Jiracek, G.R., 1984. Three-dimensional terrain corrections in resistivity
surveys. Geophysics, 49, 439-452.
195
Huot, F., 1999. Caractéristiques élastiques des sols. Du comportement pseudo-statique à la
propagation des ultrasons. Thèse de doctorat de l’Université de Lausanne, 414 p.
Inman, J.R., 1975. Resistivity inversion with ridge regression. Geophysics, 40, 798-817.
Jackson, P. D., Earl, S. J. and Reece, G. J., 2001. 3D resistivity inversion using 2D
measurements of the electric field. Geophysical Prospecting, 49, 26-39.
Johansson, S. and Dahlin, T., 1996. Seepage monitoring in an earth embankment dam by
repeated resistivity measurements. European Journal of Environmental and Engineering
Geophysics, 1, 229-247.
Kaufman, A.A., 1992. Geophysical field theory and method, Part A. Academic Press, Inc.,
579p.
Keller, G.V. and Frischknecht, F.C, 1966. Electrical Methods in Geophysical Prospecting.
Pergamon Press, New York, 523 p.
Lajarthe, M., Florsch, N. and Schott, J.J., 1999. Infinite elements: a refinement on the-finite
element method for 3D DC resistivity modelling. Proceedings of the 5th EEGS-ES meeting,
Budapest, Hungary, September 6-9, 1999.
Lataste, J.-F., 2002. Evaluation Non Destructive de l'état d'endommagement des ouvrages en
béton armé par mesure de résistivités électriques. Thèse de doctorat de l’Université de
Bordeaux I.
Le Masne, D. and Poirmeur, C., 1988. Three-dimensional model results for an electrical hole-
to-surface method - Application to the interpretation of a field survey. Geophysics, 53, 85-
103.
Lesur, V., Cuer, M. and Straub, A., 1999. 2-D and 3-D interpretation of electrical tomography
measurements, Part 2: The inverse problem. Geophysics, 64, 396-402.
Levenberg, K., 1944. A method for the solution of certain nonlinear problems in least squares.
Quarterly of Applied Mathematics, 2, 164-168.
Li, Y. and Spitzer, K., 2002. Three-dimensional DC resistivity forward modelling using the
finite elements in comparison with the finite-difference solutions. Geophysical Journal
International, 151, 924-934.
de Lima, O.A.L., Sato, H.K. and Porsani, M.J., 1995. Imaging industrial contaminant plumes
with resistivity techniques. Journal of Applied Geophysics, 34, 93-108.
196
Linderholm, P., Bertsch, A. and Renaud, P., 2004. Resistivity probing of multi-layered tissue
phantoms using microelectrodes, Physiological Measurement, 25, 1-14.
Lines, L.R. and Treitel, S., 1984. Tutorial: A review of least-squares inversion and its
application to geophysical problems. Geophysical Prospecting, 32, 159-186.
Lionheart, W.R.B., 2004. EIT reconstruction algorithms: pitfalls, challenges, and recent
developments, Physiological Measurement, 25, 125-142.
Loke M.H., 2000. Topographic modelling in resistivity imaging inversion. 62nd EAGE
Conference & Technical Exhibition, Extended Abstracts, D-2.
Loke, M.H., Acworth, I. and Dahlin, T., 2001. A comparison of smooth and blocky inversion
methods in 2-D electrical imaging surveys. 15th ASEG Conference & Technical Exhibition,
Extended Abstracts, Brisbane.
Loke, M.H. and Barker, R.D., 1995. Least-squares deconvolution of apparent resistivity
pseudosections. Geophysics, 60, 1682-1690.
Loke, M.H. and Barker, R.D., 1996a. Rapid least-squares inversion of apparent resistivity
pseudosections using a quasi-Newton method. Geophysical Prospecting, 44, 131-152.
Loke, M.H. and Barker, R.D., 1996b. Practical techniques for 3D resistivity surveys and data
inversion. Geophysical Prospecting, 44, 499-523.
Loke, M.H. and Dahlin, T., 2002. A comparison of the Gauss-Newton and quasi-Newton
methods in resistivity imaging inversion. Journal of Applied Geophysics, 49, 149-162.
Maillol, J.M., Seguin, M.-K., Gupta, O.P., Akhauri, H.M. and Sen, N., 1999. Electrical
resistivity tomography survey for delineating uncharted mine galleries in West Bengal, India.
Geophysical Prospecting, 47, 103-116.
Marescot, L., 2003. Un algorithme d’inversion par moindres carrés pondérés : application aux
données géophysiques par méthodes électromagnétiques en domaine fréquence. Bulletin
vaudois des Sciences Naturelles, 88, 277-300.
Marescot, L. and Chapellier, D., 2003b. 2D resistivity tomography applied to the study of
Quaternary paleo-valleys. Proceedings of the First Swiss Geoscience Meeting, Basel, 28-29
November, Switzerland.
Marescot, L., Liaci, S. et Chapellier, D., 2003a. Etude géoélectrique des cours d’eau
interglaciaires à l’Ouest de la ville de Fribourg (Suisse). Eclogae Geologicae Helvetiae, 96,
261-273.
197
Marescot, L. et Loke, M.H., 2003. Application de l’indice DOI à l’imagerie électrique 2D
pour les sous-sols à forts contrastes de résistivité. Actes du 4ème colloque Geofcan, Paris,
France, 23-24 septembre 2003.
Marescot, L. and Loke, M.H., 2004. Using the Depth Of Investigation method in 2D
resistivity imaging for civil engineering surveys. Proceedings of the SAGEEP meeting,
Colorado Springs, USA, February 22-26, 2004.
Marescot, L., Loke, M.H., Chapellier, D., Delaloye, R., Lambiel, C. and Reynard, E., 2003b.
Assessing reliability of 2D resistivity imaging in mountain permafrost studies using the depth
of investigation index method. Near Surface Geophysics, 1, 55-67.
Marescot, L., Monnet, R., Baron, L., Lambiel, C., Reynard, E., Delaloye, R. and Chapellier,
D. 2001. 2D electrical resistivity imaging in mountain permafrost studies: three challenging
surveys in the Swiss Alps and Jura Mountains. Proceedings of the 7th EEGS-ES meeting,
Birmingham, England, 104-105.
Marescot, L., Palma Lopes, S., Lagabrielle, R. and Chapellier, D., 2002. Designing surface-to-
borehole resistivity tomography surveys using the Fréchet derivative. Proceedings of the 8th
EEGS-ES meeting, Aveiro, Portugal, September, 8–12, 2002.
Marescot, L., Palma Lopes, S., Rigobert, S., Lagabrielle, R. and Chapellier, D., 2003c. 3D
resistivity finite element modelling using mesh-independent electrode location. Proceedings
of the 9th EEGS-ES meeting, Prague, Czech Republic, August 31-September 4, 2003.
Marescot, L., Palma Lopes, S., Rigobert, S., Lagabrielle, R. and Chapellier, D., 2003d.
Utilisation du code d’éléments finis CESARL-LCPC pour la modélisation électrique directe.
Actes du 4ème colloque Geofcan, Paris, France, 23-24 septembre 2003.
Marescot, L., Palma Lopes, S., Rigobert, S., Piau, J.-M., Humbert, P., Lagabrielle, R. and
Chapellier, D., 2003e. Utilisation du code d’éléments finis CESARL-LCPC pour la
modélisation de données électrique 3D. 3èmes Journées de l’Ingénieur, décembre 2003.
Marescot, L., Palma Lopes, S., Rigobert, S., Piau, J.-M., Humbert, P., Lagabrielle, R. and
Chapellier, D., 2004. Forward and inverse resistivity modelling on complex three dimensional
structures using the finite element method. Proceedings of the SAGEEP meeting, Colorado
Springs, USA, February 22-26, 2004.
Marquardt, D.W., 1963. An algorithm for least square estimation of non-linear parameters.
Journal of the Society for Industrial and Applied Mathematics, 11, 431-441.
Mauriello, P. and Patella, D., 1999. Resistivity anomaly imaging by probability tomography.
Geophysical Prospecting, 47, 411-429.
Menke, W., 1989. Geophysical data analysis: discrete inverse theory, Academic Press, San
Diego, 289 p.
McGillivray, P.R. and Oldenburg, D.W., 1990. Methods for calculating Frechet derivatives
and sensitivities for the non-linear inverse problem: A comparative study. Geophysical
Prospecting, 38, 499-524.
198
Michot, D., 2003. Intérêt de la géophysique de subsurface et de la télédétection multispectrale
pour la cartographie des sols et le suivi de leur fonctionnement hydrique à l’échelle
interparcellaire. Thèse de doctorat de l’Université Paris 6, 395 p.
Morelli, G. and LaBrecque, D.J., 1996. Advances in ERT inverse modelling. European
Journal of Environmental and Engineering Geophysics, 1, 171-186.
Mufti, I.R., 1976. Finite-difference resistivity modeling for arbitrarily shaped two-
dimensional structures. Geophysics, 41, 62-78.
Noël, M. and Xu, B., 1991. Archaeological investigation by electrical resistivity tomography:
a preliminary study. Geophysical Journal International, 107, 95-102.
Ogilvy, R., Meldrum, P. and Chambers, J., 1999. Imaging of industrial waste deposits and
buried quarry geometry by 3-D resistivity tomography. European Journal of Environmental
and Engineering Geophysics, 3, 103-113.
Olayinka, A.I. and Weller, A., 1997. The inversion of geoelectrical data for hydrogeological
applications in crystalline basement areas of Nigeria. Journal of Applied Geophysics, 37, 103-
115.
Olayinka, A.I. and Yaramanci, U., 1999. Choice of the best model in 2-D geoelectrical
imaging: case study from a waste dump site. European Journal of Environmental and
Engineering Geophysics, 3, 221-244.
Oldenburg, D.W. and Li, Y., 1999. Estimating depth of investigation in dc resistivity and IP
surveys. Geophysics, 64, 403-416.
Pain, C., Herwanger, J., Wothington, M. and de Oliveira, C., 2002. Effective
multidimensional resistivity inversion using finite-element techniques. Geophysical Journal
International, 151, 710-728.
Panissod, C., Dabas, M., Hesse, A., Jolivet, A., Tabbagh, J. and Tabbagh, A., 1998. Recent
developments in shallow-depth electrical and electrostatic prospecting using mobile arrays.
Geophysics, 63, 1542-1550.
Parasnis, D.S. 1997. Principles of applied geophysics. Chapman & Hall. 429 p.
Park, S., 1998. Fluid migration in the vadose zone from 3-D inversion of resistivity
monitoring data. Geophysics, 63, 41-51.
Park, S. K. and Van, G. P., 1991. Inversion of pole-pole data for 3-D resistivity structure
beneath arrays of electrodes. Geophysics, 56, 951-960.
199
Pelton, W. H., Rijo, L. and Swift, C. M., 1978. Inversion of two-dimensional resistivity and
induced-polarization data. Geophysics, 43, 788-803.
Polyak, E. et Ribiere, G., 1969. Note sur la convergence des méthodes conjuguées. Rev. Fr.
Inr. Rech. Oper., 16, 35-43.
Pous, J., Marcuello, A. and Queralt, P., 1987. Resistivity inversion with a priori information.
Geophysical Prospecting, 35, 590-603.
Press, W.H., Teukolsky, S.A., Vetterling, W.T. and Flannery, B.P., 1992. Numerical recipes
in Fortran. Press Syndicate of the University of Cambridge, New York, 963 p.
Pridmore, D. F., Hohmann, G. W., Ward, S. H. and Sill, W. R., 1981. An investigation of
finite-element modeling for electrical and electromagnetic data in three-dimensions.
Geophysics, 46, 1009-1024.
Queralt, P., Pous, J. and Marcuello, A., 1991. 2-D resistivity modeling: An approach to arrays
parallel to the strike direction. Geophysics, 56, 941-950.
Reynard, E., Delaloye, R., Baron, L., Chapellier, D., Devaud, G., Lambiel, C., Marescot, L.,
Monnet, R. 2003. Glacier/permafrost relationships in recently deglaciated forefields of small
alpine glaciers (Penninic Alps, Valais, Western Switzerland). The 8th International
Conference on Permafrost, Zurich, Switzerland, July 2003, 947-952.
Robain, H., Albouy, Y., Dabas, M., Descloitres, M., Camerlynck, C., Melcher, P. and
Tabbagh, A., 1999. The location of infinite electrodes in pole-pole electrical surveys:
consequences for 2D imaging. Journal of Applied Geophysics, 41, 313-333.
Roy, A. and Apparao, A., 1971. Depth of investigation in direct current methods. Geophysics,
36, 943-959.
Sasaki, Y., 1992. Resolution of resistivity tomography inferred from numerical simulation.
Geophysical Prospecting, 40, 453-464.
Sasaki, Y., 1994. 3-D resistivity inversion using the finite-element method. Geophysics, 59,
1839-1848.
200
Scurtu, E. F., 1972. Computer calculation of resistivity pseudo-sections of a buried spherical
conductor body. Geophysical Prospecting, 20, 605-625.
Shima, H., 1990. Two-dimensional automatic resistivity inversion technique using alpha
centers. Geophysics, 55, 682-694.
Shima, H., 1992. 2-D and 3-D resistivity imaging reconstruction using crosshole data.
Geophysics, 55, 682-694.
Slater, L., Binley, A.M., Daily, W. and Johnson, R., 2000. Cross-hole electrical imaging of a
controlled saline tracer injection. Journal of Applied Geophysics, 44, 85-102.
Spies, B. R. and Ellis, R. G., 1995. Cross-borehole resistivity tomography of a pilot-scale, in-
situ vitrification test. Geophysics, 60, 886-898.
Spitzer, K., 1995. A 3-D finite difference algorithm for D.C. resistivity modelling using
conjugate gradient methods. Geophysical Journal International, 123, 903-914.
Spitzer, K., 1998. The three-dimensional DC sensitivity for surface and subsurface sources.
Geophysical Journal International, 134, 736 - 746.
Spitzer, K., Chouteau, M. and Boulanger, O., 1999. Grid-independent electrode positioning
for 3D DC resistivity and IP forward modelling. 2nd International Symposium on Three-
dimensional Electromagnetics, Salt Lake City, USA, 188-192.
Spitzer, K. and Kumpel, H.-J., 1997. 3D FD resistivity modelling and sensitivity analyses
applied to a highly resistive phonolitic body. Geophysical Prospecting, 45, 963-982.
Stefanescu, S., 1970. Nouvelles applications de la théorie des milieux alpha harmoniques à la
prospection électrique en courant continu. Geophysical Prospecting, 18, 786-799.
Tabbagh, A., 1985. The response of a three-dimensional magnetic and conductive body in
shallow depth electromagnetic prospecting. Geophysical Journal of the Royal Astronomical
Society, 81, 215-230.
Tabbagh, A., Hesse, A. and Grard, R., 1993. Determination of electrical properties of the
ground at shallow depth with an electrostatic quadrupole: field trials on archaeological sites.
Geophysical Prospecting, 41, 579-597.
Tarantola, A. and Valette, B., 1982a. Generalized nonlinear inverse problems solved using
the least squares criterion. Review of Geophysics and Space Physics, vol. 20, 2, 219-232.
Tarantola, A. and Valette, B., 1982b. Inverse problem=Quest for information. Journal of
Geophysics, 50, 159-170.
Tripp, A.C., Hohmann, G.W. and Swift, C.M., 1984. Two-dimensional resistivity inversion.
Geophysics, 49, 1708-1717.
Tsokas, G.N., Tsourlos, P.I. and Szymanski, J.E., 1997. Square array resistivity anomalies and
inhomogeneity ratio calculated by the finite-element method. Geophysics, 62, 426-435.
201
Tsourlos, P. I., Szymanski, J. E. and Tsokas, G. N., 1999. The effect of terrain topography on
commonly used resistivity arrays. Geophysics, 64, 1357-1363.
WAIC. Log Interpretation charts, Atlas Wireline Services, Western Atlas International, Inc.
1985.
Wang, T., Stodt, J., Stierman. D. and Murdoch, L., 1991. Mapping hydraulic fractures using a
borehole-to-surface electrical resistivity method. Geoexploration, 28, 349-369.
Weller, A., Frangos, W. and Seichter, M., 1999. Three-dimensional inversion of induced
polarization data from simulated waste. Journal of Applied Geophysics. 41, 31-47.
Wu, X., 2003. A 3-D finite-element algorithm for DC resistivity modelling using the shifted
incomplete Cholesky conjugate gradient method. Geophysical Journal International, 154,
947-956.
Yaramanci, U., 2000. Geoelectric exploration and monitoring in rock salt for the safety
assessment of underground waste disposal sites. Journal of Applied Geophysics, 44, 181-196.
Yaramanci, U., Kiewer, M., 2000. Geoelectrical characterisation of disturbed rock zone in
Opalinus clay (Mont-Terri / Switzerland). Proceedings of 6th Meeting of Enviromental and
Engineering Geophysics, Bochum, Germany, 2000.
Yi, M.-J., Kim, J.-H., Song, Y., Cho, S.J., Chung, S.-H. and Suh, J.H., 2001. Three-
dimensional imaging of subsurface structures using resistivity data. Geophysical Prospecting,
49, 483-497.
Zhang, J., Mackie, R.L. and Madden, T.R., 1995. 3-D resistivity forward modeling and
inversion using conjugate gradients. Geophysics, 60, 1313-1325.
Zhao, J.S., Rijo, L. and Ward, S.H., 1986. Effects of geologic noise on cross-borehole
electrical surveys. Geophysics, 51, 1978-1991.
Zhdanov, M.S. and Keller, G.V., 1994. The geoelectrical methods in geophysical exploration.
Methods in geochemistry and geophysics, 31, Elsevier, Amsterdam, 873 p.
Zhou, B. and Dahlin, T., 2003. Properties and effects of measurement errors on 2D resistivity
imaging surveying. Near Surface Geophysics, 1, 105-117.
Zhu, J.Z. and Zienkiewicz, O.C., 1988. Adaptative techniques in the finite element method.
Comm. Appl. Num. Math., 4, 197-204.
Zienkiewicz, O.C. and Taylor, R.L., 2000. The finite element method, Volume 1. Butterworth-
Heinemann, 689 p.
202
ANNEXE TECHNIQUE
203
204
Les éléments de CESAR-LCPC pour un problème de diffusion
Nous donnons ici la liste des éléments pouvant être utilisés pour la modélisation électrique
avec CESAR-LCPC (version 3.x). Pour les problèmes de diffusion, cinq familles d’éléments
sont proposées :
Pour le problème électrique en trois dimensions, la Famille 22 est la mieux adaptée. Cette
famille comprend les éléments suivants :
L’élément de base utilisé pour construire un élément de transition est un hexaèdre à 20 nœuds.
A l’exception des 8 nœuds des sommets, nous pouvons supprimer n’importe quel nœud de cet
élément de base pour construire un élément de transition. Cet élément permet de relier des
éléments possédant 4 nœuds sur une face avec des éléments possédant 8 nœuds sur une face
par exemple.
205
Particularités du progiciel CESAR-LCPC
Particularité du solveur
Nous présentons ici quelques particularités du solveur CESAR. Les différentes techniques
numériques et conventions de programmation présentées ici sont couramment utilisées dans
l’établissement du programme de modélisation directe ainsi que du module d’inversion. Cette
annexe sera donc utile pour les personnes désirant poursuivre le développement des codes
présentés dans ce mémoire. La définition des variables est donnée dans la documentation du
progiciel. L’accès aux codes créés dans ce travail (TOMELE et INVS) est restreint, une
demande au LCPC devant être effectuée.
Supposons que l'on impose ai=u. Il n’est évidemment pas possible d’imposer en même temps
une sollicitation extérieure sur le degré de liberté i dans ce cas. CESAR supprime donc la
ième équation (soit la ligne i de la matrice). Dans les autres équations, ai sera remplacée par sa
valeur imposée. En ne faisant apparaître dans le premier membre que les variables non
imposées, on obtient donc :
206
CESAR résout donc ce nouveau système qui n'est plus de dimension NDLT mais NEQ. Le
module BLCOND situé en amont du module d’exécution calcule cette variable NEQ et
modifie un certain nombre de tableaux. En particulier, il constitue les tableaux KNEQ et
VDIMP. Pour l'inconnue j (j>=1 et j<=NDLT), si KNEQ(j)>0 le tableau VDIMP indique le
nouveau numéro d'inconnue dans le système à résoudre. Si KNEQ(j)=-k (et donc <0) cela
signifie que le degré de liberté est imposé. La valeur correspondante est donnée par
VDIMP(k). Il faut de plus modifier le vecteur sollicitation (second membre). Il faut également
le redimensionner, ce qui est fait par la routine FOCOND (dans la partie constitution du
second membre dans EXLINE par exemple). D’autre part, il faut modifier les valeurs
numériques du vecteur sauf si on pose u=0. On ne vient donc modifier le second membre que
si le nombre NCLNZ de degrés imposés non nuls est plus grand que zéro. Dans CESAR,
NCLZ est le nombre de degrés de liberté imposés à zéro et NCLT=NCLZ+NCLNZ est le
nombre total de variables imposées. Cette remarque a son importance pour l’élaboration du
module d’inversion, car nous imposons des potentiels nuls pour le calcul du champ de
potentiel et de son champ adjoint.
Pratiquement, le triangle supérieur de la matrice globale peut être représenté à l’aide d’un
vecteur VKGS, contenant les termes de la matrice, et d’un vecteur de pointeurs d’adresses
entier KLD, avec :
Le triangle supérieur de la matrice globale (hors diagonale) est alors représenté sous forme
vectorielle dans un vecteur VKGS. Avec un tel système d’adressage, pour trouver le terme aij
avec i<j (si i>j, rechercher aji; si j=i, aii = KLD[i]), on procède de la façon suivante :
207
La hauteur de la colonne j (diminuée de la diagonale) est donnée par
h = KLD[j+1] - KLD[j].
L’indice de ligne du terme (différent de zéro) du haut de la colonne j est donc p=j-h.
Si h est différent de zéro, ce terme de haut de colonne est apj = VKGS(KLD[j]).
Dans ce cas, si i<p, aij = 0; sinon aij = VKGS(KLD[j]+i-p).
La création d'un vecteur (calcul du pointeur, et modification du pointeur IVA) est effectuée
par les sous-programmes ESPAKA (vecteur d'entiers) ou ESPAVA (vecteur de réels). La
suppression d'un vecteur (décalage des vecteurs qui le suivent et modifications de leur
pointeur et de IVA) est effectuée dans les sous-programmes MODIKA (vecteur entier) ou
MODIVA (vecteur réel). Le sous-programme MISA1 libère dans VA tout l'espace occupé à
partir d’un certain vecteur. Le dimensionnement de ces tableaux a lieu dans la première partie
du module d’exécution (BLINVS pour le module INVS).
On notera que la zone de VA non utilisée après allocation des principaux tableaux joue un
rôle très important car elle est appelée à recevoir la matrice globale ou plus généralement, une
portion de celle-ci. La taille de cette matrice est donnée par VKGS (soit la variable ITAIL).
On désigne par LVA la longueur de VA déjà mobilisée. Il advient parfois que ces tailles de
tableaux soient si importantes que la factorisation matricielle doit être effectuée en plusieurs
étapes (factorisation out of core). À chaque étape, une fraction de la matrice est factorisée,
cette fraction étant déterminée de façon à occuper au maximum la mémoire centrale, puis la
mémoire est libérée pour factoriser le bloc matriciel suivant. Des pointeurs servent à gérer les
accès-disques amenant en mémoire centrale les blocs matriciels utiles à chaque étape.
208