DR 000015334

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 209

Modélisation directe et inverse en prospection électrique

sur les structures 3D complexes par la méthode des


éléments finis
Laurent Marescot

To cite this version:


Laurent Marescot. Modélisation directe et inverse en prospection électrique sur les structures 3D
complexes par la méthode des éléments finis. Génie civil. Universités de Nantes et de Lausanne, 2004.
Français. �tel-01373888�

HAL Id: tel-01373888


https://hal.archives-ouvertes.fr/tel-01373888
Submitted on 29 Sep 2016

HAL is a multi-disciplinary open access L’archive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinée au dépôt et à la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publiés ou non,
lished or not. The documents may come from émanant des établissements d’enseignement et de
teaching and research institutions in France or recherche français ou étrangers, des laboratoires
abroad, or from public or private research centers. publics ou privés.
Université de Nantes

ÉCOLE DOCTORALE

MECANIQUE, THERMIQUE ET GENIE CIVIL

Année 2004 N° B.U. :

Thèse de DOCTORAT EN COTUTELLE


Diplôme délivré par l'Université de Nantes, d’une part
et par l’Université de Lausanne, d’autre part

Spécialité : GEOSCIENCES

Présentée et soutenue publiquement par :

MARESCOT LAURENT

le 25 juin 2004
à LAUSANNE

TITRE

MODELISATION DIRECTE ET INVERSE EN PROSPECTION ELECTRIQUE SUR DES STRUCTURES 3D


COMPLEXES PAR LA METHODE DES ELEMENTS FINIS

JURY

Président : Henry Joris Professeur, Université de Lausanne


Rapporteurs : Alain Tabbagh Professeur, Université Pierre et Marie Curie (Paris VI)
François Frey Professeur, Ecole Polytechnique Fédérale de Lausanne
Examinateur : Olivier Grasset Maître de Conférences, HDR, Université de Nantes
Directeur de thèse : Richard Lagabrielle Directeur de Recherche, LCPC, centre de Nantes
Directeur de thèse : Dominique-Marie Chapellier Professeur, Université de Lausanne

Directeur de thèse : Dominique-Marie CHAPELLIER


Laboratoire : Laboratoire de Géophysique, Université de Lausanne
Directeur de thèse : Richard LAGABRIELLE
Laboratoire Central des Ponts et Chaussées, Centre de Nantes
Co-encadrant : Sergio PALMA LOPES
Laboratoire Central des Ponts et Chaussées, Centre de Nantes

N° ED 0367xxx
2
The difference between theory and practice

is smaller in theory than it is in practice.

Scientific folklore

3
AVERTISSEMENT
La présente thèse a été préparée en cotutelle entre l'Université de Nantes et l'Université de
Lausanne. A Nantes, le Laboratoire d'accueil était le Laboratoire Central des Ponts et
Chaussées, membre de l'Ecole Doctorale Mécanique, Thermique et Génie Civil (MTGC).
Conformément à la convention de cotutelle signée entre les deux Universités, la soutenance a
eu lieu à Lausanne suivant le règlement de cette Université. Elle s'est déroulée en deux
séances. La séance dite privée le 25 juin 2004 devant le jury au complet qui a donné un avis
favorable à la délivrance du diplôme conjoint de docteur des Universités de Lausanne et de
Nantes et autorisé la soutenance publique. La séance publique s'est déroulée le 16 juillet 2004,
en public, et devant un jury plus restreint (Prof. Henri Joris, Prof. François Frey, Prof.
Dominique-Marie Chapellier et Dr. Richard Lagabrielle) qui a confirmé la délivrance du
diplôme de docteur. A la suite de ces soutenances, l'Université de Nantes a choisi comme date
de délivrance du diplôme le 25 juin 2004.

4
AVANT PROPOS
La recherche présentée ici est le fruit d’un travail personnel durant lequel de nombreuses
personnes sont intervenues. Elles sont ici chaleureusement remerciées.

Ma directrice de thèse, Madame le Professeur Dominique Chapellier, Université de Lausanne,


pour l’amitié et la confiance qu’elle m’a accordées tout au long de ces années, son optimisme
ainsi que son expérience des méthodes de prospection électrique dont elle a su me faire
profiter.

Mon directeur de thèse, Monsieur le Docteur Richard Lagabrielle, Laboratoire Central des
Ponts et Chaussées (Nantes), pour son accueil à Nantes, ses recommandations, ses conseils
ainsi que pour avoir accepté de partager sa passion pour le problème inverse et les méthodes
électriques.

Monsieur Sérgio Palma-Lopes, Laboratoire Central des Ponts et Chaussées (Nantes), pour son
aide, sa rigueur, ses conseils, sa gentillesse mais aussi sa grande disponibilité malgré les
kilomètres qui nous séparent. J’espère continuer encore longtemps nos fructueuses
discussions scientifiques.

Monsieur le Professeur Henri Joris, Université de Lausanne, qui a accepté de présider le Jury
de la présente thèse. Les membres du Jury, Messieurs les Professeurs Alain Tabbagh,
Université Pierre et Marie Curie (Paris VI) et François Frey, Ecole Polytechnique Fédérale de
Lausanne ainsi qu’à Monsieur le Docteur Olivier Grasset, Université de Nantes. Leurs intérêts
ainsi que leurs compétences reconnues dans les divers aspects abordés dans ce travail ont
permis de grandement améliorer la qualité de cet ouvrage.

Monsieur le Docteur Jean-Michel Piau, Laboratoire Central des Ponts et Chaussées (Nantes),
qui m’a guidé lors de mes premiers pas dans la programmation sous CESAR-LCPC et dont
les discussions sur les méthodes d’optimisation ont orienté de manière décisive le
déroulement de ce travail.

Monsieur le Docteur Pierre Humbert ainsi que toute la section des Modèle Numériques du
Laboratoire Central des Ponts et Chaussées (Paris), pour m’avoir accueilli et encadré lors de
mes séjours dans la capitale. Une pensée particulière à Monsieur le Docteur Stéphane
Rigobert pour sa disponibilité et son aide précieuse. Sa connaissance détaillée du code
CESAR-LCPC a été déterminante pour le succès de ce travail.

Monsieur le Docteur Meng Heng Loke, Universiti Sains (Malaisie), pour les très nombreux
échanges que nous avons eus durant ces années lors de travaux communs. J’ai pu également

5
bénéficier de ses conseils et de sa compétence reconnue dans le domaine de l’imagerie
électrique.

Je n’oublie pas toute la section Géophysique du LCPC pour son accueil amical ainsi que tous
mes collègues de l’Institut de Géophysique de l’Université de Lausanne pour les moments
agréables que nous avons passés ensemble. Une pensée particulière pour Ludovic Baron, avec
qui j’ai eu de longues discussions qui m’ont permis d’aplanir de nombreuses difficultés ainsi
que Francine Gass, qui a été ma collègue de bureau durant ces années et aussi la relectrice
attentionnée du manuscrit de la présente thèse.

Je n’oublie évidemment pas mes parents, ma sœur et mon amie qui chacun à leur manière
m’ont toujours aidé et soutenu.

Lausanne, juillet 2004

6
TABLE DES MATIERES
NOTATIONS ____________________________________________ 13
Grecques majuscules _________________________________________________________ 13
Grecques minuscules _________________________________________________________ 13
Latines majuscules ___________________________________________________________ 14
Latines minuscules ___________________________________________________________ 15
Dimensions _________________________________________________________________ 15

CHAPITRE I
PRESENTATION _________________________________________ 17
I.1 L’IMAGERIE ELECTRIQUE ____________________________________________ 19
Résumé : L’imagerie électrique _______________________________________________ 19
I.2 PROBLEME DIRECT ET PROBLEME INVERSE __________________________ 20
Résumé : Problème direct et problème inverse ___________________________________ 21
I.3 OBJECTIFS DU DEVELOPPEMENT _____________________________________ 21
Résumé : Objectifs du développement __________________________________________ 24

CHAPITRE II
LA PROSPECTION ELECTRIQUE ____________________________ 25
II.1 HISTORIQUE DE LA PROSPECTION GEOELECTRIQUE__________________ 27
Résumé : Historique de la prospection géoélectrique ______________________________ 28
II.2 PROPRIETE PHYSIQUE ETUDIEE ______________________________________ 28
II.2.1 La résistivité en prospection géophysique ___________________________________ 29
II.2.2 La résistivité des tissus du corps humain____________________________________ 30
II.2.3 La résistivité des matériaux du génie civil___________________________________ 30
Résumé : Propriété physique étudiée ___________________________________________ 30
II.3 PRINCIPE GENERAL DES MESURES____________________________________ 31
II.3.1 Acquisition et représentation des mesures___________________________________ 32
Résumé : Principe général des mesures _________________________________________ 34
II.4 SENSIBILITE DES DISPOSITIFS ELECTRIQUES _________________________ 35
II.4.1 Exemple de sensibilité pour des dispositifs de surface _________________________ 36
II.4.2 Exemples de sensibilité pour des dispositifs de surface-forage___________________ 38
Résumé : Sensibilité des dispositifs électriques ___________________________________ 38
II.5 EQUATIONS FONDAMENTALES _______________________________________ 41
II.5.1 Le courant électrique, la conductivité et la loi d’Ohm__________________________ 41
II.5.2 La formulation de Maxwell pour l’électromagnétisme _________________________ 41
II.5.3 La formulation de Maxwell pour des champs statiques_________________________ 43
II.5.4 Définition du champ de potentiel__________________________________________ 43
II.5.5 Détermination du champ de potentiel ______________________________________ 45
II.5.6 Approximation électrostatique____________________________________________ 46
Résumé : Equations fondamentales ____________________________________________ 48

7
CHAPITRE III
LA RESOLUTION DU PROBLEME DIRECT _____________________ 49
III.1 SOLUTIONS AU PROBLEME DIRECT ___________________________________ 51
III.1.1 Solutions analytiques_________________________________________________ 51
III.1.2. Equations intégrales _________________________________________________ 52
III.1.3 Méthodes purement numériques ________________________________________ 52
Résumé : Solutions au problème direct _________________________________________ 53
III.2 RAPPELS SUR LA METHODE DES ELEMENTS FINIS_____________________ 53
III.2.1 Les formulations intégrales pour le problème électrique _____________________ 54
III.2.2 Approximation par éléments finis _______________________________________ 56
III.2.2.1 Le maillage ______________________________________________________ 56
III.2.2.2 Les éléments et les fonctions d’interpolation ____________________________ 57
III.2.2.3 La formulation discrète _____________________________________________ 59
III.2.2.4 Assemblage et résolution ___________________________________________ 60
III.2.2.5 L’interpolation dans l’élément de référence _____________________________ 60
III.2.2.6 L’interpolation dans l’élément réel ____________________________________ 62
Résumé : Rappels sur la méthode des éléments finis _______________________________ 64
III.3 PRESENTATION DU PROGICIEL CESAR-LCPC__________________________ 65
III.3.1 Application au problème électrique______________________________________ 66
Résumé : Présentation générale du progiciel CESAR-LCPC_________________________ 67
III.4 LE PROGRAMME UTILITAIRE TOMELE _______________________________ 67
III.4.1 Problématique ______________________________________________________ 67
III.4.2 Solutions apportées par TOMELE ______________________________________ 69
III.4.2.1 Aspect général du programme TOMELE _______________________________ 69
III.4.2.2 Simulations successives d’une série de cas de charge _____________________ 70
III.4.2.3 Electrodes indépendantes du maillage _________________________________ 71
III.4.2.4 Calcul des résistivités apparentes _____________________________________ 74
III.4.3 Conclusions ________________________________________________________ 74
Résumé : Le programme utilitaire TOMELE_____________________________________ 74
III.5 ARCHITECTURE DES MAILLAGES ET CONVERGENCE _________________ 75
III.5.1 Introduction ________________________________________________________ 75
III.5.2 Les modèles complexes_______________________________________________ 77
III.5.2.1 Type d’éléments finis ______________________________________________ 77
III.5.2.2 Imposition des conditions aux limites__________________________________ 78
III.5.2.3 Dimension des mailles _____________________________________________ 84
III.5.2.4 Variation du contraste de résistivité ___________________________________ 94
III.5.3 Conclusions pour les maillages 3D complexes _____________________________ 98
Résumé : Architecture des maillages et convergence ______________________________ 99
III.6 EXEMPLE DE MODELE SYNTHETIQUE DE DIMENSION FINIE __________ 100
Résumé : Exemple de modèle synthétique de dimension finie ______________________ 103
III.7 MESURES DIRECTES EXPERIMENTALES _____________________________ 103
III.7.1 Constituants du modèle ______________________________________________ 104
III.7.2 Expérimentation et mesures sur échantillon ______________________________ 104
III.7.3 Evaluation numérique de la résistivité apparente __________________________ 105
Résumé : Mesures directes expérimentales _____________________________________ 107

8
CHAPITRE IV
LE PROBLEME INVERSE _________________________________ 109
IV.1 PRESENTATION DU PROBLEME INVERSE_____________________________ 111
IV.1.1 Stratégies d’inversion non-linéaire _____________________________________ 111
IV.1.2 Topographie de la fonction objectif ____________________________________ 113
Résumé : Présentation du problème inverse_____________________________________ 114
IV.2 METHODES DE DESCENTE ___________________________________________ 114
IV.2.1 Méthode de plus grande pente_________________________________________ 115
IV.2.2 Méthode de Newton ________________________________________________ 116
IV.2.3 Méthode de Gauss-Newton ___________________________________________ 117
IV.2.4 Modification de Marquardt-Levenberg __________________________________ 118
Résumé : Méthodes de descente______________________________________________ 119
IV.3 QUELQUES CARACTERISTIQUES DES MODELES ______________________ 120
IV.3.1 Résolution et variance de la solution____________________________________ 120
IV.3.2 Modèle initial _____________________________________________________ 120
IV.3.3 Discrétisation______________________________________________________ 121
Résumé : Quelques caractéristiques des modèles_________________________________ 121
IV.4 CHOIX D’UNE STRATEGIE D’INVERSION _____________________________ 121
IV.4.1 Les différentes stratégies d’inversion pour le problème électrique _____________ 121
IV.4.2 Inversion non-linéaire par méthode de champ adjoint ______________________ 123
Résumé : Choix d’une stratégie d’inversion_____________________________________ 123
IV.5 LA METHODE DE L’ETAT ADJOINT ___________________________________ 124
Résumé : La méthode de l’état adjoint _________________________________________ 126
IV.6 LA FONCTIONNELLE ET SON GRADIENT _____________________________ 127
IV.6.1 Problématique _____________________________________________________ 127
IV.6.2 Choix de la fonction objectif E ________________________________________ 127
IV.6.2.1 Utilisation du logarithme des résistivités apparentes ___________________ 128
IV.6.2.2 Utilisation directe des résistivités apparentes _________________________ 135
IV.7 LE MODULE D’INVERSION INVS ______________________________________ 136
IV.7.1 Aspect général du module d’exécution INVS _____________________________ 136
IV.7.2 Le gradient de la fonction objectif______________________________________ 137
IV.7.3 Choix d’une direction de descente : les gradients conjugués _________________ 139
IV.7.4 Choix du pas d’ajustement des paramètres _______________________________ 140
IV.7.5 Contraintes et information a priori _____________________________________ 141
IV.7.6 Critères de convergence _____________________________________________ 142
Résumé : Le module d’inversion INVS ________________________________________ 143

CHAPITRE V
FIABILITE DES RECONSTRUCTIONS ________________________ 145
V.1 LA FIABILITE DES MODELES INVERSES ______________________________ 147
Résumé : La fiabilité des modèles inversés _____________________________________ 147
V.2 LA METHODE DE GAUSS-NEWTON ET L’INDICE ROI __________________ 148
V.2.1 Optimisation du maillage et choix des paramètres _________________________ 149
V.2.2 Exemples préliminaires ______________________________________________ 151
Résumé : La méthode de Gauss-Newton et l’indice ROI___________________________ 154

9
CHAPITRE VI
MODELISATION SYNTHETIQUE ___________________________ 155
VI.1 DONNEES COLLECTEES EN SURFACE ________________________________ 157
VI.1.1 Modèle pour la prospection de surface __________________________________ 157
VI.1.2 Dispositif électrique choisi pour la prospection de surface___________________ 158
VI.1.2 Simulation des données et paramètres d’inversion _________________________ 160
VI.1.3 Hétérogénéité conductrice ____________________________________________ 160
VI.2.1 Hétérogénéité résistante _____________________________________________ 165
Résumé : Données collectées en surface _______________________________________ 167
VI.2 DONNEES COLLECTEES SUR DES STRUCTURES DE GEOMETRIE
COMPLEXE ________________________________________________________________ 168
VI.2.1 Le modèle ________________________________________________________ 168
VI.2.2 Dispositif électrique choisi ___________________________________________ 169
VI.2.3 Utilisation de différentes valeurs du pas d’ajustement des paramètres __________ 170
VI.2.4 Effet du modèle de départ ____________________________________________ 175
VI.2.5 Effet du bruit de mesure ________________________________________________ 177
VI.2.6 Utilisation d’un modèle de référence ___________________________________ 179
VI.2.7 Calcul de la région d’investigation (ROI) ___________________________________ 182
Résumé : Données collectées sur des structures de géométrie complexe ______________ 183

CHAPITRE VII
CONCLUSIONS ET PERSPECTIVES _________________________ 185
VII.1 APPORTS DU TRAVAIL ____________________________________________ 186
VII.1.1 Utilisation de CESAR-LCPC pour la modélisation électrique ________________ 186
VII.1.2 Modélisation directe ________________________________________________ 186
VII.1.3 Modélisation inverse ________________________________________________ 187
VII.2 PERSPECTIVES ___________________________________________________ 189

BIBLIOGRAPHIE _______________________________________ 191

ANNEXE TECHNIQUE ___________________________________ 203


Les éléments de CESAR-LCPC pour un problème de diffusion ______________________ 205
Particularités du progiciel CESAR-LCPC ________________________________________ 206
Particularité du solveur _______________________________________________________ 206
Conditions aux limites _______________________________________________________ 206
Stockage de la matrice globale _________________________________________________ 207
Allocation pseudo-dynamique des tables _________________________________________ 208

10
Modélisation directe et inverse en prospection électrique sur des
structures 3D complexes par la méthode des éléments finis

Ce travail a pour objectif la mise au point d’un ensemble d’outils de modélisation directe et
inverse en utilisant le code d’éléments finis CESAR-LCPC. Ces outils sont adaptés aux
données électriques collectées sur des structures 3D à géométries complexes.

Pour le problème direct, un programme utilitaire servant d’interface avec le solveur CESAR a
été créé afin de modéliser des séquences de mesures électriques (tomographies). Ce
programme permet l’utilisation d’électrodes non situées sur des nœuds. Les résistivités
apparentes sont obtenues par normalisation sur un modèle homogène de résistivité unité ce
qui permet d’obtenir ce paramètre lorsque le calcul analytique du facteur géométrique est
impossible. Ces deux caractéristiques simplifient la modélisation sur des structures 3D à
géométries complexes. De nombreux tests sur des maillages de forme variées ont également
été effectués. Une procédure d’élimination de la singularité des sources ne pouvant être
utilisée sur des structures à géométries complexes, un minimum de 5 à 6 nœuds entre les
électrodes d’injection de courant doit donc être utilisé pour garantir une bonne précision du
calcul. De plus, la résistivité apparente calculée par normalisation donne de meilleurs résultats
que l’utilisation du facteur géométrique.

Afin de pouvoir inverser un nombre important de données sur des modèles de grandes
dimensions, la fonction objectif est minimisée en utilisant la technique de l’état adjoint. Cette
approche est originale car elle vise non pas le calcul des dérivées partielles en tant que telles,
ce qui est traditionnellement fait lors d’inversions par moindres carrés, mais le calcul direct de
la variation à apporter aux paramètres du modèle, sans évaluation explicite de la matrice de
sensibilité. Le module d’inversion créé pour le progiciel CESAR-LCPC est donc capable de
calculer par éléments finis le champ de potentiel électrique et le champ adjoint sur le même
maillage, avec les conditions aux limites et les sources appropriées pour chaque champ. La
direction de descente est obtenue selon une méthode de plus grande pente pour la première
itération puis par une méthode de gradients conjugués pour les itérations suivantes.

Des données synthétiques ont été utilisées pour valider cet algorithme d’inversion. Ces
simulations montrent clairement que cet algorithme peut effectuer une inversion de manière
robuste et donner un résultat satisfaisant avec un effort de calcul réduit. Toutefois, des
régulations supplémentaires doivent être introduites dans le but d’améliorer la qualité du
résultat. Finalement, la fiabilité du modèle reconstruit peut être évaluée par la technique de
l’indice ROI (Region Of Investigation) qui utilise deux inversions successives en utilisant des
modèles de références différents afin de définir quels paramètres du modèle sont bien
contraints pas les données. Dans ces régions, les deux inversions reproduisent la même valeur
de résistivité et non pas le modèle de référence.

Mots-clés : problème inverse, géophysique, résistivité, tomographie électrique, éléments finis,


état adjoint, optimisation.

11
Forward and inverse resistivity modelling on complex three
dimensional structures using the finite element method

This work presents the adaptation and the use of the CESAR-LCPC finite element code for
the forward and inverse modelling of 3D resistivity data. These codes are better suited for
imaging structures with complex geometries.

The forward modelling code uses an electrode-independent mesh that allows to place the
electrodes at their exact locations and to use a coarse mesh at the same time. In this approach,
the choice for the mesh size is solely governed by the need for accurate results. It is also
possible to calculate apparent resistivities, without the use of the geometrical factor (that can
be evaluated only for simple structures). To calculate apparent resistivity values, a
normalisation approach is used that gives significantly better results than the use of the
geometrical factor and allows the modelling of any kind of complex 3D structure. As a
singularity removal technique cannot be used on complex 3D models, a minimum of 5 to 6
nodes between two current transmitting electrodes should be considered to guarantee the
quality of the results. Synthetic results are presented to illustrate the efficiency of the forward
modelling technique.
An inversion code was also presented for the processing of resistivity tomographies on
complex 3D structures using any electrode arrangement. This algorithm is well suited for the
processing of large data sets with a lot of unknown model parameters. The inversion code
uses an original strategy to avoid the explicit calculation of a sensitivity matrix. The adjoint-
state of the potential field is used to minimize an objective function for the electrical inverse
problem. Then, a steepest descent formulation can be used for the first iteration. Further
iterations are carried out using a conjugate gradient approach to improve the convergence. As
can be seen on synthetic data, a satisfactory reconstruction of the models can be achieved with
a minor computational cost. This kind of inverse problem would have been very difficult to
solve using a more traditional Gauss-Newton approach. Strategies are nevertheless needed to
improve the stabilisation of the inverse process and to include a priori information in the
problem.
Finally, a ROI (Region Of Investigation) index method is used to assess whether features in
the model are caused by the data or are artefacts of the inversion process. This method carries
out two inversions of the same data set using different values of the reference resistivity
model. The two inversions reproduce the same resistivity values in areas where the data
contain information about the resistivity of the subsurface whereas the final result depends on
the reference resistivity in areas where the data do not constrain the model.

Key words : inverse problem, geophysics, resistivity tomography, electrical imaging, finite
elements, adjoin-state, optimisation.

12
NOTATIONS
Nous définissons ici les notations employées tout au long de ce mémoire. Les unités sont
celles du système international (S.I.). Certaines notations, très spécifiques ou utilisées durant
un développement, ne sont pas mentionnées.

Les vecteurs sont notés en gras. Le produit scalaire entre A et B est noté A ⋅ B . Le produit
vectoriel est noté A×B. Les matrices sont également notées en gras. Nous utiliserons de plus
le terme de vecteur pour décrire une matrice ligne ou une matrice colonne.

Grecques majuscules

Γ frontière du domaine Ω -

Π fonctionnelle pour la formulation variationnelle -

Φ porosité -

Ω domaine spatial étudié -

Grecques minuscules

δ distribution de Dirac m-3 (en 3D)

ε permittivité diélectrique F.m-1

ε0 permittivité diélectrique du vide (≅8.85 10-12 F.m-1)

εr permittivité diélectrique relative (ε=ε0εr)

θ champ de température K

λ facteur d’amortissement -

µ perméabilité magnétique H.m-1

v variance -

13
ρ résistivité électrique Ω.m

σ conductivité électrique S.m-1

ω fréquence angulaire rad.s-1

Latines majuscules

A vecteur des amplitudes -

B induction magnétique T

D déplacement électrique C.m-2

E champ électrique V.m-1

E fonction objectif -

H champ magnétique A.m-2

I intensité du courant électrique A

J densité de courant A.m-2

K matrice globale -

N matrice des fonctions de forme -

Q charge électrostatique C

S surface m2

Sw saturation en eau -

V champ de potentiel V

X matrice hessienne -

Y matrice jacobienne du problème inverse (sensibilité) -

Yg matrice jacobienne de la transformation géométrique -

14
Latines minuscules

a amplitude -

c source de chaleur J

f fréquence Hz

h gradient de la fonction objectif -

k facteur géométrique m

kt conductivité thermique W.m-1.K-1

n vecteur normal à une surface -

p densité de charge électrostatique C.m-3

q flux de chaleur W.m-2

t temps s

Dimensions

A 1 ampère

C 1 coulomb

F 1 farad

H 1 henry

Hz 1 hertz

J 1 joule

K 1 kelvin

m 1 mètre

S 1 siemens

15
V 1 volt

W 1 watt

Ω 1 ohm

16
CHAPITRE I

PRESENTATION

17
18
I.1 L’IMAGERIE ELECTRIQUE

L’objectif de l’imagerie électrique (Electrical Resistivity Tomography ou Electrical


Impedance Tomography) est la reconnaissance multidimensionnelle des propriétés électriques
intrinsèques du milieu étudié (sol, échantillon de matériau ou partie du corps humain par
exemple). Dans cette méthode d’auscultation, un courant électrique est injecté au moyen
d’une paire d’électrodes dans l’objet étudié. Le champ électrique qui en résulte est une
fonction de la distribution de la conductivité dans le corps et est mesuré à l’aide d’un autre
couple d’électrodes. Les mesures sont ensuite répétées en positionnant les électrodes à un
autre endroit de l’objet. Par une procédure d’interprétation, nous cherchons alors à définir la
présence des hétérogénéités, plus ou moins résistantes, dans l’objet qui ont influencé la
répartition du champ électrique pour les différentes mesures.

La prospection électrique est couramment utilisée en géophysique dans le but de caractériser


des fractures, détecter des cavités ou des corps gelés, imager des intrusions ou des migrations
d’eau salée dans le sol, détecter la présence de vestiges archéologiques, étudier la structure
des sols et de la proche surface ou encore délimiter des décharges et déceler des migrations de
polluants dans le sol. Les techniques d’imagerie électrique suscitent également un intérêt
grandissant pour l’auscultation des structures du génie civil et de leur environnement, qu’elles
soient en pierre, en béton ou en terre. Dans ce cadre, la détection de zones altérées et de la
fissuration représentent des enjeux importants. Les méthodes électriques semblent bien
adaptées à la mise en évidence d’anomalies de porosité ou à la présence de fissuration, grâce
au fort contraste de propriétés électriques que ces défectuosités impliquent. Le contrôle non-
destructif de galeries, puits, piliers de ponts ou éprouvettes de matériaux nécessite également
l’utilisation de méthodes peu invasives, rapides à mettre en œuvre et de faible coût. La
méthode de prospection électrique respecte ces exigences, du moins lorsqu’un contact
électrique satisfaisant peut être établi. Des recherches dans le domaine de l’imagerie
électrique de processus industriels (Process Tomography) ou encore dans le domaine de
l’imagerie électrique médicale (Electrical Impedance Tomography) sont également en
constant développement.

Résumé : L’imagerie électrique


L’imagerie électrique est la reconnaissance multidimensionnelle des propriétés
électriques intrinsèques du milieu étudié au moyen d’électrodes servant à appliquer un
courant électrique. Les perturbations du champ électrique dans l’objet étudié sont
interprétées comme une fonction de la distribution de la conductivité dans le corps.
Cette méthode, peu invasive et de faible coût, est couramment utilisée en prospection
géophysique.

19
I.2 PROBLEME DIRECT ET PROBLEME INVERSE

En science expérimentale, nous cherchons à caractériser les paramètres physiques d’un objet
en se basant sur une série de données mesurées. En général, les lois de la physique fournissent
les bases nécessaires permettant de prédire le résultat d’une mesure en fonction d’un modèle
(un modèle est la représentation simplifiée ou idéalisée de la réalité physique). Cette opération
porte le nom de problème direct. L’opération opposée, appelée problème inverse, consiste à
reconstruire un modèle à partir des données mesurées sur un objet. Ce type de reconstruction
se rencontre très fréquemment en imagerie médicale. Un CT-scan (Computerized Tomography
Scanner) mesure par exemple la perte de puissance d’une série de rayons X passant au travers
d’un patient (problème direct). Nous chercherons ensuite à reconstituer une image de la
répartition des tissus expliquant le mieux les absorptions mesurées via une procédure
d’inversion. Dans la pratique, le trajet des rayons X est indépendant des propriétés du corps
(seule l’absorption compte). Une simple procédure de rétroprojection le long des rayons
rectilignes suffit donc pour inverser les données. En tomographie électrique, la distribution du
courant suit les chemins de moindre résistivité et dépend donc des propriétés de l’objet, ce qui
signifie que le problème inverse est clairement non-linéaire et donc plus compliqué à
résoudre.

Le problème inverse est fréquemment considéré comme étant l’opération exactement opposée
au problème direct. Dans un cas idéal, il existe en effet une théorie permettant de définir
comment passer des données au modèle. Malgré une certaine élégance mathématique, de
telles théories ne sont toutefois que rarement applicables dans la pratique. Il y a plusieurs
raisons à cela. Premièrement, une telle solution nécessite des situations exactes qui
n’apparaissent que très rarement dans la pratique. Une série de données réelles contient
toujours des erreurs et ces dernières peuvent se propager aux paramètres du modèle. De plus,
le fait qu’un nombre fini de données soit disponible pour évaluer un modèle nécessitant une
infinité de degrés de liberté signifie que le problème inverse n’est pas unique. De par
l’échantillonnage, qui peut être inadéquat, ou encore la qualité des mesures réelles, entachées
d’erreurs, les données ne contiennent en général pas suffisamment d’informations pour
déterminer un modèle de manière univoque. Nous pouvons donc en conclure qu’un modèle
obtenu par inversion ne correspond pas nécessairement à la réalité que nous cherchons. Il
faudra donc inclure dans le processus d’inversion une procédure permettant d’évaluer la
fiabilité de la reconstruction par rapport à la réalité.

La problématique complète devrait plutôt être schématisée à l’aide du diagramme de la figure


1.1. Notons r la réalité physique, m le modèle, dm les données mesurées et dc les données
calculées (la réponse du modèle m). Le problème direct est donc l’opération permettant
d’obtenir dc connaissant m ou dm connaissant r. Une reconstruction d’un modèle estimé m, à
partir des données mesurées, constitue le problème d’estimation ou problème inverse au sens
strict. Il est ensuite nécessaire de tester la fiabilité du modèle estimé par une opération

20
d’évaluation. L’estimation du modèle et l’évaluation constituent l’opération d’inversion au
sens large. Idéalement, toute procédure d’inversion devrait comprendre une évaluation du
résultat obtenu (calcul de la propagation de l’erreur ou résolution du résultat). Cela n’est
toutefois pas toujours facile à mettre en œuvre en pratique. En effet, les procédures
d’évaluation n’existent parfois pas, notamment pour les problèmes non-linéaires, ou sont trop
coûteuses en temps de calcul.

Figure 1.1 : Représentation schématique de la problématique directe et inverse.

Résumé : Problème direct et problème inverse


Le problème direct est l’opération permettant d’obtenir une donnée mesurée
relativement à la réalité physique ou une donnée calculée (ou simulée) relativement à un
modèle synthétique. Une reconstruction d’un modèle estimé à partir des données
mesurées constitue le problème d’inversion au sens strict. Le résultat de l’inversion n’est
pas unique (de par la sous-détermination du problème ou l’erreur des données) et il est
de plus nécessaire d’évaluer la fiabilité du modèle obtenu.

I.3 OBJECTIFS DU DEVELOPPEMENT

Des arrangements standard d’électrodes sont utilisées depuis maintenant plusieurs décennies
pour l’auscultation du sol en une ou deux dimensions (1D ou 2D respectivement). Les
modèles obtenus apportent en général des informations très utiles sur la structure interne des
objets étudiés, dans la limite où la réalité physique est effectivement uni- ou bidimensionnelle.
L’utilisation d’une méthode d’auscultation en 1D sur un corps présentant des hétérogénéités
tridimensionnelles peut en effet faire apparaître des artefacts dans le modèle. La figure 1.2
montre un exemple de modèle inversé du sous-sol en 2D avec l’interprétation géologique qui
lui est associée (Marescot et al., 2003b). Ce type de prospection électrique de surface est très
courant en géophysique, où beaucoup de structures géologiques sont localement assimilables
à des corps bidimensionnels.

21
Avec l’augmentation de la puissance de calcul ainsi que l’amélioration constante du matériel
de mesure, des prospections géophysiques de plus en plus complexes peuvent être envisagées.
Alors que bon nombre de programmes d’interprétation sont destinés à imager des structures
simples (demi-espaces avec éventuellement des électrodes sous la surface et une topographie
modérée), il devient de plus en plus envisageable de disposer d’algorithmes permettant des
calculs sur des objets plus complexes. En effet, lorsque nous désirons ausculter la structure
d’un tunnel (par des mesures en galerie), celle d’un pilier de pont, d’une éprouvette de
matériau ou encore d’une structure au relief prononcé, il est bien difficile d’assimiler l’objet à
un milieu simple (demi-espace par exemple). Les algorithmes d’inversion traditionnellement
utilisés souffrent de fortes limitations quant à leur utilisation sur ce type de structures.

Figure 1.2 : Exemple d’imagerie électrique 2D en géophysique. Application à la recherche d’anciens cours
d’eau.

Dans le cadre de ce travail de thèse en collaboration entre le Laboratoire Central des Ponts et
Chaussées (LCPC) et l’Institut de Géophysique de l’Université de Lausanne (IG), nous avons
entrepris d’adapter le progiciel CESAR-LCPC pour le calcul direct et inverse de données
électriques par la méthode des éléments finis sur des structures 3D à géométries complexes.
Ce développement n’est pas évident, le code de calcul CESAR-LCPC n’étant pas conçu pour
cela. D’un point de vue pratique, ce travail de thèse devrait permettre l’élaboration d’outils de
modélisation directe et inverse mieux adaptés à l’auscultation de structures présentant des
géométries complexes que les codes actuellement disponibles. Il est donc nécessaire de bien
cerner les besoins des utilisateurs de tels outils afin de créer un code d’inversion robuste et
bien adapté. Ce travail respecte donc l’axe de développement décrit dans le diagramme de la
figure 1.1. La résolution du problème direct et du problème inverse sur des modèles 3D à
géométries complexes va plus particulièrement engendrer les problèmes suivants :

Comme la forme du champ électrique est influencée par la géométrie de l’objet étudié, il est
indispensable de pouvoir représenter cette dernière de manière précise et détaillée. La
distorsion du champ électrique ne sera alors plus une source d’erreur durant l’inversion. La

22
méthode de résolution directe devra donc être capable de calculer la réponse d’un modèle à
géométrie complexe, ce qui élimine par exemple bon nombre de méthodes de calcul
analytiques ou semi-analytiques. Pour représenter le plus fidèlement possible l’objet étudié, il
sera indispensable d’utiliser des modèles de formes très variables, composés d’un grand
nombre de paramètres (figure 1.3). Il faudra également trouver des solutions au problème de
la localisation des électrodes dans un maillage à géométrie compliquée ou au problème du
calcul de la résistivité apparente (un calcul explicite du facteur géométrique n’existant pas
toujours). Un outil de modélisation directe va donc être nécessaire afin de pouvoir créer des
séquences de mesures synthétiques permettant de mieux comprendre la réponse de dispositifs
électriques non-conventionnels (c’est-à-dire autres que ceux couramment utilisés dans la
pratique). Cet outil de modélisation va également être utilisé dans le but de générer des jeux
de données pour tester l’algorithme d’inversion développé en seconde étape.

Figure 1.3 : Exemple de modèle à géométrie complexe : détail de l’intersection entre deux tunnels.

Du point de vue du problème inverse, le grand nombre de paramètres inconnus à déterminer


ainsi que le grand nombre de données mesurées impliquent un effort de calcul conséquent.
Nous allons devoir développer un algorithme spécifique permettant de réduire le temps de
calcul et le stockage mémoire nécessaire.

Finalement, nous allons ensuite implémenter une méthode permettant de tester la fiabilité du
modèle estimé sans évaluation explicite de la matrice de sensibilité.

23
Il faut encore relever que ce travail utilise une terminologie ainsi que des exemples propres à
la géophysique. Toutefois, les développements et conclusions définis ici sont aisément
transposables à d’autres branches scientifiques (domaine biomédical par exemple).

Le travail s’articule de la manière suivante :

Dans le second chapitre, quelques rappels théoriques sont donnés sur la résolution du
problème direct pour le courant continu ainsi que sur le principe de la mesure des propriétés
électriques d’un corps.

Dans le troisième chapitre, nous décrivons la méthode des éléments finis (MEF) appliquée à
la résolution du problème électrique pour des structures 3D. Le code de calcul CESAR-LCPC
est ensuite brièvement exposé et le programme que nous avons mis au point afin de permettre
la modélisation directe de séquences électriques est détaillé. Finalement des exemples de
modélisation directe sur des structures simples et plus compliquées sont donnés, afin
d’exposer quelques conditions d’applicabilité de la méthode.

Le quatrième chapitre fournit des rappels théoriques sur la résolution du problème inverse
électrique et les problèmes numériques qui en découlent. Une description de la stratégie
d’inversion choisie est ensuite explicitée. Nous donnons alors une description plus complète
de notre algorithme et du module d’inversion sous CESAR-LCPC créé pour ce travail.

Le cinquième chapitre présente une approche permettant d’évaluer le résultat d’une inversion
en évitant le calcul de la matrice de sensibilité.

Le sixième chapitre est consacré à la modélisation synthétique directe et inverse sur des
structures 3D simples et complexes, afin de mieux cerner les possibilités et les limites du code
d’inversion développé.

En conclusion, nous revenons sur les différents résultats obtenus et certaines perspectives
souhaitables à l’avenir.

Résumé : Objectifs du développement


Ce travail de thèse a pour but la mise au point d’une série d’outils de modélisation
directe et inverse pour les données électriques sur des structures tridimensionnelles à
géométries complexes. Le progiciel CESAR-LCPC sera adapté pour le calcul direct de
données de tomographie électrique et un module d’inversion spécifique sera élaboré. Ces
outils devront tout d’abord permettre la modélisation de la résistivité apparente à partir
de données collectées avec des dispositifs non-conventionnels, sur des structures à
géométries compliquées. En seconde étape, nous développerons un module permettant
l’inversion de ces données dans le cas de modèles possédant un grand nombre de
paramètres inconnus. Une procédure permettant l’évaluation de la fiabilité de la
reconstruction sera également présentée.

24
CHAPITRE II

LA PROSPECTION ELECTRIQUE

25
26
Les objectifs de cette partie sont la présentation du principe de mesure de la résistivité ainsi
que de la théorie concernant l’établissement des équations fondamentales pour le courant
continu. Les différentes méthodes permettant la simulation de mesures électriques sur un
modèle de terrain seront également brièvement décrites.

II.1 HISTORIQUE DE LA PROSPECTION GEOELECTRIQUE

Les bases de la prospection électrique en géophysique furent posées par Gray et Wheeler en
1720 qui, parmi les premiers, mesurèrent la conductivité de certaines roches. Un peu plus tard,
en 1746, Watson constata que le sous-sol pouvait transporter un courant artificiel suivant la
composition du terrain. Le problème de la détermination de la résistivité électrique d’un
milieu non-homogène a été discuté par Maxwell en 1891. Ce dernier a souligné l’importance
de l’utilisation de quatre électrodes, plutôt que deux, pour mesurer la résistance générée par
un courant dans un milieu conducteur tridimensionnel.

Il faudra néanmoins attendre le début du XXème siècle pour que se développent de manière
conséquente les méthodes électriques, notamment par l’entremise de deux principales écoles.
L’école française, la plus active, connut son origine en 1912 lorsque Conrad Schlumberger
initia une série d’expériences dans le but de trouver des ressources minérales par les méthodes
électriques. Il mit tout d’abord au point la méthode de polarisation spontanée, puis en 1914
celle des cartes de potentiel (mise à la masse). Il fit en 1920 le premier relevé de résistivité
électrique qu’il appliqua à la recherche minière et pétrolière. Il fonda ensuite la Société de
Prospection Electrique en 1926, société qui allait donner naissance un peu plus tard à deux
grandes organisations, la Compagnie Générale de Géophysique de France (C.G.G.) et la
Schlumberger Well Surveying Corporation. L’école américaine fut instituée par Wells, Daft et
Williams en 1906, mais surtout en 1912 par Frank Wenner qui fit une étude théorique du
système de mesure de résistivité électrique au moyen de quatre électrodes, ainsi que du
théorème de réciprocité appliqué à ce système. Les Russes et Scandinaves ont également fait
des recherches importantes dans ce domaine. A partir de cette époque, la prospection
électrique par courant continu s’est principalement concentrée sur la mise en œuvre et
l’interprétation des sondages électriques et des profils (ou cartes) de résistivité (Kunetz,
1966). Dans les années 1970, nous voyons apparaître une nouvelle représentation des données
sous la forme de panneaux électriques (Edwards, 1977). Il faut toutefois attendre le début des
années 1990, et l’important développement des moyens informatiques, pour que les méthodes
d’imagerie 2D et 3D associées à des algorithmes d’inversion performants se développent
(Loke and Barker, 1996a et 1996b). Il n’est sans doute pas exagéré d’affirmer que l’imagerie
(ou la tomographie) électrique est à l’origine du nouvel essor que connaît actuellement la
prospection électrique par courant continu (Dahlin, 1993).

27
La prospection électrique est actuellement couramment utilisée en géophysique dans le but
d’étudier l’hydrogéologie d’un site (Marescot and Chapellier, 2003a et 2003b ; Marescot et
al., 2003a), caractériser des fractures (Wang et al., 1991), détecter des cavités ou des corps
gelés (Marescot et al., 2001 ; Delaloye et al., 2003 ; Reynard et al., 2003), imager des
intrusions ou des migrations d’eau salée dans le sol (Bevc and Morrison, 1991), détecter la
présence de vestiges archéologiques (Hesse et al., 1986), étudier la structure des sols et de la
proche surface (Benderitter et al., 1994 ; Panissod, 1997 ; Bourennane et al., 1998 ; Panissod
et al., 1998 ; Michot, 2003) ou encore délimiter des décharges et déceler des migrations de
polluants dans le sol (Daily et al., 1995 ; Daily and Ramirez, 1995 ; de Lima et al., 1995 ;
Park, 1998 ; Chambers et al., 1999 ; Ogilvy et al, 1999 ; Olayinka and Yaramanci, 1999 ;
Slater et al., 2000 ; Chambers et al., 2002 ; Dahlin et al., 2002). Les techniques d’imagerie
électrique suscitent également un intérêt grandissant pour l’auscultation des structures du
génie civil (Draskovits and Simon, 1992 ; Johansson and Dahlin, 1996 ; Maillol et al., 1999 ;
Yaramanci, 2000 ; Yaramanci and Kiewer, 2000 ; Denis et al., 2002 ; Lataste, 2002). Des
recherches dans le domaine de l’imagerie électrique biomédicale sont également en constant
développement (voir par exemple Linderholm et al., 2004 ; Lionheart, 2004).

Résumé : Historique de la prospection géoélectrique


Les méthodes de prospection électrique, telles que le sondage ou le profil de résistivité,
sont couramment utilisées depuis un siècle. Avec l’apparition récente de moyens
informatiques performants, cette méthode d’auscultation géophysique connaît un
renouveau sous la forme de prospection et de modélisation en deux ou trois dimensions.

II.2 PROPRIETE PHYSIQUE ETUDIEE

Les méthodes électriques ont pour but la détermination de la conductivité électrique σ (en
S/m) des structures étudiées. En prospection électrique par courant continu, le paramètre de
résistivité électrique ρ (en Ωm), l’inverse de la conductivité, est plus couramment utilisé.
Dans ce qui suit, les termes de résistivité électrique et de conductivité électrique seront
remplacés par les termes de résistivité et conductivité. La résistivité est la capacité d’un milieu
à s’opposer au passage d’un courant électrique. Cette résistivité dépend de différents facteurs
tels que la qualité du fluide, la saturation, la porosité ou encore la température du milieu
étudié (Keller and Frischknecht, 1966 ; Zhdanov and Keller, 1994). Dans le cas de la
prospection électrique en courant continu, le courant électrique est principalement transporté
par les électrons (conduction électronique dans les métaux) ou par les ions (conduction
électrolytique dans les fluides).

La résistivité des différents matériaux, inertes ou vivants, est donc une propriété physique
variant dans de grandes proportions, ce qui constitue un atout majeur des méthodes

28
électriques. Dans la nature, la gamme des résistivités est très étendue, variant de moins de
1 Ωm à plusieurs milliers d’Ωm.

II.2.1 La résistivité en prospection géophysique

Pour l’auscultation du sous-sol en géophysique, une relation empirique fréquemment utilisée


pour relier les différents paramètres du terrain est donnée par la loi d’Archie (1942) :

ρ r = ρ w a Φ − m S w− n (2.1)

avec ρr la résistivité du matériau, ρw la résistivité de l’eau d’imbibition, Φ la porosité, a un


facteur qui dépend de la lithologie et qui varie entre 0.6 et 2 (a < 1 pour les roches à porosité
intergranulaires et a > 1 pour les roches à porosité de fracture), m un facteur de cimentation
(qui dépend de la forme des pores, de la compaction et varie entre 1.3 pour les sables non
consolidés à 2.2 pour les calcaires cimentés). Sw est la saturation en eau de la roche.
L’exposant n varie très peu avec les formations, sa valeur est environ de 2 pour la plupart des
formations de porosité normale dont la teneur en eau est comprise en 20% et 100%. La loi
d’Archie a été élaborée dans le cadre de la prospection pétrolière, où la résistivité de l’eau est
généralement très basse (eau minéralisée). Pour des roches contenant de l’eau douce, la
présence d’autres modes de conduction que le fluide (argiles ou métaux par exemple) peut
rendre cette loi inexacte. De plus, la présence de particules argileuses ou métallique rend le
paramètre de la résistivité fortement dépendant de la fréquence (phénomène de polarisation
induite). La figure 2.1 donne un aperçu des différentes gammes de résistivité rencontrées en
prospection géophysique.

Figure 2.1 : Gamme des résistivités couramment rencontrées en prospection géophysique.

29
II.2.2 La résistivité des tissus du corps humain

L’imagerie électrique médicale (Electrical Impedance Tomography) est actuellement au


centre d’actives recherches, que ce soit pour imager l’intérieur du corps humain ou étudier les
propriétés d’échantillons biologiques. Les tissus biologiques ont en effet la capacité de
conduire un courant électrique, ce dernier étant issu de la mise en mouvement par le champ
électrique des ions de la partie aqueuse de l’électrolyte intra- ou inter-cellulaire. Dans le
domaine biomédical, cette propriété est en général caractérisée par le paramètre de la
résistivité et de la permittivité, bien que, à relativement basses fréquence, le paramètre de la
résistivité seul puisse être pris en considération. A basses fréquences, la résistivité des tissus
biologiques dépend de la fréquence. Faes et al. (1999) proposent un récapitulatif des valeurs
de la résistivité à 37 °C, pour des fréquences variant de 100 Hz à 10 MHz. Nous pouvons
noter une nette différence entre la résistivité du sang, des muscles ou des organes internes, qui
présentent des valeurs de la résistivité faibles (entre 1.5 Ωm et 4 Ωm), et celles des os ou de la
graisse, qui sont plus résistants car contenant moins d’eau (>170 Ωm et 40 Ωm
respectivement). Un bon contraste de résistivité semble donc exister entre ces tissus
biologiques.

II.2.3 La résistivité des matériaux du génie civil

Les valeurs de la résistivité des matériaux utilisés en génie civil varient également dans de
grandes proportions. Nous donnons ici quelques indications sur les bétons, dont une étude
complète a été effectuée par Lataste (2002). Le béton frais (non durci) est très conducteur
(1 Ωm à 10 Ωm). Lorsque le béton durcit, nous pouvons noter une rapide augmentation de la
résistivité, qui passe de 10 Ωm à 200 Ωm, puis cette variation ralenti dans le temps. Pour le
béton durci âgé, la résistivité varie de 200 Ωm à 50000 Ωm selon le mélange utilisé pour le
mortier et les granulats, son état d'endommagement et d'humidité. Les armatures métalliques,
très fréquentes, rendent évidemment ces milieux assez complexes. On s'intéresse d'ailleurs
plus souvent aux problèmes de corrosion de ces armatures qu'aux propriétés intrinsèques de la
matrice. Plus un béton est conducteur (<100 Ωm), et plus la probabilité de corrosion des aciers
est importante. Au-dessus de 1000 Ωm le risque de corrosion est négligeable. Il est donc
intéressant d’étudier la résistivité de ce matériau.

Résumé : Propriété physique étudiée


La résistivité électrique est la capacité d’un milieu à s’opposer au passage d’un courant
électrique. Ce paramètre varie fortement dans la nature et dépend de nombreux
paramètres physiques (qualité du fluide, saturation, porosité ou encore température par
exemple). La conductivité électrique est l’inverse de la résistivité électrique.

30
II.3 PRINCIPE GENERAL DES MESURES

La mesure de la résistivité d’une structure s’effectue en injectant un courant électrique dans


celle-ci au moyen d’électrodes d’injection (souvent nommées A et B) et en mesurant la
différence de potentiel créée par le passage du courant au moyen d’électrodes de mesure du
potentiel (souvent nommées M et N). Le nombre d’électrodes, ainsi que leur agencement
définit le dispositif électrique utilisé. La configuration du dispositif est choisie selon la
problématique de l’étude. La différence de potentiel dépend de l’intensité du courant injecté,
de la disposition des électrodes et de la résistivité électrique du matériau constituant l’objet
étudié. Il est alors possible de déduire une répartition de la résistivité dans la structure en se
basant sur la forme du champ de potentiel. Dans le cas d’un milieu théoriquement homogène
et isotrope, la résistivité mesurée correspond à la résistivité vraie du matériau, ce qui n’est pas
le cas pour des milieux hétérogènes. La notion d’homogénéité dépend toutefois de l’échelle à
laquelle le milieu est observé. Nous faisons appel, dans le cas d’un milieu hétérogène, au
concept de résistivité apparente. La résistivité apparente est le rapport du potentiel mesuré sur
le terrain (∆V) à celui calculé théoriquement dans les mêmes conditions (même géométrie des
électrodes, même intensité de courant) sur un terrain homogène de résistivité 1 (∆V0). Le
terme de résistivité apparente est relativement impropre. Le fait que cette grandeur ait pour
dimension celle de la résistivité provient du choix de l’unité pour la résistivité du milieu
homogène, choix parfaitement conventionnel.

∆V ∆V
ρ app = =k (2.2)
∆V0 I

Le paramètre k est appelé le facteur géométrique (en mètres) ; il permet l’expression de la


résistivité apparente dans un espace de géométrie simple (demi-espace par exemple, figure
2.2). Il est défini pour un quadripôle dont les électrodes sont sous la surface et pour un demi-
espace homogène avec une limite plane par :


k= (2.3)
1 1 1 1 1 1 1 1
− − + + − − +
AM AN BM BN A′M A′N B′M B′N

A’ et B’ étant les images de A et B par rapport à la surface du sol (figure 2.2).

31
Figure 2.2 : Dispositif quadripôle utilisé pour la mesure de la résistivité d’un objet (domaine).

Nous pouvons encore rappeler l’énoncé du théorème de réciprocité en méthode électrique. Ce


théorème fondamental indique que le potentiel mesuré en un point M, dû à une source de
courant localisée en un point A, est égal au potentiel mesuré au point A dû à une source de
courant de même intensité localisée au point M.

Dans la pratique, le courant employé est rarement un véritable courant continu. Pour pallier
les phénomènes de polarisation spontanée et pour améliorer le rapport signal sur bruit, un
courant alternatif en créneaux ou sinusoïdal basse fréquence est utilisé (de quelques fractions
de hertz à quelques hertz). Ceci est surtout valable lors de l’utilisation d’électrodes à contact
galvanique. Pour des instruments de mesure capacitifs, la fréquence utilisée peut être plus
élevée.

II.3.1 Acquisition et représentation des mesures

En surface, les mesures peuvent être effectuées en gardant le centre du dispositif fixe et en
écartant les électrodes d’injection (sondage électrique) ou en déplaçant un dispositif à
écartement constant (traîné électrique). Avec la première méthode nous obtenons la variation
de la résistivité en 1D sous le dispositif et avec la seconde méthode nous étudions les
variations latérales de ce paramètre. En combinant ces deux techniques, il est possible de
réaliser des panneaux électriques, sensibles aux variations tant verticales qu’horizontales de la
sub-surface. Ces mesures sont habituellement représentées sous la forme de panneaux
électriques (ou pseudo-sections en résistivités apparentes). Les mesures sont particulièrement
sensibles aux variations de la résistivité sous le dispositif. Les points de mesure sont reportés à
l’aplomb du centre du dispositif et à une ordonnée proportionnelle à la distance séparant les
électrodes (AM/2 ou AB/2 par exemple) définissant des niveaux d’acquisition. Les valeurs
sont ensuite interpolées pour tracer les lignes d’isorésistivité (figure 2.3). La détermination de
la profondeur à laquelle placer les points de mesure donne cours à de nombreux débats. Une

32
méthode de positionnement vertical des points est celle de la profondeur médiane
d'investigation (Edwards, 1977) du dispositif utilisé. La profondeur médiane d'investigation,
pour un milieu homogène, peut être considérée comme étant la profondeur à laquelle la
portion de terrain située au dessus de cette limite a la même influence que la portion de terrain
située au dessous. Cette profondeur médiane n'a donc pas la signification de profondeur
d'investigation (au sens de signal maximal, Roy, 1972). Comme l’a montré Barker (1989), la
profondeur médiane d’investigation semble être la manière la plus robuste par laquelle nous
pouvons associer une donnée mesurée et une profondeur.

Un panneau électrique donne une image très approximative de la répartition des résistivités
dans une structure. Cette image est distordue car elle dépend de la répartition des résistivités
dans l’objet mais également du dispositif utilisé. Un panneau électrique est donc uniquement
une manière commode de représenter les résistivités apparentes afin de tirer quelques
hypothèses sur la distribution des résistivités vraies. En effet, les formes engendrées par un
objet diffèrent fortement en fonction du dispositif employé. C’est la raison pour laquelle il est
quasiment impossible d’interpréter correctement un panneau électrique non inversé. Il est
juste possible de faire quelques hypothèses sur la distribution des résistivités apparentes.
Cependant, une des utilités du panneau électrique est la possibilité d'éliminer sur ces profils
les mauvaises mesures de résistivité apparente. Ces dernières se marquent par des points de
résistivité apparente anormalement haute ou basse par rapport à l'environnement.

Figure 2.3 : Représentation d’un panneau électrique en 2D pour les mesures en surface.

33
Lors de mesures entre plusieurs forages ou entre un forage et la surface, les mesures sont
sensibles aux variations des propriétés électriques dans un plan situé approximativement entre
les lignes d’électrodes. Le mode de représentation des tomogrammes selon Poirmeur (1986)
peut être alors utilisé. Les points de mesure sont reportés sur un plan en deux dimensions en
prenant la profondeur en abscisse. Pour des mesures entre deux forages, chaque forage devient
un des axes du tomogramme. Les valeurs sont ensuite interpolées pour tracer les lignes
d’isorésistivités (figure 2.4).

Figure 2.4 : Représentation d’un tomogramme en 2D pour les mesures entre forages.

Dans le cas de mesures sur des structures 3D ou à géométries complexes, il peut être difficile,
voire impossible, de représenter les données mesurées selon des panneaux électriques. Nous
devrons donc souvent nous contenter de les représenter sous la forme de courbes de
distribution pour en faire l’étude. Un exemple de simulation de mesures sur une colonne est
donné dans la figure 2.5. La complexité du dispositif de mesure autour de la colonne rend
impossible toute représentation des résistivités apparentes sous la forme de tomogrammes.

Résumé : Principe général des mesures


Une mesure électrique s’effectue au moyen d’un quadripôle d’électrodes. Le signal
mesuré va dépendre de l’arrangement des électrodes ainsi que de la structure du milieu.
Lorsque ce dernier est hétérogène, une telle mesure donne une résistivité apparente et
un traitement va être nécessaire pour obtenir une image de la répartition des propriétés
électriques intrinsèques du milieu.

34
Figure 2.5 : Simulations d’une prospection électrique sur une colonne.

II.4 SENSIBILITE DES DISPOSITIFS ELECTRIQUES

Il est souvent difficile de déterminer, a priori, quel est le meilleur dispositif électrique à
utiliser lors d’une prospection. Les caractéristiques de l’information collectée varient en effet
suivant l’agencement des électrodes (Dahlin and Loke, 1998). Les propriétés d’un dispositif
donné peuvent toutefois être étudiées en évaluant la sensibilité de la mesure en un point par
rapport à une variation des propriétés électriques du terrain (Barker, 1979). Cette fonction
nous permet de savoir dans quelle mesure les variations de la résistivité dans une région
influenceront la mesure de la différence de potentiel. Plus la valeur de cette fonction de
sensibilité est élevée, plus son influence sera grande.

Il est possible d’évaluer analytiquement les différentes sensibilités pour un sous-sol homogène
de résistivité ρ en suivant la formulation de Park et Van (1991). Loke et Barker (1995) ont
montré qu’une variation dans le champ de résistivité du modèle provoquait une variation dans
le champ de potentiel V pouvant être exprimée par :

δV 1
=
δρ ρ 2 ∫ ∇V ⋅ ∇V ′ dΩ

(2.4)

où V’ est le potentiel résultant d’une source de courant d’intensité 1 située à la position d’un
récepteur et Ω le domaine étudié.

35
Une telle solution analytique ne peut être évaluée que pour un espace (ou un demi-espace)
homogène avec des électrodes en surface ou sous la surface. Pour un modèle non-homogène
ou à géométrie plus complexe, une évaluation numérique des valeurs de sensibilité, dérivées
obtenues par différences finies par exemple, peut être nécessaire (Spitzer and Kümpel, 1997 ;
Spitzer, 1998). Nous avons toutefois créé un programme pour calculer en 3D la sensibilité de
n’importe quel dispositif d’électrodes dans le but de mieux comprendre la réponse des
dispositifs de mesures pour des modèles simples. Nous pourrons ultérieurement en tirer
quelques remarques et conclusions importantes sur le gradient de la fonction d’erreur à
minimiser utilisée dans le module d’inversion présenté plus loin. Les cas qui suivent ont donc
uniquement une valeur d’exemple et ne représentent pas une étude exhaustive de la sensibilité
des dispositifs électriques.

II.4.1 Exemple de sensibilité pour des dispositifs de surface

La figure 2.6 montre la valeur de la fonction de sensibilité pour différents agencements


d’électrodes en surface. Une très forte sensibilité peut être remarquée à proximité des
électrodes de courant et de mesure. Cela signifie qu’un corps situé vers les électrodes aura une
influence majeure sur la mesure du potentiel. Il est également possible de constater que les
valeurs de cette fonction diffèrent selon les dispositifs. Ces derniers vont donc avoir chacun
leurs caractéristiques propres. Ceci est surtout valable à plus grande distance des électrodes. A
proximité immédiate des électrodes, la forme de la fonction de sensibilité est semblable quel
que soit le dispositif considéré. La différence de forme de cette fonction nous permet donc de
mieux apprécier la réponse des différents dispositifs aux différents types de structures.

En dispositif Wenner, les contours des valeurs de la sensibilité sont quasiment horizontaux à
l’aplomb du centre du dispositif. Ceci implique que le dispositif Wenner présente une bonne
résolution verticale. En regardant les contours de la fonction de sensibilité du dipôle-dipôle
axial, nous constatons par contre que ce dispositif est très sensible à l’aplomb des deux
dipôles et que les contours de cette fonction sont essentiellement verticaux. Ceci implique que
ce dispositif est très sensible aux changements horizontaux de la résistivité et donc idéal pour
détecter des structures verticales. De plus, la sensibilité se concentre uniquement sous les
dipôles lorsque la distance entre ceux-ci augmente. Un écartement maximum entre les dipôles
doit donc être envisagé. Le dispositif Wenner-Schlumberger est un hybride entre le Wenner et
le Schlumberger créé pour la tomographie électrique 2D de surface. Quand nous regardons la
forme des contours des valeurs de la sensibilité sous le centre du dispositif, nous constatons
qu’ils ne sont ni horizontaux ni verticaux. C’est donc un bon compromis entre le dispositif
Wenner et le dipôle-dipôle axial.

Nous pouvons constater également qu’il y a des régions de sensibilités positives et négatives.
Une région avec une valeur de sensibilité positive implique que le signe de la variation du
potentiel est identique au signe de la variation de la résistivité (une sensibilité négative
implique le contraire). Cela explique certaines inversions du signe de l’anomalie qui peuvent

36
parfois être observées lors de mesures entre forages pour des corps 3D par exemple (Leroux,
2000). Une image erronée du sous sol est alors obtenue si un algorithme d’inversion 2D est
utilisé pour interpréter ce type de données. L’utilisation d’un algorithme d’inversion 3D se
justifie alors amplement.

Figure 2.6 : Exemples de sensibilité pour quelques dispositifs électriques couramment utilisés pour la
prospection de surface.

37
II.4.2 Exemples de sensibilité pour des dispositifs de surface-
forage

Dans la pratique, nous pouvons également mettre une partie ou toutes les électrodes sous la
surface du sol (dans un forage par exemple) afin d’améliorer la résolution en profondeur
(Daniels, 1983 ; Le Masne and Poirmeur, 1988 ; Poirmeur and Vasseur, 1988 ; Bevc and
Morrison, 1991). La sensibilité de dispositifs surface-forage est donnée dans la figure 2.7
(Marescot et al., 2002). Le dispositif pôle-pôle (M-A), qui possède uniquement une électrode
d'injection de courant et une électrode de mesure du potentiel, est fréquemment utilisé en
tomographie. La forte sensibilité négative entre les électrodes de mesure peut être relevée.
Nous pouvons remarquer que les autres dispositifs en surface-forage présentent également des
sensibilités très variables. Contrairement à ce qui est généralement supposé, une très rapide
diminution de la sensibilité peut être relevée loin de la surface et du forage. Il est donc
possible que nous surestimions souvent l’utilité de ce type de dispositifs pour la prospection
géophysique (Asch and Morrison, 1989). Une analyse des sensibilités peut être également
utile pour définir si un dispositif est sensible aux effets latéraux. En effet, si cette sensibilité
aux effets latéraux est généralement néfaste pour des acquisitions 2D, elle représente un atout
en 3D. Nous pouvons dans ce cas évaluer si la partie de la subsurface située hors du plan du
tomogramme aura une influence sur la mesure. Il sera nécessaire de tenir compte de cela dans
l’architecture des modèles utilisés pour le processus d’inversion. Comme le montre la figure
2.8 le dispositif MA-NB et plus sensible aux effet latéraux que le dispositif MN-AB par
exemple. Des informations identiques peuvent être déduites avec des dispositifs ayant toutes
leurs électrodes sous la surface (Bing and Greenhalgh, 1997).

Les dispositifs présentés ci-dessus sont maintenant bien connus. Dans la pratique, et suivant le
type d’étude, n’importe quel agencement d’électrodes peut toutefois être envisagé. Ces
dispositifs non-conventionnels peuvent présenter des réponses inattendues ou surprenantes,
pouvant parfois rendre le traitement de telles données très complexe. Nous pouvons citer par
exemple l’extrême sensibilité de certains agencements d’électrodes aux erreurs de position et
la difficulté de prévoir le signe de la résistivité apparente mesurée.

Résumé : Sensibilité des dispositifs électriques


La fonction de sensibilité d’un dispositif nous permet de savoir à quel point les
variations de la résistivité dans une région influenceront la mesure de la différence de
potentiel. Cette fonction ne peut être évaluée analytiquement que sur un modèle
homogène. L’environnement immédiat des électrodes participe de manière
prépondérante à la mesure et selon les dispositifs, certaines régions de sensibilité
négative peuvent provoquer une inversion de signe de l’anomalie. De plus, la forme de
cette fonction varie suivant les dispositifs utilisés.

38
Figure 2.7 : Exemples de sensibilité pour quelques dispositifs électriques dipôle-dipôle utilisés pour la
prospection entre la surface et un forage.

39
Figure 2.8 : Les différentes sensibilités latérales pour les dispositifs électriques dipôle-dipôle utilisés pour la
prospection entre la surface et un forage.

40
II.5 EQUATIONS FONDAMENTALES

Cette partie a pour objectif de rappeler les équations de base qui régissent le comportement du
champ électrique dans des milieux homogènes et hétérogènes. Ces équations vont permettre,
entre autres, de prédire les réponses électriques des milieux à l’aide de calculs analytiques ou
numériques. Nous limiterons la description de la théorie de l’électromagnétisme au cas de
l’approximation statique.

II.5.1 Le courant électrique, la conductivité et la loi d’Ohm

Les méthodes électriques ont pour but la détermination de la conductivité électrique σ (en
S/m) du sous-sol. Ce paramètre est défini par la loi d’Ohm : la conductivité électrique
correspond à la constante de proportionnalité entre le champ électrique E (V/m) appliqué en
un point du milieu et la densité de courant J (A/m2).

J =σ E (2.5)

Dans les expressions ci-dessus, E et J sont des grandeurs vectorielles et σ une grandeur
scalaire (pour un milieu isotrope) ou un tenseur (pour un milieu anisotrope). Le courant
électrique I (A) est noté comme étant le flux du vecteur J au travers d’une surface S :

I = ∫ J ⋅ dS (2.6)
S

II.5.2 La formulation de Maxwell pour l’électromagnétisme

J. C. Maxwell (1831-1879) a réuni sous la forme de quatre lois les équations fondamentales
de l’électromagnétisme. Ces lois lient le comportement du champ électrique E (V/m), du
champ magnétique H (A/m), du champ de déplacement D (C/m2), du champ d’induction
magnétique B (Wb/m2) et de la densité de courant J (A/m2). Tous ces champs sont des
grandeurs vectorielles. En l’absence de sources, il vient :

∂B
1) ∇×E + =0 loi d’induction de Faraday (2.7)
∂t

∂D
2) ∇×H − =J équation d’Ampère-Maxwell (2.8)
∂t

41
∂p
3) ∇⋅J = − avec p la densité de charges (2.9)
∂t

4) ∇ ⋅B = 0 (2.10)

La troisième équation de Maxwell peut également être exprimée par le biais du champ de
déplacement D :

∇⋅D = p (2.11)

et dans ce cas

∂p ∂
∇⋅J = − = − ∇⋅D (2.12)
∂t ∂t

Si nous considérons des champs électriques et magnétiques variant sinusoïdalement dans le


temps (t), nous pouvons écrire, avec ω la fréquence angulaire :

E(t ) = E e −iωt (2.13)

et

H (t ) = H e − iωt (2.14)

En tenant compte de la proportionnalité entre les champs, avec ε la permittivité électrique et µ


la perméabilité magnétique,

D=ε E (2.15)

B=µ H (2.16)

les équations (2.7) et (2.8) s’écrivent

∇×E = i ω µ H (2.17)

∇×H = i ω ε E +σ E (2.18)

Nous voyons que nous pouvons remplacer la conductivité σ et la permittivité ε par une
conductivité complexe σ* et une permittivité complexe ε* :

σ∗ =σ +iω ε (2.19)

et

σ
ε∗ = ε + (2.20)

42
II.5.3 La formulation de Maxwell pour des champs statiques

Dans le cas d’un état statique, les équations se simplifient considérablement, car les dérivées
temporelles s’annulent :

1) ∇×E = 0 (2.21)

2) ∇×H = J (2.22)

3) ∇⋅J = 0 (2.23)

4) ∇ ⋅B = 0 (2.24)

II.5.4 Définition du champ de potentiel

Dans la pratique, il est difficile de mesurer directement l’intensité d’un champ électrique dans
un milieu. Nous allons donc étudier le champ de potentiel V qui est une grandeur étroitement
liée au champ électrique.

L’équation (2.21) montre que E dérive d’un champ de potentiel scalaire V. Cette équation
exprime que le champ E est conservatif en vertu du théorème de Stokes (l’intégrale du champ
électrique le long d’un contour fermé est nulle). La définition du champ E peut donc être
exprimée par :

E = −∇V (2.25)

Le champ scalaire V est défini à une constante près, seules les différences de potentiel entre
deux points de l’espace ont un sens physique. Ces différences de potentiel peuvent être
exprimées comme la circulation du champ E entre ces points.

En combinant l’équation (2.23) avec la loi d’Ohm (équation 2.5), nous obtenons :

∇ ⋅ (σ ∇ V ) = 0 (2.26)

Lorsque le milieu est homogène et que la conductivité est la même dans tout l’espace, nous
obtenons :

∇ 2V = 0 (2.27)

qui est une équation de Laplace.

43
Le potentiel électrique est donc un champ scalaire harmonique. Il vérifie certaines conditions
aux limites, à l’interface de deux milieux où sont localisés deux points p1 et p2, que nous
allons brièvement décrire plus loin.

La formule de Laplace est valable dans un milieu homogène en l’absence de sources de


courant. En présence d’une source de courant d’intensité I au point rs, l’équation (2.27)
devient :

∇ 2V = − I δ ( r − rs ) (2.28)

avec δ la distribution de Dirac à trois dimensions et r la position d’un point quelconque de


l’espace.

L’équation (2.26) est alors à remplacer par :

∇ ⋅ (σ ∇V ) = − I δ ( r − rs ) (2.29)

qui est une équation de Poisson.

Dans le cas d’un milieu hétérogène, la conductivité, et donc V, sont fonctions des coordonnées
dans l’espace. Dans la pratique, l’espace est découpé en sous-domaines homogènes. A partir
de la définition de la tension entre deux points, p1 et p2, situés de part et d’autre d’une
frontière entre deux milieux, de conductivités σ1 et σ2 respectivement, il est possible d’obtenir
l’égalité suivante :

p2

V p1 − V p 2 = ∫ E ⋅ dl
p1
(2.30)

Lorsque les points p1 et p2 s’approchent l’un de l’autre, les potentiels deviennent égaux :

V p1 = V p 2 (2.31)

De plus, la composante normale de la densité de courant est continue à la frontière :

∂V p1 ∂V p 2
σ1 =σ2 (2.32)
∂n ∂n

44
II.5.5 Détermination du champ de potentiel

La résolution du problème direct consiste donc à déterminer la répartition du champ de


potentiel V dans un milieu permettant le passage d’un courant électrique. Ce problème
s’exprime, sous forme différentielle :

Trouver le champ de potentiel V défini sur le domaine spatial d’étude, noté Ω (figure 2.9), tel
que :

∇ ⋅ (σ ∇ V ) = − q (2.33)

dans Ω, q étant une fonction de l’espace de la forme ∑I


s
s δ (r − rs )

avec Is l’intensité d’une source S, rs la position de cette source, r la position d’un point
quelconque de l’espace et δ la fonction de Dirac,

σ ∇V ⋅ n = − J (2.34)

sur ΓN la frontière dite de Neumann (frontière à flux nul), avec n le vecteur normal à la
surface,

V =V (2.35)

sur ΓD la frontière dite de Dirichlet (frontière à potentiel imposé).

Figure 2.9 : Représentation schématique du domaine et des frontières de Neumann et Dirichlet.

La solution pour le champ de potentiel V doit de plus respecter les conditions aux limites à
l’interface de deux milieux de conductivités différentes (équations 2.31 et 2.32).

Les conditions aux frontières dépendent de la forme de l’espace utilisée. La condition de


Neumann à l’interface air-sol se traduit par ∇V ⋅ n = 0. La condition de Dirichlet traduit le fait
que le potentiel a une valeur arbitraire constante (nulle par exemple) sur toutes les autres

45
frontières lorsque ces dernières sont loin des sources (V∞ → 0). Cette dernière condition nous
force à créer des espaces très grands. Nous pouvons également affecter à ces valeurs les
valeurs calculées pour un sol homogène ou encore tabulaire (conditions mixtes). Nous
remarquerons encore que ces conditions peuvent être naturelles (ce qui signifie que la
formulation du problème implique qu’elles sont vérifiées) ou doivent être explicitement
introduites (essentielles).

II.5.6 Approximation électrostatique

En méthode électrique par courant continu (utilisant des fréquences allant jusqu’à environ
150 Hz), un système d’électrodes est généralement utilisé pour injecter le courant dans le
milieu. Il faut dans ce cas s’assurer du contact galvanique avec le milieu. Lors de
l’auscultation de parties du corps humain, de sols gelés, de milieux urbanisés ou encore de
bâtiments (contrôle non destructif), une méthode permettant d’obtenir des informations sur les
propriétés électriques des structures, sans contact galvanique, doit être utilisée (Grard and
Tabbagh, 1991). L’utilisation de quadripôles électrostatiques (un dipôle d’injection et un
dipôle de mesure) permet de pallier ce problème. Dans ce cas, les propriétés prises en compte
sont la résistivité électrique, décrite plus haut, et la permittivité diélectrique. Une alternative à
la prospection électrostatique, dans ce type de milieu, est l’utilisation des méthodes
électromagnétiques proprement dites. Toutefois, sur des structures très résistantes, les
phénomènes d’induction sont faibles et la réponse peut être difficile à interpréter.

Il est donc nécessaire de déterminer sous quelles conditions un quadripôle électrostatique


donne les mêmes résultats qu’un quadripôle électrique classique (Tabbagh et al., 1993). Cela
permettra de définir si les outils de modélisation développés dans ce travail peuvent être
utilisés dans le cas de la prospection électrostatique.

Le potentiel électrostatique est produit par un pôle qui peut être situé à la surface de l’objet
étudié ou encore dans l’air au-dessus de cet objet. Pour une charge électrostatique Q dans un
milieu homogène, le potentiel en un point M s’exprime par :

Q
V= (2.36)
4 π ε1 R

avec ε1 la permittivité du milieu homogène et R la distance entre la charge et le point de


mesure.

A proximité d’un second milieu de permittivité ε2 et si la séparation entre les deux milieux est
plane, l’équation du potentiel se modifie de la manière suivante (Tabbagh et al., 1993), figure
2.10 :

46
Figure 2.10 : Configuration de mesure en prospection électrostatique.

Q  1 ε1 − ε 2 1 
V=  +  (2.37)
4 π ε1  R ε1 + ε 2 R ′ 

Si la charge est située dans l’air, le potentiel est également exprimé dans l’air. Dans ce cas,
ε1≈ε0 avec ε0 la permittivité diélectrique du vide (≅8.85 10-12 F.m-1). L’air peut être considéré
comme parfaitement isolant mais le sol n’est pas un diélectrique parfait. Nous avons alors :

σ
ε2 = ε0 εr + (2.38)

avec εr la permittivité relative vraie et ω la fréquence angulaire.

La charge Q appliquée au moyen d’un courant alternatif I de fréquence angulaire ω vaut :

I
Q= (2.39)

En séparant cette expression en partie réelle et imaginaire et en supposant qu’à basse


fréquence σ >> ω ε0 et σ >> ω ε0 εr, nous pouvons noter :

Iρ I 1 1
V= −i  −  (2.40)
2π R′ 4πωε 0  R R′ 

Nous voyons alors que la partie réelle du potentiel est directement proportionnelle à la
résistivité et que la partie imaginaire croît avec l’épaisseur d’air séparant l’électrode du sol.
L’influence de la partie imaginaire décroît toutefois avec la dimension du dispositif R. Nous
devrons alors mesurer le potentiel en phase et en quadrature par rapport à l’intensité injectée.
Nous utiliserons la partie en phase du potentiel pour étudier les résistivités du sol par les
méthodes d’interprétation en courant continu.

47
Pour des pôles posés à la surface (R=R’), et à basse fréquence, l’expression du potentiel
devient :


V≈ (2.41)
2π R

ce qui est équivalent au cas de la prospection électrique en courant continu. Nous pouvons
alors utiliser la mesure en phase ou la valeur efficace du potentiel pour étudier la résistivité et
les méthodes d’interprétation en courant continu pourront être utilisées dans ce cas. En
considérant des dispositifs de mesure de quelques mètres, une gamme de résistivité inférieure
à 5000 Ωm et une fréquence suffisamment basse (<100 kHz en pratique), la résistivité est le
terme dominant dans l’expression de la permittivité complexe (Leroux, 2000). Des
applications dans le domaine du contrôle non destructif ainsi que des applications en
médecine, en génie civil et en environnement sont envisageables (Leroux, 2000).

Résumé : Equations fondamentales


Le système différentiel utilisé pour la résolution du problème électrique peut être déduit
des équations de Maxwell sous la forme d’une équation locale (équation 2.33) associée à
des conditions aux limites (équations 2.34 et 2.35). Les champs sont considérés comme
statiques (pas de variations dans le temps). Ces équations et donc les développements
effectués dans ce travail peuvent également être utilisés pour des dispositifs
électrostatiques de faible dimension (quelques mètres) pour des fréquences inférieures à
100 kHz et des résistivités inférieures à 5000 Ωm.

48
CHAPITRE III

LA RESOLUTION DU PROBLEME
DIRECT

49
50
Après avoir décrit la formalisation des phénomènes électriques, nous allons maintenant
montrer comment résoudre les équations différentielles pour le champ de potentiel. Une telle
solution permet de prédire une mesure en fonction d’un modèle donné, opération portant le
nom de problème direct. La résolution du problème direct est nécessaire à une résolution
itérative du problème inverse. Un outil de modélisation directe est également très utile pour
tester la réponse de différents arrangements d’électrodes, ou encore l’effet de différentes
hétérogénéités pour planifier une prospection. Une telle solution au problème direct peut être
obtenue par des méthodes analytiques, semi-analytiques, ou entièrement numériques.

Les objectifs de cette partie sont la présentation de différents aspects du problème direct
électrique. La méthode de formulation intégrale ainsi que l’approximation par éléments finis
pour la résolution du problème électrique sont décrites en particulier. De plus, seule
l’utilisation de modèles à éléments de volume (3D) est développée. La structure ainsi que
l’application du code de calcul CESAR-LCPC pour le problème électrique sont exposées. Le
programme permettant la modélisation directe de séquences électriques est ensuite détaillé et
quelques exemples de modélisation directe sur des structures simples et plus compliquées sont
données afin d’exposer quelques conditions d’applicabilité de la méthode.

III.1 SOLUTIONS AU PROBLEME DIRECT

III.1.1 Solutions analytiques

Un solution analytique au système d’équations différentielles décrivant le champ de potentiel


dans un milieu conducteur peut être trouvée dans des cas très simples, présentant une symétrie
par rapport à un axe, un plan ou un point. Nous entendons par là que la géométrie des
structures et des hétérogénéités est simple (sphère, cylindre infini, failles, dyke, milieux
tabulaires horizontaux). Des exemples de solutions analytiques pour une sphère infiniment
conductrice peuvent être trouvées, par exemple, dans Scurtu (1972).

Pour des milieux séparés par une interface plane, nous pouvons appliquer la méthode des
images. Nous pouvons ainsi définir la valeur du champ de potentiel pour un milieu
comportant un nombre quelconque de couches (adaptation de la formulation de Stefanescu et
Schlumberger (1930) par R. Lagabrielle, cité dans Leroux, 2000). La solution donnée par une
méthode analytique est une solution fiable de la répartition du champ de potentiel. De plus, le
temps de calcul nécessaire à la résolution du problème est généralement réduit. De par la
simplicité du milieu modélisé, les solutions analytiques ne peuvent pas décrire des modèles
plus hétérogènes que ne le permet la méthode (en général un corps de géométrie simple). Des
modèles 3D à géométries complexes ne peuvent donc pas être décrits par ce type d’approche.
Toutefois, les solutions analytiques peuvent servir à vérifier ou comparer différentes solutions

51
obtenues par des méthodes numériques. Pour des milieux plus complexes, des méthodes semi-
analytiques peuvent être utilisées. La méthode des centres alpha en est un exemple
(Stefanescu, 1970). Cette méthode connaît toutefois certaines limitations (Shima, 1990) et est
donc assez peu utilisée. En effet, elle est particulièrement mal adaptée si les contrastes de
résistivité sont forts ou si les corps modélisés présentent des limites très nettes.

III.1.2. Equations intégrales

Les méthodes d’équations intégrales permettent de créer des modèles plus réalistes (voir par
exemple Poirmeur, 1986 ; Das, 1987 ; Lesur, 1995). La méthode des moments en est un
exemple (Tabbagh, 1985). Dans la méthode des moments, des corps de formes quelconques,
construits à partir d’éléments parallélépipédiques, sont plongés dans un milieu homogène ou
tabulaire. Seule la zone constituant l’anomalie est discrétisée, ce qui représente un intérêt
certain (temps de résolution réduit) par rapport aux autres méthodes purement numériques qui
nécessitent une discrétisation importante de l’espace. Le temps de résolution des méthodes
intégrales augmente toutefois pour des hétérogénéités très complexes, finement discrétisées ou
très étendues. Elles sont donc moins bien adaptées que les méthodes purement numériques à
la prise en compte d’un milieu globalement complexe. Les systèmes linéaires sont de
dimensions plus modestes mais généralement moins creux que pour les méthodes numériques.
Un conditionnement est donc souvent nécessaire avant leur résolution.

III.1.3 Méthodes purement numériques

Les méthodes purement numériques seront utilisées pour des modèles dont la géométrie est
très complexe en discrétisant complètement le domaine. Nous pouvons ainsi modéliser des
structures très différentes plongées dans des milieux qui ne sont pas nécessairement des demi-
espaces homogènes. Il est alors possible de concevoir des modèles de dimensions finies dans
l’espace (modèles réduits, éprouvettes). Les méthodes numériques présentent le désavantage
de nécessiter un temps de calcul important ainsi que des besoins en mémoire très élevés.

La méthode des différences finies (Mufti, 1976 ; Dey and Morrison, 1979 ; Spitzer, 1995 ;
Loke and Barker, 1996a et 1996b) est couramment utilisée. Pour la méthode des différences
finies, nous résolvons l’équation de Poisson sous sa forme différentielle. L’espace est divisé
en un réseau de mailles régulières uniquement, ce qui est une des limitations de cette méthode.
Des opérateurs de différentiation peuvent être obtenus à partir d’un développement limité. Ces
opérateurs se servent ensuite, pour exprimer le potentiel (et ses dérivées) en un nœud, des
valeurs aux nœuds voisins. La matrice du système linéaire ainsi obtenue est généralement
creuse et peut donc être résolue par une méthode numérique appropriée.

52
La méthode des éléments finis (Coggon, 1971 ; Fox et al., 1980 ; Pridmore et al., 1981 ;
Holcombe and Jiracek, 1984 ; Queralt et al., 1991 ; Sasaki, 1994 ; Tsokas et al., 1997 ;
Tsourlos et al., 1999) considère l’équation de Poisson sous une forme intégrale et une solution
au problème est définie en minimisant l’énergie du champ électrique. L’avantage de la
méthode vient du grand choix de forme de maille à disposition. Il est donc possible de
représenter la forme réelle de la structure étudiée quelle que soit sa complexité géométrique.
Cette méthode semble donc être mieux adaptée à notre objectif que la méthode des équations
intégrales ou des différences finies. L’adaptation du code d’éléments finis CESAR-LCPC
pour la modélisation directe et inverse est donc justifiée.

Résumé : Solutions au problème direct


De toutes les méthodes de résolution du problème direct, la méthode des éléments finis
semble la mieux adaptée à l’investigation de structures tridimensionnelles complexes. En
effet, les méthodes analytiques ne s’appliquent qu’à des modèles simples et les méthodes
d’équations intégrales ne sont pas performantes pour imager des hétérogénéités très
complexes. De plus, seules des mailles régulières peuvent être utilisées dans la méthode
des différences finies.

III.2 RAPPELS SUR LA METHODE DES ELEMENTS FINIS

Il est important de relever que la version standard de CESAR-LCPC ne permet pas de


résoudre un problème sur un maillage 2D, où seules deux coordonnées de l’espace varient, en
utilisant des sources 3D. En effet, la source imposée sur un nœud est considérée comme
linéique, c’est-à-dire de dimension infinie selon une direction perpendiculaire au modèle. Pour
obtenir une source tridimensionnelle, il serait nécessaire d’effectuer une transformée de
Fourier selon la direction perpendiculaire. Cette stratégie est généralement utilisée pour
effectuer des simulations sur des maillages 2D. Actuellement, seules des mesures électriques
effectuées avec des électrodes linéiques (Parasnis, 1975) peuvent être simulées dans CESAR-
LCPC pour des modèles 2D. Lors de simulations sur un modèle représentant un demi-espace,
la différence de potentiel mesurée entre deux électrodes M et N vaut alors :

ρI   MB − AN  
∆V = ln   (3.1)
π   AM − BN  

avec ρ la résistivité du modèle, I l’intensité du courant par unité de longueur, A et B étant les
sources linéiques.

53
III.2.1 Les formulations intégrales pour le problème électrique

Dans le cas où un problème n’admet pas de solution analytique, il est nécessaire d’évaluer une
solution approchée. Les méthodes d’approximation ont pour objectif de remplacer un
problème mathématique défini sur un milieu continu (équations différentielles ou intégrales)
par un problème discret et réécrit sous forme matricielle. Ce problème de dimension finie peut
alors être résolu numériquement par la méthode des éléments finis (MEF) par exemple.

Pour résoudre un système d’équations différentielles en le discrétisant, il est tout d’abord


nécessaire de le mettre sous une forme intégrale. Cette formulation intégrale permettra alors le
calcul d’une approximation par sous-régions puis l’assemblage de ces sous-régions pour
obtenir une solution sur la totalité du domaine.

Les formulations intégrales obtenues sont strictement équivalentes au système d’équations


différentielles initial. L'intérêt de la formulation intégrale est de tenir compte de l’équation
locale et de tout ou partie des conditions aux limites. Lorsqu’une formulation intégrale tient
compte implicitement de certaines conditions aux limites, ces dernières sont dites naturelles.
Dans ce cas, il est nécessaire de s’assurer que le champ solution vérifie les conditions aux
limites restantes, dites essentielles. Notons qu’il existe plusieurs approches permettant
d’obtenir une formulation intégrale. La méthode des résidus pondérés (ou annulation d'erreur)
utilise comme point de départ les équations locales et les conditions aux limites du problème.
La seconde approche est la méthode variationnelle dont la formulation mathématique est
fondée sur des considérations énergétiques. La formulation obtenue dépend bien entendu des
hypothèses de modélisation du problème physique. Dans le cas du problème électrique, ces
deux approches donnent la même formulation intégrale (Zienkiewicz and Taylor, 2000).

La formulation différentielle d’un problème physique s’exprime à l’aide d’équations locales (à


l’intérieur d’un domaine Ω) et de conditions aux limites (sur les frontières du domaine Ω)
(figure 3.1). Nous rappelons que le problème électrique sous forme différentielle peut
s’énoncer ainsi :

Trouver le champ de potentiel V défini dans le domaine Ω tel que :

∇ ⋅ (σ ∇V ) = −q (3.2)

dans Ω, q étant une fonction dans Ω de la forme ∑I


s
s δ (r − rs )

avec Is l’intensité de la source, rs la position de la source, r la position d’un point quelconque


de l’espace et δ la fonction de Dirac :

σ ∇V ⋅ n = − J (3.3)

54
sur ΓN la frontière de Neumann

V =V (3.4)

sur ΓD la frontière de Dirichlet

Figure 3.1 : Représentation schématique du domaine total et d’un domaine élémentaire.

Nous utilisons ici la formulation variationnelle pour le problème électrique pour obtenir une
forme intégrale. Cette méthode spécifie une fonctionnelle Π qui est définie par une forme
intégrale regroupant l’équation locale ainsi que la condition sur la frontière de Neumann. Il
est possible de résoudre le problème électrique en exigeant la stationnarité (minimisation) de
la fonctionnelle :

1 
Π = ∫  σ ∇V ⋅ ∇V + q V  d Ω + ∫ J V d Γ N (3.5)
Ω
2  ΓN

avec V = V et δV = 0 sur ΓD la frontière de Dirichlet.

La condition aux limites de type Neumann est prise en compte de façon naturelle. Le potentiel
solution V est celui minimisant la fonctionnelle Π et vérifiant les conditions aux limites de
Dirichlet en certains points de la frontière du domaine :

δΠ = ∫ (σ ∇ V ⋅ ∇ δ V + q δ V ) d Ω + ∫ J δV dΓ N = 0 ∀δ V (3.6)
Ω ΓN

avec V = V et δV = 0 sur ΓD la frontière de Dirichlet.

Ainsi, le potentiel solution V doit vérifier cette équation quel que soit le champ δV, variation
de V. Les champs V et δV doivent être admissibles, c’est-à-dire continus C0 et vérifier les
conditions aux limites. Si des dérivées d’ordre n apparaissent dans l’équation locale ou les
conditions aux limites, alors les fonctions utilisées doivent être choisies telles que leurs
dérivées d’ordre n-1 soient continues (continuité Cn-1).

55
Nous remarquons que seule la stationnarité de la fonctionnelle est assurée par cette
formulation. Le fait de poser δΠ=0 est une condition nécessaire mais non suffisante pour une
minimisation.

III.2.2 Approximation par éléments finis

Les codes d’éléments finis font partie des outils couramment utilisés lors de l’analyse de
problèmes physiques. Une analyse par éléments finis nécessite plusieurs étapes. L’utilisateur
désirant résoudre un problème par la méthode des éléments finis doit tout d’abord créer un
maillage figurant le domaine d’étude. Cette étape est souvent très délicate car la qualité de
l’approximation par éléments finis dépend fortement de la structure de ce maillage.
L’utilisateur doit également imposer un certain nombre de conditions aux limites et définir
une série de sollicitations. Une fois le problème bien défini, la résolution du problème
intervient par l’appel d’un programme spécifique, le solveur. En général, cette étape se
déroule sans intervention extérieure. Une fois le résultat obtenu, il va ensuite être nécessaire
d’exploiter les résultats en calculant et en représentant graphiquement une série de paramètres
dérivés.

Les points suivants de l’approximation par éléments finis seront décrits plus en détail.
L’opération de maillage, qui constitue souvent une des parties les plus délicates de la
modélisation, doit tout d’abord être précisée. Les fonctions d’interpolation, véritable point
central de l’approximation par éléments finis, sont ensuite décrites. L’expression de ces
fonctions d’interpolation reviendra régulièrement dans les développements effectués dans ce
travail. Les opérations d’assemblage et de résolution sont ensuite explicitées afin de compléter
la description de la méthode. Finalement, des indications sur l’interpolation dans l’élément de
référence ainsi que dans l’élément réel sont données. Ces indications sont nécessaires à la
compréhension de la méthodologie de modélisation directe développée dans ce travail.

III.2.2.1 Le maillage

L’idée fondamentale de la méthode des éléments finis est de discrétiser le problème en


décomposant le domaine Ω à étudier en sous-domaines, de formes géométriques simples,
appelés éléments finis. L’ensemble des mailles Ωe est donc une partition du domaine Ω tel
que Ω = ∪Ωe .

Les logiciels d’éléments finis disposent d’un mailleur proposant des mailles linéiques,
surfaciques ou volumiques. Les mailles doivent être bien proportionnées. Il est généralement
admis que la distorsion de la maille, le rapport de la plus grande dimension sur la plus petite,
ne doit pas être excessive (de l’ordre de 2). Les algorithmes de maillage automatique
garantissent en général une faible distorsion, mais ce n’est pas toujours le cas. Le maillage ne
doit pas être inutilement fin et nous devons généralement faire un compromis entre la finesse

56
de la représentation géométrique et le coût en temps de calcul. Nous choisirons, en fonction
des résultats escomptés, de mailler finement certaines régions et plus grossièrement d’autres.
Pour le problème électrique par exemple, il sera nécessaire d’utiliser un maillage fin dans la
région où les mesures sont effectuées et un maillage plus grossier dans la région servant à
imposer des conditions aux limites à l’infini. La phase de maillage est sans doute celle où l’on
passe le plus de temps sur la définition du problème. L’expérience de l’utilisateur, ainsi
qu’une certaine idée du résultat du calcul, sont des facteurs importants. Après examen des
résultats du calcul, nous pouvons être amenés à recommencer un maillage ou à le remanier
partiellement. Un maillage satisfaisant n’est que rarement obtenu à la première tentative.

III.2.2.2 Les éléments et les fonctions d’interpolation

Nous avons vu précédemment qu’il était possible d’obtenir une formulation intégrale pour le
problème électrique. Toutefois, cette formulation est soumise à une condition très
contraignante. En effet, le problème doit pouvoir être résolu quelle que soit la valeur des
fonctions δV. Or, en général, ce type de problème n’a pas de solution. Nous allons donc
remplacer cette condition en cherchant à satisfaire la formulation intégrale uniquement pour
certaines de ces fonctions. De plus, nous choisirons des fonctions faisant partie de l’espace
des fonctions admissibles. Cela signifie que nous restreignons cet espace aux seules fonctions
qui respectent les conditions aux limites.

La méthode des éléments finis donne une solution approchée du champ de potentiel qui est
obtenue par juxtaposition des champs locaux V définis dans chaque élément. Un élément est
une maille possédant un certain nombre de nœuds ainsi qu’une famille de champs locaux
destinés à fournir une solution approchée en tout point de la maille en ne connaissant que les
valeurs d’une solution approchée aux nœuds. Le nombre de degrés de liberté (ddl) par nœud
varie selon la nature du champ inconnu et la dimension de l’espace physique. Dans la suite de
cet exposé, seul le cas du maillage volumique sera détaillé. De plus, nous supposerons qu’il
n’y a qu’un seul ddl par nœud (champ potentiel scalaire). Si le champ à interpoler était
vectoriel ou tensoriel, il y aurait alors un ddl par composante du champ et nous construisons
des interpolations pour chaque ddl.

Sur chaque élément e nous définissons les approximations des champs V et δV suivantes :

n
V ≈ V" = ∑ ai N i (3.7)
i =1
et

n
V = ∑ δ ai N i
δ V ≈ δ# (3.8)
i =1

les fonctions Ni sont les fonctions de forme, n le nombre de nœuds de l’élément, et ai et δai
sont les amplitudes associées aux fonctions de forme.

57
L’approximation présentée ici utilise les mêmes fonctions de forme pour les champs V et δV
(méthode de Galerkin) mais ce n’est pas obligatoire. Ces choix donnent naissance à
différentes méthodes de résolution par éléments finis (et à différentes solutions approchées). Il
est toutefois impératif que ce choix génère un système d’équations régulier. Il est de plus
désirable que ce système d’équations linéaires soit symétrique afin de permettre l’utilisation
d’algorithmes de résolution efficaces. Enfin, les fonctions choisies doivent être suffisamment
dérivables suivant la formulation intégrale utilisée. Dans le cas où certaines dérivées
s’annulent, le système d’équations linéaires devient singulier. Pour la méthode de Galerkin,
lorsque le problème est bien posé, nous sommes assurés de la régularité du système. Cette
régularité du modèle mathématique assure des propriétés de convergence de la solution
cherchée, l'approximation étant d'autant plus précise que le nombre de nœuds augmente.

La solution approchée recherchée doit présenter une continuité C0. Cette condition peut être
remplie partiellement en choisissant de mettre des nœuds sur la frontière des mailles afin de
garantir que la solution approchée pour deux éléments voisins soit continue au moins aux
nœuds communs. Lors de l’utilisation d’éléments conformes, nous garantissons de plus que
l’interpolation sur une frontière ne va dépendre que des nœuds de la frontière d’un élément et
non de nœuds situés au centre de ce dernier. Le nombre de nœuds de la frontière doit donc
être suffisamment important pour garantir la convergence du problème.

n
V ≈ V" = ∑ ai N i = N a (3.9)
i =1

avec N la matrice ligne des fonctions de forme et a le vecteur des amplitude associées aux
fonctions de forme.

L'approximation par éléments finis est donc une approximation nodale ne faisant intervenir
que les variables nodales du domaine élémentaire. Les nœuds sont donc les points de
l'élément pour lesquels nous choisissons d'identifier l'approximation du champ V à la valeur
du champ de variables a. Nous en déduisons que Vi = ai pour un nœud i de l’élément avec
i=1,n. Une caractéristique importante de N peut être soulignée ici :

1; i = j
N i ( M j ) = δ ij =  (3.10)
0; i ≠ j

avec δij le symbole de Kronecker et Mj le nœud j.

58
III.2.2.3 La formulation discrète

Rappelons que la formulation du problème électrique revient à trouver le champ de potentiel


V tel que

∫ (σ ∇ V ⋅ ∇ δ V + q δ V ) d Ω + ∫ J δ V d Γ
Ω ΓN
N = 0 ∀δ V (3.11)

avec V = V et δV = 0 sur ΓD la frontière de Dirichlet.

Dans cette formulation, les fonctions δV et V apparaissent sous la forme de leur gradient. Il
suffit alors que les fonctions de base aient partout un gradient non nul. Des interpolations
linéaires peuvent donc éventuellement être utilisées. De plus, seule la condition aux limites
sur la frontière de Dirichlet reste à imposer ce qui facilite grandement le problème. En effet, il
suffit d’imposer une valeur de potentiel aux nœuds appartenant à la frontière considérée. Dans
la pratique, on impose ces conditions aux limites en modifiant la matrice obtenue finalement
pour résoudre le problème.

Sur un élément e, l’approximation suivante est alors utilisée :

n
V = ∑ ai N i (3.12)
i =1

et

n
δ V = ∑ δ ai N i (3.13)
i =1

En substituant ces expressions dans l’équation 3.11, nous obtenons alors pour un élément e :

 
 Ωe
( )
 ∫ ( ∇N i ) σ e ∇N i d Ωe  a + ∫ J N i d Γ N = ∫ N i q d Ωe
T

 ΓN Ωe
i = 1, n (3.14)

Dans cette approximation, la valeur du champ de conductivité σe peut varier dans chaque
élément, ce qui n’était pas le cas pour la formulation différentielle. Ces intégrales ne sont
différentes de zéro que sur les éléments qui contiennent le nœud i et nous ne les calculons
donc que pour ces éléments. Il faut également remarquer que ces intégrales ne portent que sur
les fonctions de base de l’espace des fonctions d’interpolation. L’intégrale curviligne est nulle
à la surface sol.

La construction des termes de la matrice globale consiste essentiellement en des calculs


d’intégrales sur des éléments. En général, ces intégrales sont évaluées numériquement. La
méthode la plus courante est celle des points de Gauss. Pour un hexaèdre à 8 nœuds, nous

59
utilisons, dans le progiciel CESAR-LCPC, 2x2x2 points d'intégration de Gauss, et 3x3x3
points de Gauss pour un hexaèdre à 20 nœuds. Pour les triangles en 2D, nous utilisons les
points de Hammer. Pour les pentaèdres en 3D nous utilisons alors 3 points de Hammer dans le
plan du triangle de base et 2 points de Gauss selon la troisième direction.

III.2.2.4 Assemblage et résolution

L’opération d’assemblage consiste à construire le système linéaire des équations à résoudre.


Ce système est de la forme :

Ka=F (3.15)

avec K la matrice globale.

Considérons un maillage comportant m éléments et n nœuds. Les règles de l’assemblage sont


définies par :

m
K ij = ∑ K ije
e =1 i = 1, n
 (3.16)
 j = 1, n
m
Fi = ∑ Fi e

e =1

avec Ke et Fe les valeurs de la matrice globale et du terme source, évaluées sur chaque
élément.

Une fois l’assemblage effectué, le problème se ramène à la résolution d’un système


d’équations linéaires, généralement de grande taille, en utilisant une méthode directe ou
itérative. Lorsque le système est linéaire et symétrique, une décomposition de Cholesky peut
être utilisée lors de la résolution du problème.

III.2.2.5 L’interpolation dans l’élément de référence

De façon à uniformiser et à automatiser les calculs pour obtenir un gain de temps de calcul,
nous construisons tout d’abord un espace de fonctions d’interpolation sur une maille de
référence, topologiquement équivalente à la maille réelle. Le passage de l'élément de
référence à l'élément réel sera réalisé par une transformation géométrique. Nous entendons par
élément réel un élément quelconque du domaine discrétisé. Dans la pratique, un logiciel
d’éléments finis possède des bibliothèques dans lesquelles les interpolations dans les mailles
de référence sont déjà définies et n’ont plus à être recalculées. Nous transformons ensuite cet
espace de fonctions d’interpolation sur une maille de référence pour qu’il devienne un espace
de fonctions d’interpolation sur les mailles réelles. Les mailles de référence volumiques les
plus courantes sont données dans la figure 3.2.

60
Figure 3.2 : Les principaux éléments de référence pour les maillages de volume.

Les bases polynomiales sont définies dans l’espace de référence. Pour utiliser une base
polynomiale complète, le nombre de termes doit être égal au nombre de variables nodales à
identifier. Des bases polynomiales incomplètes peuvent également être utilisées (bases tri-
linéaires par exemple).

Pour des mailles volumiques, la fonction d’interpolation est un polynôme à trois variables ξ,
η, ζ.

Pour une approximation linéaire, la base polynomiale utilisée est :


(1, ξ, η, ζ) valable pour 4 variables nodales.

Pour une approximation quadratique, la base polynomiale utilisée est :


(1, ξ, η, ζ, ξ2, η2, ζ2, ξζ, ξη, ηζ) valable pour 10 variables nodales.

Pour une approximation tri-linéaire, la base polynomiale utilisée est :


(1, ξ, η, ζ, ξη, ξζ, ηζ, ξηζ) valable pour 8 variables nodales.

Le choix du degré d’interpolation incombe généralement à l’utilisateur. Pour un maillage


donné, la solution approchée obtenue est bien meilleure si nous utilisons des approximations
quadratiques à la place d’approximations linéaires. Pour obtenir une solution de meilleure
qualité avec des interpolations linéaires, il est nécessaire d’utiliser un maillage plus fin.

61
III.2.2.6 L’interpolation dans l’élément réel

Il convient maintenant de construire des fonctions d’interpolation sur l’élément réel en


utilisant les interpolations définies sur l’élément de référence. Comme les coordonnées des
nœuds de l’élément de référence sont différentes de celles de l’élément réel, une
transformation géométrique f est nécessaire. Cette transformation doit être une bijection. Elle
dépend des coordonnées des nœuds géométriques de l'élément réel et utilise généralement une
base de fonctions polynomiales. Un élément réel peut être défini comme l'image, par une
transformation géométrique, d'un élément de référence pour lequel les fonctions
d'interpolation sont connues (figure 3.3). Un même élément de référence permettra de générer
une classe d'éléments réels. A chaque élément réel correspond une transformation
géométrique différente.

 x   f x (ξ ,η , ζ ) 
   
 y  =  f y (ξ , η , ζ )  (3.17)
 z   f (ξ ,η , ζ ) 
   z 

Nous pouvons utiliser les fonctions de forme qui ont déjà été définies pour représenter les
variations du champ inconnu. Nous pouvons donc noter pour chaque élément :

 x1   y1   z1 
     
x = N′  x2  = N′ x y = N ′  y2  = N ′ y z = N′  z2  = N′ z (3.18a, b et c)
$ $ $
     

Pour des éléments réels présentant une géométrie compliquée, nous choisissons une
transformation qui est inversible et qui respecte la correspondance des nœuds. La
correspondance des frontières, qui est compliquée à trouver, n’est en général pas respectée.
Pour les éléments volumiques, cela implique que les arêtes et les faces transformées sont
différentes des arêtes et des faces réelles. En utilisant cette transformation géométrique,
l’élément de référence n’est alors qu’une approximation géométrique de l’élément réel. Seuls
les nœuds correspondent et les autres points sont distincts. Nous noterons que si l’élément réel
est fortement distordu, cette transformation peut ne pas mener à un résultat unique. Nous
pouvons vérifier cela en nous assurant que le signe du déterminant de la matrice jacobienne
(définie plus loin) reste inchangé dans un même élément.

62
Figure 3.3 : Passage d’un élément de référence à un élément réel.

L’élément est dit isoparamétrique si N=N’. L’interpolation des coordonnées peut également
être de degré inférieur (éléments subparamétriques) ou supérieur (éléments
superparamétriques).

Comme nous l’avons vu plus haut, les matrices élémentaires font apparaître des opérateurs
différentiels appliqués aux fonctions d’interpolation dans les éléments réels. En pratique, nous
connaissons les dérivées des fonctions d'interpolation par rapport aux coordonnées de
l'élément de référence. Il nous faut alors exprimer les dérivées des fonctions d'interpolation
par rapport aux coordonnées réelles. Considérons le système de coordonnées locales ξ, η, ζ et
le système de coordonnées globales x, y, z :

∂N i ∂N i ∂x ∂N i ∂y ∂N i ∂z
= + + (3.19)
∂ξ ∂x ∂ξ ∂y ∂ξ ∂z ∂ξ

En effectuant la transformation respectivement aux deux autres coordonnées, nous obtenons


sous forme matricielle :

 ∂N i   ∂x ∂y ∂z   ∂N i   ∂N i 
   ∂ξ   ∂x   ∂x 
 ∂ξ   ∂ξ ∂ξ
   
 ∂N i   ∂x ∂y ∂z   ∂N i   ∂N i 
 =   = Yg   (3.20)
 ∂η   ∂η ∂η ∂η   ∂y   ∂y 
 ∂N i   ∂x ∂y ∂z   ∂N i   ∂N i 
      
 ∂ζ   ∂ζ ∂ζ ∂ζ   ∂z   ∂z 

63
et

 ∂N i   ∂N i 
 ∂x   ∂ξ 
   
 ∂N i  −1  ∂N 
 = Yg 
i
  (3.21)
 ∂y   ∂η 
 ∂N i   ∂N i 
   
 ∂z   ∂ζ 

avec Yg la matrice jacobienne de la transformation géométrique.

La partie gauche de l’expression précédente peut être évaluée car les fonction Ni sont
spécifiées en coordonnées locales. Comme x, y et z sont données par la relation définie en
coordonnées curvilinéaires, la matrice jacobienne peut aussi être exprimée en coordonnées
locales. La relation inverse va donc permettre de calculer les dérivées premières par rapport
aux coordonnées globales. Le calcul des dérivées dans l’élément réel nécessite donc
l’inversion de la matrice jacobienne pour chaque élément. Une singularité de Yg peut
apparaître lorsque l'élément réel est trop distordu par rapport à l'élément de référence (élément
dit dégénéré). De façon générale nous éviterons d'utiliser des éléments disproportionnés, car
ils nuisent à la précision numérique du modèle (distorsion maximale de l’ordre de 6 ou 10).

Il va de même être nécessaire de ramener les intégrales sur l’élément réel à des intégrales sur
l’élément de référence. Si nous posons Ω’ comme étant l’approximation géométrique de
l’élément réel et Ω celle de l’élément de référence, il est possible de passer de l'intégration
d'une fonction f définie sur l'élément réel à l'intégration sur l'élément de référence par le
changement de variable suivant :

∫ f ( x, y , z )
Ω′
d Ω′ = ∫ f (ξ ,η , ζ ) det Yg d Ω

(3.22)

Résumé : Rappels sur la méthode des éléments finis


Pour résoudre un problème en utilisant la méthode des éléments finis, il est tout d’abord
nécessaire de transformer le système d’équations différentielles en une formulation
intégrale (ou variationelle). Cette formulation faible a l’avantage de regrouper
l’équation locale (équation de Poisson) et une partie des conditions aux limites (condition
de Neumann) sous la même intégrale. Cette formulation variationelle peut ensuite être
discrétisée en un ensemble d’éléments figurant le domaine d’étude en notant toutefois
que la création d’un maillage n’est pas une opération évidente. Le champ de potentiel
scalaire est évalué à l’aide de fonctions d’interpolation sur les éléments, ces fonctions
étant définies aux nœuds des éléments. La résolution du problème est simplifiée par
l’utilisation d’éléments de référence, qui ont une géométrie plus simple que les éléments
réels. Des transformations géométriques permettent de passer des éléments de références
aux éléments réels. Nous pouvons finalement noter que la convergence du problème peut

64
être admise. En effet, lorsque l’ordre des fonctions d’interpolation augmente ou que le
nombre d’éléments s’accroît, l’approximation tend vers la solution exacte.

III.3 PRESENTATION DU PROGICIEL CESAR-LCPC

Le développement du progiciel CESAR-LCPC a débuté dans les années 1980 et il a


définitivement succédé au système ROSALIE (développé au LCPC de 1968 à 1983) lors de la
diffusion de la version 2.0, à partir de 1986. L’utilisation intensive de ce progiciel durant de
nombreuses années en assure donc la validation.

CESAR-LCPC (version 3.x) est la version utilisée dans ce travail. Sous ce nom se regroupent
le pré-processeur MAX, le code de calcul par éléments finis CESAR, le post-processeur
PEGGY et de nombreux programmes utilitaires. Ces différents programmes communiquent
entre eux par l'intermédiaire de bases de données.

Réaliser une modélisation avec CESAR-LCPC (version 3.x) se traduit en général par
l'enchaînement des étapes suivantes (figure 3.4) :

a) utilisation du pré-processeur MAX pour la génération des données du code de calcul


CESAR (maillage et jeu de données) ;

b) lancement du code de calcul par éléments finis CESAR pour effectuer la résolution
numérique du problème étudié ;

c) utilisation du post-processeur PEGGY pour l'exploitation des résultats sur écran graphique
et la réalisation des sorties graphiques sur traceur.

Figure 3.4 : Structure de CESAR-LCPC, version 3.x.

65
III.3.1 Application au problème électrique

La modélisation électrique est possible dans CESAR-LCPC car l’équation de Poisson, pour
les problèmes thermiques et électriques, s’écrit :

∇ ⋅ ( − kt ∇θ ) = c δ ( r − rs ) équation de Poisson pour le problème thermique (3.23)

∇ ⋅ ( −σ ∇V ) = I δ ( r − rs ) équation de Poisson pour le problème électrique (3.24)

avec kt la conductivité thermique, θ le champ de température, σ la conductivité électrique et V


le champ de potentiel. Les sources de chaleur (c) et de courant (I) sont des sources ponctuelles
volumiques. Nous pouvons donc voir que les problèmes thermiques et électriques sont des
problèmes de diffusion et qu’en régime stationnaire, ils sont régis par la même équation de
Poisson.

De même, on notera que le flux de chaleur q est comparable à la densité de courant :

q = − kt ∇ θ flux de chaleur (3.25)

J = −σ ∇V densité de courant (3.26)

Les conditions aux limites (frontières de Dirichlet et Neumann) sont également similaires.

La similitude des problèmes électriques et thermiques nous permet d’utiliser le module


d’exécution LINE (calcul du problème linéaire en régime permanent). Ces problèmes sont
linéaires car la forme de l’équation de diffusion ne fait intervenir que des opérateurs et des
relations linéaires par rapport au champs V et θ solutions.

Nous noterons que le module d’exécution DTLI (résolution d'un problème de diffusion
transitoire linéaire par intégration directe) peut être utilisé de manière équivalente à LINE
lorsqu’un pas de temps est considéré (approximation continue). Sous ces conditions, les
dérivées par rapport au temps sont éliminées et le coefficient d’emmagasinement local de
chaleur disparaît. Pour les problèmes de diffusion, cinq familles d’éléments sont proposées
par CESAR. Pour le problème électrique en trois dimensions, la Famille 22 est la mieux
adaptée. Les éléments faisant partie de cette famille sont les hexaèdres à 8, 20 ou 27 nœuds,
les pentaèdres à 6, 15 ou 18 nœuds et les tétraèdres à 4 ou 10 nœuds. Une description plus
complète de cette famille d’éléments se trouve dans l’Annexe Technique en fin de travail.

Dans CESAR, les éléments du maillage doivent être répartis en groupes, en fonction de leurs
caractéristiques physiques et géométriques. Un groupe désigne donc un ensemble d’éléments
appartenant à une même famille et possédant une même ligne de propriétés. La notion de

66
groupe est donc fondamentale pour la création de modèles. Deux éléments ayant des
conductivités différentes doivent en effet être affectés à deux groupes distincts.

Résumé : Présentation générale du progiciel CESAR-LCPC


Le module d’exécution LINE, qui permet la résolution d’un problème de thermique
linéaire, peut être utilisé pour la résolution du problème direct électrique. Dans CESAR-
LCPC, les éléments possédant une même ligne de propriétés sont rassemblés dans des
groupes. Deux éléments ayant des conductivités différentes doivent donc être affectés à
deux groupes distincts pour la modélisation.

III.4 LE PROGRAMME UTILITAIRE TOMELE

Comme nous l’avons décrit plus haut, les modules d’exécution LINE et DTLI sont capables
de résoudre un problème de diffusion tels que le problème thermique ou électrique. Toutefois,
la simulation d’un grand nombre de couples source et de points de mesure est très fastidieuse
(voire impraticable) dans la version standard de CESAR-LCPC. Il n’est par exemple pas
possible de lire une séquence d’acquisition et cette dernière doit être entrée manuellement.
Sans compter que la modification manuelle du jeu de données n’est pas aisée car il est
nécessaire de connaître le numéro de nœud de chaque électrode de courant. Or l’utilisateur ne
connaît en général que la position spatiale des électrodes. La lecture des valeurs de potentiel
associées à chaque couple source souffre du même problème. Finalement, une construction
manuelle du jeu de données ne permet pas de profiter de toutes les possibilités offertes par la
méthode des éléments finis. Il est donc indispensable de créer un programme utilitaire
permettant d’effectuer ces simulations de manière automatique.

Nous avons construit le programme utilitaire de modélisation direct TOMELE (pour


TOMographie ELEctrique) qui respecte l’architecture des programmes utilitaires de CESAR-
LCPC. Nous noterons toutefois que ce programme, envisagé au début du travail comme un
simple utilitaire, s’est ensuite enrichi de nouvelles fonctionnalités et a évolué comme un
véritable outil de modélisation couplé au solveur CESAR. Dans cette optique, il aurait pu être
conçu comme un module d’exécution de CESAR-LCPC.

III.4.1 Problématique

Nous allons définir les principaux problèmes devant être résolus par TOMELE. Dans la
pratique, l’utilisateur désire souvent utiliser la même séquence d’électrodes pour différentes
simulations. Dans ce cas, une seule série d’électrodes avec une localisation donnée est utilisée
pour différents modèles EF. Inversement, il est aussi parfois intéressant de changer la position

67
des électrodes tout en gardant le même modèle EF. Lorsque les sources ponctuelles et les
électrodes de mesure du potentiel sont placées sur les nœuds de la maille EF (figure 3.5), la
géométrie de cette maille doit être adaptée à l’agencement spatial de chaque configuration
d’électrodes. Nous effectuons cela en utilisant des éléments possédant des géométries
particulières ou en raffinant la maille afin de permettre une approximation précise de la
position des électrodes. Toutefois plusieurs problèmes peuvent survenir en choisissant l’une
ou l’autre de ces approches. Premièrement une maille très fine implique une grande quantité
d’éléments, ce qui nécessite d’importantes ressources informatiques pour la résolution du
problème. En fait, il est souvent judicieux de limiter le nombre d’éléments lors de la création
d’un modèle tridimensionnel. Deuxièmement, il est souvent difficile de reproduire avec
précision une implantation expérimentale impliquant une géométrie complexe. En effet, la
présence de structures à géométries complexes, d’obstacles, de topographie ou encore la
courbure des forages (dans le cas de mesures en forage) empêche fréquemment une
implantation rectiligne ou régulière des électrodes. Il est donc difficile de faire correspondre
les positions d’électrodes et les nœuds du maillage et l’utilisation des algorithmes de création
automatique de maillage du pré-processeur est souvent impossible. Il y a de plus des risques
de créer des éléments dégénérés. Finalement, nous pouvons aussi constater que la nécessité de
faire coïncider les électrodes et les nœuds du maillage implique généralement la création de
nouveaux maillages pour chaque jeu d’électrodes.

La meilleure solution à ce problème est l’utilisation d’électrodes indépendantes du maillage


EF. Cette idée a déjà été envisagée par Spitzer et al. (1999) pour des modélisations en
différences finies et Pain et al. (2002) pour des modélisations en éléments finis. Dans le cas
d’électrodes indépendantes du maillage, le choix de la dimensions des mailles est uniquement
gouverné par la nécessité d’avoir des résultats précis. Cette propriété constitue un avantage
indéniable pour une modélisation sur des structures à géométries complexes.

Figure 3.5 : Trois approches pour l’application de sollicitations électriques sur un maillage EF.

68
Dans le cas de mesures en 3D sur des structures à géométries complexes, telles que des
mesures en forages obliques, en galerie, sur des ouvrages de génie civil (contrôle non-
destructif) ou encore des éprouvettes, nous devons pouvoir obtenir le paramètre de la
résistivité apparente de la manière la plus souple possible. En effet, le paramètre de résistivité
apparente est très familier pour le géophysicien et permet ainsi une bonne compréhension du
problème. Durant le processus d’inversion, l’utilisation de la résistivité apparente, plutôt que
la résistance, est également recommandée. Dans un dispositif pôle-pôle par exemple, de
grandes valeurs de potentiel sont obtenues lorsque les électrodes d’émission et de réception
sont proches et les données mesurées sont donc essentiellement sensibles à l’environnement
immédiat des électrodes. De faibles valeurs de potentiel sont par contre observées lorsque
l’écartement entre les électrodes est plus grand. Ces données sont alors sensibles à une plus
grande part de la région étudiée. Une importance plus grande doit donc être donnée à ces
observations et la meilleure méthode pour effectuer cela est l’utilisation de la résistivité
apparente. Il est alors indispensable que le calcul des résistivités apparentes ne passe pas par
l’évaluation explicite du facteur géométrique, qui n’a de sens que pour des structures très
simples (milieux tabulaires par exemple).

III.4.2 Solutions apportées par TOMELE

III.4.2.1 Aspect général du programme TOMELE

La simulation automatique d'une séquence de mesures peut être vue comme la modélisation
d'un seul et même problème en considérant plusieurs cas de « chargement » successifs.
Chaque chargement équivaut à un couple de points sources. Le programme utilitaire
TOMELE a été conçu afin de produire facilement un jeu de données correspondant à un tel
cas de figure à partir des informations fournies par l'utilisateur (figure 3.6) de façon à ce qu’il
soit utilisable pas CESAR. TOMELE lit tout d’abord les données relatives au maillage,
contenues dans le jeu de données généré par MAX, puis le fichier d’acquisition contenant la
position des électrodes pour chaque mesure. Les différents cas de chargement sont ensuite
créés sur la base de ces informations et le fichier constituant le jeu de données est complété en
tenant compte des points sources qui ne sont pas situés sur des nœuds. Le solveur CESAR est
ensuite appelé. Ce solveur forme le système linéaire correspondant à la modélisation du
problème étudié et comprenant autant de seconds membres que de cas de chargement. A l'issu
de la simulation, TOMELE extrait les valeurs des potentiels en différents points,
correspondant aux couples de mesure, dont le nombre et la position varie pour chaque cas de
chargement.

Par convention, un signe de chargement correspondant à un flux entrant est donné pour
l’électrode A (source positive) et un signe de chargement correspondant à un flux sortant est
donné pour l’électrode B (source négative). A ce stade, une légère modification du code de

69
TOMELE permettrait de simuler des dispositifs non-conventionnels (dispositifs focalisés par
exemple). TOMELE supporte les simulations n’utilisant qu’un seul pôle d’injection (pôle-
pôle ou pôle-dipôle) en affectant une source d’intensité nulle sur l’électrode B.

Figure 3.6 : Description du programme utilitaire TOMELE (PRETELE est un sous-programme de préparation
des tableaux, EXTELE est le code d’exécution de TOMELE proprement dit).

III.4.2.2 Simulations successives d’une série de cas de charge

En pratique, la matrice globale ne doit être factorisée qu’une seule fois par résolution du
problème direct. Pour chaque position d’un couple source, seul le vecteur du second membre
contenant les amplitudes des sources doit être modifié. Nous utilisons alors plusieurs cas de
chargement successifs pour une même matrice globale. L'utilisation de plusieurs cas de
chargement permet ainsi de réaliser des gains substantiels en temps de calcul. Dans le cas
d’un problème de diffusion, le module d’exécution LINE appelle le module d’exécution
DTLI. Ce dernier est utilisé pour résoudre des problèmes de diffusion à plusieurs pas de

70
temps. Nous modifions alors LINE dans le but d’utiliser les pas de temps pour simuler
différents cas de chargement. Le fichier résultat de CESAR contiendra alors, pour chaque pas
de temps, les valeurs de potentiel aux nœuds correspondant à chaque couple source. Cette
opération implique bien entendu l’utilisation d’une version adaptée de CESAR utilisant un
module LINE modifié.

III.4.2.3 Electrodes indépendantes du maillage

Pain et al. (2002) utilisent une fonction Gaussienne pour distribuer l’intensité d’un point
source sur les nœuds des éléments qui l’entourent. Les valeurs nodales de la source S0 valent :

1  − ( xi − S 0 )2 
q0i = exp   (3.27)
ns  ls2 

avec xi et S0 les positions du nœud i et de la source et l la largeur de la distribution Gaussienne


employée, qui contrôle donc les contributions des nœuds plus éloignés de la source. Le facteur
ls a généralement la dimension des éléments au voisinage de la source. Si une source est sur
un nœud, il est alors nécessaire de donner une faible valeur à ls relativement à la dimension
des éléments afin de placer l’intensité de la source en ce nœud. Le coefficient ns est utilisé
pour normaliser cette évaluation pour que l’intégration des valeurs nodales de la source sur la
totalité du domaine soit égale au courant total I.

TOMELE utilise une stratégie similaire permettant l’utilisation de points sources et de points
de mesures qui ne sont pas nécessairement situés sur des nœuds (Marescot et al., 2003c et
2003d). Le programme utilitaire TOMELE détermine l'élément dans lequel se situe l'électrode
et distribue l'intensité de la source sur les nœuds de cet élément. Pour ce faire, nous utilisons
l'approximation éléments finis de la géométrie, isoparamétrique dans CESAR pour ce type de
problème. A partir des coordonnées locales de la source dans l'élément de référence, les
fonctions d'interpolation de la géométrie associée à chaque nœud sont évaluées. En
multipliant ces grandeurs par l'intensité de la source, nous obtenons un ensemble d’injections
nodales de courant correspondant chacune à la contribution d'un nœud à la source originale.
Le programme TOMELE utilise une technique similaire pour calculer la valeur du champ de
potentiel en une position d’électrode qui n’est pas située sur un nœud. Afin de définir
précisément cette approche, revenons brièvement sur la discrétisation du terme source pour un
problème EF.

71
Traitement d’une électrode d’injection de courant

Pour une source de la forme q=q0 δ(r-rS0) située en un point S0 dans un élément particulier,
l’intégrale faisant intervenir le terme source devient :

∫ q δV dΩ = ∫ q
Ω Ω
0 δ (r − rS ) δ V d Ω = q0 δ V ( S0 )
0
(3.28)

avec δV(S0) un scalaire évalué au point S0.

Nous utilisons l’approximation du champ δV, variation du champ V, sur l’élément en


question. Il est approché de la même façon que V, c’est-à-dire pour les n nœuds de l’élément :

n
δ V (ξ ,η , ζ ) = ∑ δ ai N i (ξ ,η , ζ ) (3.29)
i =1

ξ, η, ζ étant les coordonnées locales sur l’élément de référence. Si nous notons ξ0, η0, ζ0 les
coordonnées locales du point S0 sur l’élément auquel il appartient, le terme source devient :

q0 δ V( S0 ) = q0 δa N(ξ 0 , η0 ,ζ 0 ) (3.30)

δa étant le vecteur ligne des amplitudes associées aux fonctions de forme, N étant le vecteur
colonne des fonctions de forme associées à chaque nœud et évalué au point S0 (en prenant les
coordonnées locales).

La formulation faible discrétisée est donc de la forme :

δa (K A − q0 N(ξ 0 , η0 ,ζ 0 )) = 0 (3.31)

le produit scalaire étant nul et A étant le vecteur des fonctions de forme servant à approcher le
champ V sur un élément et K la matrice globale. Le problème discret consiste alors à
déterminer les inconnues contenues dans A, telle que l’équation soit vérifiée quel que soit le
champ d’inconnues discrètes δa. Nous constatons alors que le terme entre parenthèses doit
être nul car sinon il est toujours possible de trouver un vecteur δa tel que le produit scalaire ne
soit pas nul. Ainsi le vecteur colonne des amplitudes solutions vérifie :

K A = q0 N(ξ 0 , η0 ,ζ 0 ) = S (3.32)

les δa ne font alors plus partie du problème. Nous voyons alors clairement que le vecteur
source S ne contient que le produit de l’amplitude de la source par des fonctions de forme.

La figure 3.7 montre comment une source ponctuelle S en un point du maillage est traitée.
Nous isolons tout d’abord l’élément (ou les éléments) qui contiennent cette source puis nous
récupérons les coordonnées locales de cette source sur l’élément de référence. Nous pouvons

72
ensuite, connaissant la valeur des fonctions d’interpolation en ce point, construire le vecteur
source correspondant.

Figure 3.7 : Représentation schématique du calcul d’une source indépendante du maillage en utilisant
l’approximation isoparamétrique du problème EF.

Nous noterons donc la différence par rapport à la méthode de Pain et al. (2002), qui utilisent
une fonction devant être paramétrée pour distribuer l’intensité de la source sur plusieurs
éléments. Le choix que nous avons fait concernant la distribution des sources uniquement sur
l’élément (ou les éléments) qui les contiennent évite à l’utilisateur un réglage supplémentaire
et nous semble mieux adapté dans notre cas. Il est en effet difficile de définir un paramètre l
idéal (équation 3.27) en présence d’éléments à géométries irrégulières à l’intérieur d’un
maillage 3D complexe. Nous respectons de plus exactement la formulation du terme source en
éléments finis.

Traitement d’une électrode de mesure du potentiel

En utilisant les fonctions d’interpolation, il est de même possible d’évaluer la valeur du


champ de potentiel en un point qui n’est pas situé sur un nœud. En effet, en posant M0 un
point situé dans un élément et en notant ξ0, η0, ζ0 les coordonnées locales de ce point, nous
pouvons écrire :

n
V (ξ 0 ,η0 , ζ 0 ) = ∑ ai N i (ξ 0 ,η0 , ζ 0 ) (3.33)
i =1

73
III.4.2.4 Calcul des résistivités apparentes

Dans TOMELE, les valeurs de potentiel peuvent être transformées en résistivités apparentes
de deux façons : ce paramètre peut être évalué en calculant la valeur du facteur géométrique,
qui dépend de l’agencement des électrodes, mais ce calcul n’est possible que pour des
modèles très simples, pouvant être représentés par un demi-espace délimité par un plan, où
l’analogie entre la théorie des images en optique et en électrique est applicable. Dans ce cas,
une seule simulation sur le modèle hétérogène est nécessaire. Lorsque ce n’est pas le cas
(topographie prononcée, objet 3D limité dans l’espace), nous avons recours à la définition de
la résistivité apparente comme le rapport (ou la normalisation) de la différence de potentiel
mesurée sur le terrain divisée par celle qui serait obtenue dans les mêmes conditions (même
géométrie du dispositif, même intensité du courant) sur un terrain de même géométrie mais
homogène de résistivité 1. Il faut relever que ce calcul nécessite une simulation
supplémentaire puisqu’il faut calculer la réponse du modèle homogène avant de calculer celle
du modèle hétérogène étudié (Marescot et al., 2003c). Nous pouvons encore relever que la
normalisation n’évite pas nécessairement certaines situations singulières pouvant survenir lors
du calcul de la résistivité apparente (lorsque la différence de potentiel calculée sur le modèle
homogène est nulle par exemple).

III.4.3 Conclusions

Le programme que nous avons créé permet des simulations très variées sur des modèles à
géométries complexes. Son utilisation est aisée et ne demande qu’un minimum d’informations
à l’utilisateur. La simulation d’un grand nombre de couples sources et de points de mesure
(séquence de tomographie) en est alors facilitée. Cet utilitaire, couplé au solveur CESAR,
permet l’utilisation d’électrodes indépendantes du maillage. Nous pouvons donc utiliser
n’importe quel agencement d’électrodes sur un maillage de forme quelconque. Les résistivités
apparentes sont obtenues par normalisation sur un modèle homogène de résistivité unité ce
qui permet d’obtenir ce paramètre lorsque le calcul analytique du facteur géométrique est
impossible. Ce programme semble donc bien répondre aux besoins de notre problématique.
En perspective, il serait nécessaire de transformer TOMELE en module d’exécution pour en
améliorer l’efficacité et la simplicité d’utilisation (pas de fichiers temporaires et de jeu de
données à créer par exemple).

Résumé : Le programme utilitaire TOMELE


La simulation d’un grand nombre de couples source et de points de mesure (séquence de
tomographie) est très fastidieuse (voire irréalisable) dans la version standard de
CESAR-LCPC. Pour la modélisation sur des structures à géométries complexes, il est de
plus désirable de pouvoir utiliser des électrodes indépendantes du maillage et d’avoir la
possibilité d’obtenir le paramètre de la résistivité apparente quel que soit la géométrie

74
du modèle ou la configuration des électrodes. Un programme interface TOMELE a donc
été créé, permettant une utilisation souple et conviviale de CESAR-LCPC pour la
simulation électrique. La formulation par éléments finis utilisée permet l’utilisation
d’électrodes indépendantes du maillage. Nous pouvons donc utiliser n’importe quel
agencement d’électrodes sur un maillage de forme quelconque. Les résistivités
apparentes sont obtenues par normalisation par rapport à un modèle homogène de
résistivité unité ce qui permet d’obtenir ce paramètre lorsque le calcul analytique du
facteur géométrique est impossible. Ce programme semble donc bien répondre aux
besoins de notre problématique.

III.5 ARCHITECTURE DES MAILLAGES ET CONVERGENCE

III.5.1 Introduction

La qualité de l’approximation du champ de potentiel par la méthode des éléments finis dépend
étroitement de la relation existant entre la dimension des dispositifs et la dimension des
éléments, du type d’éléments utilisés ainsi que des contrastes de résistivité impliqués dans le
modèle. Le principe de convergence est un concept essentiel de la MEF. Nous pouvons
admettre qu’une convergence survient lorsque la dimension des éléments diminue et, par
conséquent, que le nombre de paramètres inconnus a spécifiés aux nœuds augmente. Les
arguments pour cela sont simples : si l’expansion polynomiale est capable, à la limite, de
reproduire chaque forme du champ dans le milieu, la vraie solution doit donc être approchée.
Cela doit se produire lorsque la dimension des éléments tend vers zéro. Dans certains cas
toutefois, une solution très proche de la réalité peut être obtenue avec un nombre réduit
d’éléments (ou même avec un seul élément). Dans ce cas, l’expansion polynomiale utilisée
dans cet élément ajuste bien la solution. Cela se produit par exemple si un champ a localement
la forme d’un polynôme quadratique et que les fonctions de forme contiennent tout les
polynômes de cet ordre.

La MEF décrite dans ce travail a pour but la modélisation du champ de potentiel total. Le
potentiel total est considéré comme la somme d’un potentiel primaire dû au milieu encaissant
et d’un potentiel secondaire dû à des hétérogénéités dans cet encaissant (Rijo, 1977 ;
Kaufman, 1992). Un champ secondaire existe uniquement si le champ total est différent du
champ primaire. Beaucoup de publications géophysiques, si ce n’est pas la majorité,
proposent des solutions EF utilisant une technique d’élimination de singularité (« singularity
removal technique ») pour la modélisation EF (Coggon, 1971 ; Bibby, 1978 ; Pelton et al.
1978 ; Li and Spitzer, 2002 ; Wu, 2003). Le but de l’élimination de la singularité est
d’améliorer la qualité de l’approximation du champ à proximité des sources. En effet, pour
ajuster de manière acceptable le champ dans ces régions, il devient nécessaire de mailler très
finement les environs des sources, ce qui ne peut généralement pas être fait. Dans l’approche

75
de l’élimination de la singularité, le potentiel primaire, qui représente une importante fraction
du champ total, est calculé analytiquement sur un modèle simple (demi-espace, niveaux
tabulaires ou faille verticale par exemple) et le potentiel secondaire, causé par une
hétérogénéité qui engendre une déviation du modèle primaire, est évalué par MEF. Nous
posons alors pour le champ total et le champ primaire :

K T AT = F (3.34)

K P AP = F (3.35)

nous définissons donc le champ de potentiel secondaire par :

K T A S = −K S A P (3.36)

avec K S = K T − K P la matrice globale du champ secondaire.

Il suffit alors de calculer analytiquement AP et de former KS (à partir de KT et KP) pour


obtenir AS. Nous remarquons qu’il n’y a plus de terme source F dans l’équation 3.36. La
singularité a donc été éliminée. Par contre il sera toujours nécessaire de mailler finement les
régions à proximité des hétérogénéités, où le champ de potentiel secondaire varie rapidement.
En général, le champ de potentiel secondaire est plus faible que le champ de potentiel
primaire. Une amélioration de la qualité de l’approximation peut donc être constatée. Nous
pouvons comprendre que cette méthode est inapplicable pour des modèles de structures 3D
complexes. Il est en effet difficile, voire impossible, de calculer un potentiel primaire
analytiquement sur un modèle à géométrie complexe.

Le but de cette partie du travail n’est donc pas d’effectuer une étude exhaustive de la
convergence de la méthode EF appliquée à des modélisations électriques, mais de mieux
cerner les possibilités et les limitations entourant la création de modèles EF complexes. Dans
cette optique, les principaux paramètres influençant la qualité d’une modélisation EF sont
étudiés. Il s’agit principalement des dimensions des mailles, du type d’élément et du contraste
de résistivité. Ces modélisations synthétiques sont d’autant plus importantes que nous
utilisons ici des positions d’électrodes indépendantes des positions des nœuds. Il n’est donc
pas évident de fixer a priori le nombre de nœuds minimum à utiliser entre chaque électrode
pour garantir une précision acceptable du résultat.

Pour cette partie de l’étude, nous effectuerons également quelques simulations sur des
modèles simples permettant un calcul analytique du champ de potentiel. Nous préfèrerons ici
la comparaison des MEF avec des solutions analytiques plutôt qu’à d’autres solutions
numériques. Comme le relève Li et Spitzer (2002), une modélisation effectuée en différence
finies (DF) est plus robuste par rapport à la taille de la grille qu’une modélisation effectuée en
EF. Par contre, les simulations EF semblent être plus robustes que les modélisations DF lors
de forts contrastes de résistivité. Ces différences sont essentiellement dues à la manière
d’approximer le champ de potentiel dans les deux méthodes. Dans le cas des travaux de Li et

76
Spitzer (2002), il s’agit de fonctions linéaires en MEF et de séries de Taylor de second ordre
en MDF. Il est donc difficile de tirer des conclusions précises quant à la convergence de nos
simulations en utilisant une telle approche.

III.5.2 Les modèles complexes

III.5.2.1 Type d’éléments finis

Les mailles volumiques les plus fréquemment utilisées pour construire un maillage sont les
tétraèdres, les pentaèdres et les hexaèdres. Les fonctions d’interpolation utilisées peuvent êtres
des fonctions linéaires, quadratiques et plus rarement cubiques. Le choix du type d’élément
est un facteur influençant la convergence d’une modélisation et donc la précision du résultat.
Quelques exemples peuvent être trouvés dans la littérature. Sasaki (1994) utilise des fonctions
linéaires sur des éléments hexaédriques obtenus en assemblant cinq tétraèdres. Pridmore et al.
(1981) citent l’utilisation d’éléments composites obtenus par la réunion de cinq ou six
tétraèdres ainsi que d’éléments hexaédriques. Dans ce dernier travail, une série de tests a été
menée pour définir la précision du résultat en fonction du type d’élément utilisé. Un modèle
composé d’un demi-espace homogène avec un seul point source est utilisé. Les résultats les
plus précis, ainsi que les moins précis, sont obtenus selon différentes directions du maillage
avec les éléments tétraédriques. Les résultats obtenus en utilisant des éléments hexaédriques
ont une précision intermédiaire par rapport aux résultats obtenus en utilisant des éléments
tétraédriques. Par contre, les résultats sont indépendants de la direction. Des exemples
d’éléments composites créés à partir de tétraèdres sont présentés dans les figures 3.8 et 3.9.

Figure 3.8 : Eléments composites créés à partir de la réunion de cinq tétraèdres (modifié de Zienkiewicz and
Taylor, 2000).

77
Figure 3.9 : Elément composite créé à partir de la réunion de six tétraèdres (modifié de Zienkiewicz and Taylor,
2000).

Bing et Greenhalg (2000) ont comparé des modélisations effectuées en utilisant des éléments
hexaédriques avec des fonctions trilinéaires et des mailles tétraédriques (sous forme de blocs
composites obtenus par réunion de six tétraèdres, figure 3.9) et des fonctions linéaires entre
les mêmes 8 nœuds du bloc ainsi défini. Ils obtiennent en général de meilleures
approximations du champ de potentiel en utilisant les éléments tétraédriques. La majorité des
auteurs utilise toutefois des éléments hexaédriques et des fonctions d’interpolation trilinéaires
(Pain et al., 2002 ; Li and Spitzer, 2002 ; Wu, 2003). D’un point de vue pratique, les éléments
hexaédriques facilitent la modélisation et la visualisation de coupes dans le modèle. Dans
CESAR-LCPC nous préférerons utiliser des super-éléments tant pour la modélisation directe
que pour la modélisation inverse. Un super-élément est un volume parallélépipédique, de
forme quelconque, qui peut être rempli automatiquement au moyen d’hexaèdres à 8 ou 20
nœuds. Nous pouvons alors assembler plusieurs super-éléments pour créer un maillage 3D
complexe en fusionnant ensuite les nœuds communs.

III.5.2.2 Imposition des conditions aux limites

Pour effectuer des simulations sur un modèle figurant un demi-espace, un potentiel nul est
imposé aux nœuds situés sur les bords verticaux et le bord inférieur du maillage (frontières de
Dirichlet). Une condition de flux de courant nul (sur la frontière de Neumann) est considérée
sur le bord supérieur (en surface, la densité de courant doit être tangentielle à l’interface avec
l’air). Cette condition est naturelle comme nous l’avons vu plus haut. Le respect de la
condition sur la frontière de Neumann ne présentera donc pas de difficultés particulières. Un
exemple de ce type de maillage est montré en figure 3.10. Nous noterons que, contrairement à
ce qui peut être pensé, la création d’un maillage figurant un demi-espace est relativement
problématique. En effet, la condition de potentiel imposé sur la frontière de Dirichlet implique

78
généralement la création de maillages comportant beaucoup d’éléments (et donc beaucoup
d’inconnues). L’utilisation d’éléments infinis serait une alternative à ce problème. Ces
derniers tiennent compte de manière explicite des conditions aux limites et permettent donc de
réduire la dimension des maillages (Lajarthe et al., 1999). Nous n’utilisons toutefois pas ce
type d’approche car les éléments infinis n’existent pas pour le problème de diffusion dans
CESAR-LCPC.

Figure 3.10 : Exemples de maillages de forme cubique (à gauche) et de forme cylindrique (à droite) utilisés pour
des simulations sur un demi-espace.

Figure 3.11 : Exemple de maillage de forme hémisphérique utilisé pour des simulations sur un demi-espace. Une
génération d’un maillage 3D par rotation autour de l’axe z du maillage 2D représenté à droite n’est pas possible,
cette opération provoquant l’apparition d’éléments dégénérés vers l’axe (en gris).

79
Divers tests ont montré que la forme extérieure du maillage (cube, demi-sphère, cylindre), où
sont imposées les conditions de potentiel nul, n’avait pas d’effet important sur le calcul du
champ de potentiel, en particulier pour les résistivités apparentes obtenues par normalisation,
pour autant que les bords soient suffisamment éloignés de la zone d’intérêt où se trouvent les
électrodes. En général, la création d’une frontière cylindrique ou sphérique complique
considérablement la création du maillage. Il est en effet souvent nécessaire d’utiliser des
éléments de transition, ou encore de changer de type d’élément, pour raccorder différents
groupes entre eux. Nous relèverons de plus qu’une génération de maillage 3D par rotation
d’un maillage 2D, opération courante pour créer une demi-sphère, peut faire apparaître des
éléments dégénérés le long de l’axe de rotation (figure 3.11) et une telle opération n’est donc
pas recommandée. Dans la plupart des cas, une frontière de forme cubique suffira. De
nombreuses simulations ont montré que l’influence de ces frontières est en général
négligeable et que le potentiel peut très bien être imposé à la valeur de zéro à une distance
valant environ 1.5 fois la dimension de la région centrale (des exemples seront donnés plus
loin). Nous n’avons donc pas utilisé ici des conditions aux limites plus élaborées, telles que
des conditions mixtes tenant compte du potentiel et de sa dérivée sur la frontière de Dirichlet
(Dey and Morrison 1979 ; Li and Spitzer 2002) qui permettraient de limiter la dimension du
domaine.

Nous construirons en général des maillages dont les éléments sont fins et de distorsion faible
dans la zone d’intérêt (c’est-à-dire où sont situées les hétérogénéités et les électrodes) et plus
grands dans les régions servant à imposer les conditions aux limites de Dirichlet. La
dimension des mailles augmente donc en direction des bords du maillage pour un modèle
figurant un demi-espace (figure 3.10). Dans ces régions, certains éléments présentent une forte
distorsion, notamment vers les bords des modèles. De telles géométries d’éléments peuvent
être acceptées dans ces régions où le champ de potentiel varie très peu. L’approximation du
champ est donc acceptable ou du moins, si elle est médiocre, ne présente que peu d’intérêt
pour l’utilisateur.
Il est juste nécessaire de s’assurer de la régularité du jacobien pour ces éléments, afin de
garantir le bon conditionnement de la matrice globale. Un jacobien nul ou négatif provoquera
immanquablement un arrêt d’exécution du solveur. Nous insisterons encore sur le fait que des
éléments présentant une forte distorsion ne doivent jamais être utilisés à proximité des
sources. De plus, la dominance diagonale de la matrice élémentaire est étroitement liée à la
distorsion de l’élément (Pridmore et al. 1981). Dans le cas où une méthode itérative de
résolution du système linéaire est utilisée (incomplete Cholesky conjugate gradient method),
la présence d’éléments fins et longs dans un modèle diminue le taux de convergence du
processus et peut mener à des résultats imprécis. Comme l’a montré Wu (2003), des
modifications doivent être apportées aux algorithmes de résolution itératifs dans ce cas
(shifted incomplete Cholesky conjugate gradient method). Nous évitons ce genre de problème
en utilisant une résolution directe du problème dans le solveur CESAR.

80
Ce type d’architecture de maillage, présentant une ou plusieurs faces à potentiel imposé, peut
être utilisé pour construire des modèles figurant des structures plus complexes comme des
murs ou des piliers. Dans ce cas, il est possible d’imposer un potentiel sur les nœuds situés au
contact entre la structure étudiée et le sol. Cette solution n’est toutefois plus valable lorsque le
modèle n’est plus en contact avec le sol (ou du moins lorsque le courant passant dans ce
dernier est négligeable). Cela peut se produire pour des modèles figurant une éprouvette de
matériau ou une cuve instrumentée. Nous pouvons alors imposer une valeur de potentiel à un
nœud éloigné des dispositifs de mesure. Un exemple de mesures sur une éprouvette de
matériau est présenté à la figure 3.12. Le modèle est constitué d’hexaèdres à 8 nœuds et le
champ est approximé en utilisant des fonctions linéaires. Les surfaces extérieures du modèle
sont des frontières de Neuman à l’exception d’un nœud où un potentiel nul est imposé (cas 1,
figure 3.12). Un profil de résistivité utilisant un dispositif Schlumberger (MN=3 m, AB=12 m)
est simulé en déplaçant le quadripôle selon la direction y et en orientant le dispositif selon y
puis selon x.

Nous donnons tout d’abord une résistivité homogène (100 Ωm) au matériau. Nous pouvons
voir que la résistivité apparente calculée par normalisation, est très proche de la résistivité
vraie (figure 3.13). L’utilisation du facteur géométrique pour un demi-espace donne par contre
des résistivités supérieures à 100 Ωm, avec de forts effets de bord car ce modèle ne peut pas
être considéré comme un demi-espace. Par conséquent, le processus de normalisation permet
d’améliorer la qualité du résultat en respectant exactement la définition de la résistivité
apparente.

Figure 3.12 : Exemple de modèle d’éprouvette.

Dans la seconde modélisation, nous donnons ensuite une résistivité de 100 Ωm au modèle et
nous créons un parallélépipède de résistivité 10 Ωm pour figurer une anomalie conductrice
(figure 3.12). Nous pouvons voir que les résistivités apparentes calculées par normalisation

81
sont parfaitement réalistes, avec une diminution de la résistivité apparente à l’aplomb du corps
conducteur (figure 3.13) qui atteint 25 Ωm perpendiculairement et 30 Ωm parallèlement à
l’hétérogénéité. L’utilisation du facteur géométrique surestime, là encore, la résistivité du
milieu. Des simulations semblables effectuées en imposant un potentiel de 10V donnent des
résultats très similaires. En effet, la différence entre les deux simulations est inférieure à
0.0002% sur la valeur de la résistivité apparente et inférieure à 0.0001% sur la valeur de la
différence de potentiel. Les variations sont dues uniquement à des imprécisions numériques.

Il est par contre évident que les valeurs du second champ de potentiel (potentiel imposé à
10V) prises séparément sont égales aux valeurs du premier champ de potentiel (potentiel
imposé à 0V) augmentées de 10, les champs de potentiel étant définis à une constante près. En
théorie, il est possible de localiser le nœud à potentiel imposé à un endroit quelconque du
maillage. Un nœud à potentiel nul situé très près des dispositifs (cas 2) de mesure ne perturbe
pas le calcul de la résistivité apparente, car seule la différence de potentiel est considérée.
Nous remarquerons toutefois que l’option visant à imposer un potentiel à un nœud proche des
dispositifs de mesure n’est pas conseillée : premièrement, cela produit un fort gradient de
potentiel en un endroit où nous désirons évaluer le champ avec précision et comme nous le
verrons plus tard, la qualité de l’approximation EF dépend fortement de la relation existant
entre le gradient du champ de potentiel et la dimension de la maille. Il y a donc un risque de
perte de précision dans ce cas. De plus, ce fort gradient risque de masquer des variations plus
faibles dues aux cibles que nous désirons étudier dans le modèle. Nous notons également qu’il
y a un risque, non négligeable, d’avoir une position d’électrode d’injection concordant avec la
position du nœud à potentiel imposé. Or, il est impossible de solliciter un nœud à potentiel
imposé (gestion des conditions aux limites par élimination dans CESAR, cf. Annexe
Technique). Nous remarquons de plus que le champ de potentiel est fortement influencé par le
potentiel imposé comme il est possible de le constater sur la figure 3.14 : cette figure montre
la valeur du signal, mesuré par l’électrode M du dispositif orienté selon y, pour le modèle
hétérogène. L’influence du point à potentiel imposé se fait ressentir par une forte décroissance
des valeurs mesurées.

Nous ne pouvons que souligner l’importance de la normalisation pour des modélisations sur
ce type de modèle. Ce processus de calcul de la résistivité apparente tend à éliminer les effets
de bord de la cuve (ou de l’échantillon) et permet d’obtenir la résistivité du milieu. Nous
montrerons un exemple de modélisation en cuve à la fin de ce chapitre.

82
Figure 3.13 : Simulations en résistivité apparente sur le modèle de l’éprouvette. Potentiel imposé selon le cas 1.

Figure 3.14 : Valeurs du signal pour l’électrode M pour différentes localisations du nœud à potentiel imposé. Les
localisations des potentiels imposés sont montrées dans la figure 3.12.

83
III.5.2.3 Dimension des mailles

Un des paramètres influençant fortement la qualité d’une approximation EF est la dimension


des mailles. Il n’est cependant pas toujours évident de choisir cette dernière pour des
maillages complexes. Nous allons tout d’abord tenter de mieux appréhender ce problème pour
un modèle simple. Un sondage électrique, de type Schlumberger (MN=AB/5), est simulé sur
une faille verticale, dont la réponse peut être évaluée analytiquement par la méthode des
images. Le centre du sondage est situé à 5 m de la faille, soit du côté le plus conducteur
(10 Ωm), soit du côté le plus résistant de la faille (1000 Ωm), le fort contraste de résistivité
étant utilisé afin de tester la fiabilité des simulations. Finalement, ce sondage soit fait un angle
de 35° avec la faille ou soit est parallèle à cette dernière. Le maillage utilisé dans cet exemple
est composé d’hexaèdres à 8 nœuds formant un maillage régulier dans la zone centrale. La
dimension des mailles augmente en direction des bords du maillage afin de pouvoir imposer
des limites de potentiel nul simulant des frontières situées à l’infini. Comme le montre la
figure 3.15, aucune électrode d’injection ou de mesure n’est située sur un nœud. Nous nous
intéresserons tout particulièrement aux petites longueurs de ligne, a priori plus sensibles aux
fortes variations de la résistivité et à la dimension des éléments.

Figure 3.15 : Modèle utilisé pour simuler l’effet d’une faille verticale sur un sondage électrique.

Un premier exemple est calculé en considérant une maille centrale grossière de 10mx10m
(figure 3.16). Nous pouvons constater que le début du sondage présente de fortes oscillations,
particulièrement pour les valeurs de résistivité calculées en utilisant le facteur géométrique.
Nous remarquons également que la perturbation est plus importante lorsque le centre du
sondage se situe dans le milieu résistant et lorsque le sondage est parallèle à la faille. En fait,
peu de valeurs de potentiel ont une erreur inférieure à 5%. Nous pouvons donc voir ici un
effet de la dimension de la maille (ou plus précisément du nombre de nœuds variable autour
des électrodes d’injection) mais aussi du contraste de résistivité existant.

84
Figure 3.16 : Valeurs de la résistivité apparente pour un sondage effectué à proximité d’une faille verticale. La
maille de la région centrale a une dimension de 10mx10m et le contraste est de 100. Les fonctions d’interpolation
sont linéaires.

85
Les oscillations en début de sondage proviennent principalement de la proximité des sources
de courant, spécialement lorsqu’une électrode de mesure (ou les deux) est (sont) dans le
même élément qu’une source. Le champ de potentiel total théorique présente une singularité à
la position de la source, ce qui perturbe fortement l’évaluation de l’approximation du champ.
Nous devrions, idéalement, mailler très finement l’environnement immédiat des sources, ce
qui complique toutefois l’opération de maillage.

Nous noterons que la fin du sondage, pour les plus grandes longueurs de ligne (AB/2>100 m),
varie fortement que ce soit pour les résistivités obtenues par normalisation ou calculées avec
le facteur géométrique. Ce comportement est probablement dû à l’utilisation d’éléments très
allongés sur lesquels nous appliquons une condition aux limites (plus ou moins) incorrecte
étant donné qu’une source de courant se trouve dans ces éléments (le potentiel ne devrait pas
être exactement nul en certains nœuds). Ces éléments produisent donc un résultat de moindre
qualité. Ce phénomène n’est pas gênant car nous ne chercherons pas à exploiter un résultat
obtenu avec des électrodes situées si près d’une frontière à potentiel imposé. Nous pouvons
toutefois souligner qu’il n’est visiblement pas nécessaire de créer des frontières à potentiel
imposé très éloignées de la zone d’intérêt, les perturbations ne se faisant sentir que pour la fin
du sondage.

Nous pouvons remarquer que le champ de potentiel varie de manière différente si les sources
sont situées dans le milieu résistant ou dans le milieu conducteur. Comme il est possible de le
voir sur la figure 3.17, où le champ de potentiel en surface est calculé analytiquement pour un
dispositif parallèle et oblique à la faille, les équipotentielles présentent un plus fort gradient au
contact de la faille si les électrodes sont situées dans le milieu résistant. Un maillage plus fin
devra alors être utilisé si nous désirons évaluer correctement le champ de potentiel créé par
une telle disposition d’électrodes. Lorsque le sondage est situé à l’aplomb de la partie
conductrice, le gradient du champ de potentiel est moins important. Nous remarquons, de
plus, que la structure du champ de potentiel est très différente si le dispositif est parallèle, ou
oblique (voire perpendiculaire) à la faille.

86
Figure 3.17 : Figure des équipotentielles pour une paire de points sources. Différents contrastes de résistivité sont
représentés pour la faille et un modèle homogène est également proposé.

Il va donc être indispensable de modifier le maillage afin d’améliorer la qualité de


l’approximation. Comme cette procédure de modification dépend des résultats antérieurs,
nous pouvons la qualifier d’adaptative. Il y a deux catégories de procédures permettant
d’améliorer une solution EF :

87
h- refinement

Nous pouvons utiliser la même classe d’éléments mais en diminuer la taille à certains endroits
et éventuellement l’augmenter à d’autres afin de ne pas rendre le calcul trop lourd (h-
refinement). Suivant cette approche, nous agissons localement en divisant certains éléments
où le champ de potentiel varie rapidement et laissons les frontières des autres éléments
inchangées. Cette approche est néanmoins problématique, car nous devons alors créer des
éléments possédant des sommets situés sur les segments joignant les nœuds des autres
éléments (éléments de transition). Nous pouvons aussi maintenir constant le nombre de nœuds
dans le maillage et simplement les déplacer aux endroits où le champ varie rapidement. Cette
option est toutefois difficile à mettre en œuvre en 3D. Nous pouvons également reconstruire
intégralement, ou partiellement (par groupes par exemple), le maillage en tenant compte des
résultats de la simulation précédente. Cette approche est la plus efficace (Zienkiewicz and
Taylor, 2000). Il faut relever qu’il existe des codes EF permettant un calcul automatique du
raffinement, notamment pour des éléments 2D triangulaires où 3D tétraédriques suivant la
procédure de triangulation de Delaunay. Des tentatives ont été faites pour des quadrilatères
2D (Zhu and Zienkiewicz, 1988), mais il ne semble actuellement pas exister de solution pour
les hexaèdres (Zienkiewicz and Taylor, 2000). Nous devons alors nous contenter d’une
approche effectuée directement par l’utilisateur.

p- refinement

La seconde procédure consiste à utiliser la même taille d’élément et simplement augmenter


l’ordre du polynôme utilisé dans sa définition (p-refinement). Nous pouvons alors soit changer
l’ordre du polynôme pour l’intégralité du maillage, ou pour une partie du maillage seulement.
L’avantage de la méthode vient du fait que cette option peut être utilisée automatiquement
avec les pré-processeurs actuels. Il est également possible de combiner efficacement les deux
approches (hp-refinement), ce qui permet, entre autres, de limiter le nombre d’inconnues du
problème tout en créant un maillage optimal.

Nous pouvons donc théoriquement obtenir une convergence, soit en augmentant l’ordre du
polynôme utilisé dans les fonctions d’interpolation (p convergence), soit en raffinant le
maillage (h-convergence). Il n’existe pas de procédure directe permettant de définir le
meilleur raffinement à utiliser pour obtenir une erreur donnée. Ce processus est généralement
itératif. Nous effectuons donc ici un deuxième calcul sur le même modèle, mais en
considérant un maillage dont la partie centrale est composée d’hexaèdres à 8 nœuds de
dimension 5x5m (h-refinement) (figure 3.18). Nous effectuons également une simulation en
utilisant le même maillage que précédemment (10mx10m) mais en utilisant une base
polynomiale quadratique (p-refinement) (figure 3.19).

88
Figure 3.18 : Valeurs de la résistivité apparente pour un sondage effectué à proximité d’une faille verticale. La
maille de la région centrale a une dimension de 5x5m et le contraste est de 100. Les fonctions d’interpolation
sont linéaires.

89
Figure 3.19 : Valeurs de la résistivité apparente pour un sondage effectué à proximité d’une faille verticale. La
maille de la région centrale a une dimension de 10mx10m et le contraste est de 100. Les fonctions d’interpolation
sont quadratiques.

90
Comme il est possible de le voir sur la figure 3.18, la précision de l’approximation effectuée
sur le maillage 5mx5m est comparable à celle effectuée sur le maillage quadratique
10mx10m. Certaines différences peuvent provenir en partie de l’intégration numérique qui
introduit une approximation supplémentaire dans le problème. Comme précédemment, la
résistivité apparente calculée par normalisation est plus proche de la solution analytique que
celle obtenue en utilisant le facteur géométrique.

Nous remarquons toutefois que le maillage 5mx5m présente encore des oscillations pour les
petites longueurs de lignes lorsque le champ de potentiel varie rapidement. Nous pouvons
également remarquer le très fort effet du contraste de résistivité : les grandes longueurs de
ligne n’arrivent toujours pas à effectuer une approximation de champ de potentiel correcte
pour le sondage à 35°. Il est donc possible de conclure que ce maillage n’est pas optimal pour
cette dimension de dispositif et pour un fort gradient du champ de potentiel. Pour le problème
électrique, il convient donc d’assurer une meilleure approximation du champ dans les régions
où celui-ci varie rapidement. Cela survient particulièrement aux environs des sources de
courant et en bordure des hétérogénéités.

Pour avoir des mesures de potentiel fiables pour les petites longueurs de ligne, des éléments
plus fins doivent être utilisés au contact de la faille et à l’aplomb du sondage, du moins
lorsque la longueur de ligne est petite. Nous pourrions dans ce cas diminuer uniformément la
dimension des éléments sur tout le maillage, mais cela occasionnerait une très forte
augmentation du nombre d’inconnues. Une meilleure approche consiste à affiner uniquement
les régions où le potentiel varie rapidement : nous créons pour cela deux régions (groupes)
vers la faille, qui vont être maillées plus finement. Cependant, afin de conserver un maillage
plus grossier à l’extérieur, nous allons être forcés d’utiliser un autre type d’éléments. Les
régions au contact de la faille seront donc maillées en éléments pentaédriques à 6 nœuds.
Nous noterons que ces éléments prismatiques sont très petits vers la faille et s’agrandissent
ensuite (la zone centrale de ce maillage est présentée en figure 3.20). Ce type d’éléments n’est
pas utilisé pour l’intégralité du maillage afin de limiter le nombre d’inconnues dans le
problème. Le résultat de la simulation sur ce maillage est présenté en figure 3.21. Nous
pouvons voir que la qualité du résultat s’est améliorée spécialement pour les valeurs de
résistivité apparente obtenues par normalisation. Nous remarquons également que les
oscillations des valeurs de résistivité calculées à partir du facteur géométrique se sont
également améliorées. Nous atténuons donc les effets de la singularité du champ de potentiel à
proximité des sources. Il est également possible de conclure que la MEF est globalement
convergente pour le problème électrique proposé : nous nous approchons de la vraie valeur du
champ de potentiel lorsque la dimension des éléments tend vers zéro.

91
Figure 3.20 : Représentation de la région centrale du maillage avec une raffinement local vers la faille.

Une remarque doit être encore faite concernant l’utilisation de maillages composés de
différents types d’éléments dont la taille varie fortement. Etant donné que la précision de
l’approximation du champ va varier selon la localisation des électrodes dans le maillage, il est
possible que le théorème de réciprocité ne soit pas vérifié. Or le respect de la réciprocité est
un indicateur de la qualité de l’approximation EF du champ de potentiel. Nous essaierons
donc de construire un maillage dont la texture est suffisamment uniforme autour des
électrodes afin de limiter les erreurs numériques. Cela s’appliquera surtout pour des mesures
de type tomographie électrique, où une électrode peut être alternativement utilisée comme
source ou comme électrode de mesure. Un autre problème peut survenir dans une situation de
pseudo-pôle-pôle (Robain et al., 1999) simulée, en positionnant une des électrodes de courant
loin de la région centrale : pour une bonne approximation du champ, un maillage fin autour de
cette électrode devrait être envisagé.

92
Figure 3.21 : Valeurs de la résistivité apparente pour un sondage effectué à proximité d’une faille verticale. La
maille de la région centrale présente un raffinement local vers la faille (Figure 3.20) et le contraste est de 100.
Les fonctions d’interpolation sont linéaires.

93
III.5.2.4 Variation du contraste de résistivité

Les mêmes simulations ont été répétées sur les maillages précédents mais avec un contraste de
résistivité diminué (contraste de 10, figure 3.22 et figure 3.23) ou sur des modèles homogènes
(contraste de 1, figures 3.24 et 3.25). Nous pouvons remarquer que l’approximation a
tendance à s’améliorer lorsque le contraste de résistivité diminue. Nous pouvons par exemple
le constater sur les grandes longueurs de ligne pour le sondage à 35° influencé par un
conducteur sur le maillage 5mx5m. Cela se comprend, car le gradient du champ de potentiel
diminue à l’interface des deux milieux et les fonctions d’interpolation linéaires ajustent mieux
le champ dans ces régions. Lorsque le maillage devient homogène, nous pouvons constater
que la résistivité apparente calculée par normalisation est bonne quelle que soit la dimension
des mailles. La solution obtenue en utilisant le facteur géométrique présente néanmoins
encore des oscillations. Nous pouvons donc conclure que ces oscillations en début de sondage
sont essentiellement dues à la dimension excessive des mailles par rapport à la proximité des
sources (singularité du champ de potentiel). Selon Wu (2003), en présence d’un très fort
contraste de résistivité, l’évaluation du champ de potentiel en utilisant une technique
d’élimination de la singularité est bien meilleure que celle obtenue à partir du champ total.

Ces exemples permettent également de mieux comprendre l’effet du processus de


normalisation pour le calcul des résistivités apparentes. Pour deux modèles homogènes de
résistivités différentes, les oscillations des valeurs de potentiel (que l’on peut noter V et V0)
pour les petites longueurs de ligne sont uniquement dues à la dimension inadaptée du
maillage. En normalisant, nous obtenons une évaluation plus précise de la résistivité apparente
(qui est égale à la résistivité vraie dans ce cas). Nous avons donc une approximation
relativement correcte du champ obtenu par normalisation (V/V0) avec un tel maillage alors que
ce même maillage n’est pas approprié pour les champs V et V0 pris séparément. Cela vient du
fait que ces deux champs varient trop rapidement et que la finesse du maillage n’est pas à
même d’appréhender ces variations spatiales. Le rapport V/V0 varie par contre moins
rapidement et le maillage est assez fin pour retranscrire ces variations.

Pour un modèle hétérogène, le champ de potentiel peut varier fortement. En tout début de
sondage, où la résistivité du milieu peut encore être considérée comme étant
approximativement homogène, le processus de normalisation permet de corriger ces
oscillations. Lorsque les longueurs de ligne sont beaucoup plus grandes (AB>60 m dans ces
exemples), le sous-sol est perçu comme un milieu hétérogène mais le maillage est à ce
moment là suffisamment fin pour assurer une bonne approximation du champ. Cependant, un
problème peut survenir si de fortes variations du champ surviennent lorsque le maillage est
encore grossier. Dans ce cas, la normalisation ne permet plus d’obtenir une correction
satisfaisante, car le rapport V/V0 varie encore trop rapidement pour le maillage utilisé.

94
Figure 3.22 : Valeurs de la résistivité apparente pour un sondage effectué à proximité d’une faille verticale. La
maille de la région centrale a une dimension de 10mx10m et le contraste est de 10. Les fonctions d’interpolation
sont linéaires.

95
Figure 3.23 : Valeurs de la résistivité apparente pour un sondage effectué à proximité d’une faille verticale. La
maille de la région centrale a une dimension de 5mx5m et le contraste est de 10. Les fonctions d’interpolation
sont linéaires.

96
Figure 3.24 : Valeurs de la résistivité apparente pour un sondage effectué parallèlement à une faille verticale. La
maille de la région centrale a une dimension de 5x5m et le contraste est de 1 (milieu homogène). Les fonctions
d’interpolation sont linéaires.

97
Figure 3.25 : Valeurs de la résistivité apparente pour un sondage effectué obliquement à une faille verticale. La
maille de la région centrale a une dimension de 5mx5m et le contraste est de 1 (milieu homogène). Les fonctions
d’interpolation sont linéaires.

III.5.3 Conclusions pour les maillages 3D complexes

Comme nous l’avons vu précédemment, il est possible de créer des maillages adaptés pour
des modèles admettant des solutions analytiques. Toutefois, l’intérêt de la méthode des
éléments finis réside justement dans sa flexibilité lors de la création de modèles complexes.
Dans ce cas, il n’est pas possible de tester par avance le maillage utilisé afin de s’assurer de la
convergence de la simulation pour une séquence de mesures donnée. Un nombre minimum de
nœuds doit donc être utilisé entre les électrodes de courant pour permettre une bonne
approximation du champ. Comme le géophysicien connaît le dispositif qu’il va utiliser, cela
ne pose pas de problème.

98
Le géophysicien devra donc s’assurer que le maillage est suffisamment fin relativement aux
contrastes de résistivité présents dans le modèle. Lorsque nous créons un maillage dans le but
de résoudre un problème inverse, nous ne savons pas, par définition, quel va être le contraste
de résistivité présent dans le modèle. Nous pouvons alors parfois assister à une dégradation de
la qualité de l’approximation EF au fil des itérations. Lors de la création d’un maillage, qui
sera ensuite utilisé pour une inversion, les connaissances a priori de l’utilisateur seront donc
capitales dès cette étape. Le maillage devra en effet présenter une bonne convergence, quel
que soit le contraste de résistivité pouvant apparaître dans le modèle au cours du processus
itératif. Lorsque le type d’application le permet (existence d’une solution analytique), nous ne
pouvons qu’encourager une étude détaillée de la convergence en surestimant le contraste de
résistivité.

Les tests sur des maillages, en présence d’une résistivité homogène, montrent que le nombre
minimum de nœuds pour une erreur inférieure à 5% est de 5 à 6 nœuds entre les électrodes de
courant présentant le plus petit écartement lorsque le facteur géométrique est utilisé. Des
contrastes de résistivité jusqu’à 10 permettent en général une bonne qualité de
l’approximation avec également un minimum de 5 ou 6 nœuds. Pour des contrastes plus
élevés, des maillages beaucoup plus fins (7 à 8 nœuds) devront être utilisés. Nous noterons
toutefois que, dans la pratique, les contrastes rencontrés sont souvent plus faibles (de l’ordre
de 2 à 5), ce qui a tendance à améliorer la qualité du résultat. Yi et al. (2001) ont montré qu’un
minimum de quatre éléments hexaédriques devait être utilisé entre chaque électrode pour un
contraste de 10. Lors du calcul de la résistivité apparente par normalisation, des résultats très
proches des solutions analytiques peuvent être obtenus avec des écartements d’électrode plus
petits. Il est donc particulièrement important d’utiliser un grand nombre de nœuds lorsque
nous désirons exploiter directement les différences de potentiel et non la résistivité apparente
normalisée.

Nous pouvons encore relever que ces conclusions rejoignent les observations de Artus (2003).
Cette dernière a utilisé l’utilitaire TOMELE et le progiciel CESAR-LCPC pour calculer la
réponse d’une flûte multi-électrodes enfouie dans un milieu tabulaire. Le dispositif utilisé
pour les panneaux électriques est un dispositif Wenner et le modèle comporte des contrastes
de résistivité de l’ordre de 10 (une des couches est composée d’eau de mer). Nous pouvons
également relever dans ses expériences une forte corrélation entre la distance du dispositif au
conducteur, la dimension de la maille et la qualité de l’approximation.

Résumé : Architecture des maillages et convergence


Il n’est pas possible d’utiliser une procédure d’élimination de la singularité des sources
pour améliorer la qualité de l’approximation pour des simulations sur des structures à
géométries complexes. L’architecture du maillage doit donc être adaptée en
conséquence.

99
Les éléments qui sont utilisés pour les simulations sont principalement des hexaèdres
regroupés sous la forme de super-éléments. Ce choix est fait pour des raisons pratiques
dans MAX3D mais d’autres types d’éléments peuvent être utilisés selon les besoins.
L’utilisation d’éléments tétraédriques, moins évidents à générer dans CESAR-LCPC,
devrait toutefois donner de meilleurs résultats.

Lors de la création d’un maillage représentant un demi-espace, la forme de la frontière à


potentiel imposé n’a pas une importance primordiale, pourvu que cette frontière soit
suffisamment éloignée. Il n’est toutefois pas nécessaire de s’éloigner de plus de 1.5 fois la
dimension de la région centrale où sont effectuées les mesures. Lorsque seule la
différence de potentiel est mesurée, la valeur du potentiel imposé importe peu. Pour des
modèles de dimensions finies (éprouvettes par exemple), un potentiel imposé peut être
placé en un nœud du maillage sans créer de perturbations dans l’approximation, pour
peu que la différence de potentiel soit considérée.

La qualité de l’approximation par éléments finis dépend de la dimension de la maille par


rapport à la dimension du quadripôle, ainsi que du contraste de résistivité. Si le gradient
du champ de potentiel est fort, un maillage très fin doit être utilisé. Il est donc nécessaire
de connaître les résistivités présentes dans un modèle lors de la construction du maillage,
ce qui peut représenter un problème lors de l’utilisation de la méthode pour résoudre un
problème inverse. Un minimum de 5 à 6 nœuds devrait être utilisé entre les électrodes
d’injection de courant. Lorsque le contraste de résistivité est supposé très fort (>10), un
minimum de 7 ou 8 nœuds devrait être utilisé. Au besoin, des régions présentant des
finesses de maillage différentes peuvent être créées. Nous pouvons finalement relever
que le calcul de la résistivité apparente par normalisation donne de meilleurs résultats
que l’utilisation du facteur géométrique.

III.6 EXEMPLE DE MODELE SYNTHETIQUE DE DIMENSION


FINIE

L’exemple suivant illustre une possibilité d’auscultation de structures de dimensions finies en


génie civil. Il s’agit d’un pilier de carrière, sur lequel on vient effectuer plusieurs
tomographies électriques horizontales (figure 3.26). Chaque tomographie est réalisée à l’aide
de 20 électrodes disposées sur la circonférence du pilier à une altitude donnée. Des
irrégularités de positionnement ont été simulées afin de refléter des conditions réelles de mise
en œuvre sur le terrain. Nous pouvons constater que l’utilisation d’électrodes indépendantes
du maillage facilite grandement l’élaboration du modèle car aucune électrode ne se trouve sur
un nœud. Dans notre cas, un algorithme de maillage automatique a pu être utilisé et aucune
retouche n’a été nécessaire. Par ailleurs, les résistivités apparentes ne peuvent ici être
calculées que par normalisation.

Nous utilisons des séquences d’acquisition avec des dispositifs pôle-pôle, c’est-à-dire qu’une
électrode d’injection de courant (B) et une électrode de potentiel (N) sont fixes et placées loin

100
de la zone auscultée (plus de 10 m), tandis que les deux autres (A et M) balayent toutes les
positions possibles autour du pilier. Il est à noter qu’ici la position des électrodes B et N est
donnée explicitement et donc que leur effet est pris en compte, sans supposer comme on le fait
habituellement qu’elles sont à une distance infinie du reste du modèle, limite qui ne peut pas
toujours être approchée sur le terrain.

Figure 3.26 : Modèle d’un pilier de carrière présentant une hétérogénéité conductrice. Une section du pilier est
présentée avec la position des électrodes.

Le plancher, le pilier et le toit de la carrière sont homogènes de résistivité 1000 Ωm. Une
hétérogénéité est introduite dans le pilier, décentrée par rapport à l’axe vertical, et de moindre
résistivité (100 Ωm), pouvant représenter une zone dégradée ou humidifiée.

Nous représentons les résultats sous la forme de tomogrammes obtenus en placant chaque
point de mesure au milieu du segment joignant A et M. Sur les tomogrammes, du bas vers le
haut du pilier (figure 3.27), une zone de résistivités apparentes plus faibles apparaît, décentrée
comme l’hétérogénéité, puis commence à disparaître à nouveau. L’amplitude de l’anomalie
est plutôt faible ce qui pourrait signifier que ce dispositif n’est pas optimal pour imager cette
structure. Bien que les électrodes actives (A et M) soient situées à une altitude de 32 m sur le
dernier tomogramme de la figure 3.27, nous pouvons encore remarquer que le conducteur se
fait toujours ressentir. Le champ électrique traverse en effet toujours cette structure
conductrice pour rejoindre les électrodes B et N situées sur le plancher de la carrière. Il en

101
résulte un effet qui rend mal aisée la localisation de l’hétérogénéité et tend à confirmer que ce
dispositif est à éviter. De plus, comme la zone située entre les électrodes A et M présente une
sensibilité négative (figure 2.7), une inversion du signe de l’anomalie peut subvenir. Nous
pouvons constater sur le tomogramme situé à 23 m que la résistivité apparente est supérieure à
1000 Ωm pour les données collectées avec un grand dispositif A-M.

Figure 3.27 : Tomogrammes de résistivité apparente simulés sur le pilier de carrière avec un dispositif en pôle-
pôle.

Nous pouvons donc voir que la modélisation synthétique directe est une aide utile pour
planifier une campagne de mesure en utilisant des dispositifs non-conventionnels sur des
structures à géométries complexes.

102
Résumé : Exemple de modèle synthétique de dimension finie
Un exemple de modélisation synthétique sur un pilier de carrière a permis d’illustrer
l’utilité de notre programme TOMELE. Ces modélisations permettent de mieux
comprendre la réponse obtenue lors d’acquisitions effectuées avec des dispositifs non-
conventionnels.

III.7 MESURES DIRECTES EXPERIMENTALES

Un exemple de mesures en laboratoire est présenté ici afin d’illustrer une utilisation possible
du programme utilitaire TOMELE et de mettre en pratique les conclusions que nous avons
tirées concernant la modélisation directe par éléments finis. Il s’agit ici de mesurer la
résistivité d’un sédiment saturé en eau contenu dans une cuve en PVC (figure 3.28).

Figure 3.28 : Représentation de la cuve et des dispositifs de mesure.

Il est souvent difficile d’obtenir une mesure réaliste de la résistivité d’un matériau lors de
mesures sur des modèles de dimensions finies (éprouvettes, échantillons de matériaux). En
effectuant une mesure de la résistivité sur ce type de structure, il est en effet indispensable
d’utiliser un facteur géométrique (ou constante de cellule) adapté qui ne peut être calculé
analytiquement que pour des modèles à géométrie simple (cylindre ou cube pour des

103
électrodes en forme de plaques). Les dispositifs de mesure doivent de plus être adaptés à la
géométrie de l’échantillon, ce qui rend difficile l’utilisation d’un quadripôle conventionnel et
rend obligatoire le façonnage de l’échantillon. Ce type d’approche n’est pas satisfaisante si
nous désirons conserver l’aspect non-destructif de la méthode électrique.

III.7.1 Constituants du modèle

Le sédiment choisi est un sable de fonderie, dont les propriétés pétrophysiques sont très bien
connues : la composition minéralogique du sable a été déterminée par diffractométrie aux
rayons X par le GEOLEP à l’EPFL (Huot, 1999). Les conclusions montrent qu’il s’agit d’un
sable composé de quartz pur avec quelques petites traces de feldspath et quelques rares
observations d’oxyde de fer. Ce sable peut donc être considéré comme formant une matrice de
quartz pur. La distribution granulométrique de ce sable est étroite, étant donné que ce dernier
a été lavé et tamisé à 0.4 mm. Les courbes granulométriques montrent qu’une taille moyenne
de grain de 0.3 mm peut être retenue. La porosité maximum est très importante. En effet, les
analyses montrent une porosité maximum de 40%, avec une incertitude de +/- 0.28%, valeur
suffisamment petite pour ne pas être prise en compte. L’eau utilisée pour saturer le sable
provient du circuit d’eau courante de l’Université de Lausanne. Nous avons laissé couler l’eau
pendant un certain temps afin d’éliminer les particules contenues dans les canalisations et
d’obtenir ainsi un liquide de composition constante.

III.7.2 Expérimentation et mesures sur échantillon

L’échantillon est saturé par gravitation dans la cuve. La résistivité, ainsi que la température du
fluide, sont mesurées régulièrement au cours de l’opération en divers endroits de la cuve.
L’eau et le sable n’étant pas à la même température, les résistivités de l’eau mesurées sont
ramenées à 20°C selon la relation suivante (Waic, 1985) :

 T1 + 21.5 
ρ 2 = ρ1   (3.38)
 T2 + 21.5 

avec ρ1 la résistivité de l’eau à la température T1 et ρ2 la résistivité de l’eau à la température


T2.

De part l’absence de minéraux argileux, une bonne estimation de la résistivité de l’échantillon


saturé peut être obtenue en utilisant la loi d’Archie. Les paramètres suivants (relation de
Humble) sont très fréquemment utilisés pour ce type de sédiments meubles :

ρ r = ρ w 0.62 Φ −2,15 (3.49)

104
avec ρr la résistivité du matériau et ρw la résistivité de l’eau d’imbibition. La résistivité de
l’eau varie légèrement au cours de la saturation. Avant mélange avec la matrice, cette dernière
vaut 36.9 Ωm. Elle tombe à 34.9 Ωm en fin de saturation. Cette légère variation peut être
expliquée par la mise en solution de la partie fine du sable. Nous ne tenons pas compte des
erreurs de mesure de la température, ces erreurs étant très faibles (environ 1°C). En utilisant
ces valeurs et pour une porosité de 40%, nous obtenons alors une résistivité du sédiment
comprise entre 164 Ωm et 155 Ωm, ce qui est parfaitement plausible. Ces valeurs concordent
bien avec les mesures effectuées par Gigon (2002) sur le même sédiment mais dans une cuve
de plus grande dimension (x=125cm, y=86cm, z=59.5 cm) afin de limiter les effets de bord.

Des mesures électriques sont ensuite effectuées sur l’échantillon en suivant l’implantation
décrite dans la figure 3.28. Ces résistivités apparentes mesurées sont également ramenées à
20°C. Un total de neuf stations de mesures sont implantées, certaines au centre de
l’échantillon, d’autres très près du bord. Le dispositif utilisé est un quadripôle Wenner de
12 cm de long, la position étant connue avec une précision inférieure à 0.5 cm. Les électrodes
sont en cuivre couvert d’or afin de limiter les réactions électrochimiques d’électrolyse (en
utilisant des électrodes en cuivre, nous observons un dépôt de cuprite Cu2O et un dégagement
d’hydrogène), car ces réactions peuvent perturber les mesures.

Les mesures sont effectuées en utilisant un résistivimètre Syscal R1 (Iris Instruments) et


chaque station est répétée 10 fois pour effectuer une test de reproductibilité. Un écart type
inférieur à 1% a pu être constaté sur les mesures. La résistivité apparente calculée en utilisant
un facteur géométrique pour un demi-espace est présentée dans la figure 3.30. Comme le
sédiment est considéré homogène, la résistivité apparente mesurée devrait être égale à la
résistivité vraie à l’échelle du dispositif utilisé (soit environ à l’échelle de l’éprouvette). Cette
résistivité est toutefois très élevée, particulièrement pour les mesures effectuées vers le bord
de la cuve, et ne semble pas plausible pour ce type de sédiment. Pour expliquer de telles
valeurs, une porosité très faible ou une résistivité de l’eau très élevée devraient être admises,
ce qui est en contradiction avec les informations disponibles a priori. Ces valeurs élevées
résultent bien entendu de l’application d’un facteur géométrique inadéquat pour cette forme
d’échantillon. Ce dernier ne pouvant pas être évalué de manière analytique, une solution
numérique doit être tentée.

III.7.3 Evaluation numérique de la résistivité apparente

Un modèle numérique de la cuve est créé en utilisant la géométrie exacte de l’échantillon.


Comme le montre la figure 3.29, cette cuve présente des sections trapézoïdales dans le plan
xz. Nous créons alors un super-élément qui est ensuite rempli par des hexaèdres à 8 nœuds.
Des modélisations successives sont effectuées en utilisant des mailles respectivement de
0.5 cm, 1 cm, 2 cm et 3 cm environ. En fonction de ce qui a été énoncé précédemment lors
des simulations numériques de sondage électrique (cf. III.5), une dimension maximum de
2 cm doit être admise pour les mailles du modèle afin de garantir une approximation EF de

105
qualité suffisante, étant donné les écartements des dispositifs utilisés ici. Un potentiel nul est
imposé sur un nœud situé sur un coin du fond de la cuve.

Figure 3.29 : Super-élément figurant la cuve.

Des simulations numériques sur un modèle homogène de résistivité unité sont alors effectuées
par le biais de TOMELE. La résistivité du sédiment peut être calculée en divisant les
différences de potentiel mesurées par celles évaluées sur le modèle numérique homogène. Il
est possible de constater dans la figure 3.30 que les valeurs de résistivité obtenues concordent
bien avec l’estimation donnée par la loi d’Archie pour les mailles de dimensions inférieures à
2 cm. Il n’y a en particulier pas de différence importante entre le maillage utilisant des mailles
de 0.5 cm et 1 cm, ce qui laisse à penser que l’utilisation d’un maillage très fin est inutile (la
précision du problème peut être garantie avec des mailles de 1 cm). L’utilisation de mailles de
3 cm semble par contre inadaptée. Nous pouvons également noter que le point choisi pour
imposer un potentiel nul ne perturbe pas l’évaluation de la résistivité. Ces résultats concordent
avec les conclusions obtenues sur les modèles synthétiques de la faille et de l’éprouvette.

Il est évident que cette expérience peut être étendue à des échantillons de formes quelconques
pour l’évaluation paramétrique de la résistivité (carottes de forage, fragments architecturaux
ou pièces en béton par exemple). De plus, des arrangements d’électrodes quelconques peuvent
être envisagés. Lorsque la géométrie de la cellule de mesure ne change pas, la simulation
numérique ne doit être effectuée qu’une seule fois et les différences de potentiel obtenues sur
le modèle homogène vont servir à corriger toutes les mesures effectuées dans cette cellule.
Ces différences de potentiel représentent donc une évaluation purement numérique de la
constante de cellule.

106
Figure 3.30 : Valeur de la résistivité (apparente) mesurée en utilisant le facteur géométrique (colonne de gauche)
et différentes évaluations numériques de la constante de cellule (4 colonnes de droite).

Résumé : Mesures directes expérimentales


Un exemple pratique de mesure de la résistivité d’un sédiment (sable) dans une cuve est
exposé. La résistivité du sédiment est mesurée à l’aide d’un dispositif quadripôle
Wenner. De par la dimension finie de la cuve, l’utilisation d’un facteur géométrique
pour un demi-espace donne des valeurs erronées pour la résistivité du sédiment. Un
calcul de la résistivité apparente par normalisation est alors tenté. Une estimation de la
différence de potentiel sur un modèle homogène de résistivité unité est obtenue de
manière numérique, via TOMELE, sur un modèle de cuve. La résistivité obtenue alors
par normalisation est très proche de la résistivité vraie du sédiment, qui peut être
évaluée en utilisant la loi d’Archie. Cette approche permet donc d’obtenir une
évaluation numérique de la constante de cellule. Cet exemple montre également la
validité des conclusions que nous avons obtenues précédemment sur des modèles
purement synthétiques (convergence du problème EF, potentiel imposé).

107
108
CHAPITRE IV

LE PROBLEME INVERSE

109
110
IV.1 PRESENTATION DU PROBLEME INVERSE

Le problème inverse en méthodes électriques a été étudié par de nombreux auteurs durant
plusieurs décennies. Si les méthodes de résolution ont relativement peu changé depuis les
années 1980, l’aspect de la résolution numérique du problème inverse fut, quant à lui, étudié
de manière intensive. Les algorithmes issus de ces investigations sont étroitement liés à la
puissance de calcul existant à chaque époque.

L’opération inverse du problème direct est utilisée pour remonter aux caractéristiques
inconnues du terrain à partir de la réponse mesurée. Il s’agit, à partir des potentiels (ou des
résistivités apparentes) mesurés pour N positions d’électrodes, de retrouver M paramètres, en
général une répartition des résistivités, décrivant la structure étudiée de manière plausible et
expliquant bien les données mesurées. Cette opération s’effectue en général par une
minimisation des écarts entre les résistivités apparentes mesurées et celles calculées par
modélisation sur le modèle à ajuster.

En général, le problème direct se présente sous la forme d’une fonction continue et


arbitrairement compliquée (non-linéaire) des données et des paramètres du modèle. Ce type de
fonction ne permet pas l’élaboration d’un schéma d’inversion non-linéaire exact, malgré
l’élégance mathématique d’une telle démarche. Il y a plusieurs raisons à cela : premièrement,
une telle solution nécessite des situations sans erreurs qui n’apparaissent pas dans la pratique.
Une série de données réelles contient toujours des erreurs et ces dernières peuvent se propager
aux paramètres du modèle. De plus, le fait qu’un nombre fini de données soit disponible pour
évaluer un modèle nécessitant une infinité de degrés de liberté signifie que le problème
inverse n’est pas unique dans ce sens. De par l’échantillonnage, qui peut être inadéquat, ou de
par la qualité des mesures réelles, entachées d’erreurs, les données ne contiennent en général
pas suffisamment d’informations pour déterminer un modèle de manière univoque.

IV.1.1 Stratégies d’inversion non-linéaire

Le problème inverse électrique est non-linéaire, ce qui suppose généralement une résolution
itérative (Lines and Treitel, 1984) et différentes approches peuvent être envisagées.
L’utilisation d’une formulation linéarisée (méthodes de dérivées) est sans doute le choix le
plus courant en méthode électrique, où l’approximation linéaire est généralement valide
(méthodes linéaires itératives ou encore méthodes de descente). Des méthodes de recherches
systématiques (Grid Search Methods) ou faisant appel à des processus aléatoires (Monte
Carlo Methods) peuvent également être utilisées pour explorer l’espace des paramètres du
modèle. La recherche d’un optimum peut être orientée de manière plus efficace par
l’utilisation de méthodes de recuit simulé (Simulated Annealing) ou d’algorithmes génétiques.
Le problème inverse non-linéaire peut également être résolu en utilisant un point de vue

111
probabiliste (Tarantola and Valette, 1982a et 1982b). Cette méthode mène à une formulation
objective du problème inverse, si nous considérons que l’information a priori utilisée a une
véritable signification physique. Nous supposons ici que tous les paramètres (données et
modèle) suivent une distribution gaussienne et peuvent donc être caractérisés par une variance
et une valeur moyenne. Cette méthode statistique est basée sur le fait que la valeur optimale
des paramètres maximise la probabilité que les données observées soient effectivement
observées. Pour une distribution gaussienne, le point de probabilité maximum (ou espérance)
est identique à la valeur moyenne, ce qui n’est pas forcément le cas pour les autres
distributions.

Les méthodes de dérivées ont l’avantage de présenter une convergence rapide à proximité
d’un minimum mais sont très sensibles au choix du modèle de départ et aux minima locaux.
Les méthodes faisant appel à des phénomènes stochastiques ne nécessitent pas le calcul de
dérivées et sont capables d’éviter certains minima locaux. Elles présentent par contre une
convergence lente à proximité d’un minimum et le réglage d’un grand nombre de paramètres
est nécessaire pour arriver à un résultat satisfaisant. De plus, l’utilisation de ces méthodes
requiert de nombreuses résolutions du problème direct et par conséquent un gros effort de
calcul. Une méthode de dérivées semble donc la meilleure approche dans le cas de modèles
présentant un grand nombre de paramètres inconnus.

Le but de l’inversion est de définir les paramètres m d’un modèle optimal. Pour un tel
problème d’optimisation, la somme des résidus entre les données observées et les données
calculées sur le modèle va être minimisée. Cette fonction de résidu E, appelée fonction de
coût ou encore fonction objectif, est fréquemment définie en utilisant une norme. Avec le
vecteur d’erreur e entre les données mesurées d et calculées g(m), une norme générale peut
être définie comme suit :

1
N p
p
e =  ∑ ei  (4.1)
 i =1 

avec

ei = di − gi ( m ) (4.2)

Lorsque p=2, la norme quadratique L2 ainsi obtenue mène à la méthode des moindres carrés.

L’utilisation d’une norme L2 suppose une distribution gaussienne de l’erreur sur les données.
Toutefois, ce type de distribution peut ne pas être adapté à un certain type de données.
L’utilisation du critère des moindres carrés avec un autre type de distribution (exponentielle,
uniforme ou asymétrique par exemple) mène généralement à des résultats inacceptables. Il est
donc important d’éliminer les (mauvaises) données trop isolées de la distribution (qui ont une
influence prédominante sur la norme utilisée) afin de rendre le problème compatible avec le
critère des moindres carrés et d’améliorer, par la même occasion, la variance de la solution.

112
Dans le cas de données fortement perturbées, l’utilisation de normes plus faibles (inversion
dite robuste, avec L1 ou L0.5 par exemple) donne de meilleurs résultats (Al-Chalabi, 1992).
Une distribution exponentielle, plus étalée que la distribution gaussienne, convient en effet
mieux aux jeux de données présentant des éléments fortement bruités. Nous noterons que
l’utilisation d’une norme différente, telle que la norme L1 peut mener à devoir transformer des
formulations préexistantes ou à utiliser des algorithmes plus spécifiques. Nous pouvons citer
par exemple l’algorithme du Simplex ou encore la méthode IRLS (Iteratively Reweighted
Least Squares). Remarquons encore qu’une minimisation de la norme L1 effectuée sur des
données de distribution gaussienne ne semble pas adaptée (Al-Chalabi, 1992).

Le contenu de la fonction objectif dépend de l’information a priori disponible. En dehors d’un


ajustement aux données, il est possible d’introduire des contraintes sur la norme de la solution
ou son écart à un modèle de référence. Nous pouvons également introduire des contraintes sur
le gradient et des lissages spatiaux de la solution.

IV.1.2 Topographie de la fonction objectif

Il n’y a pas de moyen simple permettant de connaître, en l’absence d’informations a priori, si


un problème inverse non-linéaire possède une solution unique minimisant l’erreur entre les
données calculées et mesurées. Afin d’évaluer la non-unicité d’un problème inverse, il est
nécessaire de s’intéresser à la topographie de la surface d’erreur dans l’espace des paramètres
du modèle. Cette surface peut présenter plusieurs extrema secondaires, des formes en selle ou
encore en vallée, être creuse ou presque plate. Pour un grand nombre de paramètres, ce type
d’investigation graphique est toutefois impossible. Même si un problème inverse est connu
pour présenter une solution unique (minimum global optimal), rien ne nous garantit que la
technique itérative appliquée converge vers cette solution. En effet, un minimum local est
toujours possible. Les méthodes itératives ne peuvent trouver que des solutions qui sont
linéairement proches de l’estimation initiale des paramètres du modèle et par conséquent un
choix soigneux du modèle initial est de rigueur. La non unicité d’un problème peut également
provenir des erreurs sur les données, qui se propagent vers les paramètres du modèle, ou
encore du formalisme mathématique qui ne décrit pas exactement la réalité du sous-sol. Il peut
donc y avoir plusieurs modèles de terrain différents qui peuvent expliquer (presque) aussi bien
les données mesurées. Nous sommes donc ici en présence d’un cas d’équivalence. Le seul
critère d’ajustement ne permettra donc pas toujours de décider quel modèle est le plus
représentatif du terrain.

Une des manières de déterminer l’unicité d’un problème inverse est de résoudre ce problème
pour un grand choix d’estimations initiales. Mais, comme le nombre d’expérimentations ne
peut être infini, rien ne nous garantit que la totalité de la topographie de la surface d’erreur a
été ainsi appréhendée. Cependant, il n’est souvent pas nécessaire de connaître toutes les
solutions possibles mais uniquement celles qui semblent plausibles et pour parvenir à

113
interpréter de manière univoque les mesures de terrain, des informations a priori sont souvent
nécessaires.

Résumé : Présentation du problème inverse


Le problème inverse consiste à retrouver, à partir d’une série de mesures, une
répartition des résistivités décrivant la structure étudiée de manière plausible et
expliquant bien les données mesurées. Cette opération, en général itérative pour un
problème non-linéaire, s’effectue en général par la minimisation d’une fonction objectif
(fonction des écarts entre les données mesurées et celles calculées par modélisation sur le
modèle à ajuster). Cependant, même si un problème inverse possède un minimum global
optimal, rien ne nous garantit que la technique itérative appliquée converge vers cette
solution et non pas vers un minimum local. Les principales méthodes de résolution sont
les méthodes de dérivées et les méthodes utilisant des processus aléatoires. Les premières
ont l’avantage de présenter une convergence rapide à proximité d’un minimum, mais
sont très sensibles au choix du modèle de départ et aux minima locaux. Par contre, les
secondes ne nécessitent pas le calcul de dérivées et sont capables d’éviter certains
minima locaux. Cependant, elles requièrent un gros effort de calcul et présentent une
convergence lente à proximité d’un minimum, ainsi que le réglage d’un grand nombre
de paramètres. Une méthode de dérivées semble donc la meilleure approche dans le cas
de modèles présentant un grand nombre de paramètres inconnus. Finalement, il peut y
avoir plusieurs modèles de terrain différents qui peuvent expliquer (presque) aussi bien
les données mesurées (problème d’équivalence).

IV.2 METHODES DE DESCENTE

La résolution itérative d’un problème non-linéaire passe par les étapes suivantes :

1) un modèle de départ m0 est choisi,


2) le vecteur de modification dmi pour l’itération i est évalué en utilisant une des
formulations décrites plus loin,
3) un nouveau modèle est ensuite évalué en posant mi+1=mi+dmi,
4) les deux étapes précédentes sont répétées jusqu’à ce que la fonction objectif E
atteigne un minimum, qui est idéalement le minimum global.

Le nombre d’itérations nécessaires pour atteindre un minimum dépend de la non-linéarité du


problème, de la formulation choisie pour résoudre le problème inverse et aussi de la proximité
du modèle de départ par rapport au minimum global.

Le vecteur de modification dm peut être caractérisé par une direction de descente v et un pas
α:

dm i = α i v i (4.3)

114
La fonction objectif peut être estimée au pas suivant en utilisant un développement limité de
premier ordre :

( ) ( ) ( ) ( )
T
E m i + dm i = E m i + hi dm i + o dm i (4.4)

avec h le gradient de la fonction objectif qui est un vecteur de dimension M, où M est le


nombre de paramètres du modèle. Nous en déduisons :

( ) ( ) ( ) ( )
T
E m i +1 = E m i + α i hi vi + o α vi (4.5)

Comme nous souhaitons voir décroître la fonction objectif au fil des itérations,
E(mi+1)<E(mi), il découle que hT v <0, qui est la condition nécessaire pour avoir une direction
de descente acceptable. En choisissant v = -R h, avec R une matrice MxM, la condition s’écrit
alors hT R h > 0. Si R est définie positive cette condition est toujours vérifiée. Rappelons
qu’une matrice symétrique à diagonale dominante, telle la matrice unité, est toujours positive
et qu’une matrice non-symétrique ne peut pas être définie positive. Nous noterons donc la
mise à jour du modèle pour l’itération i :

m i +1 = m i + α i v i = m i − α i R i hi (4.6)

Les méthodes de descente se différencient donc par le choix de R et α. Notons qu’il n’y a pas
de choix optimal pour la résolution du problème inverse : des méthodes très élaborées vont
converger en peu d’itérations mais vont exiger le calcul de gradients et de dérivées secondes
et d’autres approches plus simples et nécessitant moins de calculs, auront par contre une
convergence plus lente. Le choix de la matrice R est délicat et donne naissance à diverses
méthodes de descente.

IV.2.1 Méthode de plus grande pente

La méthode de descente la plus simple consiste à utiliser une matrice identité I (MxM) comme
matrice définie positive. Nous obtenons dans ce cas la méthode de steepest descent ou
méthode de plus grande pente (MPGP).

m i +1 = m i − α i I hi (4.7)

Dans ce cas, la direction de descente suit une direction –h, ce qui provoque la diminution
locale de la fonction objectif la plus rapide (figure 4.1). Malheureusement, cette méthode peut
présenter des convergences très lentes si la topographie de la fonction objectif présente des
vallées étroites, spécialement à proximité d’un minimum. Un avantage de la méthode est que
R=I est toujours définie positive, ce qui confère une certaine robustesse au processus.

115
En utilisant une MPGP, il est nécessaire de définir non seulement la direction de descente
mais également une longueur de pas α. Le choix du pas α consiste en général à calculer une
valeur de α minimisant la fonction objectif à l’itération suivante E(mi+dmi). Nous noterons
toutefois que ces méthodes nécessitent l’évaluation de problèmes directs supplémentaires à
chaque itération.

Figure 4.1 : Représentation schématique de la topographie d’une fonction objectif pour deux paramètres ma et
mb. Un exemple de recherche d’un minimum en utilisant une méthode de plus grande pente est illustré. Il est
également possible d’observer un minium local à droite de la figure.

IV.2.2 Méthode de Newton

La méthode de Newton propose l’utilisation de l’inverse de la matrice hessienne X (matrice


MxM des dérivées secondes de la fonction objectif E) comme matrice définie positive. Cela
signifie que la fonction objectif au point minimum est approximée par une surface de
deuxième ordre.

1
( ) ( ) ( ) ( ) ( )
T T
E m i +1 ≈ E m i + hi dm i + dm i X i dm i (4.8)
2

Au point stationnaire, le gradient de cette expression doit s’annuler :

∇E mi+1 = hi + Xi dm i = 0 (4.9)

c’est à dire
( )
−1
m i +1 = m i − Xi hi (4.10)

116
Dans ce cas, R vaut X-1. Lorsque E est quadratique vers un minimum, cette formulation
permet de trouver le point stationnaire en un seul pas. Lorsque X est définie positive, X-1 l’est
aussi et le processus converge dans tous les cas vers des valeurs plus faibles de E.

IV.2.3 Méthode de Gauss-Newton

Avec la méthode de Newton, la matrice X et le gradient h doivent être connus. Malgré de


bonnes propriétés de convergence, la méthode de Newton est rarement utilisée sous la forme
présentée dans l’équation 4.10. Premièrement, il est indispensable de calculer les dérivées
secondes, ce qui est généralement difficile. Deuxièmement, il est impossible de définir à
l’avance si X (et par extension X-1) est définie positive. En général, la méthode de Gauss ou
une méthode Quasi-Newton (méthode BFSG par exemple, pour Broyden, Fletcher, Goldfarb,
Shanno) permet de régler le premier problème et la méthode de Marquardt, le second.

Pour un problème par moindres carrés, la fonction objectif s’écrit :

N N
E ( m ) = ∑ ( d k − g k ( m ) ) = ∑ ek2
2
(4.11)
k =1 k =1

avec g l’opérateur du problème direct. La dérivée première de cette expression est :

∂E N
∂g
hl = = −2∑ ek k (4.12)
∂ml k =1 ∂ml

soit
∂g k
h = −2 Y T e, Ykl = (4.13)
∂ml

Avec Y la matrice jacobienne des dérivées partielles de dimensions NxM ou matrice des
dérivées de Fréchet. Les coefficients de cette matrice représentent en un point la sensibilité de
la mesure à une variation des paramètres du modèle. On l’appelle donc souvent matrice de
sensibilité.

Le Hessien peut être écrit :

∂2E N
∂ 2 ek N
∂g ∂g k
X lj = = 2∑ ek + 2∑ k (4.14)
∂ml ∂m j k =1 ∂ml ∂m j k =1 ∂ml ∂m j

∂ek ∂g
avec =− k (4.15)
∂m j ∂m j

117
X est de dimensions MxM. La méthode de Gauss va donc approximer le Hessien dans la
formulation de Newton en utilisant la relation 4.14 et en supprimant le terme de second ordre.
Cette approximation peut être faite si le problème est faiblement non-linéaire, c’est-à-dire que
les erreurs sont approximativement linéaires par rapport aux variations des paramètres. Dans
ce cas :

X ≈ 2 YT Y (4.16)

Dans cette formulation, il est possible de voir que le Hessien peut être obtenu sans calcul
explicite des dérivées secondes. Ainsi, la méthode de Newton utilisant la formulation de
Gauss pour X et h est :

( )
−1
m i +1 = m i + Y T Y YT e (4.17)

avec e défini dans l’équation 4.2.

Cette expression est parfaitement similaire à celle obtenue par linéarisation de l’opérateur g en
une série de Taylor du premier ordre autour d’un ensemble de paramètres estimés. De fait, la
formulation 4.17 est très fréquemment utilisée pour l’inversion de données électriques. Nous
pouvons donc constater que la méthode consistant à rendre linéaire l’opérateur g et à résoudre
ensuite itérativement un système de relations linéaires revient à négliger les dérivées secondes
de la matrice hessienne du problème non-linéaire.

IV.2.4 Modification de Marquardt-Levenberg

La méthode de Gauss présente, comme la méthode de Newton, de bonnes propriétés de


convergence vers un minimum. Par contre, la matrice X peut être singulière à grandes
distances du minimum pour des problèmes mal conditionnés. Nous introduisons la
modification, ou régularisation, de Marquardt-Levenberg afin de pallier ce problème
(Levenberg, 1944 ; Marquardt, 1966). Le principe de la méthode de Marquardt-Levenberg
consiste à amorcer le processus itératif en utilisant une formulation proche de la MPGP, puis
d’évoluer vers une formulation de Gauss au fil des itérations. Nous profitons alors des
avantages spécifiques des deux méthodes.

Le vecteur de correction de la steepest descent vaut :

dm = −I h = 2 I Y T e (4.18)

ou Y T e = λ I dm (4.19)

avec λ le facteur d’amortissement, λ=2-1. En modifiant la méthode de Gauss (équation 4.17)


selon la formulation 4.19 nous obtenons alors :

118
( )
−1
m i +1 = m i + Y T Y + λ I YT e (4.20)

Le facteur d’amortissement λ permet donc de trouver un compromis entre la MPGP (valeur de


λ grandes) et la méthode de Gauss (valeurs de λ faibles). Pour un problème non-linéaire, nous
diminuons donc la valeur de λ à chaque itération (bien que certains auteurs utilisent un facteur
λ fixe). Comme l’explique Inman (1975), l’algorithme d’inversion de Marquardt-Levenberg,
ou ridge regression, est beaucoup plus stable face à un problème mal conditionné et, en
fonction du λ choisi, peut donner de meilleurs résultats (variance du modèle plus faible) que
la méthode de Gauss. Nous pouvons encore rappeler que λ peut être utilisé pour trouver un
compromis entre résolution et erreur. Si λ est trop grand, le résultat perd rapidement en
résolution (Sasaki 1992) mais par contre la variance du résultat a tendance à diminuer (Inman,
1975). A moins de se baser sur les variances des données et des paramètres (Menke, 1989), le
choix du facteur λ est totalement empirique.

Le fait d’augmenter, par le biais du terme en λI, la taille des faibles valeurs propres de YTY
diminue la longueur du vecteur de modification à appliquer au modèle, ce qui a pour
conséquence de donner des solutions plus proches de la réalité et de ralentir la convergence.
De plus, lorsque ce vecteur de modification est trop grand, de par l’effet des valeurs propres
faibles, la linéarisation perd en précision. Le facteur λ est donc un moyen d’ajouter une valeur
scalaire aux valeurs propres de la matrice YTY (donc de X), évitant ainsi que cette dernière,
dans le cas où le conditionnement est médiocre, devienne singulière au cours du processus
itératif. De plus, les faibles valeurs propres sont associées à des groupes de données très
localisés, ce qui n’est pas le cas des fortes valeurs propres qui représentent une moyenne de
toutes les données. Ces faibles valeurs propres ne doivent être tolérées qu’à proximité de la
solution.

La formulation de Gauss-Newton avec la modification de Marquardt-Levenberg est


fréquemment complétée par des matrices de lissage sur la solution (Loke and Barker, 1996 a
et 1996b), des matrices de covariance sur les paramètres du modèle ou sur les données
(Tarantola and Valette, 1982a) ou encore par l’utilisation d’un modèle de référence
(Oldenburg and Li, 1999). En fait, de nombreuses méthodes existent pour inclure de
l’information a priori dans la résolution du problème inverse (Menke, 1989).

Résumé : Méthodes de descente


Le problème inverse non-linéaire est résolu itérativement à partir d’un modèle initial ; à
chaque itération, une direction de descente ainsi qu’un pas sont définis. La méthode de
plus grande pente, qui oriente la correction dans le sens inverse du gradient de la
fonction objectif, est la plus robuste. Pour pallier certains problèmes de convergence, on
utilise également une direction de descente composée du gradient et de l’inverse de la
matrice hessienne de la fonction objectif (méthode de Newton). La méthode de Gauss-
Newton permet une approximation du gradient (par rapport aux paramètres du modèle)
et de la matrice hessienne de la fonction objectif à partir de la matrice de sensibilité, ce

119
qui facilite le calcul. Pour stabiliser l’inversion, la modification de Marquardt-
Levenberg est couramment employée. Cette dernière formulation, souvent complétée de
matrices permettant d’introduire de l’information a priori, est fréquemment utilisée
pour résoudre le problème inverse électrique.

IV.3 QUELQUES CARACTERISTIQUES DES MODELES

IV.3.1 Résolution et variance de la solution

Il existe un compromis important entre la résolution et la variance (erreur) d’un modèle.


Supposons que l’information ne soit pas répartie de façon homogène dans l’espace et que la
discrétisation soit très fine. Certaines cellules ne sont alors que pauvrement renseignées. La
variance sera grande en général bien que la résolution soit très bonne. Si la taille des cellules
est augmentée, le problème ne sera plus sous-déterminé et la variance va diminuer
(l’indétermination moyenne des paramètres étant diminuée), mais la résolution sera médiocre.
Cette relation entre variance et résolution est contrôlée par la qualité des données d’une part,
mais également par la sous-détermination du problème. En effet, la résolution ne peut pas être
plus fine que la taille de la plus petite des cellules utilisée pour imager le sous-sol. Concernant
la résolution du problème électrique, signalons que le choix du dispositif de mesure est
également important.

IV.3.2 Modèle initial

Le modèle de départ d’un processus itératif d’inversion est le plus souvent homogène, de
résistivité égale à la moyenne des résistivités apparentes mesurées (Loke and Barker, 1996a)
ou encore égale à la résistivité d’une zone reconnue comme ne faisant pas partie de la cible
recherchée (proche des électrodes par exemple). Nous pouvons aussi utiliser la première
itération comme modèle de départ. Un premier modèle très approximatif peut aussi être
obtenu en utilisant, soit l’approximation de Born, où le champ primaire est assimilé au champ
secondaire, soit la méthode des centres alpha, qui peut être complétée par une autre méthode
telle que les éléments finis (Shima, 1992) ou encore une méthode de type SIRT (Simultaneous
Reconstruction Technique). Idéalement, le modèle de départ devrait contenir un maximum
d’informations a priori, qui peuvent être présentes dans la forme du maillage utilisé par
exemple. Ce dernier peut être construit afin de refléter certaines structures, comme des limites
de couches. L’importance du modèle de départ, qui peut fortement influencer la convergence
de la méthode, n’est pas à négliger.

120
IV.3.3 Discrétisation

La taille des cellules doit être choisie de façon à avoir un bon compromis entre résolution et
stabilité. Sasaki (1992) et Loke and Barker (1996a) préconisent l’utilisation de cellules dont la
dimension est équivalente à 0.5 fois la plus petite distance entre les électrodes. Lorsque cela
est possible, la dimension des cellules peut être adaptée au dispositif utilisé (Loke and Barker,
1996a) en fonction de la sensibilité de ce dernier (Edwards, 1977). Ceci est surtout valable
pour les mesures en surface. Les cellules proches de la surface sont prises suffisamment
petites pour tenir compte des variations de résistivités qui peuvent être importantes. Lors de
mesures entre forages, il faut considérer les effets provenant de corps situés en dehors de la
région d’intérêt (zone interforage) et la région extérieure doit être discrétisée proprement de
façon à tenir compte des variations de résistivité (Zhao et al., 1986). De plus, si la méthode le
permet, il est préférable d’élaborer un maillage reflétant le plus possible la structure supposée
du sous sol (Beasley and Tripp, 1991 ; Sasaki, 1994 ; Olayinka and Yaramanci, 1999).
Lorsque la structure du sous-sol est mal connue et que nous ne désirons pas influencer le
processus d’inversion, un maillage régulier doit être utilisé.

Résumé : Quelques caractéristiques des modèles


Dans le but d’introduire de l’information a priori dans le problème inverse, le modèle
initial doit être choisi avec soin et ce dernier peut être construit afin de refléter certaines
structures connues. Un compromis doit être trouvé entre la résolution et la variance
(erreur) d’un modèle. En particulier, la taille des cellules doit être choisie de façon à
garantir une résolution acceptable ainsi qu’une certaine stabilité.

IV.4 CHOIX D’UNE STRATEGIE D’INVERSION

IV.4.1 Les différentes stratégies d’inversion pour le problème


électrique

Plusieurs auteurs ont présenté, depuis une vingtaine d’années, des algorithmes d’inversion
pour les données électriques. Des tentatives ont été faites pour utiliser des algorithmes de
reconstruction de type RBPT (Resistivity Back-Projection Technique, Shima, 1992), ART
(Algebraic Reconstruction Technique) ou encore SIRT (Simultaneous Reconstruction
Technique) (par exemple Noël and Xu, 1991 ; Olayinka and Weller, 1997). Bien que rapides,
ces méthodes ne donnent toutefois pas des résultats satisfaisants pour le problème électrique.
En effet, la théorie des rais s’applique mal à un problème correspondant à la résolution d’une

121
équation de Laplace. Une méthode de recuit simulé a été également proposée (Chunduru et
al., 1996 ; Pessel, 2000), mais bien que donnant de bons résultats, cette méthode est très
exigeante en temps de calcul. Nous pouvons encore relever l’approche de Mauriello et Patella
(1999). Ils proposent une probability tomography dont le résultat n’est toutefois que semi-
quantitatif avec une localisation du corps mais sans détermination de la résistivité. Une
approche par réseaux neuronaux a également été présentée (El-Qady and Ushijima, 2001). En
général, la majorité des auteurs utilise une méthode de Gauss-Newton (moindres carrés
itératifs) avec une condition de régularisation de type Marquardt-Levenberg (voir entre autres
Pelton et al., 1978 ; Tripp et al., 1984 ; Daily and Owen, 1991 ; Park and Van, 1991 ; Sasaki,
1992 ; Shima, 1992 ; Beard et al., 1996 ; Loke and Barker, 1996a et 1996b ; Morelli and
LaBrecque, 1996 ; Olayinka and Yaramanci, 1999 ; Yi et al., 2001 ; Jackson et al., 2001 ; Pain
et al., 2002). Cette formulation est souvent complétée en y insérant différentes matrices de
lissage ou de pondération dont le rôle est d’introduire de l’information a priori (Pous et al.,
1987 ; Marescot, 2003). Toutefois, dans le cadre de la résolution du problème inverse
appliqué à des modèles 3D complexes, cette formulation possède un handicap majeur : elle
nécessite en effet d’évaluer explicitement la matrice jacobienne des dérivées partielles Y (ou
matrice de sensibilité). Cette matrice peut parfois être évaluée analytiquement, comme nous
l’avons vu au Chapitre II, mais, pour des modèles quelconques, une solution numérique sera
souvent nécessaire.

Un méthode traditionnelle consiste à évaluer les coefficients de la matrice par un calcul en


différences finies en résolvant le problème direct successivement pour une augmentation et
une diminution de la résistivité de chaque paramètre du modèle. Dans ce cas, 2xM
factorisations de la matrice globale et 2xS résolutions sont requises, avec S le nombre de
couples source, ce qui peut s’avérer impraticable de par le temps de calcul exigé. Une autre
approche consiste à utiliser une approximation de Born pour le calcul des sensibilités (voir par
exemple Dabas et al., 1994). Dans ce cas, le champ primaire est assimilé au champ secondaire
et il n’y a plus de système linéaire à résoudre. Cette méthode donne généralement des
évaluations des dérivées partielles de qualité médiocre mais qui peuvent toutefois être
acceptables pour le calcul des sensibilités. Une autre approche consiste à utiliser un modèle
homogène pour calculer analytiquement les dérivées partielles (Griffith and Barker, 1993),
mais le résultat est relativement différent lorsque la structure est fortement hétérogène, une
solution analytique n’existant pas pour des modèles 3D à structures complexes. Loke and
Barker (1996a) utilisent la stratégie quasi-Newton de Broyden pour mettre à jour la matrice de
sensibilité, ce qui est une approche très efficace si le processus d’inversion ne s’éloigne pas
trop du modèle de départ (Loke and Dahlin, 2002). Une formulation de champ adjoint pour le
champ de potentiel peut également être utilisée pour évaluer les valeurs de sensibilité de la
matrice jacobienne. Dans ce cas, N résolutions du problème direct sont nécessaires par
itération (McGillivray and Oldenburg, 1990 ; Zhang et al., 1995). Pour un problème avec
beaucoup de données, cela peut également être un calcul prohibitif. Nous pouvons donc
conclure ici que le calcul explicite de la matrice jacobienne est en général très lourd et
nécessite de grandes ressources en mémoire pour son stockage.

122
IV.4.2 Inversion non-linéaire par méthode de champ adjoint

Une autre approche consiste à utiliser la formulation du champ adjoint au champ de potentiel
pour directement minimiser la fonction objectif E (calcul du gradient h), ce qui est une
technique d’inversion purement non-linéaire. Cette méthode reste toutefois très peu utilisée
pour le problème électrique. Cela vient probablement de la popularité de la méthode de
Gauss-Newton dans le domaine de la géophysique. Cette approche est néanmoins citée par
McGillivray and Oldenburg (1990) et utilisée par Ellis and Oldenburg (1994b), Spies and
Ellis (1995), Lesur et al. (1999) et Abubakar and van den Berg (2000) pour inverser des
données sur des modèles représentant un demi-espace et en utilisant des méthodes d’équations
intégrales ou de différences finies.

Dans cette approche, le gradient h de la fonction objectif peut ensuite être utilisé dans une
formulation de type MPGP. Avec cette stratégie, une factorisation de la matrice globale et 2xS
résolutions du système linéaire sont nécessaires par itération. Nous proposons donc d’utiliser
la technique de l’état adjoint (Ellis and Oldenburg, 1994b) qui semble bien adaptée à notre
problématique (Marescot et al., 2004). Nous adapterons toutefois l’algorithme à des calculs
par éléments finis sur des modèles 3D à géométries complexes.

Nous pouvons noter que Abubakar and van den Berg (2000) considèrent le contraste de
conductivité (le produit du champ électrique total et de la conductivité) comme paramètre
inconnu. Des modélisations synthétiques effectuées en utilisant cet algorithme donnent des
reconstructions acceptables qui semblent également indiquer que la procédure d’inversion est
relativement insensible au bruit. Nous utiliserons quant à nous la résistivité (ou la
conductivité) de chaque cellule comme paramètre inconnu.

Résumé : Choix d’une stratégie d’inversion


La méthode de Gauss-Newton, avec une condition de régularisation de type Marquardt-
Levenberg, est traditionnellement utilisée pour résoudre le problème inverse électrique.
Cette formulation est souvent complétée en y insérant différentes matrices de lissage ou
de pondération. Toutefois, dans le cadre de la résolution du problème inverse appliqué à
des modèles 3D à géométries complexes, cette formulation possède un handicap majeur.
Elle nécessite en effet d’évaluer numériquement, par différences finies par exemple, la
matrice jacobienne des dérivées partielles (ou matrice de sensibilité), ce qui peut
représenter un calcul prohibitif. Notre approche consiste à utiliser la formulation du
champ adjoint au champ de potentiel pour directement minimiser la fonction objectif.
Le gradient de la fonction objectif peut ensuite être utilisé dans une méthode de plus
grande pente pour résoudre le problème inverse.

123
IV.5 LA METHODE DE L’ETAT ADJOINT

Comme nous l’avons vu, les méthodes de descente de type MPGP nécessitent le calcul du
gradient h de la fonction objectif E. Ce gradient pourrait être évalué en utilisant une
formulation par différences finies, ce qui représente un gros effort de calcul. La méthode de
l’état adjoint est par contre une technique efficace permettant cette évaluation. Dans cette
optique, il est tout d’abord nécessaire de définir les équations différentielles permettant
l’évaluation du champ adjoint avant de décrire explicitement l’algorithme d’inversion utilisé
dans ce travail, le problème à résoudre consistant à minimiser la fonction E sur le champ σ :

E= ∫ f (V (σ ), σ )

dΩ (4.21)

où V est solution de :

∇ ⋅ (σ ∇V ) = − q (4.22)

dans Ω, q étant une fonction de l’espace de la forme ∑I


s
s δ (r − rs )

avec Is l’intensité d’une source S, rs la position de cette source, r la position d’un point
quelconque de l’espace et δ la distribution de Dirac (dans l’espace à trois dimensions). Les
conditions aux limites sont :

σ ∇V ⋅ n = − J (4.23)

sur ΓN la frontière de Neumann, et

V =V (4.24)

sur ΓD la frontière de Dirichlet

Dans l’équation 4.21, f est une fonction scalaire supposée dérivable en V. Le champ V est
résolu ici au niveau d’un seul couple source, et non pas au niveau de l’ensemble des sources
d’une séquence de tomographie. Les champs V et σ sont ici des champs scalaires qui
dépendent des coordonnées de l’espace, bien que cela soit omis dans la notation.

Par différentiation du problème dont V est solution par rapport à σ, le champ δV est solution
du problème suivant :

∇ ⋅ (σ ∇δ V ) = −∇ ⋅ (δσ ∇V ) dans Ω (4.25)

124
σ ∇δ V ⋅ n = −δσ ∇V ⋅ n sur ΓN (4.26)

δV = 0 sur ΓD (4.27)

La minimisation de la fonction objectif implique la différenciation explicite de la fonction E


par rapport au champ σ, avec les inconvénients que nous avons vus précédemment (lourdeur
du calcul). La technique de l’état adjoint va nous permettre d’obtenir cette différenciation sans
le recours à un calcul explicite en transformant l’écriture :

∂f
δ E = ∫ γ δV dΩ en δE = ∫ δσ d Ω
Ω Ω
∂σ

Notons au départ que

∂f
δE = ∫ δV dΩ = ∫ γ δV dΩ (4.28)

∂V Ω

∂f
avec γ = . (4.29)
∂V

L’état adjoint du champ scalaire V est le champ scalaire U, solution du problème :

∇ ⋅ ( σ ∇U ) = γ dans Ω (4.30)

σ ∇U ⋅ n = 0 sur ΓN (4.31)

U =0 sur ΓD (4.32)

U est solution d’un problème classique de diffusion, avec une équation de Poisson sur le
même champ de conductivité σ, un terme de source volumique égal à γ et des conditions aux
limites sur les mêmes frontières de Dirichlet et Neumann que le champ V.

Nous avons alors, en utilisant successivement la technique de l’intégration par parties et le


théorème de Green-Ostrogradsky :

δ E = ∫ γ δ V d Ω = ∫ ∇ ⋅ ( σ ∇U ) δ V d Ω (4.33)
Ω Ω

δ E = ∫ ∇ ⋅ (δ V σ ∇U ) d Ω − ∫ σ ∇U ⋅∇δ V d Ω (4.34)
Ω Ω

δ E = ∫ δ V σ ∇U ⋅ n d Γ − ∫ σ ∇U ⋅∇δ V d Ω (4.35)
Γ Ω

125
l’intégrale sur Γ=ΓD ∪ ΓN s’annule car δV = 0 sur ΓD et σ ∇U ⋅ n = 0 sur ΓN (conditions aux
limites 4.27 et 4.31).

Alors :

δ E = − ∫ σ ∇U ⋅∇δ V d Ω (4.36)

en appliquant à nouveau les mêmes techniques, nous obtenons :

δ E = − ∫ ∇ ⋅ (U σ ∇δ V ) d Ω + ∫ U ∇ ⋅ (σ ∇δ V ) d Ω (4.37)
Ω Ω

δ E = − ∫ U σ ∇δ V ⋅ n d Γ − ∫ U ∇ ⋅ (δσ ∇V ) d Ω (4.38)
Γ Ω

en utilisant ∇ ⋅ (σ ∇δ V ) = −∇ ⋅ (δσ ∇V ) dans Ω (4.25), puis encore les mêmes techniques :

δ E = − ∫ U σ ∇δ V ⋅ n d Γ − ∫ ∇ ⋅ (U δσ ∇V ) d Ω + ∫ δσ ∇V ⋅∇U d Ω (4.39)
Γ Ω Ω

δ E = − ∫ U (σ ∇δ V + δσ ∇V ) ⋅ n d Γ + ∫ ∇U ⋅∇V δσ d Ω (4.40)
Γ Ω

et comme σ ∇δ V ⋅ n = −δσ ∇V ⋅ n sur ΓN (4.26) et U = 0 sur ΓD (4.32) nous obtenons :

∂f
δ E = ∫ ∇U ⋅∇V δσ d Ω = ∫ δσ d Ω (4.41)
Ω Ω
∂σ

∂f
avec = ∇U ⋅∇V (4.42)
∂σ

L’état adjoint U peut donc être calculé (par MEF notamment) de la même manière que V,
mais en considérant les conditions aux limites et les termes sources qui lui sont propres
(données par la définition de l’état adjoint).

Résumé : La méthode de l’état adjoint


L’utilisation d’un algorithme de résolution non-linéaire implique la différenciation de la
fonction objectif par rapport au champ de conductivité. La technique de l’état adjoint va
nous permettre d’obtenir cette différentielle sans un recours à un calcul explicite
numérique, par différences finies par exemple. Le champ adjoint ainsi créé possède sa
propre équation locale et son propre terme de source, ainsi qu’une série de conditions
aux limites. Le gradient de la fonction objectif s’obtient par la simple évaluation de deux
champs (équation 4.42).

126
IV.6 LA FONCTIONNELLE ET SON GRADIENT

IV.6.1 Problématique

L’algorithme d’inversion doit être capable de traiter des jeux de données contenant un très
grand nombre de mesures, souvent plusieurs milliers, sur des modèles à géométrie complexe
présentant de nombreux paramètres inconnus. Les méthodes de minimisation traditionnelles,
de type Gauss-Newton par exemple, où le calcul numérique de la matrice jacobienne doit être
envisagé, sont impraticables. Il est donc souhaitable que l’algorithme utilisé évite le stockage
et l’inversion de matrices de grandes tailles et limite au maximum le nombre de problèmes
directs à résoudre durant le processus itératif. Il est également souhaitable que cet algorithme
présente une certaine robustesse et une certaine polyvalence en ne nécessitant pas de réglages
délicats pour obtenir un résultat satisfaisant. En effet, dans les algorithmes de type Gauss-
Newton, nous devons généralement adapter certains éléments de la formulation servant à la
stabilisation du calcul, tels que le facteur d’amortissement (inversion de type Maquardt-
Levenberg) ou encore les matrices de lissage (Sasaki, 1994), en fonction de la distance entre
les cellules du modèle et les électrodes ou en fonction de l’agencement des cellules du modèle
par exemple (Loke and Barker, 1996a). La géométrie complexe de nos modèles et
l’agencement quelconque des électrodes ne permettra pas de définir, a priori et de manière
standard, des réglages de ce type.

Les dispositifs non-conventionnels qui seront utilisés pour imager l’intérieur de structures à
géométries complexes présenteront des propriétés (résolution, profondeur d’investigation)
difficiles à appréhender par le géophysicien. Nous pouvons donc supposer que l’information
collectée durant le processus d’acquisition ne sera pas optimale et que le problème inverse
sera mal posé. L’utilisation d’informations a priori et de contraintes sera alors capitale lors de
la résolution du problème inverse, afin de limiter au maximum la dimension de l’espace des
modèles possibles. Dans cette approche du problème inverse, l’utilisateur construira un certain
modèle sur la base d’informations a priori disponibles puis cherchera à tester et
éventuellement modifier ce modèle par le biais de l’algorithme d’inversion. L’influence des
données permettra alors de transformer certaines parties du modèle a priori.

IV.6.2 Choix de la fonction objectif E

Dans tout problème d’optimisation, il est nécessaire de définir une expression de la fonction à
minimiser E, qui peut être :

E = ERMS + Eref (4.43)

127
avec, dans le cas du problème électrique :

ERMS une fonction minimisant la norme L2 de la différence entre les résistivités apparentes
calculées et les résistivités apparentes mesurées. La fonction ERMS est la somme des fonctions
ERMSi des S couples sources.

S
ERMS = ∑ ERMS
i
(4.44)
i =1

Eref une fonction minimisant la norme L2 de la différence entre les résistivités du modèle
calculées et les résistivités imposées d’un modèle de référence.

Pour la résolution du problème inverse, il est en général nécessaire de pondérer les données au
moyen d’une fonction permettant de considérer des variations significatives de la résistivité et
de tenir compte de la grande variabilité de ce paramètre dans la nature. La fonction logarithme
est couramment utilisée dans ce but. En effet, en considérant les résistivités apparentes
directement, nous introduirions un déséquilibre entre les valeurs de résistivités apparentes
extrêmes, les fortes valeurs étant rendues artificiellement plus influentes.

Bien que les mesures expérimentales soient généralement exprimées en résistivités


apparentes, toutes les fonctionnelles et fonctions seront par la suite exprimées en fonction du
champ de conductivité afin d’appliquer plus aisément la technique de l’état adjoint.

IV.6.2.1 Utilisation du logarithme des résistivités apparentes

L’utilisation d’une fonction logarithme pour pondérer les données est fréquente (Pelton et al.,
1978 ; Tripp et al., 1984 ; Pous et al., 1987 ; Sasaki, 1992 et 1994 ; Morelli and LaBrecque,
1996 ; LaBrecque et al.,1996 ou encore Loke, 2000). Comme nous pouvons le supposer, ce
type de paramétrage est très efficace pour des données dont les valeurs sont supérieures à 1.
L’effet bénéfique de la fonction logarithme disparaît toutefois pour les valeurs inférieures à 1
et cette fonction empêche l’inversion de données nulles ou négatives. Ce phénomène n’est en
général pas gênant lors de mesures en surface avec des dispositifs conventionnels. Dans ce
cas, il est en effet possible de s’assurer du signe positif de la résistivité apparente mesurée en
exerçant un contrôle du signe du facteur géométrique ainsi que de la forme globale du champ
de potentiel primaire. En surface, une résistivité apparente négative peut subvenir si le champ
de potentiel secondaire est très fort, ce qui est rarement le cas. Par contre, dans le cas de
mesures sur des structures 3D complexes avec des dispositifs non-conventionnels
(tomographie avec des électrodes autour de la structure ou en forage par exemple), la
résistivité apparente mesurée peut très bien être nulle ou négative, car le champ de potentiel
secondaire ou le facteur géométrique peuvent fréquemment être de signes opposés.

128
Les expressions détaillées de ces fonctions sont les suivantes, en considérant r et r’ les points
du domaine spatial Ω à 3 dimensions :

2
1 1  Acalc
i
(r, r′) i
Ames (r, r′)  i
= ∫∫ −  Φ ( r , r ′ ) dr d r ′
i
E  ln ln (4.45)
2 v (r, r′)  A0 (r, r′) A0 (r, r′) 
RMS i i i
ΩΩ

2
1  Acalc (r, r′)  i
i
1
= ∫∫  Φ ( r, r′ ) dr dr′
i
E  ln i (4.46)
RMS
ΩΩ
2 v i
(r , r ′)  Ames (r , r ′) 

avec

i
Acalc (r, r′) la fonction continue et dérivable de la différence de potentiel calculée sur le
modèle entre les points r et r’ du domaine Ω ;
A0i (r, r′) la fonction continue et dérivable de la différence de potentiel calculée sur un modèle
homogène de résistivité unitaire entre les points r et r’ du domaine Ω ;
i
Ames (r, r′) la fonction continue et dérivable des différences de potentiel mesurées sur le
terrain entre les points r et r’ du domaine Ω. Dans la pratique, la fonction Ames
i
(r, r′) n’est pas
connue partout car l’échantillonnage des points de mesure sur le terrain est forcément discret.
Φi (r, r′) une fonction de pondération (pouvant être constituée de Diracs en un certain nombre
de points de mesures).
v i (r, r′) la variance sur les mesures du logarithme de la résistivité apparente (qui n’est pas
notée σ2 afin d’éviter toute confusion avec la conductivité).

Il est intéressant de relever que l’utilisation du logarithme de la résistivité simplifie le


problème. Nous pouvons en effet nous affranchir du calcul de la différence de potentiel sur un
terrain homogène de résistivité unitaire durant le processus d’inversion. De plus, le calcul de
la résistivité apparente par normalisation améliore sensiblement la précision de
l’approximation EF du champ de potentiel. Cette approche doit donc être préférée à
l’utilisation du facteur géométrique.

L’expression ERMS devient alors

2  V (σ ; r ) − V (σ ; r ′) 
i i
1 1
i
ERMS = ∫∫ ln  i  Φ (r, r′) dr dr′
i
(4.47)
ΩΩ
i

2 v (r, r ) i

 Vmes (r ) − Vmes (r ) 

i
avec Acalc (r, r′) = V i (σ ; r ) − V i (σ ; r′)
i
L’expression Vmes (r ) − Vmes
i
(r′) ne dépend pas du champ σ. Nous pouvons donc continuer à la
i
noter Ames (r, r′) .

129
Rappelons que i représente la dépendance de la mesure du potentiel aux sources d’injection de
courant.

La fonction minimisant la norme L2 de la différence entre le logarithme du champ des


résistivités calculées et le logarithme du champ des résistivités imposées d’un modèle de
référence vaut quant à elle :

2
1  1 1 
Eref = ∫ Λ g  ln − ln  dΩ . (4.48)
2  σ σ ref
Ω  

Cette fonction représente la contrainte par région sur le modèle de référence et Λg une
fonction réglant la contrainte sur le modèle de référence par région ou par groupe (notion vue
lors de la description de CESAR-LCPC, Chapitre III). Là encore, l’utilisation du logarithme
des champs de résistivité évite les effets indésirables causés par la large gamme de variation
de ce paramètre dans la nature. L’utilisation du logarithme nous évite également d’imposer la
positivité de la conductivité.

Nous ne considérons pas ici de contrainte de lissage sur la solution (ou sur le vecteur de
modification des résistivités) car elles ne nous semblent pas indispensables dans un premier
temps. En effet, beaucoup de cibles que nous désirons imager présentent des limites franches
avec l’encaissant, ce qui est en contradiction avec l’utilisation d’un lissage (Loke et al., 2001).
De plus, la sous-détermination du problème ne présente pas de difficulté de stabilité
numérique. Une telle sous-détermination provoquerait par contre la singularité du jacobien
dans la formulation de Gauss-Newton notamment.

Différenciation de la fonction objectif par rapport au champ de conductivité

Soit δσ une petite variation du champ σ. Nous souhaitons évaluer δE pour cette variation de
δσ, soit :

δ E = δ ERMS + δ Eref (4.49)

Pour la fonction de la contrainte par région sur le modèle de référence, cela ne pose pas de
problème et le recours à l’état adjoint est inutile :

2
1  1 1 
Si nous posons f ref = Λ g  ln − ln  (4.50)
2  σ σ ref
 

alors

∂f ref  1   σ ref 
δ Eref = ∫ δσ d Ω = ∫ Λ g  −   ln  δσ d Ω (4.51)

∂σ Ω  σ  σ 

130

∂f ref  1   σ ref 
= Λ g  −   ln  (4.52)
∂σ  σ  σ 

Pour appliquer ici la technique de l’état adjoint à la minimisation par moindres carrés
traditionnelle, il faut auparavant transformer la double intégrale sur le domaine Ω en une
intégrale simple sur Ω.

Dans un premier temps, nous pouvons différencier la fonction ERMSi d’un couple source i par
rapport à V :

1  V i (σ ; r ) − V i (σ ; r′)   δ V i (σ ; r ) − δ V i (σ ; r′)  i
δ ERMS = ∫∫  Φ ( r , r ′ ) dr d r ′
i
ln   i
ΩΩ
v i
(r , r ′) 
 A i
mes (r , r ′) 
  V (σ ; r ) − V i
(σ ; r ′) 
(4.53)

Cette expression se décompose en une différence de deux intégrales doubles :

1 1  V i (σ ; r ) − V i (σ ; r′) 
δE = ∫∫ i  δ V (σ ; r ) Φ ( r, r′ ) dr dr′
i i i
ln 
v (r, r′) V (σ ; r ) − V (σ ; r′)  Ames (r, r′)
RMS i i i
ΩΩ 

1 1  V i (σ ; r ) − V i (σ ; r′) 
−∫ ∫ i  δ V (σ ; r′) Φ ( r, r′ ) dr dr′
i i
ln 
ΩΩ
v (r, r′) V (σ ; r ) − V (σ ; r′) 
i i
Ames (r, r′)
i

(4.54)

 1 1  V i (σ ; r ) − V i (σ ; r′)  i 
δ ERMS = ∫ δ V i (σ ; r )  ∫  Φ ( r , r ′ ) dr ′  d r
i
ln 
Ω v (r, r ) V (σ ; r ) − V (σ ; r ) 
i
′ i i
′ Ames (r, r′)
i

Ω 
 1 1  V i (σ ; r ) − V i (σ ; r′)  i 
− ∫ δ V i (σ ; r ′)  ∫ i ln   Φ ( r , r ′ ) d r  dr ′
Ω v (r, r′) V (σ ; r ) − V (σ ; r′)  (r, r′)
i i i

Ames  
(4.55)

soit :

δ ERMS
i
= ∫ Li (σ ; r) δ V i (σ ; r) dr − ∫ Pi (σ ; r′) δ V i (σ ; r′) dr′ (4.56)
Ω Ω

avec

131
1 1  V i (σ ; r ) − V i (σ ; r′)  i
Li (σ ; r ) = ∫ ln   Φ ( r , r ′ ) dr ′

vi (r, r′) V i (σ ; r ) − V i (σ ; r′) 
i
Ames (r, r′) 
(4.57)

1 1  V i (σ ; r ) − V i (σ ; r′)  i
P (σ ; r′) = ∫  Φ ( r , r ′ ) dr
i
ln 

v i
(r , r ′) V i
(σ ; r ) − V i
(σ ; r ′)  A i
mes (r , r ′) 
(4.58)

En se plaçant au même point r∈Ω et en prenant une même variable d’intégration muette r’,
les expressions précédentes deviennent :

1 1  V i (σ ; r ) − V i (σ ; r′)  i
Li (σ ; r ) = ∫ ln   Φ ( r , r ′ ) dr ′

v i
(r , r ′) V i
(σ ; r ) − V i
(σ ; r ′) 
 A i
mes (r , r ′) 

(4.59)

1 1  V i (σ ; r′) − V i (σ ; r )  i
P i (σ ; r ) = ∫ ln   Φ ( r′, r ) dr′

v i (r′, r ) V i (σ ; r′) − V i (σ ; r )  i
Ames (r′, r ) 
(4.60)

et alors

δ ERMS
i
= ∫ [ L(σ ; r ) − P (σ ; r )] δ V i (σ ; r ) dr (4.61)

δ ERMS = ∫ γ RMS (σ ; r ) δ V i (σ ; r ) dΩ
i i
(4.62)

où on a changé la notation dr en dΩ,

avec γ RMS
i
(σ ; r ) = Li (σ ; r ) − P i (σ ; r ) le terme source de l’état adjoint.

Il est donc possible de calculer la différentielle de la fonction objectif E par rapport au champ
σ. Nous obtenons alors, pour un couple source :

∂f RMS
i
= ∇U i (σ ; r ) ⋅ ∇V i (σ ; r ) (4.63)
∂σ

et nous pouvons noter :

∂f RMS ∂f ref ∂f
δ E = δ ERMS + δ Eref = ∫ δσ d Ω + ∫ δσ d Ω = ∫ δσ d Ω (4.64)
Ω ∂σ Ω ∂σ Ω ∂σ

avec :

132
∂f RMS S
∂f i
= ∑ RMS (4.65)
∂σ i =1 ∂σ

et
S
δ ERMS = ∑ δ ERMS
i
(4.66)
i =1

Dans le cas de mesures en résistivité, nous posons :


1
σ = e− m avec m = ln ρ = ln alors δσ = −σ δ m = −e − m δ m
σ

avec e le nombre népérien.

Expression des termes de source de l’état adjoint

Il est maintenant nécessaire d’expliciter le terme source de l’état adjoint. Soit le premier terme
de δEiRMS :

1 1  V i (σ ; r ) − V i (σ ; r′)  i
L (σ ; r ) = ∫ i  Φ ( r , r ′ ) dr ′
i
ln 

v (r , r ′) V i
(σ ; r ) − V i
(σ ; r ′)  A i
mes (r , r ′) 
(4.67)

Pour représenter nos mesures discrètes en des points définis de Ω nous exprimons Φi sous la
forme :

mi
(
Φ i ( r, r′ ) = ∑ δ M ij − r δ N ij − r′ ) ( ) (4.68)
j =1

avec mi le nombre de couples de mesure pour le couple source i.

Mij et Nij étant le jème couple d’électrodes de mesure considéré pour le couple d’électrodes
d’injection i.

mi
1 δ N ij − r′ ( )
 V i (σ ; r ) − V i (σ ; r′) 
i
(
L (σ ; r ) = ∑ δ M − r ∫ i i
)
v (r, r′) V i (σ ; r ) − V i (σ ; r′)
j ln  i
Ames (r, r′)
 dr ′
j =1 Ω  
(4.69)

L’intégrale sur Ω peut alors être directement évaluée :

mi
1 1  V i (σ ; r ) − V i (σ ; N ij ) 
(
Li (σ ; r ) = ∑ δ M ij − r ) vi (r, N ij ) V i (σ ; r ) − V i (σ ; N ij )
ln  i
Ames (r, N ij )

j =1  
(4.70)

133
soit :

mi
Li (σ ; r ) = ∑ ℑij (σ ; r ) δ M ij − r ( ) (4.71)
j =1

Le terme Li (σ ; r ) représente alors la somme des sources localisées aux points Mij et
d’intensités ℑij.

De même pour le second terme de δ ERMS


i
:

1 1  V i (σ ; r′) − V i (σ ; r )  i
P i (σ ; r ) = ∫ ln   Φ ( r′, r ) dr′

v i (r′, r ) V i (σ ; r′) − V i (σ ; r )  i
Ames (r′, r ) 
(4.72)

avec :

mi
Φ i ( r′, r ) = ∑δ ( M
j =1
i
j ) (
− r′ δ N ij − r ) (4.73)

mi
1 δ M ij − r′ ( )
 V i (σ ; r′) − V i (σ ; r ) 
P (σ ; r ) = ∑ δ N − r ∫ i
i
( i
)
v (r′, r ) V i (σ ; r′) − V i (σ ; r )
j ln  i
Ames (r′, r )
 dr ′
j =1 Ω  
(4.74)

ce qui donne, en intégrant sur Ω :

mi
1 1  V i (σ ; M ij ) − V i (σ ; r ) 
P i (σ ; r ) = ∑ δ N ij − r ( ) v i ( M ij , r ) V i (σ ; M ij ) − V i (σ ; r )
ln  i
Ames ( M ij , r )

j =1  
(4.75)

soit :

mi
P (σ ; r ) = ∑ ℜij (σ ; r ) δ N ij − r
i
( ) (4.76)
j =1

Le terme P i (σ ; r ) représente alors la somme des sources localisées aux points Nij et
d’intensités -ℜij.

Le terme de source γ RMS


i
de l’état adjoint Ui correspondant au cas de charge i devient donc :

134
mi
γ RMS
i
(σ ; r ) = ∑ ℑ (σ ; r) δ ( M
j =1
i
j
i
j ) (
− r − ℜij (σ ; r ) δ N ij − r ) (4.77)

Il est maintenant intéressant de faire un parallèle entre la signification concrète des champs V
et U : Pour une position de couple source i, un champ de potentiel Vi est créé, le courant étant
injecté par un couple d’électrodes Ai (intensité +q) et Bi (intensité -q). Nous pouvons
remarquer que la méthode de l’état adjoint reste valable quel que soit le nombre, le signe ou la
forme des sources (ponctuelles, linéiques, planes). Nous mesurons le potentiel Vi à différents
emplacements dans l’espace Ω à l’aide des électrodes Mij et Nij. Il y a mi couples de mesure.
Dans le cas du champ adjoint Ui, tout se passe comme si nous avions des sources d’intensité
ℑij aux différentes positions Mij et des sources d’intensité -ℜij aux différentes positions Nij. Le
champ Ui est alors calculé sur la totalité de l’espace Ω (dans le cas d’un problème résolu par
MEF, dans chaque élément). Nous pouvons encore remarquer que pour le calcul du gradient
de la fonction objectif E nous n’utilisons pas directement le champ U mais son gradient ∇U.

IV.6.2.2 Utilisation directe des résistivités apparentes

Bien qu’il ne soit pas conseillé d’utiliser la valeur des résistivités directement, sans le
logarithme, nous donnons ici l’expression de la fonction objectif ainsi que du terme source de
l’état adjoint que l’on obtient dans ce cas :

2
1 1  Acalc
i
(r, r′) Ames
i
(r, r′)  i
= ∫∫ −  Φ ( r , r ′ ) dr dr ′
i
E  (4.78)
2 v (r, r′)  A0 (r, r′) A0 (r, r′) 
RMS i i i
ΩΩ

Dans le cas présent, v i (r, r′) est la variance sur les mesures de la résistivité apparente
directement et non plus sur leurs logarithmes.

Le terme source de l’état adjoint peut s’obtenir de la même manière que précédemment :

1  V i (σ ; r ) − V i (σ ; r′) Ames
i
(r, r′)  1
Li (σ ; r ) = ∫  −  i Φ i ( r , r ′ ) dr ′

v (r, r′)
i
 A0 (r, r′)
i
A0 (r, r′)  A0 (r, r′)
i

(4.79)

1  V i (σ ; r′) − V i (σ ; r ) Ames
i
(r′, r )  1
P i (σ ; r ) = ∫  −  i Φ i ( r′, r ) dr′

v (r′, r )
i

i

A0 (r , r ) i
′ ′
A0 (r , r )  A0 (r , r )
(4.80)

En décomposant la fonction Φi qui permet de localiser les points de mesure (correspondants


au couple source i), nous obtenons à nouveau une expression de la forme :

135
δ ERMS = ∫ γ RMS (σ ; r ) δ V i (σ ; r ) dΩ
i i
(4.81)

avec

mi
γ RMS
i
(σ ; r ) = ∑ ℑ (σ ; r) δ ( M
j =1
i
j
i
j ) ( )
− r − ℜij (σ ; r ) δ N ij − r  (4.82)

où les intensités ℑij et -ℜij des sources de l’état adjoint Ui sont définies suivant les expressions
(4.79) et (4.80).

IV.7 LE MODULE D’INVERSION INVS

Un code de calcul a été créé dans le but de permettre l’inversion de données électriques par
courant continu. A la différence du programme utilitaire TOMELE utilisé pour la
modélisation directe, le module d’exécution INVS (pour INVersion électroStatique) est conçu
comme un module d’exécution de CESAR-LCPC (Marescot et al., 2003e ; Marescot et al.,
2004) . Il doit donc être appelé par mot clef dans le jeu de données créé par le préprocesseur
MAX3D pour le solveur CESAR. Sous ce mot clef sont regroupés toute une série de
paramètres pour l’inversion ainsi que les données de potentiel mesurées. Une description
détaillée du module ainsi que du jeu de données à créer se trouve dans l’Annexe Technique en
fin de travail.

IV.7.1 Aspect général du module d’exécution INVS

Nous décrivons ici brièvement la structure générale du module d’exécution INVS. Le module
d’exécution INVS suit l’architecture de tous les modules d’exécution de CESAR-LCPC. Nous
distinguons donc tout d’abord un premier sous-programme (BLINVS) pour la préparation des
tableaux et la réservation de l’espace mémoire, puis le sous programme d’exécution
(EXINVS) pour l’inversion proprement dite. Finalement, deux sous-programmes sont
également présents à la fin du code pour la résolution numérique du problème.

Le sous-programme EXINVS effectue tout d’abord le lecture des données dans le jeu de
données destiné au solveur CESAR. Nous trouvons entre autres dans ce jeu de données les
informations suivantes :

! Les coordonnées cartésiennes des électrodes


! Les différences de potentiel mesurées et les erreurs associées
! La valeur du modèle de départ par groupe

136
! La valeur du modèle de référence par groupe
! La contrainte (poids) du modèle de référence par groupe
! Les limites supérieure et inférieure pour la conductivité du modèle
! Le nombre maximum d’itérations
! La valeur maximum désirée pour la fonction objectif E
! Le taux de variation minimal entre deux valeurs consécutives de E pour admettre une
convergence
! Le type de fonction objectif à utiliser (logarithme des résistivités apparentes ou
résistivités apparentes directement)

L’inversion se déroule de la manière suivante. Un premier calcul est effectué sur un modèle
homogène de résistivité unité pour le calcul des résistivités apparentes. Les différences de
potentiel ainsi calculées serviront à l’évaluation des résistivités apparentes. Nous initialisons
ensuite le modèle en utilisant les résistivités données par groupes pour le modèle de départ
puis nous résolvons une première fois le problème direct pour le calcul du champ de potentiel
V et de l’état adjoint U. Le gradient de la fonction objectif ainsi obtenu est utilisé pour mettre
à jour le modèle de départ selon une MPGP.

Le processus itératif commence ensuite et le modèle est progressivement mis à jour selon la
méthode des gradients conjugués. Pour chaque itération, deux résolutions du problème direct
sont nécessaires pour le calcul de la mise à jour du modèle (nous considérons à chaque fois
une résolution pour le champ V et une résolution pour le champ U pour chaque couple
source). Nous répétons ensuite cette opération jusqu’à ce qu’un des critères d’arrêt de
l’inversion soit rempli. Ces critères d’arrêt sont développés plus loin.

IV.7.2 Le gradient de la fonction objectif

Le module d’exécution INVS permet donc l’évaluation rapide du gradient de la fonction


objectif E pour un modèle donné. Comme nous allons le voir, la forme de ce gradient
conditionne certains choix lors de la mise au point d’un algorithme d’inversion.

Il est intéressant de faire un parallèle entre le gradient de E et la fonction de sensibilité pour


un seul quadripôle (figure 4.2). Une mesure est simulée sur un modèle homogène de
conductivité 1 S/m, puis le gradient de E est calculé en utilisant un modèle de départ de
0.01 S/m (plus résistant). Comme le montre la figure 4.2, la forme du gradient de E est
comparable à la fonction de sensibilité, avec des zones positives et des zones négatives. Ceci
est parfaitement normal de par la structure mathématique très similaire de ces deux fonctions
(voir équation 2.4). Dans notre cas, les cellules situées dans une zone négative verront leur
conductivité augmenter lors d’une correction et inversement pour une zone positive. Comme
le processus inverse doit augmenter la conductivité du modèle afin de diminuer l’erreur, les
composantes du gradient de la fonction objective sont globalement négatives. Elles sont en

137
particulier fortement négatives entre M et N. Une variation de la conductivité dans l’autre sens
aurait fait apparaître des composantes du gradient globalement positives pour le modèle.

Figure 4.2 : Composantes du gradient de la fonction objectif dans chaque cellule pour quatre électrodes.

Nous pouvons également remarquer que, comme dans le cas de la fonction de sensibilité, les
composantes du gradient de E sont très fortes à proximité des électrodes. Les paramètres du
modèle dans ces régions auront alors une influence prédominante sur la correction apportée au
modèle. Ces fortes modifications peuvent créer des cas d’équivalence en créant des structures
présentant de forts contrastes de résistivité à proximité des électrodes pour expliquer des
variations plus éloignées dans le modèle. Nous pouvons limiter cet effet en définissant une
résistivité moyenne pour le modèle de départ dans les cellules du modèle proches des
électrodes (en utilisant les résistivités mesurées par les plus petits dispositifs par exemple). Il
s’agira ensuite de diminuer l’influence de ces cellules en limitant les composantes du vecteur
de modification dans ces régions (Zhang et al., 1995).

A proximité des frontières à potentiel imposé (conditions aux limites de Dirichlet), nous
pouvons noter que des composantes aberrantes (très élevées) du gradient de E peuvent être
parfois obtenues. L’apparition de telles valeurs aberrantes n’est pas systématique pour tous les
éléments des frontières. Elle est plus fréquente pour les éléments présentant une forte
distorsion. Cela peut s’expliquer par l’instabilité sur les bords des variables dérivées (∇V et
∇U) lorsqu'on impose des conditions aux limites inexactes (potentiel nul par exemple) sur les
variables primaires (V et U). Nous stabiliserons le processus d’inversion en mettant ces
valeurs de gradient à zéro. La conductivité des éléments concernés n’évolue donc pas au cours
du processus itératif ce qui n’est pas problématique, leur effet sur la mesure étant très faible.

138
IV.7.3 Choix d’une direction de descente : les gradients
conjugués

Nous revenons brièvement sur le choix de la méthode de descente. Ce module utilise la


méthode de l’état adjoint pour minimiser la fonction objectif E afin de définir une direction de
descente. Le gradient de la fonction objectif E correspond au vecteur h de dimension M. En
considérant une méthode de descente, nous pouvons alors noter :

m i +1 = m i − α i R i hi (4.83)

Cette méthode peut être alors utilisée dans un algorithme d’inversion à condition de pouvoir
évaluer le gradient de la fonction objectif par la méthode des éléments finis. Une résolution
numérique par différences finies étant trop coûteuse en temps, nous utilisons la formulation de
l’état adjoint. En effet, l’état adjoint permet le calcul du gradient h en limitant le nombre de
résolutions du problème direct.

Nous devons également choisir une matrice R en limitant les évaluations supplémentaires du
problème direct. En utilisant une matrice identité comme matrice définie positive, nous
obtenons la méthode de plus grande pente (MPGP). Le vecteur -I h est ainsi une direction de
descente :

m i +1 = m i − α i I hi (4.84)

Suivant la topographie de la surface définie par la fonction objectif, la méthode du gradient


peut s’avérer inadaptée (oscillations de la correction en direction du minimum). Ce
comportement se traduit par une diminution lente et monotone de la valeur de la fonction
objectif à proximité du minimum. Nous évitons en général ce type de comportement de
l’algorithme en posant, comme nous l’avons vu (IV.2.2), R=X-1, avec X-1 l’inverse de la
matrice hessienne (méthode de Gauss). Nous n’utiliserons cependant pas cette approche car
les dérivées secondes de la fonction objectif doivent être évaluées.

Dans l’algorithme proposé, nous utilisons une MPGP pour la première itération, cette
méthode étant toujours acceptable et robuste quel que soit le modèle de départ utilisé (R est
ainsi toujours définie positive, même pour un modèle éloigné de la réalité). Nous améliorons
ensuite la direction de descente en utilisant une méthode de gradients conjugués afin de
limiter les oscillations en direction du minimum (Polyak et Ribiere, 1969). Dans la méthode
des gradients conjugués, la direction de descente choisie est composée du gradient de la
fonction objectif pour le modèle courant, conjuguée aux directions de descente des itérations
précédentes.

139
L’algorithme de mise à jour de la direction de descente se décrit alors, avec i le numéro de
l’itération courante :

Choisir m1, un modèle de départ, et poser :

r1 = −h1 , p1 = r1

Choisir α pour minimiser la fonction objectif et poser :

m i +1 = m i + α i pi , r i +1 = −hi+1

avec

(r )
T
i +1
− ri r i +1
p i +1
=r i +1
+β p , β
i i i
= (4.85)
(r )
T
i
r i +1

En théorie, l’algorithme doit repartir depuis le début toutes les M itérations, avec M le nombre
de paramètres du modèle. Dans la pratique toutefois, le processus converge avant l’itération
M.

IV.7.4 Choix du pas d’ajustement des paramètres

Idéalement, le choix du pas d’ajustement dans l’espace des paramètres consiste à calculer une
valeur de α minimisant la fonction objectif à l’itération suivante E(mi+dmi). Ce problème
d’optimisation à une variable peut être résolu par un grand nombre d’algorithmes différents
(Press et al., 1992). Les algorithmes de la section d’or (ou Golden Section) ou de Fibonacci
sont très fréquemment utilisés en optimisation. Ces méthodes effectuent une recherche d’un
minimum par dichotomie. Des algorithmes de recherche linéaire (en utilisant par exemple les
conditions d’Armijo-Goldstein) peuvent également être utilisés. Toutes ces méthodes exigent
un nombre conséquent d’évaluations de E (et donc de résolutions du problème direct) pour
atteindre un minimum. Ce type d’approche semble donc peu adapté à notre problème.

Dans le module d’exécution INVS, l’utilisateur sélectionne la taille du pas utilisé lors de la
première itération et utilise ce pas constant pour toutes les itérations. A chaque itération, un
contrôle est effectué sur la valeur de la fonction objectif. Si cette valeur est supérieure à la
valeur de l’itération précédente, nous recommençons l’itération courante avec un pas diminué
d’un facteur deux. Cette technique est très robuste mais nécessite toutefois un nombre
important d’itérations pour atteindre un minimum, le pas n’étant pas optimal.

140
IV.7.5 Contraintes et information a priori

Le module d’exécution INVS a été conçu de telle façon à laisser un maximum de liberté à
l’utilisateur : dans ce module, un modèle de départ ainsi qu’un modèle de référence peuvent
être utilisés. Nous disposons en effet fréquemment d’information a priori pour les applications
concernées par ce travail (forages en géotechnique par exemple). Ces modèles peuvent être
homogènes ou hétérogènes, c’est-à-dire composés de groupes de géométries et de résistivités
variables en fonction de l’information a priori disponible. Un poids par groupe peut être
donné pour le modèle de référence. De cette manière, nous pouvons définir un certain degré
de certitude pour l’information a priori utilisée et lorsque ce poids est fort, l’algorithme aura
tendance à ne pas trop s’éloigner du modèle de référence. Lorsque ce poids est nul, la
contrainte sur le modèle de référence ne s’applique pas et la fonction objectif a simplement la
forme d’un ajustement par moindres carrés sur les données. Il est également possible de
relâcher la contrainte sur le modèle de référence au cours de l’inversion afin d’orienter la
direction de minimisation au début du processus uniquement, à un moment où l’information a
priori est cruciale. La moyenne des résistivités apparentes peut être utilisée comme modèle de
référence homogène dans le cas où aucune autre information a priori n’existe. Dans ce cas, la
reconstruction obtenue ne s’éloignera pas trop de cette valeur de référence.

Nous n’utilisons pas de lissage limitant les variations de résistivité entre deux cellules
adjacentes dans cette version de notre algorithme. Un lissage des paramètres du modèle est
généralement appliqué afin de réduire le domaine d’équivalence de la solution. Le modèle
référence peut également être utilisé à cette fin dans notre algorithme d’inversion. De plus,
comme nous l’avons dit précédemment, un lissage ne nous semble pas être la meilleure
contrainte à utiliser par rapport aux cibles que nous cherchons, ces dernières présentant
fréquemment des limites très franches (fissures dans la roche, délaminations dans le béton,
interface entre le sol et le substratum). Nous pouvons d’ailleurs voir dans Lesur et al. (1999)
que le lissage utilisé est en conflit avec la forme supposée des cibles recherchées. Des
réglages délicats ainsi que l’utilisation d’une fonction de pénalisation (favorisant une certaine
discontinuité de résistivité entre deux cellules adjacentes) doivent être utilisés pour améliorer
le résultat. Comme le relèvent les auteurs, cette fonction de pénalisation est une forte
contrainte supplémentaire sur le modèle qui nécessite de très bonnes informations a priori.
Son utilisation semble donc très délicate.

L’utilisateur peut également rentrer une valeur maximale et minimale pour la résistivité des
cellules du modèle. Lorsqu’une des cellules approche cette valeur limite, la composante du
vecteur de mise à jour de cette cellule est progressivement diminué. Cela permet de
contraindre le résultat de l’inversion et d’éviter l’apparition de résistivités aberrantes dans le
modèle. Nous ne fixons toutefois pas des limites rigides pour la conductivité du modèle. Il y a
plusieurs raisons à cela. Le fait de fixer de manière rigide la conductivité de certaines cellules

141
approchant les limites prédéfinies peut créer des instabilités dans le processus d’inversion. De
plus, la fiabilité de l’information a priori ne peut jamais être parfaitement garantie.

IV.7.6 Critères de convergence

Un ou plusieurs critères de convergence sont nécessaires afin de pouvoir vérifier si le modèle


obtenu explique bien les données et, le cas échéant, pouvoir mettre fin au processus
d’inversion. Loke and Barker (1996a) se basent sur le taux de variation de l’erreur RMS entre
deux itérations pour mettre fin au processus d’inversion dans le cas où la variance des données
est inconnue. Dans INVS, ce taux de variation est défini de la manière suivante :

E% i =
(E i −1
− Ei ) (4.86)
i
E

En général, nous mettons fin au processus d’inversion lorsque ce taux de variation est
inférieur à 5%. Cette valeur limite pour le taux de variation est couramment utilisée en
géophysique (Loke and Barker, 1996a).

Il est de même nécessaire de définir une valeur optimale pour la fonction objectif, tout en
tenant compte du bruit de mesure. En effet, si la valeur de la fonction objectif est très
supérieure à la valeur optimale, cela signifie en général que la variance des données est sous-
estimée ou encore que le processus itératif n’a pas été suffisamment prolongé. Dans ce cas,
nous risquons de manquer certaines structures importantes dans le modèle. Dans le cas où la
valeur de la fonction objectif est plus petite que la valeur optimale, cela peut signifier que le
modèle est ajusté aux données au delà du niveau de bruit. En théorie, les écarts de prédiction
aux données ne doivent pas être inférieurs aux erreurs de mesure. Cela peut également
signifier que la variance des données est surestimée. Cependant, il difficile d’évaluer
correctement la variance des données (Zhou et Dahlin, 2003) et donc, la valeur optimale pour
la fonction objectif.

Dans ce qui suit, nous déterminons la valeur optimale de la fonction objectif qui concerne
l’ajustement des données par moindres carrés (on ne considère pas la partie relative au modèle
de référence). Nous supposons ici que les erreurs suivent une distribution normale, ce qui
devrait être le cas pour une minimisation par moindres carrés.

La résistivité apparente bruitée peut s’écrire :

ρ a = ρ a* (1 + b randn ) = ρ a* (1 + τ ) (4.87)

avec ρa la résistivité apparente bruitée, ρa* la résistivité apparente non bruitée (a priori
inconnue, sauf dans le cas de modélisations numériques), b un niveau de bruit (par exemple

142
b=0.05 pour 5%) et randn une fonction donnant une valeur aléatoire suivant une distribution
normale de moyenne nulle et de variance (et d’écart type) unité.

Pour la fonction objectif utilisant le logarithme des données, nous pouvons écrire :

( )
ln ( ρ a ) = ln ρ a* + ln (1 + τ ) (4.88)

En supposant que τ est petit (bruit faible, en pratique inférieur à 20%, soit |τ| ≤ 0.2), nous
pouvons alors effectuer un développement limité et écrire :

ln (1 + τ ) ≈ τ (4.89)

donc

( )
ln ( ρ a ) ≈ ln ρ a* + τ (4.90)

En cherchant la variance v de cette expression nous obtenons :

( ( )) + v (τ ) = v (b randn )
v ( ln ( ρ a ) ) ≈ v ln ρ a* (4.91)

car la variance sur la solution exacte est nulle. Nous obtenons finalement :

v ( ln ( ρ a ) ) ≈ b v ( randn ) = b (4.92)

Nous voyons donc que la variance sur le logarithme des résistivités apparentes est une
constante dépendant du niveau de bruit choisi. Si ce niveau de bruit est le même pour toutes
les données, la valeur optimale de la fonction objectif vaut :

N
E* ≅ (b) (4.93)
2

avec N le nombre de données.

Cette estimation de la valeur optimale n’est toutefois valable que lorsque l’influence du
modèle de référence est nulle, lorsque nous ne cherchons qu’à ajuster les données calculées et
mesurées. Lors de l’utilisation d’un modèle de référence, la valeur optimale de la fonction est
supérieure à E*, sauf si le modèle final respecte exactement le modèle de référence (ce qui
n’est pas l’objectif de l’inversion).

Résumé : Le module d’inversion INVS


Le module d’inversion INVS est adapté au traitement des jeux de données contenant un
très grand nombre de mesures sur des modèles à géométrie complexe présentant de

143
nombreux paramètres inconnus. L’algorithme utilisé est donc robuste, évite le stockage
et l’inversion de matrices de grandes tailles et limite au maximum le nombre de
problèmes directs à résoudre durant le processus itératif. Il ne nécessite également
qu’un nombre minimum de réglages pour obtenir un résultat satisfaisant, les réglages
principaux étant la valeur du pas d’ajustement dans l’espace des paramètres et les
critères d’arrêt.

La fonction objectif choisie permet l’utilisation d’un modèle de référence par groupes
pour introduire de l’information a priori. L’utilisateur construit un modèle sur la base
d’informations disponibles puis cherche à modifier ce modèle par le biais de
l’algorithme d’inversion. L’influence des données permettra alors de transformer
certaines parties du modèle a priori.

Le gradient de la fonction objectif étant très fort à proximité des électrodes, les
paramètres du modèle dans ces régions auront une influence prédominante sur la
correction apportée au modèle. Ces fortes modifications peuvent alors créer des cas
d’équivalence. Nous pouvons limiter cet effet en diminuant l’influence des cellules
proches des électrodes.

La direction de descente est obtenue selon une méthode de plus grande pente pour la
première itération, puis, pour les itérations suivantes, par une méthode de gradients
conjugués afin de limiter les oscillations en direction du minimum. Dans la méthode des
gradients conjugués, la direction de descente choisie est composée du gradient de la
fonction objectif pour le modèle courant conjuguée aux directions de descente des
itérations précédentes. Dans la version actuelle de l’algorithme, le pas est choisi
constant.

Un des critères d’arrêt pour le processus d’inversion est le taux de variation de la


fonction objectif entre deux itérations successives. Dans le cas où le niveau de bruit peut
être estimé, il est également possible d’évaluer une valeur optimale pour la fonction
objectif.

144
CHAPITRE V

FIABILITE DES
RECONSTRUCTIONS

145
146
V.1 LA FIABILITE DES MODELES INVERSES

Lors d’une procédure de modélisation inverse, il est nécessaire de déterminer si les structures
modélisées sont exigées par les données ou sont des artefacts du processus d’inversion. Cette
étude est particulièrement utile lorsque le modèle présente de forts contrastes de résistivité
vers la surface (permafrost, cavités, dalles). Dans le cas d’un problème inverse linéaire, il est
courant d’évaluer une matrice de résolution des paramètres du modèle et des données (voir
par exemple Menke, 1989). Cette approche n’est toutefois qu’une approximation dans le cas
d’un problème inverse non-linéaire et nécessite de plus le calcul explicite de la matrice
jacobienne des dérivées partielles. Or notre procédure d’inversion ne calcule pas cette matrice.
Il est donc nécessaire de définir une autre approche dans notre cas.

Une autre solution à ce problème serait de discriminer les régions du modèle qui ont une
influence sur les données de celles dont l’influence est moindre. Cela revient en fait à
quantifier la profondeur d’investigation d’une étude électrique. Les approches les plus
traditionnelles calculent le signal maximum en profondeur (Roy and Apparao, 1971) ou la
profondeur médiane d’investigation (Edwards, 1977) pour un terrain homogène. Lorsque le
sous-sol présente de forts contrastes de résistivité, ces méthodes ne sont toutefois plus
applicables. De plus, pour des modèles tridimensionnels à géométries complexes, les solutions
analytiques permettant de définir des profondeurs d’investigations ne sont plus applicables.
Notre approche consiste alors à utiliser le calcul de l’indice DOI (Depth Of Investigation)
pour évaluer la profondeur en dessous de laquelle les données ne sont plus sensibles aux
paramètres physiques du sous-sol (Oldenburg and Li, 1999).

Dans cette partie du travail, nous présentons tout d’abord l’implémentation du calcul de
l’indice DOI en utilisant la formulation de Gauss-Newton. Il nous a en effet paru nécessaire
de tester tout d’abord l’applicabilité de cette méthode dans un algorithme très fréquemment
utilisé et qui soit très similaire à la formulation inverse de Oldenburg et Li (1999). Nous
serons ensuite à même d’en tirer quelques conclusions qui pourront nous être utiles pour
transposer le calcul de l’indice DOI dans le cadre de la formulation inverse développée dans
ce travail. On notera encore que pour des mesures sur des structures tridimensionnelles
complexes ou encore des mesures en forages, le terme d’indice DOI n’est peut-être pas idéal.
Nous proposons alors d’utiliser le terme de Region Of Investigation (ROI) qui est plus
général.

Résumé : La fiabilité des modèles inversés


Lors d’une procédure de modélisation inverse, il est nécessaire de déterminer si les
structures modélisées sont exigées par les données ou sont des artefacts du processus
d’inversion. Notre approche consiste alors à utiliser le calcul d’un indice ROI (Region Of
Investigation) pour évaluer la profondeur sous laquelle les données ne sont plus sensibles
aux paramètres physiques du sous-sol.

147
V.2 LA METHODE DE GAUSS-NEWTON ET L’INDICE ROI

Le programme RES2DINV est utilisé pour inverser les résistivités apparentes mesurées par
une méthode de Gauss-Newton avec la modification de Marquardt-Levenberg (Ellis and
Oldenburg, 1994a ; Loke and Barker, 1996a ; Farquharson and Oldenburg, 1998). Cette
formulation est identique à l’équation 4.20, avec toutefois l’adjonction de matrices de lissages
et l’utilisation d’un modèle de référence. Nous utilisons donc la formulation suivante :

(Y i
T
)
R d Yi + λk FR ∆m i = YiT R d ei − λk FR ( m i −1 − m 0 )
avec FR = α s R s + α x CTx R x Cx + α z CTz R z Cz (5.1)

où i est l’itération courante, ∆mi est la modification à apporter aux paramètres du modèle, mi-1
est le vecteur contenant le logarithme des résistivités du modèle, m0 est un modèle de
référence homogène, ei est le vecteur des différences entre les logarithmes des résistivités
apparentes mesurées et calculées. Rd, Rx, Rz et Rs sont des matrices de pondération. Cx et Cz
sont des matrices de lissage et αs, αx, αz et λk sont des facteurs d’amortissement. Yi est la
matrice jacobienne des dérivées partielles telle qu’elle a été définie plus haut. Le problème
direct est résolu par méthode EF et la topographie peut être prise en compte dans le modèle
par distorsion du maillage (Loke, 2000).

La méthode de calcul de l’indice ROI (indice DOI de Oldenburg and Li, 1999) effectue deux
inversions à partir du même jeu de données en utilisant différentes valeurs pour le modèle de
référence m0 dans l’équation (5.1). La valeur de l’indice ROI pour une cellule du modèle est
donnée par :

mA ( x, z ) − mB ( x, z )
RAB ( x, z ) = (5.2)
mA − mB

avec mA et mB les deux modèles de référence utilisés. La valeur de R va approcher 0 dans les
parties du modèle où les deux inversions reproduisent la même valeur de résistivité. La
résistivité des cellules est alors bien contrainte par les données. Dans les régions où les
données ne fournissent que peu d’information, R va approcher la valeur de 1 car la résistivité
de ces cellules sera similaire à la résistivité du modèle de référence. Ceci va particulièrement
se produire à grande profondeur ainsi que sur les côtés des profils. Afin de réduire l’effet du
choix du facteur αs ainsi que des résistivités initiales mA et mB, un indice normalisé a
également été proposé par Oldenburg et Li (1999) :

148
mA ( x, z ) − mB ( x, z )
R ( x, z ) = (5.3)
RM ( mA − mB )

avec RM la valeur maximale de l’indice ROI calculée avec l’équation (5.2) sur le modèle.

V.2.1 Optimisation du maillage et choix des paramètres

Le programme RES2DINV a été adapté au calcul de l’indice ROI. Pour des mesures en
surface, l’extension verticale du modèle 2D doit être tout d’abord prolongée à une profondeur
suffisante de façon à ce que les données mesurées contiennent très peu d’information
concernant la résistivité des cellules les plus profondes. La figure 5.1 montre l’agencement
des cellules du modèle que nous avons utilisé pour le calcul de l’indice ROI dans RES2DINV.
La position horizontale des points de données est placée au centre du quadripôle utilisé pour la
mesure alors que la position verticale est fixée par la profondeur médiane d’investigation
(Edwards, 1977). Nous avons utilisé la profondeur médiane d’investigation du plus grand
dispositif de mesure pour estimer la profondeur d’investigation maximale de la série de
mesures. Pour déterminer la profondeur optimale à accorder à nos maillages tout en
optimisant le temps de calcul, nous avons répété les calculs d’indice ROI en utilisant des
modèles où la profondeur maximale de la dernière couche variait de 2 à 5 fois la profondeur
d’investigation maximale. Nous avons constaté que les valeurs de ROI sont généralement
beaucoup plus grandes que 0.2 pour des profondeurs supérieures à 3 fois la profondeur
d’investigation maximale (Marescot et al. 2003b). Suivant Oldenburg et Li (1999), la valeur
de ROI augmente rapidement avec la profondeur pour des valeurs supérieures à 0.1. C’est
pourquoi nous avons choisi d’étendre la profondeur du maillage à 3.5 fois la profondeur
d’investigation maximale estimée. La figure 5.2 présente le type de modèle 2D étendu qui
peut être utilisé pour des mesures entre forages ou entre un forage et la surface. L’extension
latérale du modèle doit dans ce cas être également envisagée (Marescot and Loke, 2004).

La valeur du facteur αs, qui détermine le degré d’impact du modèle de référence sur le
processus d’inversion, a été fixée à 0.01 fois la valeur des facteurs d’amortissement αx et αz
(fixés à 1.0). De par la procédure de normalisation, la résistivité en bas des modèles étendus
peut ne pas atteindre la valeur de la résistivité du modèle de référence. Selon Oldenburg et Li,
il ne faut pas accorder trop d’importance aux détails des figures de ROI lorsque la valeur de
cet indice est supérieure à 0.1. La profondeur d’investigation est indiquée par la profondeur où
le gradient de l’indice ROI est important. Pour le calcul de l’indice ROI, il est nécessaire de
définir si le modèle perturbé doit être plus conducteur ou plus résistant que m0 et quel doit être
le facteur multiplicatif. Nous devons également décider si nous voulons faire la différence
entre m0 et un modèle plus résistant (ou plus conducteur) ou entre deux modèles
respectivement plus résistant et conducteur que m0. Nous avons utilisé des modèles perturbés
symétriquement avec une résistivité valant 0.1 et 10 fois la valeur de m0. En outre, nous avons
effectué des tests avec des valeurs extrêmes pour le facteur multiplicatif (jusqu’à 100). Les
figures de ROI qui en résultent se sont montrées très semblables, avec quelques variations qui

149
n’auraient pas eu de grandes conséquences sur l’interprétation. Cela s’explique en partie par
l’opération de normalisation de R.

Figure 5.1 : Modèle étendu pour des mesures en surface.

Figure 5.2 : Modèle étendu pour des mesures en forage.

150
V.2.2 Exemples préliminaires

Un exemple synthétique simple (Marescot and Loke, 2003) est illustré figure 5.3, où une
acquisition en dipôle-dipôle est simulée sur un modèle présentant une cavité (résistivité très
élevée, 200000 Ωm) dans un substratum plus conducteur (1000 Ωm). La figure 5.3 présente le
modèle inversé avec des profondeurs étendues ainsi que le profil de l’indice ROI (modèles
perturbés symétriquement avec une résistivité valant 0.1 et 10 fois la valeurs de
m0=1916 Ωm). L’augmentation rapide de l’indice ROI sur la droite du profil indique que la
profondeur d’investigation est plus faible à l’aplomb de la cavité (ROI≅1 à moins de 10 m de
profondeur). La profondeur d’investigation est plus importante sur la gauche du profil où la
résistivité est plus faible. Certains artefacts produits par l’inversion (probablement dus aux
contraintes de lissage et au fort contraste de résistivité) sont également mis en évidence par
l’indice ROI. L’utilisation de résistivités valant 0.01 et 100 fois la valeurs de m0 donne des
résultats très semblables.

Des couches très conductrices peuvent également diminuer de manière importante la


profondeur d’investigation d’une étude. L’exemple de la figure 5.4 a été mesuré sur une plage
au Danemark afin d’étudier la transition existant entre l’eau douce et l’eau salée dans le sous-
sol. Le profil est perpendiculaire au rivage et les électrodes 1 à 16 sont immergées. Comme le
montrent le résultat de l’inversion ainsi que la carte des indices ROI, aucune information
fiable ne peut être obtenue à grande profondeur sous la mer lorsque la flûte est immergée.

Dans l’exemple de la figure 5.5, une acquisition forage-surface a été effectuée sur un site test
vers l’Université de Lausanne. Le but d’une telle acquisition surface-forage est de tenter
d’augmenter notre connaissance du sous-sol loin de la surface ou du forage. Dans la région
étudiée, le substratum tertiaire, composé de marnes et de grès, est recouvert par environ 30 m
de sédiments quaternaires (argiles, sables et graviers). Lors des mesures, une paire
d’électrodes de courant et de potentiel est déplacée dans le forage alors qu’une autre paire
d’électrodes est déplacée en surface (figure 2.7d). De plus, des données de surface
uniquement ont également été collectées en utilisant un dispositif Wenner-Schlumberger. Au
total, 2543 points de mesure sont utilisés pour l’inversion. Le résultat de l’inversion ainsi que
la coupe de l’indice ROI sont montrés dans la figure 5.5. Le modèle de référence utilisé est un
demi-espace homogène de résistivité 36.4 Ωm. Le modèle inversé est en accord avec les
informations lithologiques dans les sédiments quaternaires jusqu’à une profondeur de 20 m
environ. Certaines structures, tels le niveau de la nappe ou encore le bloc de calcaire rencontré
dans le forage, peuvent être identifiés sur le profil. Toutefois, un certain nombre d’artefacts
peut également être observé sur le profil de l’indice ROI. On remarque également la rapide
décroissance de la résolution de l’étude loin du forage et de la surface, comportement en
accord avec les conclusions que nous avions tirées sur la fonction de sensibilité des dispositifs
surface-forage (Chapitre II). Cela semble indiquer de manière très explicite la forte limitation
d’utilisation de ce type de mise en œuvre (Leroux, 2000).

151
Figure 5.3 : Modèle synthétique d’une cavité et sa réponse électrique modélisée en dipôle-dipôle. Le résultat de
l’inversion ainsi que l’indice ROI sont présentés.

152
Figure 5.4 : Résultat de l’inversion et du calcul de l’indice ROI pour un panneau électrique dont une partie des
électrodes est immergée (à gauche du point indiqué par une flèche). Mesures en milieu littoral (Danemark).

Figure 5.5 : Résultat de l’inversion d’un panneau électrique en surface-forage et image de l’indice ROI.

153
Résumé : La méthode de Gauss-Newton et l’indice ROI
La méthode de calcul de l’indice ROI (indice DOI de Oldenburg and Li, 1999) effectue
deux inversions à partir du même jeu de données en utilisant différentes valeurs pour le
modèle de référence. La valeur de cet indice va approcher 0 dans les parties du modèle
où les deux inversions reproduisent la même valeur de résistivité. La résistivité des
cellules est alors bien contrainte par les données. Dans les régions où les données ne
fournissent que peu d’information, l’indice va approcher la valeur de 1 car la résistivité
de ces cellules sera similaire à la résistivité du modèle de référence. Des exemples
synthétiques et de terrain, inversés avec la méthode de Gauss-Newton, montrent la
pertinence de cette approche.

154
CHAPITRE VI

MODELISATION SYNTHETIQUE

155
156
Nous présentons ici une série de modélisations synthétiques, afin de mieux cerner les
possibilités ainsi que les limites de notre algorithme d’inversion. Nous pouvons insister sur le
fait que cet algorithme est actuellement très simple et ne comporte en particulier aucune
contrainte sur un lissage spatial des résistivités.

Un premier modèle est proposé en guise d’introduction. Ce modèle comprend uniquement des
électrodes en surface et permet de présenter le comportement général de notre algorithme. Le
second modèle, bien plus complexe, comporte des électrodes autour d’une structure à
géométrie réellement 3D. Pour les deux modèles, les éléments du maillage utilisés pour la
résolution du problème direct EF représentent également les paramètres inconnus du problème
inverse.

Dans ce qui suit, nous appellerons données simulées les données synthétiques calculées sur le
modèle puis introduites dans le problème inverse et données calculées la réponse électrique
d’un modèle obtenu à une itération donnée du processus d’inversion. Un bruit statistique,
figurant le bruit de mesure, est ajouté aux données simulées sur un modèle avant inversion en
utilisant la fonction randn du logiciel Matlab.

VI.1 DONNEES COLLECTEES EN SURFACE

VI.1.1 Modèle pour la prospection de surface

Le premier modèle consiste en un demi-espace dont la surface est plane et dans lequel nous
plongeons une forme tridimensionnelle (une structure en forme de « L »). Cette simulation
représente une situation très courante en géophysique, où les capteurs (électrodes) ne peuvent
être mis qu’en surface. Les dimensions de cette hétérogénéité sont données dans la figure 6.1.
Nous fixons la valeur de la résistivité de l’encaissant à 100 Ωm (0.01 S/m). La résistivité de
l’hétérogénéité sera fixée à 10 Ωm (0.1 S/m) ou 1000 Ωm (0.001 S/m) selon les simulations.

Le maillage utilisé dans cet exemple est composé d’hexaèdres à 8 nœuds pour le problème de
diffusion (DTH8) formant une maille régulière dans la zone centrale où sont situées les
électrodes et l’anomalie. Ce maillage régulier est composé de cellules de 1 m3, s’étend jusqu’à
une profondeur de 10 m et représente une surface carrée de 32 m de côté. La dimension des
mailles augmente en direction des bords du modèle afin de pouvoir imposer des limites de
potentiel nul. Ce maillage comprend 18816 éléments et 21015 nœuds au total.

157
Figure 6.1 : Modèle et maillage utilisé pour la simulation sur un demi-espace.

VI.1.2 Dispositif électrique choisi pour la prospection de


surface

Un total de 225 électrodes est disposé selon une grille régulière de 15 électrodes par 15
électrodes espacées de 2 m selon les directions x et y. Nous simulons sur ce modèle une
acquisition effectuée en dipôle-dipôle équatorial. La structure ainsi que la distribution de
sensibilité de ce dispositif sont représentées dans la figure 6.2. Nous remarquons que cette

158
configuration présente une région de sensibilité positive entre les deux dipôles, flanquée de
deux régions de sensibilité négative de plus faible dimension en surface. Plus en profondeur,
la sensibilité de la configuration est clairement positive. Ce dispositif semble donc bien
correspondre à nos attentes puisque nous désirons imager la partie du sous-sol située à
l’aplomb des quatre électrodes. Nous pouvons relever que le terme de dipôle est relativement
impropre ici, étant donné la dimension non négligeable des paires d’électrodes de mesure et
de courant, relativement à la taille totale du dispositif. Certains auteurs utilisent le terme de
bipôle (par exemple Daniels, 1977 ; Bing and Greenhalg, 2000). Nous garderons toutefois ici
le terme de dipôle fréquemment utilisé en prospection géophysique. Comme le montre la
figure 6.2, la distance entre le dipôle de mesure et le dipôle de courant (m) peut varier,
permettant ainsi une prospection du sous-sol en profondeur. Nous utilisons dans cette
simulation des dipôles dont la taille (l) est 4 m et un écartement entre les dipôles m de 4 à
20 m. Nous aurions pu également utiliser des dipôles de tailles l différentes afin d’augmenter
la quantité d’information collectée mais cela accroît également le nombre de points sources
dans la simulation. Une taille de dipôle fixée à 4 m garantit de plus la convergence de la
modélisation EF (nous avons 5 nœuds par dipôle de courant). Les dispositifs sont orientés
tantôt selon l’axe x, tantôt selon l’axe y, afin d’appréhender les variations tridimensionnelles
du modèle (Habberjam, 1979). Un total de 2288 données est ainsi collecté en utilisant 338
couples sources.

Figure 6.2 : Géométrie et sensibilité du dispositif dipôle-dipôle équatorial.

Le dipôle-dipôle équatorial n’est pas le dispositif le plus efficace du point de vue de la rapidité
de la résolution du problème direct. En effet, très peu de différences de potentiel sont
collectées pour chaque couple source (maximum 11 pour cette séquence). La vitesse de
résolution du problème direct augmentant avec le nombre de couples sources utilisé, il est
intéressant d’utiliser un minimum de couples sources tout en récupérant un maximum de
valeurs de potentiel. Il est possible de collecter une plus grande quantité de points par couple
source en utilisant un dispositif dipôle-dipôle axial, mais cela se fait au détriment de la

159
couverture horizontale des mesures sur les bords du modèle. De plus, l’information collectée
n’est pas réellement 3D, bien que le dipôle-dipôle axial soit relativement sensible aux
hétérogénéités latérales. Le dispositif dipôle-dipôle axial n’est donc pas très approprié pour
une prospection 3D, à moins que la grille d’électrodes utilisée soit de dimension importante.
En revanche, le dipôle-dipôle équatorial permet d’obtenir des informations sur les bords du
modèle.

VI.1.2 Simulation des données et paramètres d’inversion

Afin de tester les possibilités réelles de l’algorithme, nous n’utiliserons ici que des
informations disponibles dans la pratique. En particulier, aucune résistivité n’est connue a
priori : le modèle de départ sera homogène, sa résistivité étant fixée à la résistivité apparente
moyenne simulée. De plus, aucun modèle de référence ne sera utilisé. Nous appliquons ici un
niveau de bruit sur les mesures de 1%. Les positions des électrodes sont par contre
considérées comme parfaitement connues.

La dimension du pas d’ajustement des paramètres est définie empiriquement et ce dernier est
constant au cours du processus itératif (IV.8). Le choix d’une dimension de pas constante
n’est sans doute pas optimal mais permet une économie substantielle de temps, aucune
recherche linéaire n’étant nécessaire. Dans le module INVS, la longueur du pas est définie en
fonction du nombre de couples sources utilisés (dans ce cas NCS=338) :

µ
α= (6.1)
NCS

avec µ un facteur devant être réglé par l’utilisateur. Cette normalisation est naturelle car la
dimension du gradient de la fonction objectif dépend du nombre de couples sources.

Des procédures de stabilisation du processus inverse doivent également être mises en œuvre.
Nous diminuons d’un facteur 10 la valeur du gradient de la fonction objectif pour la première
couche de cellules en surface. Comme ces cellules sont au contact des électrodes, elles
présentent, comme nous l’avons vu, de très fortes valeurs de sensibilité qu’il est nécessaire
d’atténuer. Aussi, les propriétés électriques de la première couche de cellules ne devraient pas
trop évoluer au cours du processus d’inversion.

VI.1.3 Hétérogénéité conductrice

Les données bruitées simulées dans le cas de l’hétérogénéité conductrice sont présentées par
ordre croissant de résistivité apparente dans le figure 6.3. Nous pouvons noter que le corps
conducteur provoque une nette décroissance de la résistivité apparente. Nous pouvons

160
également remarquer que 409 données sont supérieures à 100 Ωm : ce phénomène, plus
fréquent pour les dispositifs de grandes tailles, résulte de relations complexes entre la
géométrie de l’hétérogénéité et les régions de sensibilité négative du dispositif utilisé.

Figure 6.3 : Résistivités apparentes pour la simulation sur une hétérogénéité conductrice (10 Ωm) plongée dans
un demi-espace homogène (100 Ωm) et pour un dispositif dipôle-dipôle équatorial.

Figure 6.4 : Convergence du processus inverse dans le cas de l’hétérogénéité conductrice.

161
Figure 6.5 : Résultat de l’inversion à l’itération 10 dans le cas de l’hétérogénéité conductrice.

Comme toutes les résistivités apparentes sont positives (> 49.3 Ωm), une inversion avec le
logarithme des données peut être tenté. En fonction de ce qui a été dit plus haut (IV.8), la
valeur optimale E* de la fonction objectif, pour ce nombre de données et ce niveau de bruit,
est de l’ordre de 10. Il est toutefois fort probable que le processus converge en-dessous de E*
dans le cas de données synthétiques générées en utilisant un bruit idéal et de faible amplitude.

Le modèle de départ est homogène et sa résistivité fixée à la résistivité apparente moyenne


simulée (89.3 Ωm soit 0.0112 S/m). Différentes inversions ont été tentées pour les 8 premières
itérations en utilisant des pas de dimensions variées (entre µ=0.01 et µ=0.5). Comme le
montre la figure 6.4, lorsque le pas est trop petit (µ=0.01), le processus a tendance à converger
très lentement, même au début. Lorsque par contre le pas est trop grand, le processus présente
des oscillations (µ=0.2) ou ne converge pas (µ=0.5, non montré sur la figure). Un pas
intermédiaire (µ=0.05) peut donc être choisi et nous poursuivons les itérations jusqu’à
l’itération 10. Le taux de variation de la fonction objectif entre deux itérations successives est
alors inférieur à 5% et la fonction objectif vaut 9.9.

162
La figure 6.5 montre le résultat de l’inversion à l’itération 10 en utilisant µ=0.05. La
résistivité des cellules est représentée selon des coupes horizontales et verticales en utilisant
une échelle logarithmique des résistivités. Nous pouvons relever la reconstruction correcte de
la position latérale du corps conducteur, bien que celui-ci apparaisse légèrement plus large et
trop résistant par rapport au modèle (au minimum 48 Ωm). Le contraste retrouvé n’est que de
2, ce qui est bien inférieur au contraste réel (10). Nous voyons ici que le théorème
d’équivalence peut se traduire par la reconstruction d’un corps plus large et moins conducteur
en profondeur.

Comme la sensibilité de la fonction objectif relativement à une variation de la résistivité est


très forte en surface et que cette sensibilité décroît rapidement avec la profondeur, l’épaisseur
et la profondeur du corps sont sous-estimées. Le processus d’inversion a en effet tendance à
effectuer de très forts ajustements de la distribution de la résistivité à proximité des électrodes,
dans la couche de cellules située entre z=43 m et la surface, ce comportement faisant décroître
très rapidement la valeur de la fonction objectif mais dirigeant éventuellement le processus
inverse vers un minimum local, correspondant à un modèle électriquement équivalent au
modèle vrai. Il est évident que cette diminution de la sensibilité en profondeur provient en
grande partie du fait que le problème de la collecte de l’information est mal posé : en effet,
nous auscultons le sous-sol en ne disposant que d’électrodes en surface. Dans le cas de
tomographies utilisant des capteurs autour d’une structure ou encore à l’intérieur de celle-ci,
ce type de problème peut être fortement atténué.

Les algorithmes de type Marquardt-Levenberg souffrent également de ce type de problème, la


matrice jacobienne présentant de très fortes valeurs de sensibilités vers les électrodes (Zhang
et al., 1995 ; Pain et al., 2002). Dans cette formulation, ce comportement est atténué en
amorçant le processus d’inversion avec un fort facteur d’amortissement, puis en le diminuant
au fil des itérations afin de favoriser la création de structures de petites tailles uniquement vers
la fin de l’inversion. En fait, la bonne qualité des reconstructions obtenues par la méthode de
Marquardt-Levenberg provient, en grande partie, de l’adaptation du facteur d’amortissement
durant le processus d’inversion. Cet algorithme est complété en incluant une opération de
régularisation en fonction de la profondeur : un très fort lissage, éventuellement anisotrope,
est affecté aux cellules situées vers les électrodes afin d’inhiber la création de structures vers
la surface. Lorsque la profondeur des cellules augmente, la contrainte de lissage est ensuite
relâchée (de manière exponentielle par exemple) afin de permettre l’apparition de structures
dans le modèle (Zhang et al., 1995 ; Pain et al., 2002).

Nous proposons, dans une approche purement empirique, de pondérer les contributions au
gradient de la fonction objectif en fonction de la profondeur de chaque élément de manière
linéaire, d’autres types de pondérations pouvant être utilisés. La contribution élémentaire au
gradient pondéré vaut alors, pour une cellule k :

163
pk
hkw = hk (6.2)
pmoy

avec hk la composante du gradient de la fonction objectif selon le paramètre mk, pk la


profondeur du barycentre de la cellule et pmoy la profondeur moyenne de la région d’intérêt (ici
5 m). Par cette méthode, nous diminuons artificiellement la sensibilité des cellules situées au
dessus de pmoy et augmentons celle des cellules plus profondes.

La figure 6.6 montre le résultat de l’inversion à l’itération 11 en utilisant µ=0.05 et la


pondération du gradient de la fonction objectif en profondeur. Nous pouvons constater une
meilleure reconstruction du corps en profondeur. Il est par contre nécessaire d’effectuer plus
d’itérations pour atteindre une valeur de la fonction objectif valant 10.1, le pas choisi n’étant
sans doute pas optimal dans le cas d’une inversion avec pondération. Nous pouvons donc voir
que le choix du pas est une opération délicate.

Figure 6.6 : Résultat de l’inversion à l’itération 11 dans le cas de l’hétérogénéité conductrice et pour un
pondération linéaire en fonction de la profondeur.

164
VI.2.1 Hétérogénéité résistante

La même étude a été menée sur une hétérogénéité résistante (1000 Ωm). Nous pouvons noter
que le corps résistant provoque une augmentation de la résistivité apparente jusqu’à environ
140 Ωm mais la majorité des résistivités est située vers 100 Ωm (figure 6.7). Ce manque
d’amplitude dans la valeur de la résistivité apparente fait que ce type de structure résistante est
difficile à imager. Comme dans le cas d’un corps conducteur, nous pouvons noter que toutes
les résistivités apparentes sont positives (supérieures à 91.4 Ωm) et que certaines valeurs de la
résistivité sont inférieures à 100 Ωm.

Figure 6.7 : Résistivités apparentes pour la simulation sur une structure résistante (1000 Ωm) plongée dans un
demi-espace homogène (100 Ωm) et pour un dispositif dipôle-dipôle équatorial.

Le modèle de départ est homogène et sa résistivité fixée à la résistivité apparente moyenne


simulée (108.2 Ωm soit 0.00924 S/m). Différentes inversions ont été tentée en utilisant les
mêmes pas que pour l’anomalie conductrice (entre µ=0.01 et µ=0.5). Toutefois, une nouvelle
difficulté survient : comme le montre la figure 6.8, la valeur de la fonction objectif pour le
modèle de départ est déjà inférieure à la valeur de la fonction objectif optimale E* estimée.
Nous pourrions donc en conclure que le modèle de départ homogène constitue une solution
acceptable d’après ce critère. Toutefois, nous pouvons constater que la valeur de la fonction
objectif évolue de manière significative à chaque itération (figure 6.8). Il est donc nécessaire
d’observer le taux de variation de la valeur de la fonction objectif entre deux itérations pour
définir la solution optimale.

165
Figure 6.8 : Convergence du processus inverse dans le cas de l’anomalie résistante.

La figure 6.9 montre le résultat à l’itération 10 de l’inversion, effectuée en utilisant un


gradient de la fonction objectif pondéré en fonction de la profondeur de chaque cellule. Nous
pouvons constater que l’anomalie reconstruite est de faible amplitude (maximum 200 Ωm).
Cette observation est cohérente avec les principes de la prospection électrique selon lesquels il
est plus aisé d’imager un corps conducteur qu’un corps résistant. Nous pouvons d’ailleurs voir
sur la figure 6.9 que les résistivités apparentes calculées à l’itération 10 sont trop faibles par
rapport aux résistivités apparentes simulées. Par contre, la résistivité de l’encaissant (100 Ωm)
est bien retrouvée.

166
Figure 6.9 : Résultat de l’inversion à l’itération 10 dans le cas de l’hétérogénéité résistante et pour un
pondération linéaire en fonction de la profondeur.

Résumé : Données collectées en surface


L’algorithme a été utilisé pour inverser des données synthétiques collectées en surface et
nous avons pu constater que la forme reconstruite reflète bien la réalité. L’algorithme a
toutefois tendance à créer des structures proches des électrodes, dans les régions du
modèle présentant de fortes sensibilités. Ce comportement existe également dans
d’autres types d’algorithmes et doit être compensé en adaptant la sensibilité des cellules
en fonction de l’éloignement des électrodes.

167
VI.2 DONNEES COLLECTEES SUR DES STRUCTURES DE
GEOMETRIE COMPLEXE

VI.2.1 Le modèle

Nous avons appliqué notre algorithme au cas de données simulées sur une structure 3D à
géométrie complexe. Le modèle consiste en un parallélépipède (735 m3) dans lequel sont
plongées deux hétérogénéités (figure 6.10). La première hétérogénéité figure une structure
horizontale d’épaisseur réduite (10 m3), la seconde une structure plutôt verticale de volume
plus important (21 m3). Les dimensions exactes des hétérogénéités sont données dans la figure
6.10.

Ces deux hétérogénéités ont donc un volume plutôt modeste relativement à la dimension de la
structure globale. Par conséquent, il ne sera pas évident de les imager par la méthode
électrique, ce qui constitue une excellente opportunité de tester notre algorithme d’inversion.

Ce modèle peut figurer un bloc de matériau ou un élément architectural posé sur une surface
isolante. Il n’y a en effet pas de réel contact électrique entre la base du bloc et le sol, à la
différence d’une colonne par exemple. Cet exemple peut toutefois se généraliser à toutes
sortes de structures rencontrées dans la pratique (pilier de pont, éprouvettes par exemple). Une
condition de potentiel imposé nul est appliquée en un nœud unique vers le bas du modèle
(figure 6.10). Dans la pratique, nous pourrions soit négliger ce paramètre, soit effectivement
mettre à la terre une partie du bloc, ce qui revient alors à imposer un potentiel constant en ce
point.

Le maillage utilisé dans cet exemple est composé d’hexaèdres à 8 nœuds. Les cellules sont
cubiques de côté 0.5 m à l’exception des cellules au bas du modèle, utilisées pour imposer la
condition de potentiel nul et qui ne sont pas auscultées par les dispositifs électriques. Ce
modèle comprend 5096 éléments hexaédriques et 6075 nœuds.

168
Figure 6.10 : Modèle et maillage utilisé pour la simulation sur un bloc de matériau 3D.

VI.2.2 Dispositif électrique choisi

Nous effectuons 13 tomographies sur la structure, au moyen de 40 électrodes espacées de 1 m


placées autour de cette structure. Lorsqu’une séquence de tomographie est achevée pour une
altitude z déterminée, le dispositif est déplacé de 1 m vers le haut. Un ensemble de 13
tomographies horizontales est ainsi simulé sur le modèle. Un exemple de dispositif est illustré
dans la figure 6.10, avec A et B, deux électrodes de courant et M1-N1 et M2-N2 deux exemples
de position pour la paire d’électrodes de mesure. La sensibilité d’un tel dispositif, bien
qu’impossible à évaluer analytiquement, doit est très semblable à celle du dipôle-dipôle
équatorial (figure 6.2), avec une région de sensibilité positive au centre de l’objet et des
régions de sensibilités négatives confinées vers la surface du bloc. Cet agencement de
quadripôle a été recommandé notamment par Bing and Greenhalg (2000) pour l’auscultation
du sous-sol entre deux forages. Bing and Greenhalg (2000) ont montré que cette configuration
d’électrodes présente une bonne résolution ainsi qu’une force de signal appréciable. Toutefois,

169
contrairement à ces auteurs, nous ne nous limitons pas au cas où la dimension de AM est
identique à la dimension de BN, tous les écartements d’électrodes étant pris en compte dans
notre jeu de données. Il en résulte un total de 11466 différences de potentiel mesurées pour
936 couples source (NCS=936). Bien que comportant beaucoup de mesures, une telle
acquisition est parfaitement envisageable dans la pratique en utilisant un résistivimètre
disposant de plusieurs canaux de mesure. Le dispositif utilisé se prête d’ailleurs bien à ce type
d’acquisition en permettant la mesure de plusieurs différences de potentiel pour un même
couple source (jusqu’à un maximum de 36 différences de potentiel par couple source dans le
cas de notre modèle). Nous pouvons toutefois relever que le dispositif utilisé n’est pas
nécessairement le plus performant pour imager ce type de structure et que ce problème
mériterait une étude plus approfondie.

Nous pouvons déjà remarquer que l’évaluation explicite de la matrice de sensibilité pour une
résolution par une formulation de Gauss-Newton serait très lourde et nécessiterait
l’application de nombreuses approximations. Dans notre algorithme, par contre, la seule
approximation effectuée est celle inhérente à l’utilisation de la méthode des éléments finis.
Cette approximation peut être relativement bien contrôlée en s’assurant de la convergence de
la modélisation EF.

VI.2.3 Utilisation de différentes valeurs du pas d’ajustement


des paramètres

Les dimensions des hétérogénéités ainsi que les caractéristiques du maillage pour cette
première série de simulations sont données dans la figure 6.10. Nous fixons la valeur de la
résistivité de l’encaissant à 100 Ωm (0.01 S/m). Le premier modèle est créé en fixant la
résistivité des deux hétérogénéités à 10 Ωm (0.1 S/m). Dans le second modèle, la résistivité de
l’hétérogénéité horizontale est fixée à 10 Ωm (0.1 S/m), alors que la résistivité de
l’hétérogénéité verticale est fixée à 1000 Ωm (0.001 S/m). La figure 6.11 montre les gammes
de valeurs de résistivité apparente simulées sur les deux modèles. Nous pouvons constater
qu’il est parfaitement possible de déceler la présence des deux hétérogénéités conductrices sur
les résistivités apparentes. De même, les corps résistants et conducteurs sont bien visibles
lorsque nous observons les données simulées sur le second modèle.

Nous pouvons remarquer que la résistivité apparente simulée ne revient pas à la valeur de
l’encaissant pour les dispositifs situés vers la partie supérieure du bloc (altitude supérieure à
13 m). Cela vient en partie du fait que le bloc présente une frontière de flux nul en son
sommet (contrairement à un colonne qui supporterait un toit non-électriquement isolant). Le
champ électrique est donc confiné dans cette partie du modèle et l’influence de l’hétérogénéité
supérieure est très importante.

Nous ne présentons pas de simulation utilisant une hétérogénéité horizontale résistante. Nous
avons en effet constaté que cet arrangement d’électrodes n’est pas capable de détecter

170
correctement ce type de structure, car elle a peu d’effet sur les résistivités apparentes
simulées. Ce manque de sensibilité à des structures fines et résistantes situées parallèlement
au plan des tomographies est une limitation intrinsèque de la méthode de prospection
électrique. Des lignes d’électrodes verticales pourraient certainement mieux appréhender ce
type de structure.

Figure 6.11 : Distribution des résistivités apparentes pour chaque tomographie en fonction de la hauteur du bloc.

Comme les résistivités apparentes simulées sont toutes positives, l’inversion avec le
logarithme des données peut être tentée. La valeur optimale E* de la fonction objectif pour ce
nombre de données et ce niveau de bruit (1%) est comprise entre 50 et 60. Nous pouvons déjà
relever qu’il est probable que le processus converge en dessous de E* car nous sommes dans
le cas de données synthétiques générées en utilisant un bruit idéal de faible amplitude. Là
encore, l’utilisation du taux de variation entre deux itérations comme second critère de
convergence peut s’avérer utile.

Pour cette première série d’inversions, un modèle de départ homogène de résistivité égale à la
résistivité apparente moyenne simulée est choisi. Différentes simulations ont été tentées en
utilisant des pas de dimensions variées (entre µ=0.01 et µ=1). Comme le montre la figure
6.12, si le pas est trop petit (µ=0.01), le processus a tendance à présenter une convergence
linéaire lente, quel que soit le modèle considéré. Nous pouvons par contre remarquer que la
diminution de la valeur de la fonction objectif est plus forte suivant le modèle considéré pour
des facteurs µ supérieurs à 0.01. Dans le cas du modèle contenant les deux hétérogénéités
conductrices, la décroissance reste approximativement linéaire pour µ=0.01 à µ=0.35. Il est
nécessaire de prendre µ=1 pour avoir un convergence rapide. Dans le cas du modèle contenant
un corps résistant et un corps conducteur, nous pouvons constater une accélération de la
convergence pour des facteurs supérieurs à µ=0.1. Dans ce cas, la décroissance de la fonction
objectif tend à suivre une loi de puissance.

171
Figure 6.12 : Convergence du processus inverse pour les deux simulations effectuées sur le bloc 3D.

La figure 6.13 montre le résultat de l’inversion à l’itération 16 en utilisant µ=1 pour le modèle
contenant deux corps conducteurs. Nous représentons la résistivité des cellules selon des
coupes horizontales et verticales. Nous pouvons relever la reconstruction correcte de la
position latérale des hétérogénéités conductrices bien que celles-ci apparaissent comme plus
larges et trop résistantes (au minimum 43 Ωm) par rapport au modèle bien que l’ajustement
des données soit bon. Le contraste retrouvé n’est donc que de 2, ce qui est inférieur au
contraste réel (qui vaut 10). Nous voyons donc, là encore, que les mesures électriques ne
peuvent pas bien séparer les effets du volume et du contraste (équivalence électrique).
Toutefois, le minimum de l’anomalie permet de localiser les structures dans le modèle.

172
Figure 6.13 : Résultat de l’inversion à l’itération 16 pour le modèle contenant deux corps conducteurs.

La figure 6.14 montre le résultat de l’inversion à l’itération 15 en utilisant µ=0.35 pour le


modèle contenant un corps résistant et un corps conducteur. Là encore, nous pouvons relever
la reconstruction correcte de la position latérale des hétérogénéités conductrices et résistantes,
bien que celles-ci apparaissent comme plus larges et que les contrastes retrouvés soient
toujours inférieurs aux contrastes réels.

173
Figure 6.14 : Résultat de l’inversion à l’itération 15 pour le modèle contenant un corps conducteur et un corps
résistant.

174
VI.2.4 Effet du modèle de départ

Nous allons maintenant inverser le jeu de données dans le cas du modèle contenant un corps
conducteur et un corps résistant en utilisant deux modèles de départ différents. Deux
inversions sont effectuées en utilisant le maximum (166 Ωm, soit 0.006 S/m) ou le minimum
(50 Ωm, soit 0.02 S/m) de la résistivité apparente simulée pour amorcer le processus. Le pas
est réglé en utilisant un facteur µ=0.35, utilisé pour les inversions précédentes.

Figure 6.15 : Résultat de l’inversion à l’itération 19 pour le modèle contenant un corps conducteur et un corps
résistant et en utilisant un modèle de départ de 50 Ωm.

175
Comme nous pouvons le voir sur les résultats des inversions (figures 6.15 et 6.16), les
structures internes du bloc restent identifiables. Nous pouvons relever que la résistivité des
cellules, dont la sensibilité a été diminuée, n’a pas évolué. Il semble toutefois qu’un modèle
de départ à 166 Ωm donne de meilleurs résultats comme nous pouvons le voir sur l’ajustement
des données et la valeur de la fonction objective pour l’itération choisie. Le choix soigneux
d’un modèle de départ est donc de rigueur lors de la résolution d’un problème inverse utilisant
un algorithme non-linéaire. En règle générale, une valeur proche de la résistivité apparente
moyenne semble être un bon modèle de départ en absence d’informations a priori.

Figure 6.16 : Résultat de l’inversion à l’itération 17 pour le modèle contenant un corps conducteur et un corps
résistant et en utilisant un modèle de départ de 166 Ωm.

176
VI.2.5 Effet du bruit de mesure

Nous avons appliqué la procédure d’inversion utilisant un modèle de départ homogène de


résistivité 100 Ωm à l’étude du modèle 3D contenant les deux corps de résistivités différentes
mais dans le cas de données plus fortement bruitées que précédemment. Nous avons donc
appliqué successivement des niveaux de bruit de 5% puis 10%. Les valeurs optimales de la
fonction objectif sont alors de l’ordre de 300 et 600 respectivement.

Nous pouvons constater sur la figure 6.17 que la courbe de décroissance de la fonction
objectif présente, logiquement, une convergence à des valeurs plus élevées lorsque le niveau
de bruit augmente. La difficulté à faire diminuer la valeur de la fonction objectif est donc un
indice du niveau de bruit.

Figure 6.17 : Convergence du processus inverse pour les deux simulations effectuées sur le bloc 3D (un corps
conducteur et un corps résistant) pour différents niveaux de bruit.

Lors de l’inversion, nous voyons que les résultats restent comparables à ceux obtenus lorsque
le niveau de bruit est faible (figures 6.18 et 6.19) bien que les graphiques d’ajustement des
données reflètent le niveau de bruit utilisé. En particulier, il n’y a pas d’apparition de corps
supplémentaires de dimensions semblables à celles des deux hétérogénéités simulées et qui
induirait en erreur. Il n’y a pas non plus d’oscillation et la décroissance est similaire à celle
des modèles précédents (forte diminution de la valeur de la fonction objectif au début, puis

177
convergence plus lente). La procédure d’inversion semble donc robuste et assez insensible au
niveau de bruit.

Figure 6.18 : Résultat de l’inversion à l’itération 7 pour le modèle contenant un corps conducteur et un corps
résistant pour un niveau de bruit de 5%.

Nous pouvons toutefois noter l’apparition d’anomalies de petites dimensions et de forte


intensité révélatrices d’un niveau de bruit élevé. Ces anomalies isolées ne gênent cependant
pas l’interprétation et leur position par rapport aux structures de tailles plus importantes
permet aisément de les identifier comme étant des artefacts. Ces perturbations proviennent en

178
partie de l’absence de contrainte de lissage dans notre algorithme ainsi que des fortes valeurs
de sensibilité à proximité des électrodes.

Figure 6.19 : Résultat de l’inversion à l’itération 4 pour le modèle contenant un corps conducteur et un corps
résistant pour un niveau de bruit de 10%.

VI.2.6 Utilisation d’un modèle de référence

Aucune contrainte sur le modèle n’a été utilisée pour le moment. Toutefois, la fonction
objectif choisie permet également l’utilisation d’un modèle de référence par groupes pour

179
introduire de l’information a priori. Dans cette approche du problème inverse, l’utilisateur
construit un modèle sur la base d’informations disponibles puis cherche à tester et
éventuellement à modifier ce modèle par le biais de l’algorithme d’inversion.

Un modèle 3D de mêmes dimensions que précédemment est utilisé pour cette simulation.
Nous créons toutefois une hétérogénéité figurant une fissure conductrice (10 Ωm) dans un
bloc homogène (100 Ωm). Cette fissure est visible sur une des faces du modèle, sur la face
y=0, entre z=9.5 et z=11 (figure 6.20), bien que cette information ne permette pas de savoir si
la fissure est horizontale ou plutôt oblique. Nous pouvons donc tenter d’inverser nos données
en utilisant un modèle de référence figurant une fissure horizontale. Les données mesurées sur
le bloc permettront de valider ou d’invalider cette hypothèse.

Figure 6.20 : Modèle et maillage utilisé pour la simulation sur un bloc de matériau 3D contenant une fissure.

180
Figure 6.21 : Résultat de l’inversion pour le modèle contenant une fissure conductrice et un modèle de référence.

181
Une première inversion est effectuée en donnant un poids faible au modèle de référence
(Λg=0.0001 dans l’expression 4.48). Etant donné que l’information a priori utilisée est
erronée, la reconstruction obtenue ne reflète pas le modèle de référence utilisé (figure 6.21).
Dans ce cas, les données ont une influence suffisante pour que le modèle ajusté s’affranchisse
du modèle de référence utilisé. Nous pouvons noter que le résultat obtenu est très proche de la
réalité. Le pendage de la fissure est en particulier bien évalué. Le volume de la fissure est
toutefois encore trop important et le contraste de résistivité trop faible. Nous pouvons à
nouveau constater que les mesures électriques ne peuvent pas bien séparer les effets du
volume et du contraste. Des inversions ont été également effectuées en augmentant le poids de
Λg. Pour Λg=0.1, l’influence du modèle de référence erroné persiste durant le processus
d’inversion (figure 6.21). Par ailleurs, la valeur finale de la fonction objectif pour ce modèle
est légèrement plus élevée que précédemment (39.3 au lieu de 30.3), ce qui indique que ce
modèle de référence utilisé ne correspond pas à la réalité.

VI.2.7 Calcul de la région d’investigation (ROI)

Nous présentons ici un exemple d’utilisation de l’indice ROI. Nous simulons l’auscultation
d’un pan du bloc précédent (figure 6.10) dans lequel est plongée une petite hétérogénéité
conductrice au lieu de la fissure. Nous ne considérons toutefois que les électrodes situées sur
la face y=0 et utilisons alors cette grille verticale de 13x8 électrodes pour simuler une
acquisition en dipôle-dipôle équatorial sur la paroi. La séquence comprend 72 couples sources
et 468 points de mesure. Un bruit de 1% est ajouté aux données.

Une première inversion est effectuée en utilisant un modèle de référence égal au modèle de
départ (85 Ωm) et un facteur Λg=0.01. Le résultat de l’inversion est montré dans la figure
6.22. Nous pouvons constater une bonne localisation du corps et une bonne estimation de la
résistivité de l’encaissant (100 Ωm). La partie profonde de l’hétérogénéité semble par contre
plus difficile à appréhender. Une seconde inversion est alors effectuée en utilisant un modèle
de départ et un modèle de référence environ 1.5 fois plus résistant (130 Ωm). Comme notre
algorithme peut ne pas converger lors de l’utilisation d’un modèle de départ trop éloigné de la
réalité, le facteur multiplicatif est choisi plus faible que pour l’indice ROI calculé
précédemment avec la méthode de Gauss-Newton (cf. chapitre V). Sur la section de l’indice
ROI, nous pouvons voir que la profondeur maximale d’investigation dans ce cas est de l’ordre
de 3 m. Dans ces conditions, la forme de l’hétérogénéité ne pourra pas être correctement
reconstruite au centre du bloc avec ce dispositif. Les fortes valeurs pour l’indice ROI vers les
électrodes sont évidemment dues au fait que nous fixons la résistivité de ces cellules durant le
processus d’inversion. Ces dernière reflètent alors directement le modèle de départ (et de
référence) utilisé.

182
Figure 6.22 : Inversion de données collectées sur une des parois du bloc avec une hétérogénéité conductrice et
figure de l’indice ROI.

Résumé : Données collectées sur des structures de géométrie complexe


Les exemples synthétiques présentés dans ce chapitre ont montré l’efficacité de
l’algorithme utilisé pour imager des structures de géométrie quelconque. Cet algorithme
semble particulièrement peu sensible au niveau de bruit et permet l’inversion d’un
grand nombre de données pour des modèles constitués de nombreux paramètres
inconnus. Par contre, la convergence du processus est relativement sensible au choix du
modèle de départ et au pas utilisé. Cela vient en partie du fait que nous n’utilisons
aucune contrainte de lissage et aucun algorithme spécifique pour optimiser la dimension
du pas. Finalement, le calcul de l’indice ROI semble être une bonne approche pour
tester la validité du résultat de l’inversion.

183
184
CHAPITRE VII

CONCLUSIONS ET PERSPECTIVES

185
Ce travail de thèse avait pour objectif la mise au point d’un ensemble d’outils de modélisation
directe et inverse pour les données électriques sur des structures 3D à géométrie complexe.
Ces outils devaient permettre la modélisation des propriétés électriques d’un objet à partir de
données collectées avec des dispositifs électriques de géométries quelconques. Une procédure
permettant l’évaluation de la fiabilité du modèle reconstruit devait être également développée.

Il s’agissait en particulier d’adapter le progiciel CESAR-LCPC pour le calcul direct de


données de tomographie électrique et de créer un module d’inversion sous cet environnement.
De toutes les méthodes de résolution du problème direct, la méthode des éléments finis nous a
semblé la mieux adaptée à l’investigation des structures tridimensionnelles complexes. En
effet, les méthodes analytiques ne s’appliquent qu’à des modèles simples et les méthodes
d’équations intégrales ne sont pas performantes pour imager des hétérogénéités très
complexes. De plus, seules des mailles régulières peuvent être utilisées dans la méthode des
différences finies.

VII.1 APPORTS DU TRAVAIL

Les principaux apports et résultats de ce travail sont les suivants :

VII.1.1 Utilisation de CESAR-LCPC pour la modélisation


électrique

Nous avons défini une démarche permettant l’utilisation de CESAR-LCPC pour la résolution
du problème direct électrique, le progiciel CESAR-LCPC permettant la résolution d’un
problème de thermique linéaire en régime stationnaire, ce problème de diffusion étant
analogue au problème électrique.

VII.1.2 Modélisation directe

Nous avons rapidement constaté que la simulation d’un grand nombre de couples source et de
points de mesure (séquence de tomographie) est impraticable dans la version standard de
CESAR-LCPC et qu’un programme utilitaire devait être élaboré dans ce but. Cette étape a
quelque peu retardé la mise au point du module d’inversion mais s’est avérée finalement très
utile. Nous avons en effet élaboré un programme interface TOMELE permettant une

186
utilisation souple et plus conviviale de CESAR-LCPC pour la simulation électrique et
permettant de profiter de tous les avantages de la méthode des éléments finis. Par le biais de
TOMELE, il est possible d’utiliser des électrodes indépendantes du maillage. Nous pouvons
donc simuler des mesures effectuées avec n’importe quel agencement d’électrodes sur un
maillage de forme quelconque. Les résistivités apparentes sont obtenues par normalisation sur
un modèle homogène de résistivité unité ce qui permet d’obtenir ce paramètre lorsque le
calcul analytique du facteur géométrique est impossible. Ce programme semble donc bien
répondre aux besoins de notre problématique et plusieurs collaborateurs du LCPC l’utilisent
actuellement avec succès.

Nous avons vu qu’il n’est pas possible d’utiliser une procédure d’élimination de la singularité
des sources pour améliorer la qualité de l’approximation pour des simulations sur des
structures à géométrie complexe (décomposition du problème en champ de potentiel primaire
et secondaire). L’architecture du maillage doit être adaptée en conséquence et suffisamment
fine dans la région où les mesures sont simulées. Les éléments qui seront utilisés pour les
simulations seront principalement des hexaèdres regroupés sous la forme de super-éléments.
Nous avons également pu voir sur les simulations que la forme de la frontière à potentiel
imposé n’a pas une importance primordiale pourvu que cette frontière soit suffisamment
éloignée de la zone d’intérêt. Il n’est toutefois pas nécessaire de s’éloigner de plus de 1.5 fois
la dimension de la région centrale où sont effectuées les mesures. Pour des modèles de
dimensions finies (éprouvettes par exemple), un potentiel imposé peut être placé en un nœud
du maillage sans créer de perturbation dans l’approximation. En général, lorsque la différence
de potentiel seule est utilisée, la valeur du potentiel imposé importe peu.

Pour garantir une bonne approximation du champ de potentiel (erreur < 5% avec une solution
analytique), nous conseillons l’utilisation d’un minimum de 5 à 6 nœuds entre les électrodes
d’injection de courant. Lorsque le contraste de résistivité est supposé très fort, un minimum de
7 ou 8 nœuds devrait être utilisé. Au besoin, des régions présentant des finesses de maillage
différentes peuvent être créées. Nous avons montré que le calcul de la résistivité apparente par
normalisation donne de meilleurs résultats que l’utilisation du facteur géométrique.

VII.1.3 Modélisation inverse

La méthode de Gauss-Newton avec une condition de régularisation de type Marquardt-


Levenberg est traditionnellement utilisée pour résoudre le problème inverse électrique.
Toutefois, dans le cadre de la résolution du problème inverse appliquée à des modèles 3D de
géométries complexes, cette formulation nécessite une évaluation numérique de la matrice des
dérivées partielles (ou matrice de sensibilité). Notre approche consiste à utiliser la formulation
du champ adjoint au champ de potentiel pour directement minimiser la fonction objectif qui
permet d’ajuster un modèle aux données. L’utilisation d’un algorithme de résolution non-
linéaire implique le calcul de la différentielle de la fonction objectif par rapport au champ de
conductivité. La technique de l’état adjoint nous permet d’obtenir cette différentielle sans un

187
recours à un calcul explicite (par différences finies par exemple). Le gradient de la fonction
objectif peut ensuite être utilisé dans une méthode de descente. Cette approche est
relativement peu utilisée en inversion électrique.

Le module d’inversion INVS ainsi développé, dans l’environnement de CESAR-LCPC, est


adapté au traitement des jeux de données contenant un très grand nombre de mesures sur des
modèles à géométrie complexe présentant de nombreux paramètres inconnus. L’algorithme
utilisé est robuste, évite le stockage et l’inversion de matrices de grandes tailles et limite au
maximum le nombre de problèmes directs à résoudre durant le processus itératif. Il ne
nécessite également qu’un nombre minimum de réglages pour obtenir un résultat satisfaisant.
La direction de descente est obtenue selon une méthode de plus grande pente pour la première
itération puis par une méthode de gradients conjugués pour les itérations suivantes afin de
limiter les oscillations en direction du minimum. Nous avons utilisé un pas constant pour
l’ajustement des paramètres du modèle, sans optimisation de celui-ci, afin de limiter le
nombre de résolutions du problème direct.

Durant la phase de modélisation synthétique, nous avons pu constater que les composantes du
gradient de la fonction objectif sont très fortes pour des éléments à proximité des électrodes et
que les paramètres du modèle dans ces régions ont une influence prédominante sur la
correction apportée au modèle. Ces fortes modifications peuvent créer des cas d’équivalence
et nous devons donc limiter cet effet en diminuant l’amplitude du gradient de la fonction
objectif pour des cellules proches des électrodes.

Nous avons utilisé un modèle de référence afin de pouvoir appliquer une contrainte sur la
forme de la solution. Nous avons pu constater que le choix de ce modèle a priori est délicat et
que le poids qui lui est associé dans la minimisation doit être judicieusement choisi. Un des
critères d’arrêt pour le processus d’inversion est le taux de variation de la fonction objectif
entre deux itérations successives. Dans le cas où le niveau de bruit peut être estimé, il est
également possible d’évaluer une valeur optimale pour la fonction objectif. En général, la
combinaison de ces deux critères permet un bon diagnostic de convergence du processus
inverse.

188
VII.2 PERSPECTIVES

Concernant la modélisation directe, il est souhaitable de transformer le programme utilitaire


TOMELE en un module d’exécution de CESAR-LCPC. Un tel développement n’apporte pas
de fonctionnalité supplémentaire mais facilite par contre le travail de l’utilisateur.

Nous avons fourni dans ce travail l’architecture générale d’un code d’inversion efficace en
utilisant le progiciel CESAR-LCPC. Un effort important a dû être consacré à l’implantation et
à la programmation du module dans l’environnement propre à CESAR-LCPC, ce qui s’est fait
au détriment de l’approfondissement de certains problèmes numériques. Le code d’inversion
utilisé dans ce travail mérite donc encore des raffinements. Nous pouvons en partie souligner
quelques points importants :

Nous avons utilisé un pas d’ajustement constant dans ce travail afin de limiter le nombre de
résolutions du problème direct. Cette solution n’est certainement pas la meilleure et une étude
approfondie des diverses techniques numériques disponibles doit être prévue dans le futur. De
nombreux algorithmes d’optimisation existent actuellement et peuvent être utilisés dans ce
but. Un tel développement devrait être facilité par l’augmentation de la puissance de calcul
dans les années qui viennent, puisque toute technique d’optimisation du pas impliquera des
résolutions supplémentaires du problème direct.

Il peut également être nécessaire d’introduire des matrices de lissage orienté dans l’espace
afin de stabiliser la solution. En particulier, le problème de la perte de résolution en
profondeur ainsi que de la forte sensibilité des composantes du gradient de la fonction objectif
venant d’éléments à proximité des électrodes doit être étudié. Le modèle de référence peut
être adapté et pondéré dans ce but, selon la forme du modèle et l’agencement des électrodes. Il
semble probable qu’une fois ces problèmes résolus, la qualité des reconstructions devrait être
similaire à celles obtenues en utilisant la formulation de Marquardt-Levenberg.

Il sera finalement nécessaire de tester l’algorithme avec des données réelles provenant de
différents domaines (géophysique, génie civil ou encore ingénierie biomédicale). Seul le
traitement de mesures réelles sera à même de définir les améliorations à apporter aux codes et
de cerner les besoins des utilisateurs des outils développés ici.

189
190
BIBLIOGRAPHIE

191
192
Abubakar, A. and van den Berg, P. M., 2000. Non-linear three dimensional inversion of cross-
well electrical measurements. Geophysical Prospecting, 48, 109-134.

Al-Chalabi, M., 1992. When 'Least-squares' squares least. Geophysical Prospecting, 40, 359-
378.

Archie, G.E., 1942. The electrical resistivity logs as an aid in determining some reservoir
characteristics. Trans. AIME, 146, 54.

Artus, J., 2003. Problème direct et inverse pour le suivi topographique en environnement
aquatique par tomographie de résistivité électrique. DESS de Géophysique de Surface et de
Subsurface, Institut de Physique du Globe de Paris, 64 p.

Asch, T.H. and Morrison, H.F., 1989. Mapping and monitoring electrical resistivity with
surface and subsurface electrode arrays. Geophysics, 54, 235-244.

Benderitter, Y., Jolivet, A., Mounir, A., and Tabbagh, A., 1994. Application of the
electrostatic quadrupole to sounding in the hectometric depth range. Journal of Applied
Geophysics, 31, 1-6.

Barker, R.D., 1979. Signal contribution sections and their use in resistivity studies.
Geophysical Journal of the Royal Astronomical Society, 54, 1031-1037.

Barker, R.D., 1989. Depth of investigation of collinear symmetrical four-electrode arrays.


Geophysics, 59, 123-129.

Beard, L.P., Hohmann, G.W. and Tripp, A.C., 1996. Fast resistivity/IP inversion using a low-
contrast approximation. Geophysics, 61, 169-179.

Beasley, C.W. and Tripp, A.C., 1991. Application of the cross-borehole direct-current
resistivity technique for EOR process monitoring – a feasibility study. Geoexploration, 28,
313-328.

Bevc, D. and Morrison, H. F., 1991. Borehole-to-surface electrical resistivity monitoring of a


salt water injection experiment. Geophysics, 56, 769-777.

Bibby, H.M., 1978. Direct-current resistivity modeling for axially symmetric bodies using the
finite-element method. Geophysics, 43, 550-562

Bing, Z. and Greenhalgh, S.A., 1997. A synthetic study on crosshole resistivity imaging using
different electrode arrays. Exploration Geophysics, 28, 1-5.

Bing, Z. and Greenhalgh, S.A., 2000. Cross-hole resistivity tomography using different
electrode configurations. Geophysical Prospecting, 48, 887-912.

Bourennane, H., King, D., Le Parco, R., Isambert, M. and Tabbagh, A., 1998. Three-
dimensional analysis of soil and surface materials by electrical resistivity survey. European
Journal of Environmental and Engineering Geophysics, 3, 5-23.

193
Chambers, J.E., Ogilvy, R.D., Kuras, O., Cripps, J.C. and Meldrum, P.L., 2002. 3D electrical
imaging of known targets at a controlled environmental test site. Environmental Geology, 41,
690-704.

Chambers, J., Ogilvy, R. and Meldrum, P., 1999. 3D resistivity imaging of buried oil- and tar-
contaminated waste deposits. European Journal of Environmental and Engineering
Geophysics, 4, 3-14.

Chunduru, R.K., Sen, M.K. and Stoffa, P.L., 1996. 2-D resistivity inversion using spline
parameterization and simulated annealing. Geophysics, 61, 151-161.

Coggon, J.H., 1971. Electromagnetic and electrical modeling by the finite element method.
Geophysics, 36, 132-155.

Dabas, M., Tabbagh, A. and Tabbagh, J., 1994. 3-D inversion in subsurface electrical
surveying - I. Theory. Geophysical Journal International, 119, 975-990.

Dahlin, T., 1993. On the automation of 2D resistivity surveying for engineering and
environmental applications. Thèse de doctorat de l’Université de Lund, 187 p.

Dahlin, T., Bernstone, C. and Loke, M.H., 2002. A 3-D resistivity investigation of a
contaminated site at Lernacken, Sweden. Geophysics, 67, 1692-1700.

Dahlin, T. and Loke, M.H., 1998. Resolution of 2D Wenner resistivity imaging as assessed by
numerical modelling. Journal of Applied Geophysics, 38, 237-259.

Daily, W. and Owen, E., 1991. Cross-borehole resistivity tomography. Geophysics, 56, 1228-
1235.

Daily, W. and Ramirez, A., 1995. Electrical resistance tomography during in-situ
trichlorethylene remediation at the Savannah River Site. Journal of Applied Geophysics, 33,
239-249.

Daily, W., Ramirez, A., LaBrecque, D. and Barber, W., 1995. Electrical resistance
tomography experiments at the Oregon Graduate Institute. Journal of Applied Geophysics, 33,
227-237.

Daniels, J. J., 1983. Hole-to-surface resistivity measurements. Geophysics, 48, 87-97.

Das, U.C. and Parasnis, D.S., 1987. Resistivity and induced-polarization responses of
arbitrarily shaped Three-D bodies in a two-layered earth. Geophysical Prospecting, 35, 98-
109.

Dey, A. and Morrison, H.F., 1979. Resistivity modeling for arbitrarily shaped three-
dimensional structures. Geophysics, 44, 753-780.

Delaloye, R., Reynard, E., Lambiel, C., Marescot, L., Monnet, R., 2003. Thermal anomaly
and processes in a cold scree slope (Creux du Van, Switzerland). The 8th International
Conference on Permafrost, Zurich, Switzerland, July 2003, 175-180.

194
Denis. A., Marache, A., Obellianne, T. and Breysse, D., 2002. Electrical resistivity borehole
measurements: application to an urban tunnel site. Journal of Applied Geophysics, 50, 319-
331.

Draskovits, P. and Simon, A., 1992. Application of geoelectric methods using buried
electrodes in exploration and mining. Geophysical Prospecting, 40, 573-586.

Edwards, L.S., 1977. A modified pseudosection for resistivity and induced-polarization.


Geophysics, 42, 1020-1036.

Ellis, R.G. and Oldenburg, D.W., 1994a. Applied geophysical inversion. Geophysical Journal
International, 116, 5-11.

Ellis, R.G. and Oldenburg, D.W., 1994b. The pole-pole 3-D DC-resistivity inverse problem: a
conjugate gradient approach. Geophysical Journal International, 119, 187-194.

El-Qady, G. and Ushijima, K., 2001. Inversion of DC resistivity data using neural networks.
Geophysical Prospecting, 417-430.

Faes, T.J.C., van der Meij, H.A., de Munck J.C. and Heethaar, R.M., 1999. The electric
resistivity of human tissues (100 Hz - 10 MHz): a meta-analysis of review studies.
Physiological Measurement, 20,R1-R10.

Farquharson, C.G. and Oldenburg, D.W., 1998. Non-linear inversion using general measures
of data misfit and model structure. Geophysical Journal International, 134, 213-227.

Fox, R.C., Hohmann, G.W., Killpack, T.J. and Rijo, L., 1980. Topographic effects in
resistivity and induced-polarization surveys. Geophysics, 45, 75-93.

Giggon, J., 2002. Modélisation en cuve de pseudosections. Diplôme de Géologue, Université


de Lausanne, 77p.

Grard, R. and Tabbagh, A., 1991. A mobile four-electrode array and its application to the
electrical survey of planetary grounds at shallow depths. Journal of Geophysical Research,
96, 4117-4123.

Griffiths, D.H. and Barker, R.D, 1993.Two-dimensional resistivity imaging and modelling in
areas of complex geology. Journal of Applied Geophysics, 29, 211-226.

Habberjam, G.M., 1979. Apparent resistivity observations and the use of the square array
technique. Gebrüder-Bornträger, Berlin-Nikolassee, 149 p.

Hesse, A., Jolivet, A. and Tabbagh, A., 1986. New prospects in shallow depth electrical
surveying for archaeological and pedological applications. Geophysics, 51, 585-594.

Holcombe, H.T. and Jiracek, G.R., 1984. Three-dimensional terrain corrections in resistivity
surveys. Geophysics, 49, 439-452.

195
Huot, F., 1999. Caractéristiques élastiques des sols. Du comportement pseudo-statique à la
propagation des ultrasons. Thèse de doctorat de l’Université de Lausanne, 414 p.

Inman, J.R., 1975. Resistivity inversion with ridge regression. Geophysics, 40, 798-817.

Jackson, P. D., Earl, S. J. and Reece, G. J., 2001. 3D resistivity inversion using 2D
measurements of the electric field. Geophysical Prospecting, 49, 26-39.

Johansson, S. and Dahlin, T., 1996. Seepage monitoring in an earth embankment dam by
repeated resistivity measurements. European Journal of Environmental and Engineering
Geophysics, 1, 229-247.

Kaufman, A.A., 1992. Geophysical field theory and method, Part A. Academic Press, Inc.,
579p.

Keller, G.V. and Frischknecht, F.C, 1966. Electrical Methods in Geophysical Prospecting.
Pergamon Press, New York, 523 p.

Kunetz, G., 1966. Principles of direct current resistivity prospecting. Gebrüder-Bornträger,


Berlin-Nikolassee, 103 p.

Lajarthe, M., Florsch, N. and Schott, J.J., 1999. Infinite elements: a refinement on the-finite
element method for 3D DC resistivity modelling. Proceedings of the 5th EEGS-ES meeting,
Budapest, Hungary, September 6-9, 1999.

Lataste, J.-F., 2002. Evaluation Non Destructive de l'état d'endommagement des ouvrages en
béton armé par mesure de résistivités électriques. Thèse de doctorat de l’Université de
Bordeaux I.

Le Masne, D. and Poirmeur, C., 1988. Three-dimensional model results for an electrical hole-
to-surface method - Application to the interpretation of a field survey. Geophysics, 53, 85-
103.

Leroux, V., 2000. Utilisation d’électrodes capacitives pour la prospection électrique en


forage. Thèse de doctorat de l'Université de Rennes I, 177p.

Lesur, V., Cuer, M. and Straub, A., 1999. 2-D and 3-D interpretation of electrical tomography
measurements, Part 2: The inverse problem. Geophysics, 64, 396-402.

Levenberg, K., 1944. A method for the solution of certain nonlinear problems in least squares.
Quarterly of Applied Mathematics, 2, 164-168.

Li, Y. and Spitzer, K., 2002. Three-dimensional DC resistivity forward modelling using the
finite elements in comparison with the finite-difference solutions. Geophysical Journal
International, 151, 924-934.

de Lima, O.A.L., Sato, H.K. and Porsani, M.J., 1995. Imaging industrial contaminant plumes
with resistivity techniques. Journal of Applied Geophysics, 34, 93-108.

196
Linderholm, P., Bertsch, A. and Renaud, P., 2004. Resistivity probing of multi-layered tissue
phantoms using microelectrodes, Physiological Measurement, 25, 1-14.

Lines, L.R. and Treitel, S., 1984. Tutorial: A review of least-squares inversion and its
application to geophysical problems. Geophysical Prospecting, 32, 159-186.

Lionheart, W.R.B., 2004. EIT reconstruction algorithms: pitfalls, challenges, and recent
developments, Physiological Measurement, 25, 125-142.

Loke M.H., 2000. Topographic modelling in resistivity imaging inversion. 62nd EAGE
Conference & Technical Exhibition, Extended Abstracts, D-2.

Loke, M.H., Acworth, I. and Dahlin, T., 2001. A comparison of smooth and blocky inversion
methods in 2-D electrical imaging surveys. 15th ASEG Conference & Technical Exhibition,
Extended Abstracts, Brisbane.

Loke, M.H. and Barker, R.D., 1995. Least-squares deconvolution of apparent resistivity
pseudosections. Geophysics, 60, 1682-1690.

Loke, M.H. and Barker, R.D., 1996a. Rapid least-squares inversion of apparent resistivity
pseudosections using a quasi-Newton method. Geophysical Prospecting, 44, 131-152.

Loke, M.H. and Barker, R.D., 1996b. Practical techniques for 3D resistivity surveys and data
inversion. Geophysical Prospecting, 44, 499-523.

Loke, M.H. and Dahlin, T., 2002. A comparison of the Gauss-Newton and quasi-Newton
methods in resistivity imaging inversion. Journal of Applied Geophysics, 49, 149-162.

Maillol, J.M., Seguin, M.-K., Gupta, O.P., Akhauri, H.M. and Sen, N., 1999. Electrical
resistivity tomography survey for delineating uncharted mine galleries in West Bengal, India.
Geophysical Prospecting, 47, 103-116.

Marescot, L., 2003. Un algorithme d’inversion par moindres carrés pondérés : application aux
données géophysiques par méthodes électromagnétiques en domaine fréquence. Bulletin
vaudois des Sciences Naturelles, 88, 277-300.

Marescot, L. and Chapellier, D., 2003a. Resistivity surveying applied to hydrogeological


characterisation of Quaternary paleo-valleys. Proceedings of the 9th EEGS-ES meeting,
Prague, Czech Republic, August 31-September 4, 2003.

Marescot, L. and Chapellier, D., 2003b. 2D resistivity tomography applied to the study of
Quaternary paleo-valleys. Proceedings of the First Swiss Geoscience Meeting, Basel, 28-29
November, Switzerland.

Marescot, L., Liaci, S. et Chapellier, D., 2003a. Etude géoélectrique des cours d’eau
interglaciaires à l’Ouest de la ville de Fribourg (Suisse). Eclogae Geologicae Helvetiae, 96,
261-273.

197
Marescot, L. et Loke, M.H., 2003. Application de l’indice DOI à l’imagerie électrique 2D
pour les sous-sols à forts contrastes de résistivité. Actes du 4ème colloque Geofcan, Paris,
France, 23-24 septembre 2003.

Marescot, L. and Loke, M.H., 2004. Using the Depth Of Investigation method in 2D
resistivity imaging for civil engineering surveys. Proceedings of the SAGEEP meeting,
Colorado Springs, USA, February 22-26, 2004.

Marescot, L., Loke, M.H., Chapellier, D., Delaloye, R., Lambiel, C. and Reynard, E., 2003b.
Assessing reliability of 2D resistivity imaging in mountain permafrost studies using the depth
of investigation index method. Near Surface Geophysics, 1, 55-67.

Marescot, L., Monnet, R., Baron, L., Lambiel, C., Reynard, E., Delaloye, R. and Chapellier,
D. 2001. 2D electrical resistivity imaging in mountain permafrost studies: three challenging
surveys in the Swiss Alps and Jura Mountains. Proceedings of the 7th EEGS-ES meeting,
Birmingham, England, 104-105.

Marescot, L., Palma Lopes, S., Lagabrielle, R. and Chapellier, D., 2002. Designing surface-to-
borehole resistivity tomography surveys using the Fréchet derivative. Proceedings of the 8th
EEGS-ES meeting, Aveiro, Portugal, September, 8–12, 2002.

Marescot, L., Palma Lopes, S., Rigobert, S., Lagabrielle, R. and Chapellier, D., 2003c. 3D
resistivity finite element modelling using mesh-independent electrode location. Proceedings
of the 9th EEGS-ES meeting, Prague, Czech Republic, August 31-September 4, 2003.

Marescot, L., Palma Lopes, S., Rigobert, S., Lagabrielle, R. and Chapellier, D., 2003d.
Utilisation du code d’éléments finis CESARL-LCPC pour la modélisation électrique directe.
Actes du 4ème colloque Geofcan, Paris, France, 23-24 septembre 2003.

Marescot, L., Palma Lopes, S., Rigobert, S., Piau, J.-M., Humbert, P., Lagabrielle, R. and
Chapellier, D., 2003e. Utilisation du code d’éléments finis CESARL-LCPC pour la
modélisation de données électrique 3D. 3èmes Journées de l’Ingénieur, décembre 2003.

Marescot, L., Palma Lopes, S., Rigobert, S., Piau, J.-M., Humbert, P., Lagabrielle, R. and
Chapellier, D., 2004. Forward and inverse resistivity modelling on complex three dimensional
structures using the finite element method. Proceedings of the SAGEEP meeting, Colorado
Springs, USA, February 22-26, 2004.

Marquardt, D.W., 1963. An algorithm for least square estimation of non-linear parameters.
Journal of the Society for Industrial and Applied Mathematics, 11, 431-441.

Mauriello, P. and Patella, D., 1999. Resistivity anomaly imaging by probability tomography.
Geophysical Prospecting, 47, 411-429.

Menke, W., 1989. Geophysical data analysis: discrete inverse theory, Academic Press, San
Diego, 289 p.

McGillivray, P.R. and Oldenburg, D.W., 1990. Methods for calculating Frechet derivatives
and sensitivities for the non-linear inverse problem: A comparative study. Geophysical
Prospecting, 38, 499-524.

198
Michot, D., 2003. Intérêt de la géophysique de subsurface et de la télédétection multispectrale
pour la cartographie des sols et le suivi de leur fonctionnement hydrique à l’échelle
interparcellaire. Thèse de doctorat de l’Université Paris 6, 395 p.

Morelli, G. and LaBrecque, D.J., 1996. Advances in ERT inverse modelling. European
Journal of Environmental and Engineering Geophysics, 1, 171-186.

Mufti, I.R., 1976. Finite-difference resistivity modeling for arbitrarily shaped two-
dimensional structures. Geophysics, 41, 62-78.

Noël, M. and Xu, B., 1991. Archaeological investigation by electrical resistivity tomography:
a preliminary study. Geophysical Journal International, 107, 95-102.

Ogilvy, R., Meldrum, P. and Chambers, J., 1999. Imaging of industrial waste deposits and
buried quarry geometry by 3-D resistivity tomography. European Journal of Environmental
and Engineering Geophysics, 3, 103-113.

Olayinka, A.I. and Weller, A., 1997. The inversion of geoelectrical data for hydrogeological
applications in crystalline basement areas of Nigeria. Journal of Applied Geophysics, 37, 103-
115.

Olayinka, A.I. and Yaramanci, U., 1999. Choice of the best model in 2-D geoelectrical
imaging: case study from a waste dump site. European Journal of Environmental and
Engineering Geophysics, 3, 221-244.

Oldenburg, D.W. and Li, Y., 1999. Estimating depth of investigation in dc resistivity and IP
surveys. Geophysics, 64, 403-416.

Pain, C., Herwanger, J., Wothington, M. and de Oliveira, C., 2002. Effective
multidimensional resistivity inversion using finite-element techniques. Geophysical Journal
International, 151, 710-728.

Panissod, C., 1997. Prospection électrique et électrostatique à faible profondeur à l’aide de


systèmes multipôles permettant la description directe des structures en 3-D. Thèse de doctorat
de l’Université Paris 6, 238 p.

Panissod, C., Dabas, M., Hesse, A., Jolivet, A., Tabbagh, J. and Tabbagh, A., 1998. Recent
developments in shallow-depth electrical and electrostatic prospecting using mobile arrays.
Geophysics, 63, 1542-1550.

Parasnis, D.S. 1997. Principles of applied geophysics. Chapman & Hall. 429 p.

Park, S., 1998. Fluid migration in the vadose zone from 3-D inversion of resistivity
monitoring data. Geophysics, 63, 41-51.

Park, S. K. and Van, G. P., 1991. Inversion of pole-pole data for 3-D resistivity structure
beneath arrays of electrodes. Geophysics, 56, 951-960.

199
Pelton, W. H., Rijo, L. and Swift, C. M., 1978. Inversion of two-dimensional resistivity and
induced-polarization data. Geophysics, 43, 788-803.

Pessel, M., 2000. Tomographie de résistivité électrique : Développements méthodologiques et


applications. Thèse de doctorat de l'Université de Rennes I, 129 p.

Poirmeur, C., 1986. Modélisation tridimensionnelle en courant continu : méthode et


application à la prospection géophysique. Thèse de doctorat de l’Université de Montpellier,
234 p.

Poirmeur, C. and Vasseur, G., 1988. Three-dimensional modeling of a hole-to-hole electrical


method - Application to the interpretation of a field survey. Geophysics, 53, 402-414.

Polyak, E. et Ribiere, G., 1969. Note sur la convergence des méthodes conjuguées. Rev. Fr.
Inr. Rech. Oper., 16, 35-43.

Pous, J., Marcuello, A. and Queralt, P., 1987. Resistivity inversion with a priori information.
Geophysical Prospecting, 35, 590-603.

Press, W.H., Teukolsky, S.A., Vetterling, W.T. and Flannery, B.P., 1992. Numerical recipes
in Fortran. Press Syndicate of the University of Cambridge, New York, 963 p.

Pridmore, D. F., Hohmann, G. W., Ward, S. H. and Sill, W. R., 1981. An investigation of
finite-element modeling for electrical and electromagnetic data in three-dimensions.
Geophysics, 46, 1009-1024.

Queralt, P., Pous, J. and Marcuello, A., 1991. 2-D resistivity modeling: An approach to arrays
parallel to the strike direction. Geophysics, 56, 941-950.

Reynard, E., Delaloye, R., Baron, L., Chapellier, D., Devaud, G., Lambiel, C., Marescot, L.,
Monnet, R. 2003. Glacier/permafrost relationships in recently deglaciated forefields of small
alpine glaciers (Penninic Alps, Valais, Western Switzerland). The 8th International
Conference on Permafrost, Zurich, Switzerland, July 2003, 947-952.

Robain, H., Albouy, Y., Dabas, M., Descloitres, M., Camerlynck, C., Melcher, P. and
Tabbagh, A., 1999. The location of infinite electrodes in pole-pole electrical surveys:
consequences for 2D imaging. Journal of Applied Geophysics, 41, 313-333.

Roy, A., 1972. Depth of investigation in Wenner three-electrode and dipole-dipole dc


resistivity methods. Geophysical Prospecting, 20, 329-340.

Roy, A. and Apparao, A., 1971. Depth of investigation in direct current methods. Geophysics,
36, 943-959.

Sasaki, Y., 1992. Resolution of resistivity tomography inferred from numerical simulation.
Geophysical Prospecting, 40, 453-464.

Sasaki, Y., 1994. 3-D resistivity inversion using the finite-element method. Geophysics, 59,
1839-1848.

200
Scurtu, E. F., 1972. Computer calculation of resistivity pseudo-sections of a buried spherical
conductor body. Geophysical Prospecting, 20, 605-625.

Shima, H., 1990. Two-dimensional automatic resistivity inversion technique using alpha
centers. Geophysics, 55, 682-694.

Shima, H., 1992. 2-D and 3-D resistivity imaging reconstruction using crosshole data.
Geophysics, 55, 682-694.

Slater, L., Binley, A.M., Daily, W. and Johnson, R., 2000. Cross-hole electrical imaging of a
controlled saline tracer injection. Journal of Applied Geophysics, 44, 85-102.

Spies, B. R. and Ellis, R. G., 1995. Cross-borehole resistivity tomography of a pilot-scale, in-
situ vitrification test. Geophysics, 60, 886-898.

Spitzer, K., 1995. A 3-D finite difference algorithm for D.C. resistivity modelling using
conjugate gradient methods. Geophysical Journal International, 123, 903-914.

Spitzer, K., 1998. The three-dimensional DC sensitivity for surface and subsurface sources.
Geophysical Journal International, 134, 736 - 746.

Spitzer, K., Chouteau, M. and Boulanger, O., 1999. Grid-independent electrode positioning
for 3D DC resistivity and IP forward modelling. 2nd International Symposium on Three-
dimensional Electromagnetics, Salt Lake City, USA, 188-192.

Spitzer, K. and Kumpel, H.-J., 1997. 3D FD resistivity modelling and sensitivity analyses
applied to a highly resistive phonolitic body. Geophysical Prospecting, 45, 963-982.

Stefanescu, S., 1970. Nouvelles applications de la théorie des milieux alpha harmoniques à la
prospection électrique en courant continu. Geophysical Prospecting, 18, 786-799.

Tabbagh, A., 1985. The response of a three-dimensional magnetic and conductive body in
shallow depth electromagnetic prospecting. Geophysical Journal of the Royal Astronomical
Society, 81, 215-230.

Tabbagh, A., Hesse, A. and Grard, R., 1993. Determination of electrical properties of the
ground at shallow depth with an electrostatic quadrupole: field trials on archaeological sites.
Geophysical Prospecting, 41, 579-597.

Tarantola, A. and Valette, B., 1982a. Generalized nonlinear inverse problems solved using
the least squares criterion. Review of Geophysics and Space Physics, vol. 20, 2, 219-232.

Tarantola, A. and Valette, B., 1982b. Inverse problem=Quest for information. Journal of
Geophysics, 50, 159-170.

Tripp, A.C., Hohmann, G.W. and Swift, C.M., 1984. Two-dimensional resistivity inversion.
Geophysics, 49, 1708-1717.

Tsokas, G.N., Tsourlos, P.I. and Szymanski, J.E., 1997. Square array resistivity anomalies and
inhomogeneity ratio calculated by the finite-element method. Geophysics, 62, 426-435.

201
Tsourlos, P. I., Szymanski, J. E. and Tsokas, G. N., 1999. The effect of terrain topography on
commonly used resistivity arrays. Geophysics, 64, 1357-1363.

WAIC. Log Interpretation charts, Atlas Wireline Services, Western Atlas International, Inc.
1985.

Wait, J.R., 1982. Geo-electromagnetism, Academic Press, London, 268 p.

Wang, T., Stodt, J., Stierman. D. and Murdoch, L., 1991. Mapping hydraulic fractures using a
borehole-to-surface electrical resistivity method. Geoexploration, 28, 349-369.

Weller, A., Frangos, W. and Seichter, M., 1999. Three-dimensional inversion of induced
polarization data from simulated waste. Journal of Applied Geophysics. 41, 31-47.

Wu, X., 2003. A 3-D finite-element algorithm for DC resistivity modelling using the shifted
incomplete Cholesky conjugate gradient method. Geophysical Journal International, 154,
947-956.

Yaramanci, U., 2000. Geoelectric exploration and monitoring in rock salt for the safety
assessment of underground waste disposal sites. Journal of Applied Geophysics, 44, 181-196.

Yaramanci, U., Kiewer, M., 2000. Geoelectrical characterisation of disturbed rock zone in
Opalinus clay (Mont-Terri / Switzerland). Proceedings of 6th Meeting of Enviromental and
Engineering Geophysics, Bochum, Germany, 2000.

Yi, M.-J., Kim, J.-H., Song, Y., Cho, S.J., Chung, S.-H. and Suh, J.H., 2001. Three-
dimensional imaging of subsurface structures using resistivity data. Geophysical Prospecting,
49, 483-497.

Zhang, J., Mackie, R.L. and Madden, T.R., 1995. 3-D resistivity forward modeling and
inversion using conjugate gradients. Geophysics, 60, 1313-1325.

Zhao, J.S., Rijo, L. and Ward, S.H., 1986. Effects of geologic noise on cross-borehole
electrical surveys. Geophysics, 51, 1978-1991.

Zhdanov, M.S. and Keller, G.V., 1994. The geoelectrical methods in geophysical exploration.
Methods in geochemistry and geophysics, 31, Elsevier, Amsterdam, 873 p.

Zhou, B. and Dahlin, T., 2003. Properties and effects of measurement errors on 2D resistivity
imaging surveying. Near Surface Geophysics, 1, 105-117.

Zhu, J.Z. and Zienkiewicz, O.C., 1988. Adaptative techniques in the finite element method.
Comm. Appl. Num. Math., 4, 197-204.

Zienkiewicz, O.C. and Taylor, R.L., 2000. The finite element method, Volume 1. Butterworth-
Heinemann, 689 p.

202
ANNEXE TECHNIQUE

203
204
Les éléments de CESAR-LCPC pour un problème de diffusion

Nous donnons ici la liste des éléments pouvant être utilisés pour la modélisation électrique
avec CESAR-LCPC (version 3.x). Pour les problèmes de diffusion, cinq familles d’éléments
sont proposées :

Famille 21 : Eléments isoparamétriques bidimensionnels de type diffusion,


Famille 22 : Eléments isoparamétriques tridimensionnels de type diffusion,
Famille 23 : Eléments d'échange bidimensionnels,
Famille 24 : Eléments d'échange tridimensionnels,
Famille 25 : Eléments discontinus pour la recherche d'une surface libre (problèmes plans).

Pour le problème électrique en trois dimensions, la Famille 22 est la mieux adaptée. Cette
famille comprend les éléments suivants :

DTH8 : Hexaèdre à 8 nœuds,


DTH20 : Hexaèdre à 20 nœuds,
DTH27 : Hexaèdre à 27 nœuds,
DTP6 : Pentaèdre à 6 nœuds,
DTP15 : Pentaèdre à 15 nœuds,
DTP18 : Pentaèdre à 18 nœuds,
DTT4 : Tétraèdre à 4 nœuds,
DTT10 : Tétraèdre à 10 nœuds,
DTHT : Hexaèdre de transition.

L’élément de base utilisé pour construire un élément de transition est un hexaèdre à 20 nœuds.
A l’exception des 8 nœuds des sommets, nous pouvons supprimer n’importe quel nœud de cet
élément de base pour construire un élément de transition. Cet élément permet de relier des
éléments possédant 4 nœuds sur une face avec des éléments possédant 8 nœuds sur une face
par exemple.

Le préprocesseur MAX3D propose la création de maillages tridimensionnels par la


transformation (rotation ou translation par exemple) d’un maillage bidimensionnel, par
l’assemblage de sous-maillages ou encore par la création de super-éléments. Un super élément
est un volume parallélépipédique de forme quelconque qui peut être rempli automatiquement
au moyen d’hexaèdres à 8 ou 20 nœuds. Nous pouvons alors assembler plusieurs super-
éléments pour créer un maillage 3D complexe en fusionnant ensuite les nœuds communs.

205
Particularités du progiciel CESAR-LCPC

Particularité du solveur
Nous présentons ici quelques particularités du solveur CESAR. Les différentes techniques
numériques et conventions de programmation présentées ici sont couramment utilisées dans
l’établissement du programme de modélisation directe ainsi que du module d’inversion. Cette
annexe sera donc utile pour les personnes désirant poursuivre le développement des codes
présentés dans ce mémoire. La définition des variables est donnée dans la documentation du
progiciel. L’accès aux codes créés dans ce travail (TOMELE et INVS) est restreint, une
demande au LCPC devant être effectuée.

Conditions aux limites


CESAR prend en compte les conditions aux limites de potentiel imposé par élimination. Le
système à résoudre Ka=F peut s'écrire (avec n la dimension du système, soit NDLT dans
CESAR) :

 k11 & k1( i −1) k1i k1(i +1) & kin   a1   f1 


 $ $ $ $ $   $   $ 
    
 k( i −1)1 & k( i −1)( i −1) k( i −1) i k( i −1)( i +1) & k( i −1) n   a( i −1)   f ( i −1) 
    
 ki1 & ki ( i −1) kii ki ( i +1) & kin   ai  =  fi  (A.1)
 k( i +1)1 & k( i +1)( i −1) k( i +1)i k( i +1)( i +1) & k( i +1) n   a( i +1)   f ( i +1) 
    
 $ $ $ $ $  $   $ 
 k & kn ( i −1) kni kn (i +1) & knn   an   f n 
 n1

Supposons que l'on impose ai=u. Il n’est évidemment pas possible d’imposer en même temps
une sollicitation extérieure sur le degré de liberté i dans ce cas. CESAR supprime donc la
ième équation (soit la ligne i de la matrice). Dans les autres équations, ai sera remplacée par sa
valeur imposée. En ne faisant apparaître dans le premier membre que les variables non
imposées, on obtient donc :

 k11 & k1( i −1) k1( i +1) & kin   a1   f1   k1u 


 $ $ $ $   $   $   $ 
      
 k( i −1)1 & k( i −1)( i −1) k(i −1)(i +1) & k( i −1) n   a( i −1)   f ( i −1)   k( i −1)u 
  = −  (A.2)
 k( i +1)1 & k( i +1)( i −1) k(i +1)(i +1) & k( i +1) n   a( i +1)   f ( i +1)   k( i +1)u 
 $ $ $ $  $   $   $ 
      
 kn1 & kn ( i −1) kn ( i +1) & knn   an   f n   knu 

206
CESAR résout donc ce nouveau système qui n'est plus de dimension NDLT mais NEQ. Le
module BLCOND situé en amont du module d’exécution calcule cette variable NEQ et
modifie un certain nombre de tableaux. En particulier, il constitue les tableaux KNEQ et
VDIMP. Pour l'inconnue j (j>=1 et j<=NDLT), si KNEQ(j)>0 le tableau VDIMP indique le
nouveau numéro d'inconnue dans le système à résoudre. Si KNEQ(j)=-k (et donc <0) cela
signifie que le degré de liberté est imposé. La valeur correspondante est donnée par
VDIMP(k). Il faut de plus modifier le vecteur sollicitation (second membre). Il faut également
le redimensionner, ce qui est fait par la routine FOCOND (dans la partie constitution du
second membre dans EXLINE par exemple). D’autre part, il faut modifier les valeurs
numériques du vecteur sauf si on pose u=0. On ne vient donc modifier le second membre que
si le nombre NCLNZ de degrés imposés non nuls est plus grand que zéro. Dans CESAR,
NCLZ est le nombre de degrés de liberté imposés à zéro et NCLT=NCLZ+NCLNZ est le
nombre total de variables imposées. Cette remarque a son importance pour l’élaboration du
module d’inversion, car nous imposons des potentiels nuls pour le calcul du champ de
potentiel et de son champ adjoint.

Stockage de la matrice globale


CESAR utilise systématiquement le format de stockage ligne de ciel ou skyline storage pour
le traitement de la matrice globale. Une série de routines sont associées à ce format de
stockage telles que KONFI (calcul de KLD), ASSEM (assemblage de la matrice), SOL
(factorisation de Crout LDtL d’une matrice symétrique avec résolution optionnelle pour un
vecteur de second membre) et RESOL (résolution par descente-remontée des systèmes
triangulaires associés à la forme factorisée).

Pratiquement, le triangle supérieur de la matrice globale peut être représenté à l’aide d’un
vecteur VKGS, contenant les termes de la matrice, et d’un vecteur de pointeurs d’adresses
entier KLD, avec :

KLD[1]=1 par convention ;


KLD[NEQ+1]=Surface du profil sous la ligne de ciel ;
La hauteur de la colonne k (hors diagonale) est h = KLD[k+1]-KLD[k].

Le triangle supérieur de la matrice globale (hors diagonale) est alors représenté sous forme
vectorielle dans un vecteur VKGS. Avec un tel système d’adressage, pour trouver le terme aij
avec i<j (si i>j, rechercher aji; si j=i, aii = KLD[i]), on procède de la façon suivante :

207
La hauteur de la colonne j (diminuée de la diagonale) est donnée par
h = KLD[j+1] - KLD[j].
L’indice de ligne du terme (différent de zéro) du haut de la colonne j est donc p=j-h.
Si h est différent de zéro, ce terme de haut de colonne est apj = VKGS(KLD[j]).
Dans ce cas, si i<p, aij = 0; sinon aij = VKGS(KLD[j]+i-p).

Allocation pseudo-dynamique des tables


Le langage FORTRAN 77 ne permet pas de définir dynamiquement la dimension des tables
en cours d'exécution d'un programme. CESAR utilise une technique d'allocation pseudo-
dynamique des tables dans laquelle les tables sont dimensionnées comme des vecteurs et non
pas comme des matrices, toutes les tables étant placées séquentiellement dans une table
unique VA et chaque table étant repérée par la position (donnée par un pointeur) de son
premier terme dans VA. La dimension totale de l'ensemble des tables est limitée par la
dimension du vecteur VA, définie dans le programme principal. Les pointeurs de chacune des
tables sont conservés dans le commun nommé LOCVA. La taille des tableaux est modifiable
dynamiquement. Il suffit de créer dans le répertoire de travail le fichier TCESAR contenant
les tailles des tableaux.

La création d'un vecteur (calcul du pointeur, et modification du pointeur IVA) est effectuée
par les sous-programmes ESPAKA (vecteur d'entiers) ou ESPAVA (vecteur de réels). La
suppression d'un vecteur (décalage des vecteurs qui le suivent et modifications de leur
pointeur et de IVA) est effectuée dans les sous-programmes MODIKA (vecteur entier) ou
MODIVA (vecteur réel). Le sous-programme MISA1 libère dans VA tout l'espace occupé à
partir d’un certain vecteur. Le dimensionnement de ces tableaux a lieu dans la première partie
du module d’exécution (BLINVS pour le module INVS).

On notera que la zone de VA non utilisée après allocation des principaux tableaux joue un
rôle très important car elle est appelée à recevoir la matrice globale ou plus généralement, une
portion de celle-ci. La taille de cette matrice est donnée par VKGS (soit la variable ITAIL).
On désigne par LVA la longueur de VA déjà mobilisée. Il advient parfois que ces tailles de
tableaux soient si importantes que la factorisation matricielle doit être effectuée en plusieurs
étapes (factorisation out of core). À chaque étape, une fraction de la matrice est factorisée,
cette fraction étant déterminée de façon à occuper au maximum la mémoire centrale, puis la
mémoire est libérée pour factoriser le bloc matriciel suivant. Des pointeurs servent à gérer les
accès-disques amenant en mémoire centrale les blocs matriciels utiles à chaque étape.

208

Vous aimerez peut-être aussi

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy