Habert 1 PDF

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 163

En vue de l'obtention du

DOCTORAT DE L'UNIVERSITÉ DE TOULOUSE


Délivré par :
Institut National Polytechnique de Toulouse (INP Toulouse)
Discipline ou spécialité :
Hydrologie, Hydrochimie, Sols, Environnement

Présentée et soutenue par :


M. JOHAN HABERT
le mercredi 6 janvier 2016
Titre :
PREVISIONS DES CRUES EN TEMPS REEL SUR LE BASSIN DE LA
MARNE : ASSIMILATION IN SITU POUR LA CORRECTION DU MODELE
HYDRAULIQUE MONO-DIMENSIONNEL MASCARET

Ecole doctorale :
Sciences de l'Univers de l'Environnement et de l'Espace (SDUEE)
Unité de recherche :
Centre Européen de Recherche et Formation Avancées en Calcul Scientifique (CERFACS)
Directeur(s) de Thèse :
M. OLIVIER THUAL
MME SOPHIE RICCI
Rapporteurs :
M. JEAN-MICHEL TANGUY, MINISTERE DE L'ECOLOGIE
Mme FLORENCE HABETS, UNIVERSITE PIERRE ET MARIE CURIE
M. PIERRE-OLIVIER MALATERRE, IRSTEA
Membre(s) du jury :
1 Mme NICOLE GOUTAL, EDF CHATOU, Président
2 M. ANTOINE HERMAN, CEREMA, Membre
2 M. BRUNO JANET, MINISTERE DE L'ECOLOGIE, Membre
2 Mme SOPHIE RICCI, CERFACS, Membre
2 M. OLIVIER THUAL, INP TOULOUSE, Membre
Résumé

La prévision des crues et des inondations reste aujourd’hui un défi pour antici-
per et assurer la sécurité des biens et des personnes. En France, le SCHAPI, qui dépend
du MEDDE, assure ce rôle. Les niveaux et les débits d’un cours d’eau dépendent étroi-
tement des interactions à différentes échelles entre les précipitations, les caractéristiques
géométriques du cours d’eau et les propriétés topographiques, géologiques et pédolo-
giques du bassin versant. Les modèles hydrauliques, utilisés dans le cadre de la prévision
des crues, sont entachés d’incertitudes qu’il est nécessaire de quantifier et de corriger afin
de mieux anticiper l’évolution hydrodynamique du cours d’eau en temps réel. L’objectif
de ces travaux de thèse est d’améliorer les prévisions de hauteurs d’eau et de débits, sur
le bassin de la Marne, issues des modèles hydrauliques utilisés dans le cadre opérationnel
de la prévision des crues à partir de méthodes d’assimilation de données. Ces prévisions
reposent sur une modélisation mono-dimensionnelle (1D) de l’hydrodynamique du cours
d’eau à partir du code hydraulique 1D Mascaret basé sur la résolution des équations de
Saint-Venant, enrichie par une méthode d’assimilation de données in situ utilisant un
Filtre de Kalman Étendu (EKF).
Ce mémoire de thèse s’articule en cinq chapitres, trois dédiés à la recherche
et les deux derniers à l’application opérationnelle. Le chapitre 1 présente les données
et les outils utilisés pour caractériser le risque inondation dans le cadre de la prévision
des crues, ainsi que les modèles hydrauliques Marne Amont Global (MAG) et Marne
Moyenne (MM), sujets d’application des méthodes d’assimilation de données dévelop-
pées dans cette étude. Le chapitre 2 est dédié à la méthodologie : il traite des différentes
sources d’incertitudes liées à la modélisation hydraulique et présente les approches d’as-
similation de données de type EKF appliquées dans cette étude à travers la maquette
DAMP pour les réduire. Dans le chapitre 3, cette approche est appliquée aux modèles
MAG et MM en mode réanalyse pour un ensemble de crues ayant touché le bassin de la
Marne par le passé. Deux publications ont été insérées dans ce chapitre "étude". Dans le
chapitre 4, les corrections appliquées dans le chapitre 3, sont validées à partir du rejeu
de la crue de 1983 en condition opérationnelle avec le modèle MM. La quantification
des incertitudes de prévision et la réalisation de cartes de zones inondées potentielles y
sont aussi abordées. L’application de ces méthodes d’assimilation de données pour les
modèles MAG et MM en opérationnel au SCHAPI au niveau national et au SPC SAMA
au niveau local est présentée dans le chapitre 5.
Cette thèse s’inscrit dans un contexte collaboratif où chacun apporte son ex-
pertise : la modélisation hydraulique pour le LNHE, les méthodes numériques pour le
CERFACS et la prévision opérationnelle pour le SCHAPI. L’ensemble de ces travaux
de thèse a permis de démontrer les bénéfices et la complémentarité de l’estimation des
paramètres et de l’état hydraulique par assimilation de données sur les hauteurs d’eau et
les débits prévus par un modèle hydraulique 1D, ce qui constitue un enjeu d’importance
pour l’anticipation du risque hydrologique. Ces méthodes ont été intégrées dans la chaîne
opérationnelle de prévision du SCHAPI et du SPC SAMA.
Abstract

Flood forecasting remains a challenge to anticipate and insure security of people.


In France, the SCHAPI, which depends on the MEDDE, takes this function. Water levels
and discharges are highly dependent on interactions at different scales between rainfall,
geometric characteristics of rivers and topographic, geological and soil properties of the
watershed. Hydraulic models, used in the context of flood forecasting, are tainted by
uncertainties which require to be quantified and corrected in order to better anticipate
flow evolution in real time. The work carried out for this PhD thesis aims to improve
water level and discharge forecasts on the Marne watershed, from hydraulic models used
in the operational framework of flood forecasting using data assimilation methods. These
forecasts come from a mono-dimensional (1D) hydraulic model Mascaret based on the
resolution of Saint-Venant equations, improved by data assimilation methods using an
Extended Kalman Filter (EKF).
This thesis consists of five chapters, three dedicated to research and the two
last to the operational application. The first presents data, tools and methods used
to characterize the flood risk in the context of flood forecasting, as well as the Marne
Amont Global (MAG) and Marne Moyenne (MM) models, subjects of application of
data assimilation methods developed in this study. The second chapter covers hydraulic
model uncertainties and data assimilation methodology (Kalman filter) applied in this
thesis through DAMP in order to reduce them. In the third chapter, this approach is
applied to the MAG and MM models for different flood events. In the fourth chapter,
the April 1983 flood event allows to validate the corrections applied in the previous
chapter for the MM model in an operational context. The uncertainties evaluations and
the mapping of potential flooded zones are also reported. The real-time application of
these data assimilation methods for MAG and MM models by SCHAPI and SPC SAMA
is presented in the fifth chapter.
This thesis takes place in a collaborative work where each member brings his
own expertise : the hydraulic modeling for LNHE, the numeric methods for the CER-
FACS and operational forecasting for the SCHAPI. This thesis shows the benefits and
complementarity of the evaluation of parameters and hydraulic state using data assi-
milation on water levels and discharges forecasted by a 1D hydraulic model, which is
an important issue for the anticipation of hydrologic risk. These methods have already
been integrated to the operational chain of flood forecasting of the SCHAPI and the
SPC SAMA.
Sommaire

Introduction 1

1 Le risque inondation et la prévision des crues 7


1.1 Le risque inondation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.1 Un risque naturel majeur . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.2 Définitions et typologie des inondations . . . . . . . . . . . . . . . 8
1.2 Observer pour mieux prévoir . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1 Les observations et prévisions pluviométriques . . . . . . . . . . . 11
1.2.2 Les observations hydrométriques . . . . . . . . . . . . . . . . . . . 13
1.2.3 Les données maritimes . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.4 Les données topographiques et bathymétriques . . . . . . . . . . . 18
1.3 Les modèles de prévision des crues . . . . . . . . . . . . . . . . . . . . . . 20
1.3.1 Les modèles hydrologiques . . . . . . . . . . . . . . . . . . . . . . . 21
1.3.2 Les modèles hydrauliques . . . . . . . . . . . . . . . . . . . . . . . 26
1.4 La prévision opérationnelle des crues en France et ailleurs . . . . . . . . . 28
1.4.1 Vue d’ensemble des centres opérationnels à l’échelle européenne . . 28
1.4.2 Rappel historique et législatif de la prévision des crues en France . 29
1.4.3 Le réseau Vigicrues . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.4.4 Le site internet Vigicrues et la carte de vigilance météorologique . 31
1.5 Limiter et anticiper les crues sur le bassin de la Seine . . . . . . . . . . . . 34
1.5.1 L’EPTB Seine Grands Lacs . . . . . . . . . . . . . . . . . . . . . . 36
1.5.2 Le territoire de compétence du SPC SAMA . . . . . . . . . . . . . 37
1.5.3 Le modèle Marne Amont Global . . . . . . . . . . . . . . . . . . . 41
1.5.4 Le modèle Marne Moyenne . . . . . . . . . . . . . . . . . . . . . . 49

2 Contexte et implémentation de l’assimilation de données 55


2.1 Le code d’hydraulique 1D Mascaret . . . . . . . . . . . . . . . . . . . . . . 56
2.1.1 Forme non-conservative des équations de Saint-Venant . . . . . . . 56
2.1.2 Données nécessaires à un calcul . . . . . . . . . . . . . . . . . . . . 57
2.2 Les incertitudes liées aux observations et à la modélisation . . . . . . . . . 61
2.2.1 Incertitudes et erreurs . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.2.2 Les incertitudes liées aux observations . . . . . . . . . . . . . . . . 61
2.2.3 Les incertitudes liées à la modélisation hydraulique . . . . . . . . . 62

i
2.3 L’assimilation de données . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.3.1 État de l’art de l’assimilation de données appliquée à l’hydraulique
fluviale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.3.2 Formalisme de l’assimilation de données de type filtrage . . . . . . 66
2.3.3 La méthode d’assimilation BLUE . . . . . . . . . . . . . . . . . . . 67
2.3.4 Le filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.3.5 Le coupleur OpenPALM . . . . . . . . . . . . . . . . . . . . . . . . 68
2.4 Implémentation de la maquette d’assimilation de données DAMP . . . . . 71
2.4.1 Correction des forçages amont . . . . . . . . . . . . . . . . . . . . 71
2.4.2 Correction des coefficients de Strickler . . . . . . . . . . . . . . . . 73
2.4.3 Correction de la ligne d’eau . . . . . . . . . . . . . . . . . . . . . . 74
2.4.4 Cyclage de l’analyse . . . . . . . . . . . . . . . . . . . . . . . . . . 75

3 Application de la correction des apports intermédiaires et des Ks par


assimilation de données 79
3.1 Estimation des apports intermédiaires par assimilation de données pour
le modèle Marne Amont Global (MAG) . . . . . . . . . . . . . . . . . . . 80
3.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.1.2 Article publié dans le cadre de la conférence SimHydro 2012 . . . . 81
3.1.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.2 Application d’un Ks local contrôlé par assimilation de données pour le
modèle Marne Amont Global (MAG) . . . . . . . . . . . . . . . . . . . . . 94
3.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.2.2 Article publié dans la revue Journal of Hydrology . . . . . . . . . . 94
3.2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.3 Correction de la dynamique du modèle par assimilation de données pour
le modèle Marne Moyenne (MM) . . . . . . . . . . . . . . . . . . . . . . . 109
3.3.1 Impact d’une modification des Ks de longues distances . . . . . . . 110
3.3.2 Correction des Ks sur de longues distances par assimilation de
données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

4 Développements et validation pré-opérationnelle : application au mo-


dèle Marne Moyenne pour la crue d’avril 1983 127
4.1 Quantification des incertitudes de prévision . . . . . . . . . . . . . . . . . 128
4.1.1 Méthode d’analyse des erreurs constatées a posteriori . . . . . . . 128
4.1.2 Exploitation de la matrice A des erreurs d’analyse . . . . . . . . . 132
4.2 De la prévision des crues à la prévision des inondations . . . . . . . . . . . 133
4.2.1 La prévision des inondations . . . . . . . . . . . . . . . . . . . . . 133
4.2.2 Création d’une carte de zone inondée potentielle avec QGIS et
CartoZI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.3 Validation des travaux à partir de la crue d’avril 1983 avec le modèle MM 137
4.3.1 Présentation du scénario . . . . . . . . . . . . . . . . . . . . . . . . 137
4.3.2 Enchaînement de la correction des forçages amont, des Ks et de
l’état hydraulique par assimilation de données . . . . . . . . . . . . 138

ii
4.3.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
4.3.4 Quantification des incertitudes . . . . . . . . . . . . . . . . . . . . 143
4.3.5 Prévision des inondations . . . . . . . . . . . . . . . . . . . . . . . 145

5 Application opérationnelle 153


5.1 Au SPC SAMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
5.1.1 La maquette DAMP et l’outil opérationnel TOAD . . . . . . . . . 154
5.1.2 Le modèle Marne Amont Global avec assimilation de données . . . 156
5.1.3 Le modèle Marne Moyenne avec assimilation de données . . . . . . 159
5.1.4 L’enchaînement GRP - Mascaret . . . . . . . . . . . . . . . . . . . 161
5.2 Au SCHAPI avec la Plate-forme Opérationnelle de Modélisation (POM) . 165
5.3 Perspectives d’évolution . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
5.3.1 De la maquette DAMP . . . . . . . . . . . . . . . . . . . . . . . . 168
5.3.2 De la prévision des crues au SCHAPI . . . . . . . . . . . . . . . . 168
5.3.3 De la prévision des crues au SPC SAMA . . . . . . . . . . . . . . . 169

Conclusion 171

Table des figures 175

Liste des tableaux 181

Annexe 1 183

Annexe 2 187

Annexe 3 195

Annexe 4 201

Glossaire 207

Liste des acronymes 209

Bibliographie 213

iii
iv
Introduction

Le risque inondation est un des plus importants risques naturels en termes de


pertes humaines, environnementales et économiques. En 2011, les inondations ont repré-
senté une catastrophe naturelle sur deux et ont été responsables de 20,4% des décès liés
aux catastrophes naturelles dans le monde (Guha-Sapir et al., 2012). Entre 1998 et 2008,
plus d’une centaine de grandes inondations ont eu lieu en Europe, engendrant la mort de
700 personnes et le déplacement de plus d’un demi-million d’individus. Il est probable
que leurs nombres et leurs dégâts s’intensifient avec le changement climatique au cours
des prochaines années. Les inondations majeures dans les Balkans au printemps 2014 ont
été qualifiées d’historiques : les plus importantes précipitations depuis que les mesures
météorologiques existent (120 ans) ont été enregistrées. Elles ont entraîné le décès de
59 personnes et l’évacuation de plus de 100 000 personnes en Bosnie-Herzégovine. Les
inondations ont aussi un coût économique : au Royaume-Uni, la crue de l’été 2007 a
causé des pertes estimées à plus de 4 milliards de livres sterling. Le bilan de la crue du
Var dans le Sud-Est de la France en 2010 est de 25 victimes. Elle a aussi occasionné des
dégâts estimés à plus de 700 millions d’euros (MEDDE, 2011). En 2009, la part de la po-
pulation française exposée au risque d’inondation est estimée à 11%. Une commune sur
deux y est exposée. Il s’agit du risque naturel prépondérant en France métropolitaine 1 .
Face à ce constat, ont été créés en France en 2006, le Service Central d’Hy-
drométéorologie et d’Appui à la Prévision des Inondations (SCHAPI) et les Services de
Prévisions des Crues (SPC) qui en partenariat avec Météo-France ont pour mission de
prévoir et d’anticiper l’ampleur des inondations. Le SCHAPI, en collaboration avec les
22 SPC, produit deux fois par jour une carte de vigilance destinée aux services de la
Sécurité Civile et au grand public sur le site internet Vigicrues 2 . Á chaque cours d’eau
inclus dans le dispositif Vigicrues, est affectée une couleur proposée par les SPC et validée
par le SCHAPI : vert, jaune, orange et rouge, en fonction du niveau de vigilance adapté
pour faire face au danger susceptible de se produire dans les 24 heures à venir. Le choix
de la couleur de vigilance est déterminé en croisant les observations, les prévisions des
modèles hydrologiques, hydrauliques et météorologiques et l’expertise des prévisionnistes
de crue.
Les niveaux et les débits d’un cours d’eau dépendent étroitement des interac-
tions à différentes échelles entre les précipitations, les caractéristiques géométriques du

1. www.statistiques.developpement-durable.gouv.fr
2. www.vigicrues.gouv.fr

1
cours d’eau et les propriétés topographiques, géologiques et pédologiques du bassin ver-
sant. Deux familles de modèles sont utilisées pour la prévision des crues : les modèles
hydrologiques qui permettent en tête de bassin de prévoir les débits à un exutoire en fonc-
tion des précipitations observées et prévues d’une part, et les modèles hydrauliques qui
simulent la propagation d’une onde de crue en aval de stations hydrométriques d’autre
part. Dans cette thèse, on se concentrera sur l’amélioration des prévisions des modèles
hydrauliques. La validité des prévisions issues des modèles hydrauliques de prévision des
crues dépend de la qualité des données d’entrée du modèle (les données topographiques
et bathymétriques, les forçages amont). Elle dépend aussi de la façon dont ont été pris
en compte, entre autres, les débits des cours d’eau non-instrumentés et les paramètres
de frottement retenus. Les apports intermédiaires et les valeurs des paramètres de frotte-
ment sont bien souvent ajustés afin d’obtenir des paramètres minimisant les écarts entre
les valeurs simulées par le modèle et celles observées pour plusieurs épisodes de crue. On
nomme cette étape la phase de calage. Le modèle est ensuite validé en simulant d’autres
épisodes.
La qualité des prévisions du modèle hydraulique est facteur de la combinaison
des incertitudes propres aux données d’entrée du modèle et de celles engendrées par la
phase de calage. Les incertitudes en entrée des modèles se traduisent en incertitudes sur
les variables d’intérêt en sortie des modèles. Elles limitent les capacités descriptives et
prédictives de ces derniers. Afin de délivrer une information plus complète aux gestion-
naires de crises et au grand public, il convient de quantifier et si possible, de réduire
ces incertitudes. L’identification, la quantification et la réduction de ces incertitudes est
actuellement une préoccupation centrale pour la communauté de la prévision des crues.
Ces incertitudes peuvent être estimées à partir d’une étude de sensibilité, en mesurant
l’impact sur les valeurs simulées résultant d’une perturbation d’un paramètre ou d’une
donnée d’entrée incertaine du modèle hydraulique. Les approches de type Monte-Carlo
ou utilisant les polynômes du chaos permettent de réaliser ce type d’étude.
Cette thèse s’inscrit dans un contexte collaboratif entre le CERFACS (Centre
Européen de Recherche et de Formation Avancée en Calcul Scientifique, SUC URA
1875), le SCHAPI, EDF R&D (Électricité de France Réseau et Distribution) et le CE-
REMA (Centre d’Études et d’Expertise sur les Risques, l’Environnement, la Mobilité et
l’Aménagement, ex-CETMEF) encadré par une convention. Développé depuis plus de
20 ans au LNHE (Laboratoire National d’Hydraulique et Environnement - EDF R&D)
et au CEREMA, le logiciel Mascaret est un code de modélisation hydraulique mono-
dimensionnelle (1D) à surface libre, basé sur la résolution des équations de Saint-Venant.
Il est utilisé dans le réseau Vigicrues (qui regroupe, entre autres, le SCHAPI et les SPC)
depuis une dizaine d’années pour effectuer des prévisions de hauteurs d’eau et de débits
en opérationnel sur différents cours d’eau surveillés que l’on qualifiera de réglementaires.
L’application de l’assimilation de données à la modélisation hydraulique offre
un cadre pratique pour réduire les erreurs sur les valeurs simulées par le modèle liées
aux différentes sources d’incertitudes. Les méthodes d’assimilation de données ont été
développées à l’origine dans le cadre de la météorologie puis ont été appliquées à d’autres
domaines comme l’océanographie. Elles sont également appliquées depuis une vingtaine

2
d’années à l’hydraulique fluviale pour corriger l’état hydraulique du modèle (Malaterre,
1994, 1998) et plus récemment les incertitudes sur les forçages et les paramètres néces-
saires aux modèles hydrauliques. Le CERFACS a entrepris des travaux en 2010 pour
développer la maquette DAMP (Data Assimilation for Mascaret Prototype) qui permet
le portage et l’utilisation de méthodes d’assimilation de données appliquées aux modèles
hydrauliques Mascaret de prévisions des crues utilisés en opérationnel dans les SPC et
au SCHAPI. L’algorithme de type filtre de Kalman permet une estimation optimale
des incertitudes pour les modèles linéaires. Cette technique a ici été étendue à des pro-
blèmes non-linéaires avec l’utilisation d’un filtre de Kalman Étendu (EKF) aussi bien
pour corriger l’estimation de l’état hydraulique du modèle que pour celle des paramètres
du modèle. Ces travaux ont fait l’objet d’une publication (Ricci et al., 2011) dans la
revue HESS (Hydrology and Earth System Sciences) : il y est montré que l’assimilation
de données de hauteurs d’eau à partir de la maquette DAMP pour corriger les forçages
amont et l’état d’un modèle Mascaret sur le fleuve Adour a permis d’améliorer les pré-
visions à une échéance d’une heure de 60% et de 25% à une échéance de prévision de
12h.

En 2006, le logiciel Mascaret a été fourni au SPC Seine Amont Marne Amont
(SAMA). Le modèle hydraulique Mascaret Marne Amont a été développé en interne en
2006-2007. Il a immédiatement été utilisé en temps réel pour réaliser des prévisions. Suite
aux résultats encourageants obtenus avec ce modèle, cinq autres modèles ont vu le jour :
les modèles Marne Valage (2008), Marne Moyenne (MM) en 2009, Seine Amont (2011),
Seine Bassée Champenoise (2012) et Aube Amont (2013). Ces modèles ont aussi été dé-
veloppés en régie par Jérôme Halgrain, Johann Andrich, Christophe Mage et moi-même.
Outre les problèmes liés à la qualité et aux formats divers des données topographiques
et bathymétriques, la principale difficulté rencontrée a été la quantification des apports
des cours d’eau non-jaugés situés sur le bassin modélisé par le modèle Mascaret. Une
fois les modèles opérationnels établis, les échéances de prévision de certaines stations
étaient bien souvent trop limitées. Les modèles Marne Amont et Marne Valage en sont
une illustration. Pour solutionner ces difficultés, il a été décidé de fusionner les deux
modèles en un modèle global, le modèle Marne Amont Global (MAG), et d’appliquer
des méthodes d’assimilation de données pour améliorer l’estimation des apports inter-
médiaires. Ces travaux ont été réalisés en 2011 dans le cadre de mon stage professionnel
au SCHAPI et au CERFACS (encadré par Étienne Le Pape et Sophie Ricci) pour l’ob-
tention du Mastère Spécialisé Hydraulique de l’ENSEEIHT (École Nationale Supérieure
d’Électrotechnique, d’Électronique, d’Informatique, d’Hydraulique et des Télécommu-
nications) suite à un congé de formation professionnelle et une validation des acquis.
J’ai réintégré le SPC SAMA en 2012. Mon temps de travail est depuis partagé entre
les activités liées à la prévision des crues et à la recherche. L’objectif de cette thèse
est d’améliorer les prévisions des modèles hydrauliques 1D Mascaret utilisés
dans le cadre opérationnel de la prévision des crues à partir de méthodes
d’assimilation de données. Ces travaux sont appliqués aux modèles MAG et MM
opérationnels au SPC SAMA mais les méthodes et les outils présentés ici, notamment
la maquette DAMP, peuvent être utilisés sur d’autres bassins versants. L’utilisation de

3
méthodes d’assimilation de données pour la prévision des crues opérationnelle s’inscrit
dans un contexte de développement conjoint avec les thèses de Sébastien Barthélémy
et de Nabil El Mocayd, doctorants au CERFACS. Le prototype opérationnel de DAMP
évolue petit à petit en intégrant les avancées des travaux de recherche et les modifica-
tions liées aux besoins opérationnels. La mise en application rapide des avancées de mes
travaux au sein du SPC a été une condition qui a facilité la mise à disposition par la
DREAL (Direction Régionale de l’Environnement, de l’Aménagement et du Logement)
Champagne-Ardenne dont dépend le SPC SAMA de 50% de mon temps de travail pour
réaliser mes activités de recherche. Dans le cadre d’une utilisation opérationnelle, l’ap-
plication de méthodes d’assimilation de données pour la modélisation hydraulique doit
respecter les contraintes temporelles liées au métier de prévisionniste ainsi que parer
à l’éventualité d’absence temporaire de données. Des outils ont été développés par le
réseau Vigicrues pour faciliter l’intégration dans la chaîne opérationnelle des méthodes
développées dans cette étude.

Ces travaux ont suivi la logique suivante :

• un premier axe de travail porte sur l’identification et la quantification des


incertitudes et leur implication finale sur les prévisions. À travers la par-
ticipation au Groupe de Travail (GT) sur les incertitudes organisé par le
SCHAPI, les sources d’erreurs relatives aux modèles hydrauliques ont été
établies et les fourchettes d’incertitudes des prévisions qui en découlent es-
timées à travers différentes méthodes. Des études de sensibilité aux para-
mètres de frottement ont aussi été réalisées ;
• une fois les sources d’incertitudes connues, des travaux ont pu être entrepris
pour les contourner ou les diminuer en, par exemple, faisant lever de nou-
veaux profils en travers lorsque la donnée géométrique est jugée insuffisante.
Certaines courbes de tarage ont été retravaillées pour améliorer la qualité
des débits observés et/ou utilisés en condition limite amont des modèles
hydrauliques, notamment ceux extrapolés au-delà des plus hauts jaugeages
effectués ;
• le cas échéant, des méthodes d’assimilation de données peuvent être mises
en place pour bénéficier d’une estimation optimale de divers paramètres
incertains ou pour corriger directement les valeurs simulées par le modèle.
Un filtre de Kalman étendu a été appliqué pour corriger les forçages amont,
les paramètres de frottement et l’état hydraulique du modèle à partir de
l’assimilation séquentielle d’hauteurs d’eau et de débits ;
• la finalité de cette étude est d’améliorer les prévisions des modèles hydrau-
liques utilisés en opérationnel au SPC SAMA. Au cours de cette thèse, les
diverses avancées ont donc été appliquées au fur et à mesure en opération-
nel, bien souvent, même avant d’en avoir analysé toutes les composantes et
subtilités. Les prévisionnistes disposent du modèle MAG avec les méthodes
d’assimilation de données présentées dans ce manuscrit depuis décembre
2013.

4
Ce mémoire de thèse s’articule en cinq chapitres, trois dédiés à la recherche et
les deux derniers à l’application opérationnelle.
Le premier chapitre présente les données, les outils et les méthodes utilisées
pour caractériser le risque inondation dans le cadre de la prévision des crues à différentes
échelles : au niveau européen, français et local, au niveau du SPC SAMA avec, entre
autres, les modèles hydrauliques MAG et MM, sujets d’application opérationelle des
méthodes d’assimilation de données présentées dans cette thèse.
Le second chapitre est dédié à la méthodologie. Il traite des équations hydro-
dynamiques à surface libre utilisées par le code hydraulique 1D Mascaret et des données
nécessaires à l’utilisation de ce logiciel dans le cadre de la prévision des crues. On pré-
sentera les différents types d’incertitudes liées à la modélisation hydraulique ainsi que
la méthode stochastique d’assimilation de données (filtre de Kalman) appliquée dans
cette étude pour corriger certaines d’entre elles à partir de la maquette d’assimilation
de données développée par le CERFACS.
Dans le chapitre trois, nous appliquons la correction des forçages amont et des
paramètres de frottement aux modèles MAG et MM. Ce chapitre est composé de trois
parties. La première correspond aux travaux réalisés dans le cadre de mon stage de
Mastère au SCHAPI et du début de mon doctorat où il a été montré à travers l’article
publié dans le cadre de la conférence SIMHYDRO 2012 que la correction des forçages
amont par assimilation permettait d’améliorer l’estimation des apports intermédiaires du
modèle MAG et au final d’améliorer la qualité de ses prévisions. Dans la seconde partie,
le vecteur de contrôle a été étendu aux paramètres de frottement. Il a été démontré avec
l’article soumis dans la revue Journal of Hydology durant l’été 2015 que l’assimilation
de hauteurs d’eau pour corriger localement les paramètres de frottement permettait
d’améliorer la relation hauteur - débit simulée par le modèle MAG. Enfin, la troisième
partie est aussi dédiée à la correction des paramètres de frottement mais cette fois
pour corriger la dynamique de la crue. Les paramètres de frottement sur de grandes
distances sont corrigés pour accélérer ou ralentir l’onde de crue simulée par le modèle
MM à partir de l’assimilation de hauteur d’eau. Une étude de sensibilité a été réalisée au
préalable. Dans ces deux dernières parties, la correction des paramètres de frottements
a été enchaînée à la modification des forçages amont par assimilation de données.
Le chapitre quatre valide les corrections appliquées dans le chapitre trois à
partir du rejeu de la crue de 1983 en condition opérationnelle avec le modèle MM. La
correction de l’état hydraulique est ajoutée au contrôle des forçages et des paramètres
de frottement par assimilation de données. À travers ce chapitre, les développements
réalisés autour de la modélisation hydraulique comme la quantification des incertitudes
de prévision et la réalisation de cartes de zones inondées potentielles seront présentés et
appliqués à la crue de 1983 simulée par le modèle MM.
Le chapitre cinq est plus centré sur mes fonctions premières de prévisionniste
de crue et de chargé de modélisation au SPC SAMA. Il traite de la récente application
en opérationnel au SPC SAMA et au SCHAPI des méthodes d’assimilation de données
présentées dans cette thèse à partir de l’outils TOAD et de la POM et des perspectives
d’évolution à court terme des travaux engagés par le CERFACS, le SCHAPI et le SPC

5
SAMA.
Une conclusion, présentant l’apport des méthodes d’assimilation de données
pour les modèles hydrauliques opérationnelles de prévision des crues clôturera ce ma-
nuscrit.

6
Chapitre 1

Le risque inondation et la
prévision des crues

Sommaire
1.1 Le risque inondation . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.1 Un risque naturel majeur . . . . . . . . . . . . . . . . . . . . . 8
1.1.2 Définitions et typologie des inondations . . . . . . . . . . . . . 8
1.2 Observer pour mieux prévoir . . . . . . . . . . . . . . . . . . . 11
1.2.1 Les observations et prévisions pluviométriques . . . . . . . . . 11
1.2.2 Les observations hydrométriques . . . . . . . . . . . . . . . . . 13
1.2.3 Les données maritimes . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.4 Les données topographiques et bathymétriques . . . . . . . . . 18
1.3 Les modèles de prévision des crues . . . . . . . . . . . . . . . . 20
1.3.1 Les modèles hydrologiques . . . . . . . . . . . . . . . . . . . . . 21
1.3.2 Les modèles hydrauliques . . . . . . . . . . . . . . . . . . . . . 26
1.4 La prévision opérationnelle des crues en France et ailleurs . 28
1.4.1 Vue d’ensemble des centres opérationnels à l’échelle européenne 28
1.4.2 Rappel historique et législatif de la prévision des crues en France 29
1.4.3 Le réseau Vigicrues . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.4.4 Le site internet Vigicrues et la carte de vigilance météorologique 31
1.5 Limiter et anticiper les crues sur le bassin de la Seine . . . . 34
1.5.1 L’EPTB Seine Grands Lacs . . . . . . . . . . . . . . . . . . . . 36
1.5.2 Le territoire de compétence du SPC SAMA . . . . . . . . . . . 37
1.5.3 Le modèle Marne Amont Global . . . . . . . . . . . . . . . . . 41
1.5.4 Le modèle Marne Moyenne . . . . . . . . . . . . . . . . . . . . 49

7
1.1 Le risque inondation
1.1.1 Un risque naturel majeur
On appelle risque naturel la conjonction d’un phénomène naturel nommé aléa
et d’un enjeu, c’est-à-dire l’existence de personnes, de biens et activités pouvant subir
des dommages et des préjudices. L’inondation est une submersion temporaire, par l’eau,
de terres qui ne le sont pas en temps normal. Une inondation grave observée en un
lieu désert n’est donc pas un risque important, mais un événement moyennement grave
survenant dans une zone fortement urbanisée représente un risque fort. Un risque est
considéré comme majeur lorsque aléas et enjeux sont forts, quand il est susceptible de
dépasser les moyens de réaction des secours et/ou que ses conséquences sur le tissu
socio-économique sont de nature à affecter durablement la zone touchée.
Le risque inondation est un risque naturel majeur : en 2011, les inondations ont
représenté une catastrophe naturelle sur deux et ont été responsables de 20,4% des décès
liés aux catastrophes naturelles (Guha-Sapir et al., 2012) dans le monde. Entre 1998
et 2008, plus d’une centaine de grandes inondations ont eu lieu en Europe engendrant
la mort de 700 personnes et le déplacement de plus d’un demi-million de personnes.
On cite pour exemple l’épisode de mai 2014 en Bosnie-Herzégovine et en Serbie, où
les plus importantes précipitations depuis 120 ans de mesures météorologiques ont été
enregistrées entraînant des inondations catastrophiques dans les Balkans. On a recensé
59 morts au total, 33 en Serbie, 24 en Bosnie-Herzégovine et 2 en Croatie. En Bosnie-
Herzégovine, 100 000 personnes ont été évacuées, ce qui représente le plus important
exode depuis la guerre de 1992-95 dans ce pays. Les inondations ont aussi un coût
économique : au Royaume-Uni la crue de l’été 2007 a causé des pertes estimées à plus
de 4 milliards de livres sterling. En 2009, la part de la population française exposée au
risque d’inondation est estimée à 11%, une commune sur deux y est exposée. Il s’agit
du risque naturel prépondérant en France métropolitaine 1 . Face à ce constat, ont été
créés en France en 2006, les Services de Prévisions des Crues (SPC) qui en partenariat
avec Météo-France ont pour mission de prévoir, d’anticiper l’ampleur des inondations et
d’informer les services compétents et le grand public.

1.1.2 Définitions et typologie des inondations


Le risque d’inondation est la conséquence de deux composantes : l’eau qui peut
sortir de son lit habituel d’écoulement et l’homme qui s’installe dans l’espace alluvial pour
y implanter diverses constructions, équipements ou activités. La notion d’inondation
appelle à définir les notions suivantes :
• une crue : élévation de la hauteur du niveau d’eau ou augmentation du débit
moyen d’un cours d’eau ;
• un bassin versant : c’est l’espace sur lequel tous les écoulements des eaux
convergent vers un même point nommé exutoire du bassin versant ; la limite

1. www.statistiques.developpement-durable.gouv.fr

8
physique de cet espace est la ligne de crêtes, appelée aussi ligne de partage
des eaux ;
• le lit mineur : partie du lit du cours d’eau comprise entre les berges franches
ou bien marquées, dans laquelle l’intégralité de l’écoulement s’effectue en-
dehors des périodes de très hautes eaux et de crues débordantes ;
• le lit majeur : c’est le lit maximum qu’occupe un cours d’eau, dans lequel
l’écoulement ne s’effectue que temporairement lors du débordement des eaux
hors lit mineur en période de très hautes eaux, en particulier lors de la plus
grande crue historique.

On recense différentes causes d’inondations, la typologie retenue en France est


la suivante 2 :
• la montée lente des eaux en plaine qui peut être causée par une inonda-
tion de plaine lorsque la rivière sort lentement dans son lit majeur pendant
une période longue ou bien par des remontées de nappes (quand le sol est
saturé, il arrive que la nappe affleure et qu’une inondation spontanée se
produise et perdure) ;
• la formation rapide de crues torrentielles consécutives à des averses
violentes : lorsque des précipitations intenses tombent sur tout un bassin
versant, les eaux ruissellent et se concentrent rapidement dans le cours d’eau,
occasionnant de brutales et violentes montées des eaux (des barrages formés
par des dépôts de sédiments et de bois morts peuvent obstruer rapidement
l’écoulement) ;
• le ruissellement pluvial urbain : l’imperméabilisation des sols (bâti-
ments, voiries, parking,...) limite l’infiltration et accentue le ruissellement,
ce qui occasionne la saturation et le refoulement des réseaux d’assainisse-
ment et des eaux pluviales et provoque des crues rapides en zones urbaines
et péri-urbaines ;
• la submersion marine : une submersion des bords de mer par l’eau de mer,
par exemple les tempêtes provoquent des trains de houle (cf Partie 1.2.3)
qui, si elles sont dirigées vers les côtes, peuvent déferler et envahir le lit-
toral ; ces vagues peuvent être renforcées par un coefficient de marée im-
portant et des phénomènes de surcote (cf Partie 1.2.3). En février 2010,
la tempête Xynthia a provoqué une submersion marine sur les côtes de
Charente-Maritime et de Vendée qui a envahi et piégé les habitants de deux
communes. Environ cinquante personnes ont péri noyées.

D’autres phénomènes saisonniers ou exceptionnels définis dans (WMO, 2011)


peuvent provoquer ou renforcer des inondations tels que :
• la mousson pendant laquelle les pluies peuvent durer plusieurs semaines ;
• la fonte des neiges : une fonte nivale rapide due à une élévation brutale
des températures peut provoquer des inondations au printemps, pouvant

2. www.risques.gouv.fr

9
elles-mêmes être aggravées si elles sont accompagnées de chutes de pluie ;
• les tsunamis (ou raz-de-marée) qui sont des vagues destructrices pouvant
atteindre plusieurs dizaines de mètres, provoquées par un tremblement de
terre, un glissement de terrain sous-marin ou une explosion volcanique. Le
tsunami de 2004 en Asie provoqué par un séisme est la catastrophe la plus
meurtrière des trente dernières années avec plus de 200 000 victimes ;
• la débâcle qui correspond à une rupture brusque d’un barrage de glace dans
les régions nordiques.

10
1.2 Observer pour mieux prévoir
Hormis la fonte nivale et les phénomènes exceptionnels tels que les débâcles,
les tsunamis et les ruptures de barrage-réservoir, c’est la pluviométrie et les conditions
maritimes (pour les estuaires) qui conditionnent les épisodes de crue. Pour comprendre
et anticiper le comportement hydrologique d’un cours d’eau, le prévisionniste de crue se
base en grande partie sur des observations pluviométriques et hydrométriques ainsi que
sur des prévisions issues de modèles numériques météorologiques, hydrologiques et de
propagation détaillées ci-dessous.

1.2.1 Les observations et prévisions pluviométriques


La description des données pluviométriques utilisées pour la prévision des crues
se base sur le document (SCHAPI-SPC, 2014), rédigé dans le cadre d’un chantier com-
mun entre le Service Central d’Hydrométéorologie et d’Appui à la Prévention des Inon-
dations (SCHAPI) et les SPC sur l’estimation des incertitudes de prévision des crues.
Les données pluviométriques se composent d’observations (pluviomètres au sol,
radars) et de prévisions issues de modèles numériques et de l’expertise des météoro-
logues. Les postes pluviométriques au sol fournissent des observations ponctuelles des
pluies à pas de temps fin. Elles permettent d’estimer la lame d’eau précipitée sur le bas-
sin par des méthodes d’interpolation spatiale. Météo-France exploite aussi ces mesures
pour la calibration des images de réflexivité des radars météorologiques. Une lame d’eau
radar est une estimation spatialisée des cumuls de pluie basée sur les observations de
réflexivité radar. Un radar météorologique émet dans l’atmosphère un faisceau d’ondes
électromagnétiques réfléchies par les précipitations qu’elles rencontrent. Le signal en re-
tour (appelé réflexivité) est capté, traité et converti en cumul de pluie. Météo-France met
à disposition des SPC la lame d’eau ANTILOPE (ANalyse par spaTIaLisation hOraire
des PrÉcipitations) calculée au pas de temps horaire et composée de pixels de 1 km2 qui
combine la lame d’eau radar et les données observées aux pluviomètres.
Pour modéliser les évolutions à grande échelle de l’atmosphère décrites par la
mécanique des fluides, l’atmosphère est discrétisée sur une grille à une résolution don-
née. Les modèles de prévisions météorologiques fonctionnent en deux étapes : dans la
première, il s’agit d’intégrer les données observées aux points de grille du modèle numé-
rique jusqu’à l’instant de prévision pour définir les conditions initiales et les conditions
limites. Puis dans la seconde étape, l’atmosphère est décrite comme un milieu continu
et la résolution des équations de la dynamique (formules de Navier-Stokes) permet de
prévoir son évolution jusqu’à l’échéance recherchée. Bien souvent, les simulations passées
mais aussi futures des modèles météorologiques sont améliorées en utilisant des méthodes
d’assimilation de données (cf Chapitre 2). Les variables de base (la pression, le vent,
la température) sont discrétisées sur la maille du modèle pour permettre une résolution
numérique de ces équations. Certains processus physiques comme la formation des pré-
cipitations ont lieu à une échelle plus fine que la maille du modèle. Leur complexité ainsi
que le délai limité de calcul pour élaborer une prévision imposent un traitement simpli-
fié des échanges par une paramétrage « physique » sans description explicite de leurs

11
processus en estimant les entrants et sortants interagissant avec le reste de l’atmosphère.
Les précipitations stratiformes sont générées par des structures atmosphériques
de moyenne à grande échelle dont l’évolution peut être simulée par un modèle composé
de mailles de taille moyenne de 7.5 à 30 km pour le modèle ARPEGE 3 (Action de
Recherche Petite Échelle Grande Échelle) de Météo-France qui présente une grille à taille
variable. L’humidité de l’air est calculée dans chaque maille du modèle et à chaque pas de
temps. Si elle atteint le niveau de saturation dans une maille, le modèle fait précipiter le
« surplus » en eau dans la maille inférieure. Le processus se poursuit de maille en maille
jusqu’à désaturation d’une maille ou jusqu’au sol (pluie). Les précipitations convectives
proviennent de structures atmosphériques plus petites dont l’évolution rapide ne peut
être suivie en détail que par un modèle à mailles fines. Toutefois, même dans les modèles
à haute résolution, il y a une paramétrage d’une partie de la convection. Météo-France,
pour modéliser les pluies convectives utilise les modèles suivants :
• ARPEGE où l’activité convective est modélisée comme uniforme sur toute
la maille. Cette simplification n’est pas sans conséquences, notamment sur
les zones de relief, où la finesse de la maille ne permet pas de rendre compte
des vents locaux et des phénomènes convectifs locaux. On constate alors que
les résultats des modèles sont nettement moins bons dans les régions à relief.
Le système opérationnel de prévision d’ensemble à courte échéance, nommé
PEARP (Prévision d’Ensemble ARPEGE) repose sur le modèle ARPEGE.
Ce système, constitué de 35 membres, vise à quantifier les incertitudes in-
hérentes aux prévisions météorologiques ;
• AROME 4 (Application de la Recherche à l’Opérationnel à MésoÉchelle) où
les phénomènes convectifs sont caractérisés par des échelles spatiales infé-
rieures à celles permettant d’employer l’hypothèse hydrostatique employée
par la plupart des modèles météorologiques. Les modèles à maille très fine
comme AROME (1.3 km) bénéficient ainsi d’une meilleure description du
relief. Les travaux en cours sur le projet PE-AROME (Prévisions d’Ensemble
AROME) permettront de quantifier les erreurs des prévisions d’AROME.
PE-AROME sera opérationnel en 2016.

Les prévisions de précipitations brutes font l’objet d’une critique humaine avant
leur diffusion via les bulletins de prévisions biquotidiens qui informent les SPC des cumuls
pluviométriques à 72 h par pas de 24 h spatialisés sur des zones homogènes. L’expertise
de Météo-France repose sur la connaissance des erreurs des modèles météorologiques et
de la comparaison entre les observations et les prévisions récentes. Les observations et
prévisions météorologiques sont utilisées par le prévisionniste de crue pour effectuer son
expertise mais servent aussi de données d’entrées aux modèles hydrologiques utilisés pour
la prévisions des crues tels que GRP (Génie Rural pour la Prévision, cf Partie 1.3.1). A
ce titre, Météo-France met à disposition des cumuls pluviométriques journaliers prévus
discrétisés au pas de temps tri-horaire (RR3).

3. www.cnrm.meteo.fr/spip.php ?article121
4. www.cnrm.meteo.fr/spip.php ?article120

12
1.2.2 Les observations hydrométriques

On appelle hydrométrie l’ensemble des techniques de mesures des différents


paramètres caractérisant les écoulements dans les cours d’eau. Les deux variables prin-
cipales sont la cote de la surface d’eau libre et le débit du cours d’eau. La cote de la
surface de l’eau est notée H et s’exprime en mètre (m), sa mesure est du ressort de la
limnimétrie. Sa mesure peut s’effectuer de manière discontinue par la lecture d’une règle
graduée, appelée échelle limnimétrique et fixée sur un support comme une pile de pont
(Figure 1.1) où la cote lue correspond à la distance verticale entre la surface de l’eau et
le zéro de l’échelle. On parle alors de hauteur d’eau, de hauteur limnimétrique ou bien
encore de hauteur à l’échelle.
Il est possible de traduire la hauteur d’eau dans le référentiel de nivellement
français en connaissant l’altitude NGF (Nivellement Général Français) du zéro de l’échelle.
On parle alors d’altitude ou de cote NGF de l’eau, notée Z en m. Couplée à l’échelle
limnimétrique, la mesure de la hauteur d’eau peut aussi s’effectuer de manière continue
grâce à un dispositif de mesure et d’enregistrement des variations de la hauteur d’eau en
fonction du temps. Les dispositifs les plus courants sont composés d’une sonde pression
ou à ultrasons, d’une centrale d’acquisition et d’un modem pour la télétransmission des
données. On parle alors de station limnimétrique.

Ligne téléphonique

Panneau solaire

Centrale d’acquisition
Repère de crue
Modem

Janv.1910

Repère de
Échelle limnimétrique Altitude de la surface de l’eau nivellement NGF
Hauteur d’eau Z = 296,35 m Z = 296,62 m
à l’échelle
H = 1,35 m
1

P Point de mesure de
la vitesse vi, (pi,xi)
Hauteur échelle
H=0m
Verticale de mesure (v)
0
Altitude du 0
de l’échelle
Section d’écoulement S
Z = 295 m Sonde Débit Q
L

Figure 1.1 – Schéma de la station hydrométrique de Louvières sur la Traire


(Haute-Marne).

13
Lorsque en plus, on y mesure le débit, on parle de station hydrométrique. Le
débit du cours d’eau, noté Q et exprimé en m3/s ou en l/s, représente le volume total
d’eau qui s’écoule à travers une section droite du cours d’eau pendant l’unité de temps
considérée. Sa mesure est du ressort de la débitmétrie. Du fait de leur coût et de leur
complexité à installer, les dispositifs de mesure directe des débits sont rares. On convertit
alors les variations de hauteurs d’eau en fonction du temps H = f(t) (limnigramme) à
celle des débits Q = f(t) (hydrogramme) via une courbe de tarage Q = f(H) établie à
partir de jaugeages. Le jaugeage est une mesure instantanée du débit pour une hauteur
d’eau lue à l’échelle. Une technique couramment utilisée est le jaugeage par exploration
des champs de vitesse à l’aide d’un moulinet ou d’un ADCP (Acoustic Doppler Current
Profiler) (Figure 1.2) où le débit Q en m3/s s’écoulant dans une section S en m2 per-
pendiculaire à l’écoulement est défini à partir de la vitesse moyenne v en m/s par la
relation Q = v.S . Le moulinet permet de mesurer la vitesse ponctuelle de l’écoulement
à partir de la vitesse de rotation de l’hélice (nombre de tours n par unité de temps, la
fonction v = f(n) étant déterminée par un étalonnage propre au moulinet). Le nombre
de verticales ainsi que le nombre de mesures par verticale sont choisis par le jaugeur
de façon à obtenir une bonne description de la répartition des vitesses sur la section
(points roses sur la Figure 1.1). La section d’écoulement S peut être évaluée en relevant
la profondeur en diverses verticales réparties sur la largeur du cours d’eau. Le calcul de
la vitesse moyenne de l’écoulement sur l’ensemble de la section S de longueur L se fait
par intégration des vitesses vi définies en chacun des points de la section de profondeur
pi et d’abscisse xi , soit l’expression suivante :
ZZ Zx Zp
Q= V · dS = vi · dp · dx . (1.1)
S 0 0

L’ADCP, monté sur une petite embarcation, permet de déterminer le débit par
exploration des champs de vitesse dans toute la section en émettant depuis la surface
vers le fond du cours d’eau des ondes sonores dans plusieurs directions (Figure 1.2).
Les ondes se réfléchissent sur les particules en suspension qui se déplacent à la même
vitesse que l’eau. A partir de l’écart de fréquence entre l’onde émise et l’écho, on peut
déduire la vitesse des particules et donc de l’eau (effet Doppler) et en connaissant le
temps de parcours de l’onde pour retourner au transducteur, on mesure la distance
des particules au récepteur. L’ADCP nécessitant un minimum de profondeur pour être
utilisé est approprié pour jauger les débits des fleuves ou des rivières en moyennes et
hautes-eaux.

14
A C

B D

Figure 1.2 – Jaugeage au moulinet (photo A et B) et par ADCP (photo C et D).

La courbe de tarage construite à partir du nuage de points de jaugeages est


bien souvent extrapolée à ses extrémités où le nombre de jaugeages est insuffisant voire
inexistant. La courbe de tarage, propre à chaque station hydrométrique, peut varier dans
le temps, en particulier suite à une crue si celle-ci a creusé le fond du lit du cours d’eau
ou déposé des sédiments. Il est donc nécessaire de jauger régulièrement le cours d’eau
pour différentes gammes de débits et suivre son évolution pour détecter un éventuel
détarage de la station. Le réseau de stations hydrométriques peut être complété par des
observateurs de crue, personnes physiques, qui relèvent et transmettent régulièrement la
hauteur d’eau lue à l’échelle aux services gérant les stations afin de déceler un éventuel
décalage entre la hauteur réelle et celle collectée par le capteur.
Aux données collectées auprès du réseau classique de stations hydrométriques,
il faut ajouter les données satellitaires. L’avènement des satellites altimétriques ces der-
nières décennies permet d’avoir à intervalle régulier une mesure de l’altitude de la surface
des océans : des radars embarqués envoient une onde radar qui se réfléchit sur la surface
de l’eau et mesure le temps nécessaire à l’onde pour faire l’aller-retour en déduisant ainsi
la distance. L’altitude de la surface de la mer est déduite en comparant cette distance à
la distance entre la surface de l’eau et le satellite mesurée par un radar au sol. Les satel-
lites altimétriques ont pour le moment essentiellement été utilisés pour l’océanographie

15
comme les satellites franco-américains JASON 5 car les limitations de résolution spa-
tiale et du maillage de l’altimétrie empêchent l’étude de structure à petite échelle dont
les surfaces en eau continentales. La mission franco-américaine SWOT (Surface Water
and Ocean Topography) a pour but d’étendre l’utilisation de l’altimétrie à l’hydrologie
continentale à partir de 2020 en mesurant l’altitude des fleuves, lacs et zones inondées à
l’aide du radar KaRIN (Ka-band Radar Interferometer). Le temps de vie de la mission
est compris entre trois et cinq ans. Les données SWOT ne seront pas disponibles en
temps réel, l’altitude sera calculée pour des cours d’eau d’une largeur minimum de 50 m.
De plus, la précision altimétrique des données, estimée à 10 cm pour 1 km2 de données
agrégées, sera moins précise qu’une mesure in-situ. Mais, 65% des surfaces d’eau douce
mondiales seront balayées deux fois tous les 21 jours. L’utilisation des ces données ouvre
de nombreuses perspectives mais représente aussi un challenge du fait de la complexité
et de la quantité de données à traiter (Andreadis et al., 2013). Toutefois, des travaux
préparatoires ont montré que l’utilisation de données SWOT a permis de mieux estimer
les stocks d’eau simulés par un modèle hydrologique sur le bassin du Niger (Pedinotti,
2013). L’altimétrie représente une source de données dense permettant a posteriori de
connaître l’altitude de l’eau tout le long de la rivière et non juste à une station limn-
métrique, données rares pour le calage d’un modèle hydraulique, voire de calculer des
débits en disposant de la bathymétrie. En accélérant la mise à disposition des données
SWOT, on peut imaginer une utilisation opérationnelle des données altimétriques pour
la prévision des crues.
La collecte de données hydrométriques à partir de drones, notamment de mesure
de la cote de la surface de l’eau ou bien de la prise de photographies ou de vidéos est
un sujet d’avenir qui est pour le moment à l’étude 6 . Outre les problèmes techniques et
la qualité des résultats escomptés, un point important doit porter sur la règlementation
de l’utilisation des drones. Au vu de la mauvaise fiabilité, voire de l’absence de certaines
données hydrométriques, il est nécessaire d’améliorer la capacité des modèles à pouvoir
combiner toutes ces données aux caractéristiques spatiales et temporelles différentes.

1.2.3 Les données maritimes


En plus des données pluviométriques et hydrométriques, les SPC situés sur
le littoral doivent tenir compte des données maritimes (principalement la marée et la
surcote marine) qui conditionnent en partie la hauteur d’eau dans les estuaires pour
effectuer leurs expertises hydrologiques.
La marée est la variation du niveau de la mer due à l’effet conjugué des forces
de gravitation de la Lune et du Soleil. Sur l’océan Atlantique, on observe deux cycles
de marée par jour lunaire (24h 50min). Le niveau le plus élevé atteint par la mer au
cours d’un cycle est appelé pleine mer ou marée haute, le plus bas se nomme basse
mer ou marée basse. Le flux ou flot désigne le mouvement montant, le reflux ou ju-
sant correspond au mouvement descendant. Les actions de la Lune et du Soleil peuvent

5. http ://jason-3.cnes.fr
6. http ://wikhydro.developpement-durable.gouv.fr

16
s’ajouter ou se contrarier selon leurs positions relatives. Les variations de hauteur d’eau
sont conditionnées par les phases de la lune :
• Marée de vive-eau : lors des phases de pleines et nouvelles lunes (syzygies),
les trois astres sont alignés, les forces s’additionnent et les marées sont im-
portantes ;
• Marée de morte-eau : lors des phases de premiers et derniers quartiers de
la lune (quadratures), les trois astres forment un angle droit, les forces se
contrarient, les marées sont faibles.

En France, on associe à l’amplitude de la marée, un nombre sans dimension


compris entre 20 et 120, appelé coefficient de marée (nommé C dans le Tableau 1.1). Le
service français chargé de prévoir les marées est le Service Hydrographique et Océano-
graphique de la Marine (SHOM 7 ). Il a mis au point des modèles permettant de calculer
dans chaque port les horaires et les hauteurs des marées futures par rapport au zéro
hydrographique qui est le niveau de référence des cartes marines et l’équivalent en mer
de la surface de référence des altitudes à terre portées sur les cartes de l’IGN (Institut
Géographique National).

C Marée correspondante
20 Marée la plus faible
45 Morte-eau
70 Limite morte-eau vive-eau
95 Vive-eau
100 Vive-eau équinoxiale
120 Marée la plus forte

Table 1.1 – Signification des valeurs du coefficient de marée.


On appelle marégramme, la courbe de hauteur de la marée en fonction du
temps. Les termes surcote et décote, désignent les différences entre le niveau marin
observé et le niveau marin qui existerait en présence de la marée astronomique seule.
Lorsque cette différence est positive, on parle de surcote, lorsqu’elle est négative, de dé-
cote. Les surcotes et décotes sont principalement générées par la variation de la pression
atmosphérique et du vent suite au passage d’une dépression météorologique. Le niveau
marin réagit en baromètre inversé à la pression atmosphérique. Il s’adapte au poids de
l’atmosphère qu’il supporte : la surface océanique se soulève lorsqu’une atmosphère plus
légère la surplombe (dépression). L’action des vents se combine fréquemment à celle de
la pression atmosphérique pour amplifier la valeur des décotes ou des surcotes. Un vent
poussant les eaux de surface vers le large provoque une baisse du niveau de la mer près
des cotes (décote) : c’est un vent de reflux. Inversement, un vent d’afflux, qui pousse
les eaux de surface vers la côte, provoque une montée du niveau d’eau près de celle-ci
(surcote). Les interactions avec la marée et le déferlement de la houle (mouvement ondu-
latoire de la surface de la mer provoqué par un vent éloigné de la surface d’observation)
peuvent aussi agir sur l’amplification du phénomène. La prévision des valeurs des décotes
7. www.shom.fr

17
et surcotes joue un rôle essentiel dans la prévision et le suivi de situations de crises telles
les tempêtes exceptionnelles dans l’Atlantique nord ou dans l’évolution d’un cyclone tro-
pical. Lors de la tempête Xynthia en février 2010, la conjonction de la tempête, d’une
surcote exceptionnelle (1.61 m à La Rochelle) et d’une marée de vive-eau a conduit à
des inondations par submersion marine catastrophiques et meurtrières sur le littoral cha-
rentais. Météo-France a élaboré des modèles numériques de prévision à courte échéance
des surcotes, notamment pour les zones océaniques intertropicales des Départements et
Territoires d’Outre-Mer confrontés aux cyclones. Dans le cadre d’une modélisation hy-
draulique (cf Partie 1.3.2), les observations et prévisions maritimes peuvent être utilisées
comme condition limite aval du modèle.

1.2.4 Les données topographiques et bathymétriques

La topographie est la science de la mesure et de la représentation du relief. La


bathymétrie est la science de la mesure des profondeurs et des reliefs subaquatiques. Elle
correspond à la description topographique du fond de la rivière. Ces données ne sont pas
directement nécessaires pour la prévision des crues mais sont utilisées pour décrire la
forme des lits mineurs et majeurs dans les modèles hydrauliques et du relief des bassins
versants dans les modèles hydrologiques spatialisés.
Le nivellement du lit mineur est réalisé par relevé terrestre classique à l’aide
d’une mire ou d’un théodolite, ou bien par nivellement GPS (Global Positioning System)
et, pour la partie sous l’eau, par sondage. La description du lit majeur s’effectue par
relevés terrestres souvent dans le prolongement du relevé du lit mineur. Dans ce cas,
compte tenu de la longueur parfois importante de ces profils (plusieurs kilomètres dans
le cas de la Loire), la densité de points demandés au géomètre est réduite. Depuis quelques
années, la technique du levé par laser aéroporté LIDAR (LIght Detection And Ranging)
s’est imposée dès lors que les surfaces à couvrir étaient d’importance. L’IGN a mis
à disposition des SPC des relevés de ce type sur la plupart de leurs cours d’eau. Le
LIDAR permet d’obtenir une densité de points considérable, de l’ordre d’une mesure
par mètre carré afin de construire un MNT (Modèle Numérique de Terrain) à résolution
fine. Cette densité permet de représenter finement la micro-topographie de la vallée.
On distingue ainsi les chenaux de crue éventuels, les routes en remblai, les terrasses
alluviales. La précision de ces relevés est meilleure que le mètre en planimétrie et de
l’ordre de 10 à 20 cm en altimétrie. Compte tenu de la densité élevée de ces données,
leur utilisation directe pour la modélisation hydraulique n’est en général pas possible.
Il est alors nécessaire d’extraire de ces levés LIDAR des profils en travers décrivant le
lit majeur ou un maillage simplifié. La description des digues peut se faire, soit par un
relevé du profil en long de la crête de digue, soit en récupérant ce profil à partir du levé
LIDAR. La description des ouvrages (barrages, seuils de prise d’eau, ponts) peut être
récupérée auprès des gestionnaires d’ouvrages ou en recourant à un géomètre.
Pour décrire le relief des bassins versants dans un modèle hydrologique spatia-
lisé, il est possible d’utiliser un MNT issu de données LIDAR lorsqu’elles sont disponibles,

18
ou bien la BD ALTI 8 (Base de Données ALTImétrique) qui est un MNT maillé décrivant
le relief du territoire français à moyenne échelle (de 75 m à 1 km) et mis à disposition
gratuitement au grand public par l’IGN.

8. profesionnels.ign.fr/bdalti

19
1.3 Les modèles de prévision des crues
Deux familles de modèles sont utilisées pour la prévision des crues : les modèles
hydrologiques qui permettent en tête de bassin de prévoir les débits à un exutoire en
fonction des précipitations observées et prévues d’une part, et les modèles hydrauliques
qui simulent la propagation d’une onde de crue en aval de stations hydrométriques
d’autre part.

Figure 1.3 – Le cycle de l’eau et les processus simulés par les modèles hydrologiques et
de propagation : les débits aux exutoires 1 et 2 (points rouges) sont simulés à l’aide de
modèles hydrologiques qui tiennent compte des précipitations. Le débit à l’exutoire 3 en
aval est simulé par un modèle hydraulique en propageant les débits observés et/ou prévus
(dans le cas où l’on enchaîne les modèles) aux exutoires 1 et 2 dans la vallée décrite par des
profils topographiques et/ou un maillage issu d’un MNT.

20
1.3.1 Les modèles hydrologiques
Le modèle hydrologique, appelé aussi modèle pluie-débit, est une représenta-
tion simplifiée des processus du cycle hydrologique à l’exutoire d’un bassin versant,
comprenant la précipitation de pluie ou de neige sur les surfaces continentales et son
acheminement vers les cours d’eau qui drainent à la fois les eaux de surface et souter-
raines (Figure 1.3). En fonction des modèles, il arrive que l’évapotranspiration ainsi que
le transport et le stockage des eaux souterraines ne soient pas pris en compte ou bien
de façon implicite à travers la condition initiale du modèle. Un modèle pluie-débit peut
simuler les processus du cycle de l’eau sur les surfaces continentales de façon plus ou
moins explicite : il peut s’agir de simples relations statistiques reliant la pluie au débit
à l’exutoire, sans lien direct avec la physique des processus, nommées modèles concep-
tuels. À l’inverse, on peut aussi utiliser des modèles physiques fondés sur la résolution
des équations de la mécanique des fluides comme le modèle SHE (Système Hydrolo-
gique Européen) développé par plusieurs laboratoires européens (Abbott et al., 1986).
L’écoulement en milieu poreux est dans ce cas décrit par la loi de Darcy et les écoule-
ments de surface par un modèle d’ondes diffusantes (une approximation des équations
Saint-Venant). Les modèles semi-physiques utilisent des équations de transfert en milieu
poreux simplifiées, tels que Green-Ampt ou Horton avec les équations de Saint-Venant,
ou une de leurs simplifications pour les écoulements de surface. On peut citer comme
exemple le modèle LISFLOOD (Van Der Knijff et al., 2010).
A mi-chemin entre les modèles conceptuels et physiques, il existe les modèles à
réservoir tels que les modèles Génie Rural (GR) (Perrin et al., 2007) ou le Stanford wa-
tershed model (Crawford and Burges, 2004) qui considèrent l’ensemble des écoulements
du bassin versant comme un processus de stockage d’eau suivi de son évacuation. Le
fonctionnement du système hydrologique est alors géré par deux types d’équations : la
vidange et le bilan hydrique. Sur un bassin versant, un modèle hydrologique est implé-
menté de façon globale, distribuée ou semi-distribuée. Les modèles globaux comme les
modèles GR considèrent le bassin d’étude comme une seule unité qui produit un débit en
sortie. Dans ce cas, les paramètres et les équations représentent le comportement moyen
du bassin.
Les modèles distribués discrétisent le bassin versant en mailles régulières ou
irrégulières à partir d’un MNT (cf Partie 1.2.4), qui ont chacune un fonctionnement
indépendant comme le modèle MARINE (Modélisation de l’Anticipation du Ruisselle-
ment et des Inondations pour des éveNements Extrêmes (Braud et al., 2010; Roux et al.,
2011)). Les modèles semi-distribués ont une discrétisation spatiale limitée sous forme de
sous-bassins versants ou unités hydrologiquement similaires comme le modèle HEC-HMS
(Hydrologic Engineering Center’s Hydrologic Modeling System) (Knebl et al., 2005). La
réponse hydrologique d’un bassin versant peut être modélisée de façon événementielle ou
continue. Un modèle continu représente le comportement d’un bassin versant aussi bien
en période de crue qu’en étiage (période de plus basses eaux des rivières et des nappes
souterraines). Il permet de connaître l’état hydrique du système à tout moment mais
nécessite des données pluviométriques et d’évapotranspiration continues. Une simula-
tion des écoulements débutant quelques mois ou quelques années précédant la prévision

21
permet au modèle de s’affranchir des effets de la condition initiale. On peut citer par
exemple le couplage ISBA-TOPMODEL entre un modèle hydrologique distribué TOP-
MODEL (TOPography based hydrological MODEL) et le modèle de surface ISBA (In-
teraction Sol-Biosphère-Atmosphère) simulant l’humidité des sols ; le couplage permet à
TOPMODEL de tourner en continu afin d’améliorer la reproduction des débits de crue
(Vincendon et al., 2010). On peut aussi citer l’étude de (Berthet et al., 2009) sur 178
bassins versants en France qui montre que le modèle GRP (version horaire de Génie
Rural) donne de meilleures performances en mode continu.
Le modèle continu GRP (Tangara, 2005; Berthet, 2010), développé par l’IRS-
TEA (Institut National de Recherche en Sciences et Technologies pour l’Environnement
et l’Agriculture, ex-CEMAGREF), est un modèle hydrologique global à réservoirs cou-
ramment utilisé en opérationnel pour prévoir les débits jusqu’à une échéance de 72h dans
les SPC à partir d’observations et de prévisions de pluies fournies par Météo-France. Pour
réaliser une prévision à un exutoire, GRP utilise les chroniques horaires des pluies sur
les postes pluviométriques existant sur le bassin et d’évapotranspiration pour initialiser
le modèle ainsi que les précipitations prévues sur la plage de prévision. En sortie, GRP
fournit les débits moyens horaires prévus par le modèle sur la plage de prévision. La
structure du modèle GRP repose sur les composants suivants (Figure 1.4) :
• un réservoir de production S qui permet d’assurer un suivi des conditions
d’humidité du bassin ;
• une fonction d’ajustement de la pluie efficace (paramètre CORR adimen-
sionnel supérieur ou égal à 1) ;
• un hydrogramme unitaire HU de temps de base TB en heure ;
• un réservoir de routage quadratique R de capacité ROUT en mm (il s’agit
du contenu maximum autorisé par le réservoir).

22
Figure 1.4 – Schéma structurel du modèle GRP.

Le fonctionnement du modèle sur un pas de temps est le suivant :


• la pluie P est d’abord neutralisée par l’évapotranspiration potentielle E ;
• le reliquat de pluie Pn est divisé en 2 parties en fonction du taux de rem-
plissage du réservoir de production. Une partie Ps alimente ce réservoir et
l’autre Pn-Ps alimente l’écoulement. Le reliquat éventuel d’évapotranspi-
ration potentielle En contribue à la vidange du réservoir de production par
évapotranspiration réelle Es ;
• une percolation issue du réservoir de production Perc va également alimen-
ter l’écoulement ;
• la quantité d’eau totale allant alimenter l’écoulement Pr est multipliée par
le facteur d’ajustement CORR qui permet de tenir compte d’éventuels
échanges en eau avec des nappes profondes et/ou des bassins versants voi-
sins ;
• le transfert de l’eau est assuré par l’hydrogramme unitaire qui permet de
tenir compte du décalage temporel entre pluie et débit, puis par le réservoir
de routage.

23
Le modèle peut fonctionner classiquement en ne tenant compte que des informa-
tions pluviométriques et d’évapotranspiration. Cependant, ce mode de fonctionnement
dans un contexte prévisionnel conduit la plupart du temps à des performances peu satis-
faisantes. De meilleurs résultats sont obtenus lorsque l’information fournie par le débit
observé à l’instant de prévision est exploitée par le modèle. Cette exploitation se fait par
l’intermédiaire d’une procédure de mise à jour du dernier débit observé. Elle se déroule
en deux temps :
• une mise à jour directe du réservoir de routage du modèle dont le niveau est
recalculé de manière à pouvoir générer un débit exactement égal au dernier
débit observé à l’instant de prévision. On agit donc sur un seul état du
système, celui le plus en aval du modèle, les autres n’étant pas affectés par
la mise à jour ;
• une exploitation de l’erreur de prévision faite par le modèle au pas de temps
précédent pour le pas de temps courant. On considère que l’erreur du modèle
présente une certaine autocorrélation et on cherche alors, par un procédé
simple de type autorégressif, à exploiter cette propriété.

Météo-France met à disposition du réseau SCHAPI/SPC les prévisions quoti-


diennes de débits issues de la chaîne SAFRAN-ISBA-MODCOU Prévision d’Ensemble
(SIM-PE) (Habets et al., 2008) pour des exutoires correspondant à des stations hydro-
métriques stratégiques. La chaîne SIM 9 a été développée dans le cadre d’une coopération
entre le CNRM (Centre Nationale de Météorologie) et le centre de géosciences de Mines
ParisTech. Elle simule sur la France les flux d’eau et d’énergie à la surface, ainsi que
l’évolution du débit des rivières et des principales nappes. La chaîne est composée de
trois modèles :
• SAFRAN est un système d’analyse qui combine des observations de surface
et des données issues de modèles météorologiques pour produire entre autres,
des données de température, d’humidité, de pluie sur des mailles régulières
de 8 km de côté au pas de temps horaire nécessaires au fonctionnement
d’ISBA ;
• ISBA simule l’ensemble des flux d’eau avec l’atmosphère (interception, éva-
poration, transpiration) et le sol (ruissellement, drainage) au pas de temps
5 minutes) ;
• MODCOU est un modèle hydrologique distribué. Il utilise en entrée le ruis-
sellement et le drainage d’ISBA pour calculer l’évolution des nappes et le
débit des rivières au pas de temps 3 heures. Sa maille de calcul varie de 1 à
64 km en fonction des bassins versants et du réseau hydrographique.

La chaîne SIM-PE s’appuie sur 51 prévisions équiprobables d’évolution de l’at-


mosphère pour produire 51 prévisions de débits moyens journaliers à 10 jours d’échéance
pour 907 exutoires en France. Les prévisions sont disponibles chaque jour vers 19h30 sous
forme de tableaux de probabilité de dépassements de seuils ou de graphiques donnant

9. www.cnrm.meteo.fr/spip.php ?article424

24
une idée de l’évolution de l’incertitude et de la dispersion des différents membres de
l’ensemble (Figure 1.5).

Figure 1.5 – Débits moyens journaliers prévus par la chaîne SIM-PE à Cailly-sur-Eure le
15/12/2011 : le graphique A détaille les 51 membres de la prévision d’ensemble avec les
seuils d’alerte moyen (marron) et haut (bleu), le graphique B synthétise l’information en
utilisant des plages colorées en fonction des quantiles d’incertitude min-max Q5-95, Q10-90
et Q25-75 (sources : SCHAPI).

Actuellement la chaîne SIM-PE utilise des prévisions météorologiques d’en-


semble issues de l’EPS (Ensemble Prediction System) du CEPMMT (Centre Européen
de Prévision Météorologiques à Moyen Terme). Des études ont été réalisées afin d’amé-
liorer les performances de ce système de prévision d’ensemble des débits, notamment
en remplaçant l’EPS du CEPMMT par la Prévision d’Ensemble ARPEGE (PEARP,
cf Partie 1.2.1) de Météo-France (Thirel, 2009). Un module d’assimilation des débits
observés sur la journée de la veille a été développé pour corriger la condition initiale de
l’humidité du sol mais pas encore ajouté à la chaîne opérationnelle pour améliorer les
prévisions d’ensemble des débits (Thirel et al., 010a,b; Cousteau et al., 2015).

25
1.3.2 Les modèles hydrauliques

Un modèle hydraulique (aussi appelé modèles de propagation) permet de si-


muler la déformation d’une onde de crue se propageant dans les lits mineurs et majeurs
d’une rivière à partir d’un ou plusieurs hydrogrammes amont en un ou plusieurs points
en aval. Le débit d’entrée du modèle peut être un débit observé à une station hydromé-
trique ou un débit simulé par un modèle hydrologique. L’hydrogramme de sortie modélisé
à une section aval est caractérisé par une atténuation du pic de crue, par un temps de
base (c’est-à-dire la durée de ruissellement engendrée par un épisode pluvieux) plus long
et par un décalage temporel des débits de pointe consécutif à la propagation de l’onde
de crue (Figure 1.6). L’échéance de prévision des modèles hydrauliques ne peut excéder
ce temps de propagation. Toutefois, un débit prévu par un modèle hydrologique peut
être injecté en condition limite amont d’un modèle de propagation afin d’accroître cette
échéance de prévision (cf Partie 5.1.4).

amont aval
débits

débits
atténuation

Décalage temporel des débits de pointe = temps de propagation

propagation
diffusion

temps de base temps de base


pluie

temps temps

Figure 1.6 – Propagation d’une onde de crue entre une section amont et une section aval.

On distingue deux types de modèles hydrauliques, les modèles conceptuels et


les modèles à base physique. Les modèles conceptuels appréhendent la propagation de fa-
çon globale. Ils permettent généralement d’estimer le seul débit moyen transitant par les
différentes sections considérées et sont par conséquent des modèles relativement simples
et faciles à mettre en œuvre. Le modèle "lag and route" est le plus simple de tous, il
est principalement utilisé pour modéliser le drainage urbain : on considère que l’hydro-
gramme aval est simplement l’hydrographe amont décalé dans le temps d’une certaine
durée (lag) et atténué par un réservoir conceptuel (USACE, 1994).
Les méthodes Muskingum et Muskingum-Cunge (Cunge, 1969) sont des ap-
proches conceptuelles basées sur l’équation de continuité pour le tronçon de rivière consi-
déré et sur une équation de stockage pour ce même tronçon. D’autres approches existent
comme la méthode Puls ou bien la méthode utilisant un modèle d’onde cinématique.

26
Les modèles à base physique, quant à eux, sont dérivés des équations fonda-
mentales de l’hydraulique à surface libre gouvernant l’évolution spatiale et temporelle
des débits. Ils se basent sur la résolution des équations de Saint-Venant afin de déter-
miner la hauteur d’eau, la vitesse, le périmètre mouillé, la surface mouillée ainsi que les
pertes de charge dues aux frottements. Ils demandent donc une connaissance avancée de
la bathymétrie de la rivière, de la topographie des plaines d’inondation attenantes et des
coefficients de frottement à appliquer.
En considérant les écoulements uni-directionnels dans les lits mineurs et majeurs
de la rivière, il est possible d’utiliser des modèles hydrauliques mono-dimensionnels (1D)
comme Mascaret (Goutal and Morel, 2002) (cf Partie 2.1), HEC-RAS (Knebl et al.,
2005) (Hydrological Engineering Center’s River Analysis System) ou comme Mike-11
(Thompson et al., 2004). Ces modèles permettent de résoudre les équations de Saint-
Venant dans lequel le domaine de calcul est décomposé en sections en travers. Lorsque les
écoulements ont un caractère bi-dimensionnel marqué (par exemple en présence de che-
naux d’écoulement secondaires importants dans le lit majeur), les modèles hydrauliques
bi-dimensionnels (2D) sont plus adaptés. On peut citer Telemac-2D (Hervouet, 2007) ou
MIKE21 (Warren and Bach, 1992) qui résolvent les équations de Saint-Venant 2D avec
un schéma en différences finies (MIKE21) ou un schéma éléments finis (Telemac-2D).
Dans les deux cas, les schémas de résolution du système d’équations se basent sur une
représentation discrétisée dans l’espace appelé maillage de chacune des variables décri-
vant l’écoulement. Le maillage est construit à partir d’un MNT (cf Partie 1.2.4). Pour
un modèle opérationnel, le maillage doit conserver une taille raisonnable pour limiter
les temps de calcul. Sa densité est donc adaptée afin d’affiner les résultats fournis par
le modèle dans les zones d’intérêt. Parmi les modèles hydrauliques à base physique les
plus utilisés, on peut citer LISFLOOD-FP qui modélise l’écoulement dans le lit mineur
avec un modèle 1D et dans le lit majeur avec un modèle 2D (Bates and De Roo, 2000;
Durand et al., 2008).
Les modèles de prévision se basent sur des paramètres non-réifiables comme le
coefficient de rugosité de Strickler (Ks en m1/3 /s), pour caractériser les pertes de charge
relatives aux frottements de l’eau dans les lits mineurs et majeurs de la rivière dans un
modèle hydraulique ou bien le Curve Number (CN) pour estimer la pluie nette d’un
modèle pluie-débit avec la méthode SCS (Mishra and Singh, 2003) (Soil Conservation
Service). Ces paramètres sont estimés lors de la procédure de calibration du modèle,
appelée aussi phase de calage. La phase de calage vise, par une approche déterministe,
à ajuster les valeurs des paramètres de façon à obtenir le meilleur accord possible entre
les résultats simulés et ceux observés. De manière générale, cette phase consiste à choisir
un jeu de données à utiliser pour la calibration appelé crues de calage, un ou plusieurs
critères d’évaluation de la performance du modèle comme le critère de Nash-Sutcliffe (cf
Partie 1.5.3), et enfin une méthode pour identifier les valeurs optimales de ces paramètres
vis-à-vis des critères de performance retenus. Les paramètres retenus, dit "calés", sont
par la suite évalués lors de la phase de validation en utilisant un jeu de données différent
de celui du calage, appelé crues de validation.

27
1.4 La prévision opérationnelle des crues en France et ailleurs
L’objectif d’une prévision hydrologique est de quantifier de façon anticipée l’état
futur ou l’évolution temporelle des débits et des hauteurs d’eau des cours d’eau. En
comparant cette prévision chiffrée à une valeur seuil déterminée en fonction des enjeux,
les organismes en charge de la veille hydrologique sont en mesure de prévenir les autorités
d’un éventuel risque naturel. On qualifie d’opérationnel les organismes en charge de la
veille hydrologique lorsqu’ils sont en mesure de produire et de diffuser en temps réel les
informations utiles à une gestion optimisée de la ressource et des risques associés. Un
système opérationnel de prévision hydrologique se compose :
• d’un réseau d’observations météorologiques et hydrométriques (cf Parties 1.2.1
et 1.2.2) ainsi que d’un système de collecte en temps réel de ces données ;
• de modèles hydrologiques et/ou de propagation (cf Parties 1.3.1 et 1.3.2) ;
• d’un centre de prévision dont le personnel a pour mission de contrôler la
qualité des données d’entrée, de critiquer les prévisions issues des modèles
et de produire l’information sous forme de bulletins de vigilance ou d’alerte ;
• d’une entité relevant des autorités locales dont le but est si nécessaire d’or-
ganiser les interventions.

1.4.1 Vue d’ensemble des centres opérationnels à l’échelle européenne


Au niveau européen, le projet EFAS (European Flood Awarness System), coor-
donné par le JRC (Joint Research Center) fournit des prévisions probabilistes de dépas-
sement de seuil à une échéance de 3 à 10 jours pour les bassins fluviaux transnationaux
en Europe avec une maille spatiale de l’ordre de 5 km2 (De Roo et al., 2003; Gouweleeuw
et al., 2005). Il a été lancé en 2003 suite entre autres aux inondations catastrophiques
de l’Elbe et du Danube en 2002. EFAS utilise des prévisions météorologiques détermi-
nistes et d’ensemble en données d’entrée du modèle LISFLOOD (modèle hydrologique
distribué, cf Partie 1.3.1). Depuis 2010, EFAS fait partie du projet Copernicus, pro-
gramme européen qui vise à doter l’Europe d’une capacité opérationnelle et autonome
d’observation de la Terre 10 . Les prévisions d’EFAS sont mises à disposition des services
nationaux de prévision des crues. La résolution spatio-temporelle des prévisions n’étant
pas cohérente avec les besoins du territoire français, le SCHAPI utilise ces prévisions à
titre indicatif pour connaître la tendance de l’évolution des principaux cours d’eau.
En Angleterre et au Pays de Galles, l’Environment Agency (EA) a mis en
place le National Flood Forecasting System (NFFS) en 2005 afin de coordonner au
niveau national la prévision des crues (Werner et al., 2009). (Weerts et al., 2011) a
développé une méthode de quantification des incertitudes pour les modèles de prévision
des crues du NFFS. En Allemagne, une structure fédérale, le BFG (Bundesanstalt Für
Gwässerkunde) est chargée de la coordination des services locaux et du développement
d’outils et de modèles de prévision de crues et d’étiages 11 . La prévision opérationnelle
et l’émission d’alertes sont de la responsabilité de structures propres à chaque Land
10. www.copernicus.eu
11. www.bafg.de

28
(division administrative de l’Allemagne). De nombreux exploitants de la ressource en
eau disposent par ailleurs aussi de leurs propres systèmes de prévision comme les sociétés
de production d’hydroéléctricité telles que HydroQuébec au Québec, EDF (Électricité
de France) ou la CNR (Compagnie Nationale du Rhône) en France. En France, c’est le
réseau Vigicrues 12 qui est en charge de la production et de la diffusion des bulletins de
vigilance crues et des prévisions associées.

1.4.2 Rappel historique et législatif de la prévision des crues en France


L’annonce des crues a été initiée en France dans la deuxième moitié du XIXe siècle
suite aux crues exceptionnelles de la Loire de 1856 et de 1866 avec la création des Ser-
vices d’Annonce de Crues (SAC). Suite à des crues meurtrières dans les années 90 (37
morts à Vaison-la-Romaine en 1992 dans le Vaucluse) et au début des années 2000 (24
morts dans les Cévennes en 2002), l’organisation des services de l’État dans ce domaine
a été modifiée par la circulaire du 1er octobre 2002 en faisant évoluer les 52 SAC en 22
SPC. Cette circulaire a permis d’intégrer la notion d’anticipation des crues ainsi qu’en
créant à Toulouse un centre national dédié à la prévision des crues, le SCHAPI (Service
Central d’Hydrométéorologie et d’Appui à la Prévision des Inondations).
La délimitation des territoires de compétence des SPC a été réalisée dans le
contexte suivant : en 2000, l’adoption de la Directive Cadre sur l’Eau (DCE) par le
Conseil et le Parlement européen a engagé les états membres de l’Union Européenne a
atteindre un bon état écologique des cours d’eau d’ici 2015. La mise en œuvre de la DCE
prévoyait entre autres un recensement et la définition de bassins hydrographiques. Le ter-
ritoire français a donc été découpé en 6 bassins hydrographiques : Artois-Picardie, Adour-
Garonne, Loire-Bretagne, Rhin-Meuse, Rhône-Méditerranée-Corse et Seine-Normandie.
Suite à l’arrêté du 15 février 2005, dans chaque bassin, l’organisation de la prévision
des crues a été définie par un Schéma Directeur de Prévision des Crues (SDPC) qui
fixe notamment la délimitation des territoires de compétence des SPC. Cette dernière
a été réalisée en deux étapes : la première a consisté en un découpage des six bas-
sins hydrographiques en unités hydrologiques homogènes, la seconde, à les assembler
pour constituer des secteurs présentant un volume critique d’activités afin de limiter le
nombre de SPC intervenant par département. Le fonctionnement de chaque SPC est régi
par un Règlement de surveillance de prévision et de transmission de l’Information sur
les Crues (RIC). Le réseau Vigicrues, constitué entre autres, du SCHAPI et des SPC est
opérationnel depuis juillet 2006.
Suite à une directive européenne portant sur l’évaluation et la gestion des risques
d’inondation datant de 2007, des Territoires à Risques importants d’Inondation (TRI)
ont été définis en 2012. L’objectif de cette directive est d’élaborer d’ici 2015 des plans de
gestion des risques d’inondation visant à réduire les conséquences négatives des inonda-
tions sur les enjeux humains, économiques, environnementaux et culturels. Certains de
ces TRI peuvent être concernés par des inondations ayant des conséquences de portée
nationale.
12. www.vigicrues.gouv.fr

29
La mission des SPC en période de risque d’inondation est concentrée sur la
surveillance, la prévision et la transmission de l’information pour les crues sur leur zone
de compétence, qui est interdépartementale. Lors des contacts avec les gestionnaires
de crises, les SPC peuvent compléter les informations diffusées régulièrement par des
éclairages ponctuels, ce qu’ils peuvent difficilement assurer pour chacun des départements
lorsque la crise est étendue. L’institution d’une personne relais au niveau départemental
doit permettre d’améliorer sensiblement la connaissance des conséquences locales des
crues prévues. Il a donc été convenu en 2011 de mettre en place au sein des DDT
(Direction Départementale des Territoires) la mission de RDI (Référent Départemental
pour l’appui technique à la préparation et à la gestion des crises d’Inondation) dans
les départements couverts par un SPC. Le RDI, en période de crise, traduit en termes
d’enjeux territoriaux et de conséquences à attendre, les données hydrologiques élaborées
et transmises par les SPC. De plus, la mission du RDI pour la gestion de crises consiste à
capitaliser les connaissances des enjeux locaux et les conséquences a posteriori des crues
significatives.

1.4.3 Le réseau Vigicrues


Le réseau Vigicrues regroupe :
• le SCHAPI ;
• les 19 SPC rattachés (hormis un) aux Directions Régionales de l’Environ-
nement, de l’Aménagement et du Logement (DREAL) ;
• les 28 unités d’hydrométrie (UH) rattachées aux DREAL et 5 outre-mer au
DEAL (Direction de l’Environnement, de l’Aménagement et du Logement) ;
• les Cellules de Veille Hydrologique (CVH) en Corse et dans les Départements
d’Outre-Mer (DOM).

A partir des observations et des prévisions météorologiques, hydrologiques et


hydrauliques, les SPC affectent deux fois par jour une couleur de vigilance aux cours
d’eau inclus dans le dispositif de la vigilance crue. Cette couleur caractérise le risque
d’inondation durant les 24h à venir. Le choix de la couleur de vigilance est déterminé en
croisant les prévisions hydrologiques issues des modèles et l’expertise des prévisionnistes
de crue. Le choix de la couleur est ensuite validé par le SCHAPI. En-dehors de sa
mission de veille hydro-météorologique, le réseau Vigicrues assure le développement,
l’amélioration et la mise en place de nouveaux modèles de prévisions des crues ainsi que
la mise à jour de la base nationale des données hydrométriques, la Banque Hydro 13 .
Le réseau Vigicrues s’oriente actuellement vers un passage de la prévision des crues à
une prévision des inondations en fournissant, en plus de sa prévision chiffrée, une carte
de zone inondée potentielle. De plus, suite aux conclusions du groupe de travail sur
l’estimation des incertitudes de prévision (réunissant le SCHAPI, les SPC et les UH
entre 2012 et 2014), des méthodes ont été mises en place pour adjoindre aux prévisions
une enveloppe d’incertitude. Le but de ces travaux est, dans un futur proche, d’afficher

13. www.hydro.eaufrance.fr

30
sur le site Vigicrues la courbe des hauteurs et/ou des débits prévus ainsi que l’enveloppe
d’incertitude qui les encadre.

1.4.4 Le site internet Vigicrues et la carte de vigilance météorologique


L’objectif de la vigilance crue est d’informer sous une forme simple et claire, le
public et les acteurs de la gestion de crise, en cas de risque de crues sur les cours d’eau
surveillés par l’État dans le cadre de sa mission règlementaire de surveillance, de prévision
et de transmission de l’information sur les crues. Cette vigilance crue est notamment
destinée aux pouvoirs publics en charge de la sécurité civile qui déclenchent les alertes
lorsque cela est nécessaire, et mobilisent les moyens de secours. Chaque cours d’eau
Bulletin du SCHAPI
inclus dans le dispositif de la vigilance crue (le plus souvent découpé en tronçons appelés
tronçons règlementaires) apparaît sur la carte de vigilance (Figure 1.7) consultable sur
le site Vigicrues 14 .

Figure 1.7 –Rouge


Carte: Risque
nationale
de crue de vigilance
majeure. Menace crue
directediffusée le de
et généralisée 9 décembre
la sécurité des2010 à 16h
personnes et sur le
des biens. site Vigicrues.
Orange : Risque de crue génératrice de débordements importants susceptibles d'avoir un impact
significatif sur la vie collective et la sécurité des biens et des personnes.
Jaune : Risque de crue ou de montée rapide des eaux n'entraînant pas de dommages
Á chaque tronçon
significatifs, maisest affecté
nécessitant uneune couleur
vigilance proposée
particulière dans le caspar les SPC
d'activités et validée
saisonnières et/ou par le
exposées. orange et rouge, en fonction du niveau de vigilance adapté pour
SCHAPI : vert, jaune,
Vert : Pas de vigilance particulière requise.
14. www.vigicrues.gouv.fr

31

1
faire face au danger susceptible de se produire dans les 24h à venir. Sur cette échelle de
risques, la couleur rouge caractérise un risque de crue majeur menaçant la sécurité des
personnes et des biens. La couleur orange est affectée à un tronçon pour prévenir d’un
risque de crue génératrice de débordements importants, susceptible d’avoir un impact
significatif sur la vie collective et la sécurité des biens et des personnes. La couleur jaune
signifie un risque de crueduou
Bulletin de de
Service montée
Prévisionrapide des
des Crues eaux
Seine n’entraînant
Amont Marne amont pas de dommage
significatif. Lorsqu’il n’y a pas de vigilance particulière, le tronçon reste coloré en vert.
La carte se présente sous une vue nationale ou locale (Figure 1.8). Les cartes locales sont
accompagnées de bulletins d’information sur les domaines des SPC correspondants.

Figure 1.8Rouge– Vue locale


: Risque du majeure.
de crue SPC SAMA de laetcarte
Menace directe de vigilance
généralisée de la sécuritécrue diffusée
des personnes et le 9
décembre 2010 àdes16hbiens.
sur le site Vigicrue ; le tronçon Marne Amont est en vigilance orange
et les tronçonsOrange
Marne : Risque de crue génératrice
Moyenne de débordements importants
(Châlons-en-Champagne), susceptibles d'avoir
Saulx-Ornain un impact
(Bar-le-Duc),
significatif sur la vie collective et la sécurité des biens et des personnes.
Seine Troyenne (Troyes) sont en vigilance jaune.
Jaune : Risque de crue ou de montée rapide des eaux n'entraînant pas de dommages
significatifs, mais nécessitant une vigilance particulière dans le cas d'activités saisonnières et/ou
exposées.
Il est Vert : Pasen
possible de cliquant
vigilance particulière
sur une requise.
station hydrologique de visualiser le graphique
des dernières hauteurs d’eau et derniers débits mesurés à cette station (Figure 1.9). La
carte est actualisée deux fois par jour, à 10h et 16h. La vigilance météorologique mise
en place par Météo-France depuis 2001 a intégré la vigilance crue à travers la carte de
vigilance météorologique 15 actualisée au moins deux fois par jour, à 6h et 16h. En cas
15. http ://vigilance.meteofrance.com

32
1
de passage en vigilance crue jaune, orange ou rouge, des pictogrammes pluie-inondation
et inondation sont alors ajoutés sur la carte de vigilance météorologique en les localisant
sur les départements concernés et en colorant ces derniers en adéquation avec le risque
météorologique ; un exemple est montré sur la Figure 1.10.

Figure 1.9 – Débits observés à St-Jean-de-Védas sur la Mosson dans l’Hérault entre le 19
et le 26 août 2015 à 10h.

Figure 1.10 – Carte de vigilance météorologique diffusée par Météo-France le 24 août


2015 à 10h.

33
1.5 Limiter et anticiper les crues sur le bassin de la Seine
Le fleuve Seine, long de près de 800 km, prend sa source à une altitude de
446 m NGF à Source-Seine en Côte-d’Or sur le plateau de Langres (Figure 1.11). Il tra-
verse les agglomérations de Troyes, Paris, Rouen et trouve son exutoire dans la Manche
entre Le Havre et Honfleur. Son bassin versant couvre une surface de 97000 km2 et
présente un relief peu escarpé ainsi qu’une relative homogénéité géomorphologique et
hydrologique. Les thèses de (Flipo, 2005; Brunstein, 1999) contiennent des éléments des-
criptifs détaillés du bassin versant de la Seine. Toutefois, on rencontre des situations de
fortes singularités selon les vallées comme des pentes importantes ou un fonctionnement
karstique notamment en tête de bassin. Le karst est une structure géomorphologique
résultant de l’érosion des roches calcaires qui engendre entre autres, la formation de
rivières souterraines, de pertes, de résurgences, de grottes et de gouffres. Ses principaux
affluents, l’Oise, la Marne, l’Yonne et l’Eure, couvrent respectivement des surfaces de
bassin versant de près de 17000 km2, 12900 km2, 10800 km2 et de 6000 km2.

Légende :
N
Bassin versant de la Seine

L’Oise Principaux cours d’eau du bassin versant de la Seine


25 100 km
Principales agglomérations traversées par la Seine
L’Oise
Territoire du SPC SAMA
LE HAVRE
ROUEN

La Marne

PARIS
L’Eure TROYES
La
Se

Plateau de
in
L’Y

Langres
on
ne

Plateau du Morvan

Figure 1.11 – Le bassin de la Seine.

Les crues de la Seine et de ses principaux affluents n’ont pas le caractère dan-
gereux pour l’homme que peuvent avoir les cours d’eau à réponse rapide mais peuvent
causer d’importants dommages à l’économie régionale. Le bassin de la Seine couvre
12% du territoire français et accueille le quart de la population française, un tiers de
sa production agricole (Maybeck et al., 1998) et 40% de l’industrie nationale. Le pre-
mier risque de catastrophe naturelle menaçant le bassin est le risque inondation. Afin
de développer une vision d’ensemble du fonctionnement du système formé par le réseau
hydrographique de la Seine, son bassin versant et la société humaine qui l’investit, un en-
semble de chercheurs de différents horizons (CNRS, INRA, CEMAGREF, Université et

34
Grandes Écoles) se sont réunis au sein du Programme Interdisciplinaire de Recherche sur
l’Environnement de la Seine (PIREN Seine 16 ). Si les grandes crues sont rares, leurs effets
dévastateurs leur ont valu d’être consignés depuis longtemps : la crue la plus importante
date de 1658 où la cote de 8.96 m a été atteinte à l’échelle du Pont d’Austerlitz à Paris,
34 cm au-dessus de celle de 1910, crue connue des Parisiens et référencée par des repères
de crues où de nombreux quartiers de Paris étaient sous l’eau. Lors de cette grande crue,
les députés, pour réamorcer la reprise du travail se sont rendus à l’Assemblée nationale
en barque (Figure 1.12).

Figure 1.12 – Photographie de la crue de 1910 à Paris.

Deux autres fortes crues sont survenues en 1924 et 1955. Depuis, le bassin de
la Seine n’a vécu aucune crue d’ampleur comparable, du fait de l’absence d’événements
pluviométriques et hydrologiques aussi intenses. Le SPC SAMA (Service de Prévision
des Crues Seine Amont Marne Amont) et l’EPTB (Établissement Public Territorial de
Bassin) Seine Grands Lacs, entre autres, luttent contre ce risque en anticipant le risque
inondation à partir de modèles hydrologiques et hydrauliques de prévision des crues ainsi
qu’en limitant les inondations en retenant une partie du débit des rivières en crue dans
les lacs-réservoirs Seine, Marne et Aube.

16. http ://sysiphe.jussieu.fr/internet/piren/

35
1.5.1 L’EPTB Seine Grands Lacs
L’EPTB Seine Grands Lacs est un Établissement Public Territorial de Bassin
qui a une double charge : celle de garantir la ressource en eau potable en soutenant
les étiages sur la Seine et ses affluents d’une part, et celle de lutter contre le risque
inondation en écrêtant les crues d’autre part. Sur le territoire du SPC, les lacs-réservoirs
Seine, Marne et Aube créés respectivement en 1966, 1974 et 1990 prélèvent et restituent
près de 720 millions de m3 d’eau chaque année dans le fleuve Seine et les rivières Marne et
Aube (Figure 1.14). L’exploitation des lacs est déterminée par un règlement d’eau défini
par arrêté inter-préfectoral. L’eau est dérivée et stockée de novembre à fin juin et restituée
de juillet à octobre, ces périodes pouvant varier en fonction des aléas climatiques.
Le lac-réservoir Seine (ou lac de la Forêt d’Orient), d’une capacité de stockage
de 208 millions de m3 peut dériver jusqu’à 180 m3/s de la Seine pour une restitution
moyenne de 18 m3/s en période d’étiage. En crues, jusqu’à 375 m3/s peuvent être dérivés
de la Marne (soit près de 80% du débit maximal connu) via le canal de prise (photo C
Figure 1.13) et stockés dans le lac-réservoir Marne (ou lac du Der-Chantecoq, photos A
et B Figure 1.13) d’une capacité de 349 millions de m3. Le soutien d’étiage peut fournir
une moyenne de 30 m3/s supplémentaires en Marne.

B C

Figure 1.13 – Le lac-réservoir Marne, photo A : vue aérienne du lac, photo B : l’église
de Champaubert en période d’étiage, photo C : le canal de prise.

Les canaux de prise et de restitution sont placés de part et d’autre de l’agglo-


mération de St-Dizier, limitant ainsi les inondations dans cette dernière. Le lac-réservoir

36
Aube, de création plus récente, est en capacité de dériver 135 m3/s en crue et de restituer
en moyenne 14 m3/s en période d’étiage.
En cas de crue exceptionnelle, les études indiquent que les lacs-réservoirs per-
mettraient un abaissement de 60 cm du niveau de la Seine à Paris par rapport au pic
de la crue de 1910 (soit une diminution d’un tiers des dommages pour une crue compa-
rable). Cependant, leur efficacité reste limitée à la capacité d’écrêtage des lacs (forte en
début de saison hydrologique, faible en juin lorsque les lacs sont théoriquement pleins).
L’EPTB Seine Grands Lacs gère les trois lacs situés sur le territoire du SPC. Un réseau
de mesures hydrométriques qui lui est propre permet de contrôler les valeurs des débits
entrant et sortant de ces ouvrages. L’EPTB informe le SPC SAMA de l’état de rem-
plissage, des prises et des restitutions de chaque lac. Les deux structures s’échangent les
données collectées au sein de leurs propres réseaux de mesure. Une convention définit les
modalités de ces échanges d’information.

1.5.2 Le territoire de compétence du SPC SAMA


La délimitation des territoires de compétence des SPC du bassin de la Seine
a été réalisée en deux étapes. La première a consisté en un découpage du bassin hy-
drographique Seine-Normandie en 16 unités hydrologiques homogènes ; la seconde, à les
assembler pour constituer des secteurs présentant un volume critique d’activité afin de
limiter le nombre de SPC intervenant par département. Ces secteurs sont devenus les
quatre zones de compétence du bassin Seine-Normandie confiées aux SPC Oise - Aisne,
SAMA, Seine Moyenne - Yonne - Loing et Seine Aval - Côtiers Normands. Le SPC SAMA
exerce sa compétence sur les unités Seine Amont et Marne Amont (respectivement en
bleu et en vert Figure 1.14).
La Seine traverse les départements de la Côte d’Or, de la Marne et de l’Aube
et contrôle un bassin versant d’environ 9100 km2 sur le territoire du SPC SAMA. Son
principal affluent est la rivière Aube. Les crues de la Seine, causées par des pluies océa-
niques peu intenses mais durables, sont hivernales et printanières (de novembre à mai).
Les précipitations moyennes annuelles sont d’environ 700 mm et peuvent atteindre 1000
mm an en tête de bassin. Le fonctionnement hydrologique du fleuve n’est pas uniforme :
on distingue le linéaire de la source de la Seine à Bar-sur-Seine (réactif à la pluie qui
représente la zone de genèse de la crue) du linéaire en aval de Bar-sur-Seine (où les crues
en raison d’un élargissement du lit majeur et d’une pente faible sont lentes - le temps de
propagation peut atteindre 4 à 5 jours entre Troyes et Nogent-sur-Seine - et durables -
jusqu’à plusieurs semaines dans le Nogentais).

37
Aisne

CHÂTEAU- Marne
THIERRY
La Marne
EPERNAY Meuse
CHÂLONS-EN-
CHAMPAGNE
PARIS BAR-LE-DUC
VITRY-LE-
FRANÇOIS

La

L’O
ST-DIZIER

Sa

rn
ai
ul

n
NOGENT-

x
Légende :
SUR-SEINE Lac-réservoir
Aube Limite départementale
La Seine Aube
Territoire du SPC SAMA
Lac-réservoir
Unité Marne Amont

L’
TROYES Marne

Au
be
Unité Seine Amont
Aube
L’Aube Cours d’eau surveillés par le SPC SAMA
BAR- CHAUMONT
Cours d’eau non surveillés par le SPC SAMA SUR-AUBE

Tronçons réglementaires : Lac-réservoir


BAR- Seine
Seine Amont Seine Troyenne SUR-SEINE
LANGRES Haute-
Seine Bassée Champenoise Marne
Aube Amont Aube Aval
N
Marne Amont Marne Der Source de
la Marne
Marne Moyenne Saulx-Ornain

Échelle : Côte d’Or Source de la Seine

Figure 1.14 – Le territoire de compétence du SPC SAMA.

Les principaux enjeux humains, économiques et environnementaux se concentrent


dans les agglomérations de Bar-sur-Seine, Troyes (qui depuis 2012 est nommée dans la
liste des TRI cf Partie 1.4.2) et Nogent-sur-Seine (centrale nucléaire). Le fonctionnement
hydrologique de l’Aube est comparable avec une dichotomie entre le linéaire en amont
et en aval de Bar-sur-Aube. La Seine et l’Aube sont principalement exposées à des crues
de débordement en lit majeur lentes et durables, caractéristiques des bassins de plaine.
L’unité Seine Amont est composée de 5 tronçons règlementaires :
• Seine Amont, de Bar-sur-Seine au canal d’amenée du lac-réservoir Seine ;
• Seine Troyenne, du canal d’amenée à la confluence avec l’Aube ;
• Seine Bassée Champenoise, de la confluence à la limite départementale
entre l’Aube et la Seine-et-Marne ;
• Aube Amont, de Bar-sur-Aube au canal d’amenée du lac-réservoir Aube ;
• Aube Aval, du canal d’amenée à la confluence avec la Seine.

La Marne prend sa source à Balesmes-sur-Marne sur le plateau de Langres à une


altitude de 420 m NGF. Elle traverse 7 départements dont la Haute-Marne, la Meuse,
la Marne et l’Aisne sur le territoire du SPC SAMA avant de se jeter dans la Seine sur
le territoire du SPC Seine Moyenne - Yonne - Loing à une altitude de 27 m NGF. La

38
Saulx est son principal affluent en rive droite. Le climat de l’unité Marne Amont présente
d’Ouest en Est une accentuation nette de la pluviométrie, avec une moyenne de 700 mm
par an de pluie à Châlons-en-Champagne à 1100 mm par an sur les hauteurs des dé-
partements de la Haute-Marne et de la Meuse. Comme pour la Seine, le fonctionnement
hydrologique de la rivière n’est pas uniforme : on distingue le linéaire de la Marne en
amont de Vitry-le-François et l’ensemble du Perthois composé de la Saulx et de l’Ornain,
karstique, réactif à la pluie, qui représente la zone de genèse des crues, du linéaire en aval
de Vitry-le-François, zone crayeuse perméable où les apports intermédiaires sont rares
et où la large vallée constitue un vaste champ d’expansion des crues. Les principaux en-
jeux humains, économiques et environnementaux se concentrent dans les agglomérations
de Chaumont, Saint-Dizier, Bar-le-Duc, Châlons-en-Champagne, Epernay et Château-
Thierry. Depuis 2012, Saint-Dizier et Châlons-en-Champagne sont citées dans la liste des
TRI (cf Partie 1.4.2). L’unité Marne Amont est composée de 4 tronçons règlementaires :
• Marne Amont, de Marnay-sur-Marne au canal d’amenée du lac-réservoir
Marne ;
• Marne Der, du canal d’amenée à la confluence avec la Saulx ;
• Marne Moyenne, de la confluence à la limite entre l’Aisne et la Seine-et-
Marne ;
• Saulx-Ornain, de Montiers-sur-Saulx pour la Saulx et de Houdelincourt
pour l’Ornain à la confluence avec la Marne.

Pour assurer ses missions, le SPC SAMA basé à Châlons-en-Champagne dis-


pose d’une équipe de 6 prévisionnistes et d’un réseau de 56 stations limnimétriques
(Figure 1.15 ci-dessous), gérées par les services d’hydrométrie des DREAL Champagne-
Ardenne, Bourgogne et de la DRIEE (Direction Régionale et Interdépartementale de
l’Environnement et de l’Énergie) Ile-de-France, dont les hauteurs et les débits sont vi-
sualisables sous Vigicrues. En cas de crise, le SPC peut s’appuyer sur les RDI (cf Par-
tie 1.4.2) des départements de l’Aube, de la Haute-Marne, de la Marne, de l’Aisne et de
la Meuse pour constater les dégâts. Météo-France gère et met à disposition les données
de 40 postes pluviométriques, dont la moitié est concentrée sur les bassins des tronçons
Marne Amont et Saulx-Ornain ainsi que les images de 4 radars de précipitation couvrant
l’ensemble du territoire du SPC SAMA.

39
Légende :
Station limnimétrique avec courbe de tarage
Station limnimétrique sans courbe de tarage
Station disposant d’une prévision GRP
Station disposant d’une prévision Mascaret
Poste pluviométrique Météo France N
Radar de précipitations Météo France

Échelle :

Figure 1.15 – Observations et prévisions au SPC SAMA.

A partir des données limnimétriques, débitmétriques et pluviométriques obser-


vées et des précipitations prévues par Météo-France, le SPC SAMA est en mesure de
fournir des prévisions en hauteurs et/ou débits sur près de 35 stations issues de modèles
hydrologiques pluie-débit GRP (cf Partie 1.3.1) à une échéance maximale de prévision de
24h et de modèles hydrauliques 1D Mascaret (cf Partie 1.3.2) à des échéances comprises
entre 5 et 48h. Afin d’accroître les échéances de prévision des modèles hydrauliques, il
est possible d’enchaîner les modèles GRP et Mascaret en imposant en condition limite
amont du modèle hydraulique les prévisions des modèles hydrologiques (cf Partie 5.1.4).
Les 2 modèles hydrauliques sur lesquels s’appliquent ces travaux vont être présentés dans
les Parties 1.5.3 et 1.5.4 ci-dessous.

40
1.5.3 Le modèle Marne Amont Global

Le modèle Marne Amont Global (MAG) est utilisé en opérationnel pour ef-
fectuer des prévisions depuis 2011 sur le tronçon Marne Amont (linéaire rouge sur la
Figure 1.14). Ce tronçon est sensible aux précipitations où l’on peut rencontrer des réac-
tions hydrologiques soudaines (de 5 à 120 m3/s sur une période de 24h en octobre 2006 à
Condes). Ce tronçon est constitué de plateaux forestiers calcaires incisés par des vallées
et comporte des zones karstiques au comportement hydrologique non linéaire et délicat
à anticiper. A l’origine, sur ce secteur, les prévisions étaient effectuées avec les modèles
Marne Valage (linéaire de la Marne débutant à Condes et s’achevant à Chamouilley)
crée en 2007 et mis à jour en 2010 et Marne Amont (linéaire de la Marne entre Marnay
et Condes) conçu en 2008 (Figure 1.16).

Chamouilley

Modèle Marne Échelle :


Valage, 2007 2,5 10 km

Le Rongeant
Joinville N

Mussey

Saucourt
La Manoise
Le Rigolot Le
Ro
g no Humberville
n La Sueurre

La Falouse et Le Vaux
Légende :
Altitude (m) Lacrête
Condes
Modèle Marne
Chaumont
Amont, 2008
Source du
La

Louvières Rognon
S uiz
e

Stations d’entrée du modèle Marnay La Traire


Villiers
Stations d’entrée du modèle

Stations de sortie du modèle

Tronçons de rivières modélisés


LANGRES
La Traire Cours d’eau modélisés

Zones d’infiltration Source de


la Marne
Résurgences karstiques

Figure 1.16 – Le tronçon Marne Amont.

41
Ces deux sous-bassins versants ont été modélisés avec le code numérique d’hy-
draulique mono-dimensionnel Mascaret développé par EDF et le CEREMA (Centre
d’Études et d’expertise sur les Risques, l’Environnement, la Mobilité et l’Aménagement,
ex-CETMEF) qui résout les équations de St-Venant (cf Parties 1.3.2 et 2.1). Ils ont
été calés indépendamment en utilisant les observations de hauteur d’eau aux stations
de Chaumont, Condes, Mussey, Joinville et Chamouilley. La non prise en compte des
apports intermédiaires, qui conduit à une sous-estimation des hauteurs et des débits
modélisés, a été compensée en réduisant localement les coefficients de Strickler, accrois-
sant ainsi artificiellement le niveau d’eau. Ces deux modèles, utilisés à l’opérationnel au
SPC SAMA de 2007 à 2011, ont donné des prévisions satisfaisantes en hauteur mais
les débits étaient sous-estimés et le temps de prévision maximum n’était qu’au mieux
de 15h. Afin d’augmenter le temps de prévision maximum et d’obtenir des prévisions à
Saucourt, les deux modèles ont été fusionnés en un modèle global (MAG), en incluant le
bassin karstique du Rognon, qui peut, en crue, apporter autant de débit que la Marne.
Le modèle MAG est limité en amont par les stations hydrométriques de Marnay,
Villiers, Louvières, Lacrête et Humberville, stations d’entrée du modèle (ronds noirs
sur la Figure 1.16). Les stations de Chaumont, Condes, Saucourt, Mussey, Joinville et
Chamouilley sont des stations de sortie du modèle (triangles rouges). La courbe de tarage
de Chamouilley a été appliquée en condition limite aval du modèle. Le modèle comporte
5 conditions limites amont, 9 biefs, 4 confluences et 6 points de sortie (Figure 1.17).
Les données topographiques se composent de 111 profils en travers géoréférencés en lit
mineur et majeur qui ont été capitalisés par le SPC auprès de l’Entente Marne (syndicat
de rivière) et de la DDT de la Haute-Marne pour un linéaire modélisé d’environ 180 km.

42
Amont Marnay

Louvières 1
5
La Traire
Q1: Villiers*3
Chaumont
6
2 La Suize
Lacrête
Q3: Humberville*3
Condes
9
7 Q4: apport de la Falouse, du
La Manoise Vaux et du Rigolot (Villiers*2,5)
Q2: apport de la Sueurre 3
(Villiers*4)
Le Rognon 8
Saucourt

Mussey
Marnay : Débit d’entrée du modèle
Q1: Villiers*3 : Débit d’entrée simulant
les apports intermédiaires en multipliant Joinville
l’hydrogramme de Villiers par 3
Q5: apport du Rongeant
Condes : Station de sortie du modèle (Villiers*5,5)
4
La Marne : Cours d’eau modélisé
La Marne
5 : Numéro du bief

Aval Chamouilley

Figure 1.17 – Le modèle Marne Amont Global.

La Suize est un cours d’eau karstique. Le SPC SAMA dispose de la station de


Villiers en amont des principales pertes. Après jaugeage, le service d’hydrométrie de la
DREAL Champagne-Ardenne estime que le débit de la Suize au niveau de la confluence
de la Marne est en moyenne deux à trois fois celui de Villiers, 30 km en amont. On
rencontre le même type de phénomène pour la station d’Humberville sur le bassin versant
de la Manoise. Le modèle global s’étend sur 2250 km2 mais la surface contrôlée par les
cinq stations amont n’est que de 750 km2. Les erreurs liées à la non prise en compte
des apports intermédiaires vont engendrer un déficit de débit croissant de l’amont vers
l’aval. Les apports de la Falouse, du Vaux, du Rigolot, du Rongeant et de la Sueurre ont
dû être intégrés à la modélisation ainsi que les apports des résurgences situées en aval
des stations de Villiers et Humberville. La modélisation des apports intermédiaires en
l’absence de modèle pluie-débit sur ces cours d’eau non-jaugés a représenté une étape
clef pour obtenir des prévisions satisfaisantes.
Les chroniques de hauteur et de débit des stations d’entrée et de sortie néces-
saires au calage et à la validation du modèle ont été fournies par le service d’hydrométrie

43
de la DREAL Champagne-Ardenne. Il faut noter que les données observées en débit ne
sont pas disponibles aux stations de Chaumont et de Joinville du fait de l’absence de
courbe de tarage valide. On dispose de 20 épisodes de crue au pas de temps horaire
pour les phases de calage et validation du modèle présentés dans le Tableau 1.2 où les
couleurs jaunes et orange indiquent si les seuils de vigilance crue jaunes et orange ont
été dépassés aux stations de Condes, Mussey et Chamouilley lors de ces événements.

Q maximum à Q maximum à Q maximum à


Épisode de crue Utilité
Condes (m3/s) Mussey (m3/s) Chamouilley (m3/s)
mars 2001 70 160 200 calage
avril 2001 70 160 210 validation
mai 2001 50 105 135 calage
janvier 2004 90 210 300 validation
décembre 2004 60 120 130 calage
février 2006 55 130 160 calage
mars 2006 90 200 260 calage
octobre 2006 - 1 110 200 220 calage
octobre 2006 - 2 55 60 65 calage
février 2007 65 115 165 validation
mars 2007 90 190 250 validation
décembre 2007 - 1 50 95 115 calage
décembre 2007 - 2 70 130 220 validation
mars 2008 70 160 190 calage
janvier 2009 50 120 110 validation
février 2009 45 120 120 calage
décembre 2010 80 210 275 validation
décembre 2011 130 220 310 validation
janvier 2013 100 200 310 validation
avril 2013 130 230 310 validation

Table 1.2 – Épisodes de crues utilisés pour le calage et la validation du modèle MAG. Les
seuils de vigilance jaunes et orange sont de respectivement 60 et 120 m3/s à Condes, 120 et 210
m3/s à Mussey et 170 et 350 m3/s à Chamouilley.

Le calage du modèle a été réalisé en deux temps. La première phase a consisté


à quantifier les apports intermédiaires : la majorité des crues résultant du passage d’un
épisode pluvieux océanique homogène sur le bassin de la Marne, on a considéré qu’il était
possible de décrire le comportement des apports à partir d’un hydrogramme élémentaire
multiplié par un coefficient. Les débits Q1 , Q2 , Q3 simulent respectivement les contri-
butions de la Suize, de la Sueurre et de la Manoise, Q4 représentent les apports de la
Falouse, du Vaux et du Rigolot et Q5 ceux du Rongeant (Figure 1.17). Ils ont été simu-
lés à partir des hydrogrammes de Villiers et Humberville multipliés par des coefficients
moyens Ai déterminés à partir des 10 crues de calage présentées dans le Tableau 1.2. Les
coefficients moyens Ai obtenus sont illustrés dans le Tableau 1.3 ci-dessous.

44
Hydrogramme
Qi Ai Écart-type
élémentaire
Q1 Villiers 3 0.8
Q2 Villiers 4 1.3
Q3 Humberville 3 1.8
Q4 Villiers 2.5 1.4
Q5 Villiers 5.5 2

Table 1.3 – Coefficients multiplicatifs Ai d’apports et leurs écarts-types avec i ∈ [1,5].


La seconde étape du calage a consisté à ajuster les coefficients de rugosité de
Strickler Ks , des lits mineurs et majeurs (nommés respectivement m et n dans cette
étude) de façon à accélérer ou ralentir les ondes de crues afin de mettre en phase pour
chaque crue de l’amont vers l’aval les hydrogrammes et limnigrammes modélisés et ob-
servés aux 6 stations de sorties en utilisant les débits Q1 , Q2 , Q3 , Q4 et Q5 multipliés
par les coefficients Ai obtenus dans le Tableau 1.3. Par la suite, les Ks locaux hérités
de l’ancienne modélisation ont été affinés en hauteur au voisinage des stations de sortie
afin de pouvoir compenser une description topographique et bathymétrique incomplète
entachant la relation hauteur-débit. Cette modification locale impacte les hauteurs d’eau
mais n’influe quasiment pas sur les débits modélisés.
Les Ks ont été optimisés pour chaque crue de calage. On obtient les Ks m et n
moyens présentés dans le Tableau 1.4 ci-dessous ainsi que les critères de Nash-Sutcliffe
moyens à partir des 10 crues de validation aux stations de Chaumont, Condes, Mussey,
Joinville, Chamouilley et Saucourt. Le critère de Nash exprime la différence relative entre
l’erreur du modèle et l’erreur d’un modèle de référence défini par la moyenne des débits
ou des hauteurs. Plus la valeur est proche de 1, meilleur est l’accord entre la simulation
et l’observation (Hingray et al., 2009). La formule du critère de Nash N est la suivante :
n
X
(Qobs (i) − Qsim (i))2
i=1
N =1− n . (1.2)
X
2
(Qobs (i) − Q̄obs )
i=1

D’autres indicateurs auraient pu être utilisés pour évaluer la qualité d’un modèle
de prévision des crues comme le calcul de l’erreur sur l’heure d’occurence des pics de
crue ou encore le calcul du biais sur la hauteur maximale observée ou au dépassement
des seuils de vigilance jaune, orange et rouge. Le critère de Nash-Sutcliffe a été retenu
car il permet d’évaluer l’erreur du modèle sur l’ensemble de la crue. Le calcul de ce score
sur des épisodes de crue seulement permet d’avoir une vision globale des performances
du modèle (aussi bien en montée, au pic qu’en décrue) sans accroître artificiellement sa
valeur en analysant des périodes hydrologiquement stables où les résultats sont excellents.

45
Longueur Station de Critère de Nash
Bief Portion m n
(m) sortie H Q
1 1 5172 24 14
2 1 21753 24 14 Chaumont 0.922
1 660 36 22 Condes 0.821 0.835
3
2 44842 24 14
1 578 20 13 Mussey 0.544 0.743
2 8200 24 18
4
3 300 14 8 Joinville 0.531
4 26383 24 14 Chamouilley 0.614 0.621
5 1 4150 24 14
6 1 27101 24 14
7 1 7600 9 7
1 16266 9 7
8 2 500 13 8 Saucourt 0.797 0.821
3 5680 9 7
9 1 10819 9 7

Table 1.4 – Coefficients de Strickler moyens des lits mineurs (m) et majeurs (n) retenus au
calage pour le modèle Marne Amont Global en fonction des biefs décrits dans la Figure 1.17.

On obtient des couples de valeurs de m et n proches de [25-15], valeurs usuelles


pour une rivière sinueuse et un lit majeur en prairie avec une végétation éparse (Bedient
and Hubert, 2002). Lors de la validation, on a observé peu de décalage temporel entre
les ondes de crues observées et modélisées. Les Ks moyens déterminés au calage ont
été validés. D’après la Figure 1.18, l’application des coefficients multiplicatifs Ai du
Tableau 1.3 permet de mieux appréhender la quantification des apports intermédiaires.
Toutefois, les erreurs liées à l’estimation de ces apports se cumulant, les critères de Nash
se dégradent de l’amont vers l’aval.
Le forçage local des Ks au droit de la station de Mussey pour limiter une sous-
estimation récurrente des hauteurs modélisées ne permet pas d’améliorer la simulation
de la relation hauteur-débit sur l’ensemble de la crue de janvier 2004 (Figure 1.19). Les
hauteurs d’eau simulées à Mussey sont inférieures à celles observées à partir du jour 4 : les
deux pics de crue étant correctement simulés en débit, la description géométrique éparse
au droit de la station de Mussey doit engendrer une sous-estimation de la simulation des
hauteurs d’eau. Cette sous-estimation récurrente a été détectée lors de la phase de calage.
Les Ks des lits mineurs et majeurs ont donc été localement diminués afin d’augmenter le
frottement et élever la ligne d’eau mais ce forçage ne permet de satisfaire la modélisation
des hauteurs d’eau pour toutes les gammes de débits. Avec le couple de Ks 20-13, les
hauteurs d’eau sont légèrement surestimées entre 50 et 150 m3 /s et sous-estimées au
delà.

46
120 1.8
Q Obs.
Q Mod. Qa=Villiers*3 1.6
Q Mod. Qa=Villiers*1
100
H Obs.
1.4
H Mod. Qa=Villiers*3
H Mod. Qa=Villiers*1
80 1.2

Hauteurs d'eau en m
Débits en m3/s

1
60
0.8

40 0.6

0.4
20
0.2

0 0
0 1 2 3 Jours 4 5 6

Figure 1.18 – Débits et hauteurs modélisés à Condes lors de la crue de validation d’avril
2001 avec et sans prise en compte des apports intermédiaires.

350
3
Q Obs.
Q Mod. 2.8
300
H Obs. 2.6
H Mod. 2.4
250 2.2
2
Hauteurs d'eau en m
Débits en m3/s

200 1.8
1.6
1.4
150
1.2
1
100
0.8
0.6
50 0.4
0.2
0 0
0 1 2 3 4 5 Jours 6 7 8 9

Figure 1.19 – Débits et hauteurs observés et modélisés à Mussey pour la crue de


validation de janvier 2004.

47
On montrera dans le Chapitre 3, que la correction des forçages amont Q1 , Q2 ,
Q3 , Q4 et Q5 où ont été intégrés les apports intermédiaires avec les coefficients multipli-
catifs Ai par une méthode séquentielle d’assimilation de données améliore les prévisions
des hauteurs d’eau et des débits sur l’ensemble du modèle MAG. Cette correction va
être effectuée via un nouveau coefficient multiplicatif a contrôlé par assimilation de don-
nées, qui une fois appliqué aux forçages amont Q1 , Q2 , Q3 , Q4 et Q5 , va permettre une
variabilité temporelle de la prise en compte des apports intermédiaires, essentielle par
exemple pour des événements estivaux ou de début d’automne quand le comportement
du karst est complexe ou quand la station de Villiers n’est pas représentative de l’en-
semble de la dynamique du bassin. En dépit de profils topographiques et bathymétriques
supplémentaires, au même titre que les forçages amont, le contrôle des Ks locaux par
assimilation de données permettrait de modifier le forçage local.

48
1.5.4 Le modèle Marne Moyenne
Le SPC SAMA utilise le modèle Mascaret Marne Moyenne (MM) pour effectuer
en temps réel des prévisions de hauteur d’eau aux stations de La Chaussée, Châlons-en-
Champagne et Damery et de débit uniquement à Châlons-en-Champagne sur la partie
moyenne de la rivière Marne en aval du lac-réservoir Marne (cf Partie 1.5.1). Ces stations
sont représentées par des triangles rouges sur la Figure 1.20). Les stations de La Chaussée
et de Damery ne disposent pas de courbe de tarage. La largeur du lit majeur au droit
de la station de La Chaussée (plus de 2 km) ne permet pas d’effectuer des jaugeages en
crue, lorsque la Marne sort de son lit. Damery se situe une dizaine de mètres en aval
d’un barrage manuel utile à la navigation sur le canal de la Marne, zone difficilement
jaugeable par l’UH de la DREAL Champagne-Ardenne.

Amont Frignicourt

Vitry-en-Perthois*1,2 1
3
La Saulx

2.1

La Chaussée 2.2

2.3

Châlons-en-Champagne 2.4

Frignicourt : débit d’entrée du modèle 2 La Marne

Vitry-en-Perthois*1,2 : débit d’entrée


simulant les apports intermédiaires en 2.5
multipliant l’hydrogramme de Vitry par 1,2

Damery : station de sortie du modèle


La Marne : cours d’eau modélisé
Damery 2.6
2 : numéro du bief
2.1 : numéro de portion de Ks du bief 2 2.7

Aval

Figure 1.20 – Le modèle Marne Moyenne (MM).

Ne disposant pas de stations hydrométriques pour simuler les débits des quelques
affluents crayeux de la Marne, les apports intermédiaires ont été pris en compte dans le
modèle en affectant un coefficient multiplicatif moyen, nommé AMM , de 1.2 aux débits de
la station d’entrée de Vitry-en-Perthois. On considère alors que la même quantité d’eau

49
s’écoule aux trois stations de sortie du modèle. Ce coefficient moyen a été déterminé
en comparant les hydrogrammes simulés et observés à Châlons-en-Champagne pour les
douze épisodes de crues de calage présentés dans le Tableau 1.5 ci-dessous où les couleurs
jaunes et orange indiquent si les seuils de vigilance crue jaunes et orange ont été dépassés
à la station de Châlons-en-Champagne lors de ces événements.

Q maximum à Châlons-
Épisode de crue Utilité
en-Champagne (m3/s)
avril 1983 650 validation chapitre 4
mars 2001 338 calage
avril 2001 305 calage
décembre 2001 295 calage
janvier 2002 346 calage
mars 2002 338 calage
décembre 2002 247 calage
janvier 2003 354 calage
janvier 2004 288 calage
mars 2006 260 validation
janvier 2007 230 calage
février 2007 272 validation
mars 2007 332 calage
décembre 2007 329 validation
février 2008 217 calage
mars 2008 294 validation
février 2010 264 calage
décembre 2010 412 validation
décembre 2011 330 validation
décembre 2012 319 validation
février 2013 375 validation

Table 1.5 – Épisodes de crues utilisés pour le calage et la validation du modèle MM. Les
seuils de vigilance jaunes et orange sont de respectivement 340 et 550 m3/s à la station de
Châlons-en-Champagne. La crue d’avril 1983 sera utilisée pour valider la maquette de
correction des paramètres du modèle MM par assimilation de données dans le Chapitre 4.

Ce coefficient multiplicatif permet d’intégrer dans le modèles MM les écoule-


ments de surface des cours d’eau non-instrumentés mais aussi les apports sous-terrains
de l’aquifère crayeux. Ces derniers sont effectifs et relativement constants dans le temps
sur un épisode de crue. Il est envisageable d’utiliser les mesures piézométriques pour
estimer une valeur approximative des échanges nappes-rivières mais cette piste n’a pas
encore été explorée. Dans un second temps, la calage a consisté à mettre en phase, pour
chaque crue de l’amont vers l’aval, les limnigrammes et hydrogrammes simulés et obser-
vés aux trois stations en adaptant les Ks des lits mineurs m et majeurs n afin d’obtenir
des Ks moyens. Enfin, comme pour le modèle MAG, des Ks locaux ont été affectés au
droit de chaque station pour compenser des erreurs récurrentes au niveau des hauteurs
d’eau modélisées, liées en partie à une description topo-bathymétrique incomplète. On
obtient les Ks présentés dans le Tableau 1.6 ci-dessous.

50
Longueur Écart- Écart- Station de
Bief Portion m n
(m) type m type n sortie
1 1 586 40 0 30 0
1 14000 30 3.6 13 2.5
2 2999 26 1 12 2.1 La Chaussée
3 14999 27 5.3 12 1.8
2 Châlons-en-
4 2999 40 0 15 0
Champagne
5 46999 40 2.6 15 4.3
6 2999 40 1.4 15 2.2 Damery
7 67469 40 0 20 0
3 1 3691 40 0 30 0

Table 1.6 – Coefficients de Strickler moyens des lits mineurs (m) et majeurs (n) retenus au
calage pour le modèle MM.
Les Ks de la portion 1 des biefs 1 et 3 ont été déterminés à partir de la littéra-
ture, car d’une part leurs distances respectives sont faibles (elles ont donc peu d’impact
sur l’écoulement) et d’autre part on ne dispose pas de station d’observation juste en aval
pour les caler correctement (idem pour les Ks de la portion 7 du bief 2). Les Ks de la
portion 4 du bief 2, au droit de la station de Châlons-en-Champagne, ont été déterminés
afin de simuler au mieux la courbe de tarage (Figure 1.21). Il est à noter que les Ks
n’ont donc pas été modifiés lors du calage. Les Ks des portions 1, 3 et 5 du bief 2 ont
été déterminés de façon à mettre en phase les hydrogrammes simulés et observés aux
stations de La Chaussée, Châlons-en-Champagne et Damery. On obtient des écarts-types
importants aussi bien pour m que n. Enfin, les Ks des portions 2 et 6 du bief 2 sont des
forçages locaux qui impactent juste les hauteurs modélisées au droit des stations de La
Chaussée et de Damery, leurs écarts-types étant plus faibles.

51
650

600 Courbe de tarage actuelle


Jaugeages > 3 m
550
Relation H/Q simulée
500

450
Débits en m3/s

400

350

300

250

200

150

100

50
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Hauteurs en m

Figure 1.21 – Comparaison entre la courbe de tarage de Châlons-en-Champagne et la


relation H/Q simulée par le modèle MM.

Le modèle a été validé à partir d’un jeu de 8 crues différentes de celles ayant
participées au calage avec le coefficient multiplicatif d’apport AMM de 1.2 affecté à la
station de Vitry-en-Perthois et les Ks moyens présentés dans le Tableau 1.6. Les résultats
sont satisfaisants en hauteurs à La Chaussée, en hauteurs et en débits à Châlons-en-
Champagne. Ils sont mitigés en hauteurs à Damery du fait d’une part d’une description
topo-bathymétrique incomplète du secteur dans le modèle, et d’autre part de la présence
du barrage manuel à aiguilles situé une dizaine de mètres en amont de la station. La loi
de l’ouvrage théorique est connue et intégrée dans le modèle mais bien souvent différente
des manipulations pratiquées par les barragistes en basses et moyennes eaux (le barrage
est couché en crue aux alentours de 2 m à l’échelle limnimétrique de Damery). Les
résultats simulés à ces trois stations lors de la crue de validation de décembre 2010
sont présentés dans les Figures 1.22, 1.23 et 1.24. A La Chaussée, la dynamique du
limnigramme modélisé est respectée. On observe toutefois une mauvaise simulation du
second pic de crue. A Châlons, les débits simulés au premier pic sont surestimés d’environ
20 m3 /s et en retard de 12h au franchissement du seuil jaune au second. On a ici
simultanément un problème de quantité et de dynamique avec une prédominance de
"trop de débit" avec un coefficient multiplicatif moyen de 1.2 surement trop élevé au
premier pic et de "retard" avec des Ks trop faibles en amont de Châlons-en-Champagne
pour le second.

52
3.4
3.2
3
2.8
2.6
2.4
2.2
Hauteurs en m

2
1.8
1.6
1.4
1.2
1
0.8
H Obs.
0.6 H Mod.
0.4 Seuil jaune
0.2
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours

Figure 1.22 – Hauteurs observées et modélisées à La Chaussée pour la crue de décembre


2010.

475
450
425
400
375
350
325
300
Débits en m3/s

275
250
225
200
175
150
125
100 Q Obs.
75 Q Mod.
50 Seuil jaune
25
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours

Figure 1.23 – Débits observés et modélisés à Châlons-en-Champagne pour la crue de de


décembre 2010.

53
A Damery (Figure 1.24), le manque de données topo-bathymétriques et les
manœuvres du barrage rendent la simulation hasardeuse avec une surestimation d’un
mètre au premier pic de crue. Au second, le barrage est couché, l’écoulement est de
nouveau naturel. La simulation est améliorée malgré un retard de l’onde de crue comme
à Châlons-en-Champagne.

3.8
3.6
3.4
3.2
3
2.8
2.6
2.4
2.2
2
Hauteurs en m

1.8
1.6
1.4
1.2
1
0.8
0.6
0.4
H Obs.
0.2
H Mod.
0
-0.2 Seuil jaune
-0.4
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours

Figure 1.24 – Hauteurs observées et modélisées à Damery pour la crue de décembre 2010.

Au vu des écarts-types obtenus lors du calage (cf Tableau 1.6) et du déphasage


constaté lors de la validation du modèle, il semble que les Ks ont aussi une part de res-
ponsabilité importante dans les erreurs de modélisation. Au même titre que les forçages
amont du modèle MAG, le contrôle des Ks m et n du modèle MM par assimilation de
données permettrait de faire varier temporellement les rugosités des lits mineurs et ma-
jeurs et ainsi freiner ou accélérer l’onde de crue simulée. On montrera dans le Chapitre 3
que l’enchaînement de la correction des débits de la station de Vitry-en-Perthois (où ont
été intégrés les apports intermédiaires via le coefficient multiplicatif AM M de 1.2) et des
Ks par assimilation de données va réduire les erreurs liées à l’estimation des quantités
et à la dynamique.

54
Chapitre 2

Contexte et implémentation de
l’assimilation de données

Sommaire
2.1 Le code d’hydraulique 1D Mascaret . . . . . . . . . . . . . . . 56
2.1.1 Forme non-conservative des équations de Saint-Venant . . . . . 56
2.1.2 Données nécessaires à un calcul . . . . . . . . . . . . . . . . . . 57
2.2 Les incertitudes liées aux observations et à la modélisation . 61
2.2.1 Incertitudes et erreurs . . . . . . . . . . . . . . . . . . . . . . . 61
2.2.2 Les incertitudes liées aux observations . . . . . . . . . . . . . . 61
2.2.3 Les incertitudes liées à la modélisation hydraulique . . . . . . . 62
2.3 L’assimilation de données . . . . . . . . . . . . . . . . . . . . . 63
2.3.1 État de l’art de l’assimilation de données appliquée à l’hydrau-
lique fluviale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.3.2 Formalisme de l’assimilation de données de type filtrage . . . . 66
2.3.3 La méthode d’assimilation BLUE . . . . . . . . . . . . . . . . . 67
2.3.4 Le filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . 67
2.3.5 Le coupleur OpenPALM . . . . . . . . . . . . . . . . . . . . . . 68
2.4 Implémentation de la maquette d’assimilation de données
DAMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.4.1 Correction des forçages amont . . . . . . . . . . . . . . . . . . 71
2.4.2 Correction des coefficients de Strickler . . . . . . . . . . . . . . 73
2.4.3 Correction de la ligne d’eau . . . . . . . . . . . . . . . . . . . . 74
2.4.4 Cyclage de l’analyse . . . . . . . . . . . . . . . . . . . . . . . . 75

55
2.1 Le code d’hydraulique 1D Mascaret
Développé depuis plus de 20 ans par EDF R&D (Réseau et Distribution) et
le CEREMA (Centre d’Études et d’expertise sur les Risques, l’Environnement, la Mo-
bilité et l’Aménagement, ex-CETMEF), le logiciel Mascaret est un code de modélisa-
tion hydraulique mono-dimensionnelle (1D) à surface libre, basé sur la résolution des
équations de Saint-Venant. Il permet des calculs en régime fluvial permanent, fluvial
non-permanent et torrentiel. Mascaret est un logiciel libre téléchargeable depuis le site
internet du projet 1 avec son interface Fudaa-Mascaret qui facilite la construction et l’ex-
ploitation des modèles hydrauliques, ainsi que la visualisation des résultats du calcul.
Les équations de Saint-Venant 2 sont dérivées de celles de Navier-Stokes. Les équations
de Navier-Stokes sont les équations de base de la mécanique des fluides établies par
le mathématicien Henri Navier et le physicien Georges Stokes. Elles sont couramment
utilisées en sciences et en ingénierie pour modéliser l’océan, l’atmosphère, l’écoulement
des rivières ; elles sont composées de trois équations : une équation de conservation de la
masse (ou équation de continuité), une équation de conservation de la quantité de mou-
vement et une équation de conservation de l’énergie. Le code Mascaret n’utilise pas cette
dernière, car celle-ci exprime les variations de température dans le fluide, paramètre que
Mascaret ne simule pas.

2.1.1 Forme non-conservative des équations de Saint-Venant


On se place dans le cas d’un bief unique composé d’un lit mineur et d’un lit
majeur en régime non-permanent (appelé aussi régime transitoire) où le débit varie en
fonction du temps. La modélisation d’un écoulement en rivière via un modèle hydraulique
dans le contexte de la prévision des crues est typiquement un problème de calcul en
régime non-permanent.
Les équations de Saint-Venant 1D sous la forme non-permanente sont compo-
sées :
• d’une équation de continuité qui traduit la conservation des débits (équa-
tion 2.1) :
∂S ∂Q
+ = qa , (2.1)
∂t ∂x
avec Q(x, t) le débit en m3 /s, S la surface mouillée en m2 et qa (x, t) les apports
latéraux.
• d’une équation de conservation de la quantité de mouvement (équation 2.2)
qui correspond à l’équation fondamentale de la dynamique (les deux pre-
miers membres représentent l’accélération d’une tranche d’eau, le second la
somme des forces appliquées) telle que :
∂Q ∂QV ∂Z
+ + gS( + J + Js ) = 0 , (2.2)
∂t ∂x ∂x
1. http ://openmascaret.org
2. Adhémar Barré de Saint-Venant est un ingénieur, physicien et mathématicien français du
XIXe siècle)

56
avec V (x, t) la vitesse en m/s, g l’accélération de la pesanteur en m/s2 , Z(x, t)
la cote de la surface de l’eau en m et J représentant les pertes de charge linéiques. Ces
pertes résultent du frottement sur le fond et les berges du cours d’eau, elles sont évaluées
par la loi de Strickler (équation 2.3) :

Q2
J= , (2.3)
Ks2 S 2 R4/3

avec Ks le coefficient de rugosité de Strickler en m1/3 /s et R le rayon hy-


draulique en m (Thual, 2010). Des pertes de charges singulières peuvent se produire en
présence d’obstacles, de variations brusques de sections, de confluents ; elles sont notées
Js et s’ajoutent à J.
On considère que la répartition des vitesses calculées dans une section est uni-
forme. Le coefficient β traduit l’hétérogénéité de la vitesse dans une section en travers
où : RR 3
v ds
β= . (2.4)
V 3 .S
β vaut 1 si la répartition des vitesses dans la section est homogène, on appliquera
par conséquent dans ces travaux un coefficient β égal à 1.
Ces équations sont résolues dans Mascaret par une méthode de différences finies
utilisant un schéma implicite. Le lecteur intéressé par les principes et les méthodes
numériques développées dans Mascaret pour la résolution des équations de Saint-Venant,
notamment en régime non-permanent, pourra se reporter à la thèse de HDR (Habilitation
à Diriger des Recherches) de Nicole Goutal (Goutal, 2014) ainsi qu’à la note de principe
de Mascaret (EDF-CETMEF, 2011).

2.1.2 Données nécessaires à un calcul


Pour calculer l’évolution d’une ligne d’eau dans une rivière en régime fluvial à
un instant donné à partir d’une condition initiale, il est nécessaire de décrire la géométrie
du cours d’eau, de renseigner certains paramètres propres à la modélisation hydraulique
et de fixer la condition initiale et les conditions limites amont et aval.

Description géométrique
Dans Mascaret, on nomme bief un tronçon de rivière délimitée à ses extrémités
par une condition limite ou une confluence, et composée de profils en travers décrivant
les lits mineurs et majeurs du cours d’eau. Les bornes des lits mineurs et majeurs sont
fixées par le modélisateur (Figure 2.1).

57
Figure 2.1 – Profil en travers de la rivière Saulx (affluent de la Marne pris en compte
dans le modèle MM). Les droites verticales bleues correspondent aux limites extérieures du
lit mineur ; les droites vertes correspondent aux limites du lit majeur.

Une confluence correspond à la convergence de deux cours d’eau. Elle est mo-
délisée par un nœud et est composée de trois extrémités libres appartenant à trois biefs.
Les équations résolues aux nœuds en régime fluvial non-permanent sont la continuité
des débits ainsi que l’égalité des cotes à chaque extrémité libre. Ainsi dans l’exemple
ci-dessous, Figure 2.2, les inconnues sont (Z2 , Q2 ), (Z3 , Q3 )et(Z6 , Q6 ) et les équations du
nœud n1 sont :
• la répartition des débits : Q2 + Q6 = Q3 ;
• l’égalité des cotes : Z2 = Z3 = Z6 .

58
Aval e4

b2 e3(Z3,Q3)

b3
n1 La Saulx
e2(Z2,Q2)
e6(Z6,Q6) e5

b1

e1 Amont
La Marne
Figure 2.2 – Schéma de la confluence entre la Marne et la Saulx du modèle MM. Le
modèle est composé de 3 biefs (b) ; deux hydrogrammes ont été imposés en condition limite
amont aux extrémités libres e1 et e5 ; une courbe de tarage a été imposée en condition
limite aval à l’extrémité libre e4 . Le nœud n1 composé des extrémités libres e2 , e3 et e6
modélise la confluence.

Traitement des singularités hydrauliques


On appelle singularité hydraulique tout phénomène et/ou aménagement hy-
draulique influent, ne pouvant pas être traité directement par la résolution des équations
de Saint-Venant et nécessitant par conséquent un traitement particulier. On peut citer
par exemple les seuils et les vannes qui sont décrits dans Mascaret par leur géométrie,
leur localisation et leur comportement hydraulique sous forme d’abaques, ou bien encore
les apports ponctuels de débit lorsque les affluents ne sont pas représentés dans la géo-
métrie. On utilise notamment cette singularité pour intégrer les apports intermédiaires
des cours d’eau non-jaugés du modèle Marne Amont Global (cf Partie 1.5.3). Ces ap-
ports peuvent être ponctuels ou linéiques c’est-à-dire répartis sur une certaine longueur.
Les autres pertes de charge singulières peuvent être prises en compte en les localisant et
en indiquant un coefficient de perte de charge. Pour tenir compte des pertes de charges
régulières, il est obligatoire d’affecter un coefficient de rugosité à chaque bief.

Discrétisation spatiale
La discrétisation spatiale du domaine est effectuée à travers le planimétrage
et le maillage. On appelle planimétrage la discrétisation verticale des profils en travers,
où dans chaque tranche d’eau, la section mouillée, le périmètre mouillé et le rayon hy-
draulique sont évalués. Pour calculer l’évolution d’une ligne d’eau d’un cours d’eau, le

59
domaine doit être discrétisé spatialement le long de l’abscisse curviligne en sections de
calcul, formant le maillage. Le pas de maillage indiquera la distance de discrétisation
entre deux sections de calcul le long de l’écoulement.

Conditions initiales et aux limites


Pour un calcul en régime transitoire, l’état initial dans la rivière doit être connu,
c’est-à-dire que le modélisateur doit renseigner la cote et le débit en chaque point du
maillage. Cette condition initiale peut être obtenue à partir d’une simulation préliminaire
de Mascaret en régime permanent. A chaque extrémité libre, le modélisateur doit imposer
une condition limite : on cherche à connaître l’évolution de la hauteur d’eau et du débit à
une section aval en propageant les débits observés en amont, on impose donc en condition
limite amont des hydrogrammes (cf Partie 1.2.2). En guise de condition limite aval, il
est possible d’imposer un limnigramme, une courbe de tarage ou bien un marégramme
(cf Partie 1.2.3) pour les modèles estuariens.

60
2.2 Les incertitudes liées aux observations et à la modéli-
sation
Le recensement des différents types d’incertitudes et leur éventuelle quantifica-
tion se base sur le document (SCHAPI-SPC, 2014) rédigé dans le cadre d’un chantier
commun entre le SCHAPI et les SPC sur l’estimation des incertitudes de prévision des
crues.

2.2.1 Incertitudes et erreurs


Erreurs et incertitudes se réfèrent à une donnée vraie, une norme. L’erreur af-
firme le décalage (re)connu ou constaté entre une affirmation (une prévision passée par
exemple) et cette donnée vraie sans introduire de notion de doute. Au contraire, l’incer-
titude fait référence au doute. L’erreur d’une prévision à une échéance de prévision tp est
donc la différence entre la valeur réelle du débit (ou de la hauteur d’eau) à venir Qt+tp
et la prévision faite à t à l’échéance t + tp . Cette erreur ne peut être connue qu’à t + tp,
c’est-à-dire trop tard dans le contexte opérationnel de prévision des crues. L’incertitude
est une information sur la prévision a priori (avant la réalisation de l’événement) alors
que la connaissance de l’erreur relève d’un constat a posteriori. L’incertitude anticipe
l’erreur et les erreurs connues permettent d’évaluer notre incertitude. Par exemple, la
connaissance d’une série de prévisions passées et des erreurs qui ont été faites peut aider,
en partie à mieux quantifier les incertitudes de prévision en opérationnel (cf Partie 4.1).
Une source d’incertitudes est un élément utilisé dans la construction de la prévision (don-
nées, hypothèses de modélisation...) incertain pouvant altérer nos prévisions en sortie.
Les prévisions peuvent être fournies avec un certain intervalle de confiance témoignant
le degré de confiance ou d’incertitude dans l’information fournie. On distingue deux
types de sources d’incertitude en prévision des crues : la première concerne les données
observées présentées dans la Partie 2.2.2 ; la seconde est liée à la représentation des
phénomènes que nous utilisons pour construire notre prévision, notamment celle liée à
la modélisation hydraulique et aux paramètres hydrauliques non-réifiables qu’on utilise
(voir Partie 2.2.3).

2.2.2 Les incertitudes liées aux observations


Nos modèles hydrauliques prennent en compte :
• des observations directes de la hauteur d’eau au droit des stations de mesure ;
• des estimations de variables physiques indirectement mesurées, comme le
débit via les courbes de tarage ;
• des données topographiques et bathymétriques nécessaires à la construction
des modèles ;
• des prévisions, notamment pour les marégraphes et les valeurs de surcotes.

Ces données sont utilisées d’une part en temps réel en guise de condition limite
amont (ou aval pour les données maritimes), mais aussi lors de la phase de calage du

61
modèle. Dans le cadre de cette thèse et de la participation au groupe de travail sur
l’estimation des incertitudes organisé par le SCHAPI, nous avons tenté d’estimer l’in-
certitude liée aux hauteurs d’eau et aux débits mesurés. La hauteur d’eau mesurée par
le capteur est parfois différente de celle relevée visuellement. Les capteurs qui dérivent
sont alors recalés par les agents des UH lors de leur passage toutes les six semaines. Le
SPC SAMA dispose d’observateurs de crue (personnes physiques qui relèvent la hauteur
à l’échelle) aux stations importantes du réseau hydrométrique, notamment à la station
de Mussey (cf Figure 1.16). Les hauteurs d’eau relevées une fois par semaine par l’obser-
vateur de crue de Mussey ont été comparées à la hauteur brute mesurée par le capteur
utilisé en opérationnel sur plusieurs années. En considérant que la hauteur relevée par
l’observateur est précise, l’écart-type de l’erreur liée à la hauteur brute à la station de
Mussey est de 0,025 m. L’UH de la DREAL Champagne-Ardenne établit et tient à jour
la courbe de tarage de Mussey à partir de jaugeages au moulinet (micro-moulinet ou
saumon) ou par ADCP (cf Partie 1.2.2) qui ont lieu en moyenne une fois par mois.
La partie de la courbe de tarage de Mussey relative aux moyennes et hautes-eaux est
constituée d’un nuage d’une vingtaine de points de jaugeages. L’écart moyen calculé
entre les débits mesurés lors des jaugeages et les débits calculés par la courbe de tarage
à partir des hauteurs relevées par les jaugeurs est de 4,62 %, c’est-à-dire que pour une
hauteur d’eau brute, le débit calculé via la courbe de tarage varie en moyenne de plus
ou moins 4,62 %. Concrètement, pour une hauteur brute de 2 m à Mussey mesurée par
le capteur, on peut considérer que la hauteur réelle est comprise entre 1,975 et 2,025 m.
Après transformation en débit via la courbe de tarage et en tenant compte de l’écart
moyen de 4.62 %, on obtient un débit compris entre 107 et 122 m3 /s, intervalle qui est
loin d’être négligeable. Toutefois, cette erreur peut être fortement réduite en dissipant
l’incertitude liée à la dérive du capteur en interrogeant l’observateur de crue.
La géométrie du lit mineur est réalisée par des relevés terrestres (nivellements
classiques ou relevés GPS) et pour la partie sous l’eau (la bathymétrie) par sondage.
La précision des mesures dépend des contraintes imposées au géomètre dans le cahier
des charges : densité de points, précision de la mesure altimétrique et planimétrique. En
général, la précision altimétrique demandée est meilleure que 10 cm et la précision plani-
métrique est de l’ordre du mètre. La description du lit majeur se fait traditionnellement
par des relevés terrestres, souvent dans le prolongement du lit mineur. La précision de
ces levés est du même ordre que ceux réalisés pour le lit mineur. Depuis quelques années,
l’utilisation du LIDAR s’est imposée dès lors que les surfaces à couvrir sont importantes.
La précision de ces relevés est meilleure que le mètre en planimétrie et de l’ordre de 10
à 20 cm en altimétrie.

2.2.3 Les incertitudes liées à la modélisation hydraulique


Notre représentation mentale du système d’écoulement (bassin versant, chenal
d’écoulement par exemple) est très imparfaite (incertitude épistémique). C’est pourtant
notre premier outil, même si nous l’oublions parfois, pour établir nos prévisions : nos
modèles de prévision découlent de cette représentation et présentent par conséquent
de nombreux défauts qui génèrent une incertitude de prévision. On peut distinguer les

62
incertitudes liées :
• à des approximations physiques non négligeables, comme par exemple les
équations de Saint-Venant dérivées des équations de Navier-Stokes avec cer-
taines hypothèses simplificatrices ou l’application d’équations physiques à
des échelles où elles ne sont pas valides ;
• à une représentation simplifiée du système d’écoulement par divers para-
mètres : la géométrie du cours d’eau est représentée à partir de profils en
travers parfois épars, les profils sont alors interpolés pour créer des sections
de calcul intermédiaires dans le maillage.

L’estimation des coefficients de Strickler et la quantification des apports inter-


médiaires pour les cours d’eau non-jaugés sont des paramètres entrant dans cette seconde
catégorie. Le fait de prendre en compte ou de négliger la modélisation d’un apport inter-
médiaire peut déjà être, en soi, une source d’incertitude. Leurs valeurs sont approchées
lors de la phase de calage du modèle (cf Partie 1.3.2) où en optimisant ces derniers
pour chaque crue de calage, on détermine une valeur moyenne de Ks et de coefficient
d’apport intermédiaire, adjointe d’un écart-type (cf Tableaux 1.3 et 1.4), ce qui permet
d’avoir une idée de l’incertitude propre à ces paramètres. Ces paramètres peuvent éga-
lement être estimés, au mieux, en utilisant des méthodes d’assimilation de données, ce
qui correspond à une estimation dynamique des paramètres au fil de l’acquisition des
observations permettant une prise en compte de la variabilité temporelle des erreurs,
comme détaillé dans la section suivante.

2.3 L’assimilation de données


Un modèle hydraulique de prévision des crues représente l’évolution temporelle
de l’écoulement d’une rivière à partir de la résolution des équations de Saint-Venant.
Cependant, du fait de la discrétisation du modèle, de certaines hypothèses d’approxi-
mation, et de certains paramètres mal connus entrant en compte dans la modélisation,
ces modèles ne sont pas exacts. D’autre part, les observations de manière analogue aux
modèles sont entachées d’incertitudes. L’objet de l’assimilation de données est alors de
combiner les résultats du modèle et des données observées en tenant compte des incer-
titudes qui leurs sont propres, afin d’obtenir une estimation optimale de l’état prévu du
système.
On distingue deux familles de méthodes d’assimilation de données : d’une part,
les méthodes variationnelles (les plus utilisées sont, en météorologie notamment, les mé-
thodes 3D-Var (Sasaki et al., 1955; Sasaki, 1958) et 4D-Var (Le Dimet and Talagrand,
1986)) dans lesquelles la meilleure estimation de l’état du système est obtenue en mi-
nimisant une fonctionnelle (les méthodes variationelles ne seront pas abordées ici, les
lecteurs peuvent se référer aux thèses de (Ricci, 2004; Mirouze, 2010) qui explicitent
entre autres les différentes méthodes variationnelles d’assimilation de données). D’autre
part, les méthodes basées sur le filtrage tels que le filtre de Kalman où les observations
sont assimilées de manière séquentielle au cours du temps via une formule analytique

63
pour déterminer la correction à imputer à la variable d’intérêt. Dans les deux approches,
les observations sont assimilées de manière séquentielles dans le temps. Dans le filtre
de Kalman, la matrice de covariance d’erreur d’ébauche évolue explicitement au fil des
cycles d’analyses. Cette étape peut-être effectuée algébriquement en utilisant le linéaire
tangent du modèle ou bien stochastiquement au sein d’ensemble d’intégrations dans le
cas d’un filtre de Kalman d’Ensemble (EnKF).

2.3.1 État de l’art de l’assimilation de données appliquée à l’hydrau-


lique fluviale
L’assimilation de données est appliquée depuis une dizaine d’années à l’hydrau-
lique fluviale pour corriger l’état hydraulique du modèle et, dans une moindre mesure,
pour corriger les incertitudes sur les forçages et les paramètres nécessaires aux modèles
hydrauliques.
On nomme état hydraulique la ligne d’eau simulée par le modèle. La correction
de l’état hydraulique consiste en la correction des hauteurs d’eau et/ou des débits en
fonction d’observations in situ ou de données satellitaires sans chercher quel forçage ou
paramètre est entaché d’erreur. On peut distinguer les études basées sur l’assimilation
de données in situ et satellitaires. (Madsen and Skotner, 2005) assimilent des obser-
vations in situ pour corriger l’état d’un modèle opérationnel de prévision des crues à
Metro Manila (Philippines) en appliquant un filtre de Kalman invariant. Cette méthode
est justifiée pour son faible coût de calcul en vue de son application dans un contexte
opérationnel. Elle est combinée à un système de prévision de l’erreur qui permet d’amé-
liorer les résultats à plus long terme en mode prévision. (Neal et al., 2007) appliquent
un filtre de Kalman d’ensemble sur un modèle hydraulique 1D qui simule les crues de
la rivière Crouch au Royaume-Uni pour corriger l’état hydraulique du modèle en assi-
milant des hauteurs d’eau mesurées par quatre capteurs de pression. Ils montrent aussi
que l’EnKF permet d’augmenter la précision des prévisions de l’ordre de 50% à 70%.
De nombreuses études s’intéressent à l’assimilation de données satellitaires afin notam-
ment d’exploiter les futurs résultats de la mission SWOT (cf Partie 1.2.2). Des travaux
basés sur l’assimilation de données synthétiques SAR (Synthetic Aperture Radar), qui
seront le type de données produites par la mission SWOT, ont été publiés ces dernières
années pour corriger l’état hydraulique (Matgen et al., 2010). Le SCHAPI, dans le cadre
de l’opération Prévision2015, a pour objectif d’afficher sur le site Vigicrues les prévi-
sions associées à une fourchette d’incertitude et de passer de la prévision des crues à
la prévision des inondations en fournissant des cartes de zones inondées potentielles en
fonction de la crue. La validation pré-opérationnelle du modèle MM avec assimilation
de données fera aussi l’objet de tests de méthodes de quantification des incertitudes et
de production dynamique de cartes de zones inondées potentielles. (Biancamaria et al.,
2011) assimilent des données SWOT virtuelles pour corriger les hauteurs d’eau simu-
lées par un couplage des modèles hydrologique ISBA et hydraulique LISFLOOD-FP (cf
Parties 1.3.1 et 1.3.2) sur la partie aval de la rivière Ob située en Sibérie occidentale.
Ils montrent une amélioration de la RMSE (Root Mean Square Error) par rapport au
modèle sans assimilation. Les données satellitaires de la mission SWOT ayant une résolu-

64
tion horizontale comprise entre 50 et 100 m, ne pourront pas être utilisées pour corriger
l’état hydraulique de modèle hydraulique de cours d’eau ayant une largeur inférieure à
50 m. De plus, la fréquence de revisite des satellites est de 22 jours, il peut donc s’écou-
ler plusieurs jours entre deux passages successifs. Ainsi les données satellitaires ont un
intérêt pour surveiller les cours d’eau ayant des dimensions suffisamment importantes et
peuvent être complétées par des données in situ. En accélérant la mise à disposition des
données SWOT, avec en complément des données observées in situ, on peut imaginer
une utilisation opérationnelle des données altimétriques pour la prévision des crues.
L’assimilation de données a aussi été utilisée pour corriger les forçages et les pa-
ramètres qui engendrent des erreurs de la ligne d’eau simulée par le modèle hydraulique.
(Jean-Baptiste et al., 2011), dans une étude menée sur le Rhône, incluent les forçages
dans le vecteur d’état en plus des hauteurs d’eau et des débits, pour les corriger par
assimilation de données en utilisant soit un filtre de Kalman soit un filtre particulaire.
Dans les deux cas, les résultats sont satisfaisants : le filtre de Kalman se distinguant
par son coût de calcul relativement faible, tandis que le filtre particulaire est en mesure
de prendre en compte les non-linéarités du modèle. On peut également citer l’étude de
(Lai and Monnier, 2009) qui assimile des observations satellitaires de hauteurs d’eau
avec un algorithme 4D-Var pour corriger notamment les apports latéraux d’un modèle
hydraulique 2D. Dans (Durand et al., 2008) et (Yoon et al., 2012), les auteurs ont montré
que l’assimilation de données altimétriques visant à corriger la bathymétrie de modèles
hydrodynamiques sur les fleuves Amazone et Ohio permettait d’améliorer la simulation
des hauteurs d’eau et des débits. (Ricci et al., 2011) utilise un filtre de Kalman Étendu
pour corriger les forçages amont de deux modèles hydrauliques Mascaret de prévisions
des crues combiné avec une procédure de correction de l’état hydraulique utilisant un
filtre de Kalman où la matrice de covariance d’erreur d’ébauche est invariante au cours
du temps. Cette procédure en deux temps permet d’améliorer les hauteurs d’eau prévues
sur les rivières Adour et Marne à des échéances de 6 et 12h (Figure 2.3).
Ces travaux se sont concrétisés avec la récente mise en place en opérationnel
de cette méthodologie pour la prévision des crues à travers la maquette DAMP (Data
Assimilation for Mascaret Prototype, cf Partie 2.4) au SPC SAMA ainsi qu’au SCHAPI
au sein de la POM (Plate-forme Opérationnelle pour la Modélisation) qui sera présentée
dans le Chapitre 5. Au niveau de la recherche, les publications sur l’application de
l’assimilation de données aux modèles hydrauliques sont nombreuses, mais à ce jour,
très peu de services opérationnels de prévision des crues utilisent à notre connaissance
ces méthodes en temps réel pour améliorer les prévisions de hauteurs d’eau et de débits.

65
Figure 2.3 – Diminution du pourcentage de l’erreur moyenne sur une période de 26 jours
avec la méthode de correction des forçages amonts (en rouge) en réanalyse (à −24h, en
pointillés) et en prévision (à +6h en trait plein) présentée dans (Ricci et al., 2011).

2.3.2 Formalisme de l’assimilation de données de type filtrage


L’assimilation de données permet d’identifier la valeur optimale d’une variable
inconnue x. Cette valeur est optimale lorsque sa variance est minimale. Le vecteur de
contrôle est noté x, le vecteur d’ébauche xb (valeur de la variable x avant assimilation), le
vecteur d’observation y o et la solution du BLUE est le vecteur analysé noté xa (valeur de
la variable x après application de l’analyse d’assimilation de données). Cette terminologie
est aussi utilisée pour les filtres de Kalman. R, B et A sont respectivement les matrices
de covariance des erreurs d’observation, d’ébauche et d’analyse. Cette modélisation des
erreurs implique que ces erreurs sont supposées de nature gaussienne, décrits par une
moyenne nulle. En supposant que les erreurs d’ébauche et d’observation sont non-biaisées,
on écrit :

xa = xb + Kd , (2.5)
où K est la matrice de gain et d le vecteur d’innovation,

d = yo − H(xb ) . (2.6)
H, appelé opérateur d’observation représente l’opérateur qui permet de passer
des quantités modélisées dans l’espace des quantités observées.

66
2.3.3 La méthode d’assimilation BLUE
L’analyse BLUE (Best Linear Unbiased Estimator, (Gelb, 1974; Talagrand
et al., 1997)) est optimale quand la variance des erreurs est minimum. La matrice K qui
minimise la variance de l’état analysé est donnée par l’expression :
 −1
K = BHT HBHT + R . (2.7)

H est la matrice jacobienne de H autour de l’ébauche xb et peut s’écrire :

∂y ∂H(x)
H= = . (2.8)
∂x ∂x
La matrice des covariances d’erreur de l’état analysé s’écrit :

A = (I − KH) B . (2.9)

2.3.4 Le filtre de Kalman


Le filtre de Kalman (Kalman, 1960; Cohn, 1974) est une extension sous certaines
hypothèses de la méthode BLUE aux problèmes d’évolution temporelle. Tout comme
dans le BLUE, l’opérateur d’observation H est supposé linéaire, tout comme le modèle
dynamique. On peut alors décrire le filtre de Kalman. Celui-ci se décompose en deux
étapes : une étape d’analyse pour déterminer le vecteur de contrôle optimal et une étape
de prévision pour déterminer l’évolution potentielle du système à partir de cette analyse.
L’analyse au temps (i − 1) est propagée par le modèle dynamique Mi−1,i supposé linéaire
afin de déterminer l’ébauche au temps i (équation 2.10), puis l’analyse xai au temps i est
fournie par l’équation 2.12 :

xbi = Mi−1,i (xai−1 ) , (2.10)

Bi = Mi−1,i Ai−1 MTi−1,i . (2.11)


La matrice des covariances d’erreur d’analyse au temps (i − 1) est propagée par
le modèle dynamique afin de déterminer la matrice de covariance d’erreur d’ébauche au
temps i (équation 2.11) où Mi−1,i est l’approximation du linéaire tangent de Mi−1,i .
 
xai = xbi + Ki yio − Hi xbi , (2.12)
avec
 −1
Ki = Bi HTi Hi Bi HTi + Ri , (2.13)

Ai = (Ii − Ki Hi ) Bi , (2.14)

67
où Bi , Ri représentent les matrices de covariance d’erreurs d’ébauche et d’ob-
servation au temps i et Hi est le linéaire tangent de l’opérateur d’observation Hi au
temps i. La matrice des covariances d’erreur d’analyse Ai est calculée à chaque pas
d’assimilation par l’équation 2.14. Les équations 2.10 et 2.14 sont les équations du filtre
de Kalman (Todling and Cohn, 1994). A travers la matrice des covariances d’erreur
d’analyse Ai , le filtre de Kalman donne une estimation de la qualité de l’état analysé à
chaque temps i sur une fenêtre d’assimilation. Le filtre de Kalman étendu (ou extended
Kalman filter, EKF ) consiste en l’extension du filtre de Kalman aux modèles et/ou opé-
rateurs d’observations faiblement non-linéaires. Le filtre de Kalman d’ensemble (EnKF,
(Evensen, 2007)) consiste en la version stochastique du filtre de Kalman, c’est-à-dire
que la matrice de gain K est estimée stochastiquement par un ensemble de réalisations
du modèle. Cette méthode étant coûteuse en terme de puissance de calcul, des efforts
sont actuellement poursuivis au niveau recherche pour limiter son coût. Comme cette
thèse vise une application opérationnelle, nous nous intéresserons plus particulièrement à
l’EKF qui nécessite moins de réalisations du modèle et qui prend en compte en partie les
non-linéarités. Les lecteurs peuvent se référer aux thèses de (Barthélémy, 2015; Rochoux,
2014) qui explicitent, entre autres, les différentes méthodes basées sur le filtrage.

2.3.5 Le coupleur OpenPALM


Pour mener à bien la correction de la ligne d’eau, des forçages amont et des
Ks par assimilation de données, Mascaret et les routines d’assimilation codés en For-
tran 90 doivent pouvoir échanger certaines informations comme par exemple, l’impact
de la perturbation du débit de l’un des membres à l’issue de l’étape de propagation.
Pour réaliser ce travail de manière simple, le coupleur de codes OpenPALM a été uti-
lisé. OpenPALM (Buis et al., 2006; Duchaine et al., 2015) est développé conjointement
par le CERFACS (Centre Européen de Recherche et de Formation Avancée en Calcul
Scientifique) et l’ONERA 3 (Office National d’Études et de Recherches Aérospatiales).
OpenPALM est composé de quatre fonctionnalités complémentaires : la librai-
rie PALM, la librairie CWIPI, la fonctionnalité PARASOL et l’interface graphique Pre-
PALM. La librairie PALM permet de coupler différentes unités de calcul, qui peuvent
être des modèles ou des unités algorithmiques, en échangeant les différentes informations
entre ces unités via la mémoire et non via des fichiers. Ces différentes unités peuvent
aussi bien être des routines Fortran, C, C++ développées par l’utilisateur que des codes
de calcul industriels comme Mascaret. La librairie CWIPI (Coupling With Interpolation
Parallel Interface) offre à OpenPALM une fonctionnalité d’interpolation spatiale pour
des champs s’appuyant sur des maillages non structurés. Dans ce travail, nous avons
utilisé la fonctionnalité PARASOL d’OpenPALM. Il s’agit d’une fonctionnalité permet-
tant de lancer en parallèle sur les différents processeurs de la machine utilisée, différentes
instances du même code de calcul. L’interface graphique PrePALM permet de mettre en
place et de visualiser de manière claire les échanges entre les différentes unités, ce qui
permet une prise en main aisée par l’utilisateur. C’est dans PrePALM que l’on définit

3. www.onera.fr

68
par exemple le nombre de composants utilisés, si ces derniers sont lancés de manière
séquentielle ou parallèle. Les composants sont des unités appartenant à une branche.
Plusieurs unités disposées à la suite sur une même branche sont lancées séquentielle-
ment, des unités disposées sur des branches différentes sont lancées en parallèle. Les
unités communiquent via des connexions mettant en relation les données produites par
un code avec celles nécessaires à un autre. Lors de la création de l’exécutable Open-
PALM, les unités sont encapsulées comme sous-programme d’un programme généré par
OpenPALM. La Figure 2.4 représente l’interface PrePALM de la maquette DAMP dé-
veloppé par le CERFACS qui permet l’utilisation de méthode d’assimilation de données
pour la prévision des crues. Le coupleur OpenPALM est peu intrusif, c’est-à-dire qu’il
ne nécessite pas de réaliser des modifications importantes des codes existants.

Figure 2.4 – Schéma PrePALM de la maquette DAMP.

Le schéma PrePALM de la maquette DAMP est composé de trois branches.


Les paramètres relatifs à la mise en données, au vecteur de contrôle (paramètres a pour
la correction des forçages amont, m et n pour la correction des Ks ), à sa taille du vec-

69
teur, au nombre de simulations perturbées sont lus dans la boite read_damocles de la
branche principale (en bleu). La simulation d’ébauche est calculée au niveau de la boite
Mascaret et les résultats envoyés dans la branche verte si l’on souhaite corriger les Ks ou
la branche rose si l’on souhaite corriger les forçages amont. C’est dans l’une de ces deux
branches, munies de la fonctionnalité PARASOL afin de lancer en parallèle les simula-
tions perturbées, que sont calculés les vecteurs analysés. Les paramètres analysés sont
envoyés dans la boite mascaret_2 pour le calcul de la simulation analysée. Des indices
de synchronisation (ovales oranges 1 et 2) permettent d’indiquer à la branche principale
que les calculs dans les branches PARASOL sont terminés. Les communications entre
les différentes branches et boites sont représentées par des traits de couleur en pointillés.

70
2.4 Implémentation de la maquette d’assimilation de don-
nées DAMP
L’application de la chaîne d’assimilation de données au modèle Mascaret sera
présentée dans cette partie. En se basant sur une approche d’assimilation de type BLUE,
c’est-à-dire un filtre de Kalman sans évolution des matrices de covariance d’erreur
d’ébauche B, deux types d’assimilation ont été mis en place à l’intérieur de la même
chaîne (Ricci et al., 2011). D’une part, l’assimilation modifie l’état hydraulique du sys-
tème, c’est-à-dire les hauteurs d’eau et les débits simulés par le modèle, au cours de son
évolution temporelle de façon à se rapprocher des mesures aux stations d’observations
au fur et à mesure qu’elles sont disponibles. Nous appellerons dans la suite cette correc-
tion "correction de la ligne d’eau". On ne cherche pas avec cette approche à corriger les
sources d’erreur qui engendrent l’écart entre l’état hydraulique simulé et les observations.
D’autre part, avec la seconde approche, on assimile les observations sur un intervalle de
temps pour corriger dynamiquement les forçages amont ou les coefficients de Strickler qui
impactent les simulations du modèle sur cet intervalle. On tente ici de corriger les para-
mètres qui sont potentiellement des sources d’erreur du modèle afin d’avoir une meilleure
performance du modèle en prévision. Pour mener à bien ces corrections, le CERFACS a
développé la maquette DAMP (Data Assimilation for Mascaret Prototype) qui englobe
le code Mascaret, les routines d’assimilation, le schéma PrePALM, les fichiers de para-
mètres relatifs au modèle Mascaret et à l’assimilation de données ainsi qu’un pilote qui
permet de cycler les calculs avec ou sans assimilation de données c’est-à-dire de décaler
la fenêtre temporelle au fur et à mesure que les étapes d’analyse et de prévision sont
effectuées.

2.4.1 Correction des forçages amont


La première approche d’assimilation implémente une méthode de type BLUE
pour la correction dynamique des lois hydrauliques imposées aux extrémités à partir des
observations aux stations de mesure sur un intervalle de temps (que l’on nommera ici
fenêtre d’assimilation) précédant le temps de début de la prévision. On cherche ici à
comparer sur un intervalle de temps les valeurs modélisées et observées afin d’estimer
des paramètres correctifs du modèle comme par exemple, un coefficient multiplicatif.
On affecte ces derniers aux forçages amont du modèle puis on ré-intègre le modèle et
en conséquence, l’état hydraulique est corrigé. Au vu des écarts-types calculés dans le
Tableau 1.3 lors du calage des coefficients multiplicatifs moyens A du modèle MAG
(Marne Amont Global), l’assimilation des débits (ou de hauteurs d’eau) aux stations
d’observations sur un intervalle de temps précédant la prévision permettrait de faire
évoluer temporellement l’estimation des apports intermédiaires et de réduire les écarts
entre les valeurs simulées et observées sur la fenêtre d’assimilation. Si on voulait contrôler
les valeurs des lois à tout instant, on obtiendrait un vecteur de contrôle de taille égale
au nombre de lois multiplié par le nombre de pas de temps du modèle, ce qui serait
excessif. Pour cette raison, les corrections des lois ont été restreintes à des transformations

71
paramétriques linéaires de type :

¯
loi(t) = a ∗ loi(t − c) + b , (2.15)
Le but étant d’estimer de manière séquentielle les paramètres (a, b, c). Les va-
leurs d’ébauche des paramètres de contrôle sont xb = (ab , bb , cb ) = (1, 0, 0). La taille de
la matrice d’erreur de covariance d’ébauche est de (3 ∗ s)2 où s est le nombre de forçages
amont à corriger. On peut utiliser les écarts-types des coefficients A calculés lors du
calage pour spécifier les valeurs de la matrice B. On considère que les erreurs des para-
mètres d’ébauche (ab , bb , cb ) ne sont pas corrélées et que leurs variances sont déterminées
statistiquement afin de représenter la variabilité des forçages amont.
L’opérateur d’observation non-linéaire généralisé G relie les éléments du vecteur
de contrôle aux observations aux stations de mesure. Il peut être vu comme une intégra-
tion du modèle Mascaret sur toute l’étendue de la simulation avec des lois déterminées
aux extrémités libres par le contrôle, accompagnée d’une sélection des hauteurs d’eau ou
des débits calculés aux points d’observations dans l’intervalle temporel d’assimilation.
L’opérateur G est la composition de deux fonctions mathématiques dont la première
est le modèle numérique M et la seconde la sélection aux points d’observations S où
G(x) = S ◦ M(x). G est le linéaire tangent de G calculé au voisinage de l’ébauche. La
valeur de la matrice Jacobienne G peut être approchée au voisinage de l’ébauche xb de
la façon suivante :

G(xb + ∆x) ≈ G(xb ) + G|b ∆x , (2.16)


où G|b est discrétisé en utilisant un schéma de différences finies non-centré tels
que pour le j ème paramètre de contrôle, et pour la ième station d’observation :

∂yi ∂Gi (xb ) Gi (xb + ∆x) − Gi (xb ) ∆yi


Gij |b = = ≈ = . (2.17)
∂xj ∂xj ∆xj ∆xj
∆yi correspond à la modification du débit ou de la hauteur d’eau engendrée
à la station i par une modification de ∆xj de l’un des paramètres de contrôle a, b, c.
L’approximation de l’opérateur d’observation jacobien est une hypothèse forte. Le calcul
de G requiert une intégration supplémentaire du modèle hydraulique pour chaque para-
mètre de contrôle et pour chaque stations i, soit 3 perturbations du vecteur de contrôle
et 3 intégrations supplémentaires du modèle.
L’algorithme BLUE repose sur l’hypothèse que l’opérateur d’observation G est
linéaire sur l’intervalle [xb , xa ]. On considère ici que la relation entre la perturbation des
forçages amont (via les paramètres a, b, c de l’équation 2.15) et la réponse hydraulique
du modèle peut être raisonnablement approchée par une fonction linéaire aux alentours
de xb . Il est important aussi de signaler que l’utilisateur peut imposer des valeurs mini-
males et maximales de débits aux forçages amont après correction pour éviter un passage
en régime torrentiel engendré par des paramètres de correction analysés a, b, c excessifs,
synonyme d’arrêt du calcul Mascaret. Ceci revient à considérer des distributions gaus-
siennes tronquées sur nos paramètres de contrôle, ce qui est couramment fait en pratique.

72
Ces valeurs sont un moyen de limiter les corrections en dehors de la zone de validité de
linéarité. En considérant que ces paramètres analysés évoluent peu pour des échéances
courtes, en conservant ces paramètres constants durant la période de prévision, on peut
espérer une amélioration des débits et des hauteurs prévues par le modèle, au moins
à courte échéance. La stationnarité des erreurs relatives aux paramètres analysés est
donc une hypothèse essentielle pour améliorer les hauteurs d’eau et les débits prévus
aux stations d’observations.

2.4.2 Correction des coefficients de Strickler


Tout comme la correction des forçages amont, on cherche à se fixer un inter-
valle sur lequel comparer les résultats du modèle et les observations comme critère pour
l’estimation optimale des paramètres de frottement du modèle, les Ks des lits mineurs
m et majeurs n. Chaque portion de Ks est composée des coefficients m et n. Nous
avons vu dans les Parties 1.5.3 et 1.5.4 que les Ks ont été déterminés lors de la phase
de calage d’une part afin de mettre en phase pour chaque crue de l’amont vers l’aval les
limnigrammes et hydrogrammes simulés et observés en accélérant ou en freinant l’onde
de crue. D’autre part, les Ks ont été forcés localement pour compenser des erreurs ré-
currentes au niveau des hauteurs d’eau modélisées, liées en partie à une description
topo-bathymétrique incomplète. Au vu des écarts-types calculés sur les Ks dans les Ta-
bleaux 1.4 et 1.6 et des Figures 1.23 et 1.19, l’assimilation des débits ou de hauteurs
d’eau aux stations d’observation sur un intervalle de temps précédant la prévision per-
mettrait d’adapter temporellement les paramètres de frottement des lits mineur m et
majeur n afin de réduire les écarts entre les valeurs simulées et observées sur la fenêtre
d’assimilation.
Les valeurs d’ébauche xb des paramètres de contrôle m et n sont respective-
ment notés xbm et xbn . Elles correspondent aux valeurs de m et n déterminées lors de
la procédure de calage. xam et xan correspondent aux valeurs optimales déterminées par
assimilation de données via l’estimation de m et n. Les valeurs analysées xam et xan d’une
portion de Ks sont calculées simultanément. L’analyse peut aussi porter sur seulement
l’une des deux valeurs. On obtient donc autant de paramètres de contrôle que de valeurs
m et n à déterminer. On peut utiliser les écarts-types des m et n calculés lors du calage
pour spécifier les valeurs de la matrice B. Les valeurs de xam et xan sont déterminées de
la même manière que les paramètres de contrôle a, b, c pour la correction des forçages
amont. La différence réside au niveau de l’équation 2.17 pour l’approximation de Gi,j |b,
où ∆yi correspond à la modification du débit ou de la hauteur d’eau engendrée à la
station i par une modification de ∆xj du j ème paramètre de contrôle (m ou n). Tout
comme la correction des forçages amont, l’utilisateur peut imposer des valeurs minimales
et maximales aux coefficients de frottement des lits mineurs m et majeurs n après cor-
rection pour éviter un arrêt du calcul Mascaret (sections à sec ou passage en régime
torrentiel) engendré par des valeurs de Ks analysées non-représentables par le modèle.
Le chargement des observations pour la correction des forçages amont et des
Ks est partagé avec la correction de la ligne d’eau. On rejette les observations en-dessous
d’un seuil minimal spécifié par l’utilisateur. De plus, pour éviter de prendre en compte des

73
observations aberrantes, on rejette les valeurs d’observation qui diffèrent excessivement
de l’ébauche. La sélection s’effectue en comparant le vecteur d’innovation avec la valeur
de l’ébauche à la station d’observation. Si le vecteur d’innovation dépasse un pourcentage
de la valeur l’état hydraulique calculé avec les Ks de l’ébauche, l’observation n’est pas
assimilée. En considérant que les Ks des lits mineur et majeur évoluent peu dans le temps
pour des échéances courtes, on peut espérer une amélioration des valeurs prévues par le
modèle, au moins à courte échéance, en conservant ces paramètres constants durant la
période de prévision. La stationnarité des erreurs relatives aux Ks analysés est donc une
hypothèse essentielle pour améliorer les prévisions des hauteurs d’eau et des débits aux
stations d’observations.

2.4.3 Correction de la ligne d’eau


La troisième approche d’assimilation permet de corriger l’état hydraulique si-
mulé par le modèle (hauteurs et débits) aux instants où l’on dispose d’observations in
situ. On assimile ici les observations de hauteurs d’eau aux stations d’observations pour
corriger la condition initiale du modèle composé des valeurs de la cote de l’eau Z et du
débit Q sur chacune des n sections de calcul du maillage.
Pour corriger la ligne d’eau à un instant donné, il faut donc contrôler les n
valeurs de Z et les n valeurs de Q, le vecteur de contrôle est de taille 2n. On dispose
d’observations de Z à p stations d’observation. Pour comparer les observations aux
valeurs simulées, on utilise une approximation de type "plus proche voisin" : soit ABSk
l’abscisse curviligne de la station k, nous faisons correspondre l’observation à la section
du modèle dont l’abscisse diffère le moins de ABSk . Le vecteur d’observation est donc
représenté par un vecteur y o de taille p.
Les valeurs de la matrice R sont spécifiées en indiquant des écarts-types d’er-
reurs d’observations pour chaque station p et sont communes aux trois types de correc-
tion. Ces valeurs peuvent être approchées en comparant les hauteurs brutes fournies par
le capteur d’une station avec les hauteurs lues visuellement à l’échelle (cf Partie 2.2.2).
Pour éviter de prendre en compte des valeurs d’observation non-représentables par le
modèle, on rejette les observations en-dessous d’un seuil minimal spécifié par l’utilisa-
teur. De plus, pour éviter de prendre en compte des observations aberrantes, on rejette
les valeurs d’observation qui diffèrent excessivement de l’ébauche. La sélection s’effectue
en comparant le vecteur d’innovation avec l’écart-type d’erreur d’ébauche à la station
d’observation. Si le vecteur d’innovation dépasse un multiple donné de l’écart-type d’er-
reur d’ébauche, l’observation n’est pas assimilée. Pour la matrice B, on indiquera les
écarts-types absolus en mètres des erreurs d’ébauche de Z qui est la variable observée
ainsi que les fonctions de covariance d’erreur d’ébauche aux stations d’observations. Ces
dernières sont modélisées par deux demi-gaussiennes de longueurs de portées différentes
en amont et en aval du point d’observation (Barthélémy, 2015) et permettent de répar-
tir l’incrément δZ sur la ligne d’eau de part et d’autre de la station d’observation. Le
modélisateur ou le prévisionniste qui utilise le modèle peut avoir une idée de l’écart-type
de l’erreur d’ébauche de son modèle.
On calcule l’incrément d’analyse δZ par interpolation optimale, c’est-à-dire par

74
multiplication matricielle δZ = Kd où d est le vecteur d’innovation de taille p d’écart
aux observations d = y o − H(xb ) et K la matrice de gain définie par l’équation 2.7.
δZ correspond au vecteur de correction de la hauteur d’eau aux points d’observation
avec δZ = (δZ1 , ..., δZi , ..., δZp ), i ∈ 1, ..., p. Une fois l’incrément analysé, ce dernier est
spatialisé de part et d’autre du point d’observation pour répartir la correction sur la
ligne d’eau. L’incrément d’analyse relatif à δQ est par la suite obtenu par linéarisation
de la courbe de tarage à partir de l’incrément de δZ et spatialisé en amont et en aval de
la station d’observation.

2.4.4 Cyclage de l’analyse

Pour résumer, la maquette d’assimilation de données DAMP permet de corriger


à partir d’une ou plusieurs observations de hauteurs d’eau ou de débits :
• les forçages amont, de façon paramétrique (a, b, c) ;
• les coefficients de frottement des lits mineur et majeur (m, n) ;
• la ligne d’eau simulée par le modèle.

L’une des deux premières corrections peut être enchaînée automatiquement avec
la troisième. DAMP permet de rejouer un événement passé pas à pas en cyclant automa-
tiquement les calculs (mode réanalyse). Il permet aussi, dans un contexte opérationnel,
de lancer une analyse à un seul pas de temps correspondant au moment où l’on souhaite
avoir une prévision, nommé temps de base (T base) du modèle hydraulique Mascaret de
l’état hydraulique d’un cours d’eau donné.
L’utilisation de DAMP se fait par l’intermédiaire d’un pilote qui permet de
lancer les calculs avec ou sans assimilation de données. Ce pilote repose sur un script
KornShell. Il est chargé non seulement de lancer l’exécutable OpenPALM mais aussi
de modifier en fonction des données fournies en entrée par l’utilisateur, les fichiers de
paramètres utilisés par Mascaret. Pour l’assimilation, c’est aussi lui qui gère les fichiers
de sortie ainsi que les répertoires destinés à les accueillir. L’utilisateur doit renseigner
au pilote cinq paramètres temporels et un mot-clé dans un fichier de paramétrage en
fonction de ce qu’il veut calculer :
• T base_ini : date du premier temps de base qui est l’instant à partir duquel
on souhaite bénéficier d’une prévision ;
• T base_end : date du dernier temps de base ;
• T ime_step_replay : pas de temps du cyclage de l’analyse ;
• Spinup_length : durée de la simulation avant le temps de base, pour un
cycle, le calcul débutera à T base − Spinup_lengths ;
• F orecast_length : échéance de prévision au-delà du temps de base ;
• Run_type : type de méthode d’assimilation, DRY RU N (sans assimilation
de données), CT L_W AT ERLIN E (correction de la ligne d’eau), CT L_LOI
(correction des forçages amont), CT L_KS (correction des Ks ) ou l’un des
enchaînements CT L_LOI_W AT ERLIN E ou CT L_KS_W AT ERLIN E.

75
Le pilote permet de cycler l’analyse entre un premier temps de base T base_ini
et un dernier temps de base T base_end avec un pas d’avancement T ime_step_replay
qui correspond à la durée entre chaque cycle (ou fenêtre temporelle). On appelle fenêtre
temporelle la période simulée entre T base−Spinup_length et T base+F orecast_length.
Pour effectuer un calcul à un seul temps de base, comme en condition opérationnelle,
T base_ini = T base_end. La simulation débutera à T base_ini - Spinup_length et se
terminera à T base_end + F orecast_length et le paramètre T ime_step_replay n’est
dans ce cas pas utilisé. Les périodes sur lesquelles les données observées sont assimilées et
comparées aux valeurs simulées pour la correction de la ligne d’eau et pour les corrections
des forçages amont ou des Ks sont paramétrables ; elles sont appelées périodes d’assimi-
lation. La période comprise entre le début de la simulation et la fenêtre d’assimilation
est appelée période d’ajustement du modèle ou temps d’initialisation du modèle. Ce laps
de temps permet de réduire (voire de s’affranchir) de l’effet de la condition initiale. Les
périodes d’ajustement et d’assimilation constituent le Spinup_length.
L’implémentation de l’enchaînement des deux étapes d’assimilation est présen-
tée dans la Figure 2.5 ci-après. On considère une fenêtre d’assimilation de quatre jours
composée d’une période de réanalyse de trois jours et d’une période de prévision d’une
journée. On dispose d’observations et d’une simulations horaires des hauteurs d’eau.

Analyse Prévision

Observations

H modèle

H CTL_LOI ou CTL_KS

H CTL_LOI_WATERLINE
Hauteurs d’eau

ou CTL_KS_WATERLINE

Temps
de base

Jours 1 Jours 2 Jours 3 Jours 4 Temps

Période Période d’assimilation CTL_LOI ou CTL_KS


d’ajustement

Période d’assimilation
CTL_WATERLINE

Figure 2.5 – Représentation schématique de l’enchaînement de la correction des


paramètres a, b, c ou m, n (courbe verte) et de la correction de la ligne d’eau (courbe
rouge) sur un cycle d’analyse.

76
Durant les trois premiers jours de l’événement, la simulation débute avec une
condition initiale standard fixée par l’utilisateur mais au bout de trois jours, le cycle
suivant pourra utiliser l’état hydraulique sauvegardé en tant que condition initiale. Dans
un premier temps, une intégration des hauteurs d’eau simulées par le modèle est réalisée
(courbe noire). Á partir des valeurs observées durant les deuxième et troisième jours, on
détermine les paramètres (a, b, c) ou (m, n) optimaux. Une nouvelle simulation utilisant
ces corrections est alors réalisée. On obtient la courbe verte de la Figure 2.5. En sélection-
nant les mots-clés CT L_LOI ou CT L_KS, l’analyse s’arrêterait ici et on obtiendrait
les valeurs prévues par la courbe verte à partir du jour 4.
L’utilisateur souhaite ajouter la correction de l’état hydraulique avec les mots-
clés CT L_LOI_W AT ERLIN E ou CT L_KS_W AT ERLIN E. La première étape de
correction des paramètres est alors suivie d’une seconde étape. Une nouvelle intégration
des hauteurs d’eau simulées par le modèle aux paramètres corrigés est alors réalisée.
Durant le troisième jour, les observations à chaque pas de temps sont assimilées pour
corriger la condition initiale du modèle. Le modèle repart d’un état plus proche de
l’observation et évoluent de façon discontinue en fonction de la prochaine observation
disponible. Au temps de base, la simulation repart d’une condition initiale plus proche
de la dernière observation. Les paramètres analysés avec les mots-clés CT L_LOI et
CT L_KS sont appliqués sur la période de prévision. L’effet de la correction de la ligne
d’eau se dissipe rapidement en prévision car le modèle n’est plus contraint au-delà du
temps de base contrairement à la correction paramétrique où on conserve les paramètres
(a, b, c) ou (m et n) analysés sur la période de prévision.
Lors d’un rejeu d’un événement passé, il est possible de cycler l’analyse. Dans
ce cas, la fenêtre temporelle est décalée temporellement du T ime_step_replay et une
nouvelle analyse est alors effectuée.
Il est aussi possible d’enchaîner les trois types de corrections. Le calcul des pa-
ramètres optimaux et la correction de l’état ne sont pas effectués en une seule fois par
l’intermédiaire d’un nouveau mot-clé CT L_LOI_KS_W AT ERLIN E mais en deux
temps : on corrige dans un premier temps les forçages amont par assimilation de don-
nées (CT L_LOI), puis dans un second temps, on corrige les Ks et l’état hydraulique
(CT L_KS_W AT ERLIN E) en utilisant en guise d’ébauche les coefficients (a, b, c) ana-
lysés auparavant. Dans la suite de cette étude, on nommera étape 1, la correction des
forçages amont, étape 2 la correction des Ks par assimilation de données et étape 3
la correction de la ligne d’eau. Avant d’appliquer la maquette d’assimilation de données
DAMP à des modèles de prévision des crues, les algorithmes de correction ont été vali-
dés à partir d’expériences jumelles réalisées avec des modèles d’onde de crue, notamment
dans le cadre de la thèse de Sébastien Barthélémy (Barthélémy, 2015).

77
78
Chapitre 3

Application de la correction des


apports intermédiaires et des Ks
par assimilation de données

Sommaire
3.1 Estimation des apports intermédiaires par assimilation de
données pour le modèle Marne Amont Global (MAG) . . . . 80
3.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.1.2 Article publié dans le cadre de la conférence SimHydro 2012 . . 81
3.1.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.2 Application d’un Ks local contrôlé par assimilation de don-
nées pour le modèle Marne Amont Global (MAG) . . . . . . 94
3.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.2.2 Article publié dans la revue Journal of Hydrology . . . . . . . . 94
3.2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.3 Correction de la dynamique du modèle par assimilation de
données pour le modèle Marne Moyenne (MM) . . . . . . . . 109
3.3.1 Impact d’une modification des Ks de longues distances . . . . . 110
3.3.2 Correction des Ks sur de longues distances par assimilation de
données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118

79
3.1 Estimation des apports intermédiaires par assimila-
tion de données pour le modèle Marne Amont Global
(MAG)
3.1.1 Introduction
L’article (Habert et al., 2013) ci-dessous a été publié suite à la conférence SIM-
HYDRO 2012 1 organisée par la SHF (Société Hydrotechnique de France). Il fait suite
aux premiers travaux sur l’assimilation de données menés au CERFACS en partenariat
avec le SCHAPI. Ils portaient sur la correction des forçages et de l’état d’un modèle hy-
draulique de prévision des crues. Les travaux de (Ricci et al., 2011) ont montré que, sur
le bassin de l’Adour, l’assimilation de données de hauteurs d’eau avec un filtre de Kal-
man étendu (EKF) pour le modèle hydraulique 1D Mascaret (cf Partie 2.3.4) a permis
d’améliorer les prévisions à une échéance d’une heure de 60% et de 25% à une échéance
de prévision de 12h.
L’article (Habert et al., 2013) présente l’adaptation de ces travaux pour le bas-
sin versant de la Marne. La présence de zones karstiques rend difficile la quantification
des débits amont et des apports intermédiaires dans le modèle MAG (cf Figure 3.1). Le
besoin d’une estimation cohérente des apports karstiques et des affluents non-modélisés
a motivé la mise en place d’une procédure d’assimilation de données en utilisant les
observations de débit de quatre stations hydrométriques. On montrera dans cet article
que la correction des forçages amont (Q1 , Q2 , Q3 , Q4 et Q5 ) via ces coefficients multipli-
catifs Ai (cf Partie 1.5.3) par une méthode séquentielle d’assimilation de données (avec
le mot-clé CTL_LOI, cf Partie 2.4.4) améliore les prévisions des hauteurs d’eau et des
débits sur l’ensemble du modèle. Cette correction permet une variabilité temporelle de
la prise en compte des apports intermédiaires, essentielle par exemple pour des événe-
ments estivaux ou de début d’automne, quand le comportement du karst est complexe
ou quand la station de Villiers n’est pas représentative de l’ensemble de la dynamique
du bassin.

1. www.simhydro.org

80
Amont Marnay

Louvières 1
5
La Traire
Q1: Villiers*3
Chaumont
6
2 La Suize
Lacrête
Q3: Humberville*3
Condes
9
7 Q4: apport de la Falouse, du
La Manoise Vaux et du Rigolot (Villiers*2,5)
Q2: apport de la Sueurre 3
(Villiers*4)
Le Rognon 8
Saucourt

Mussey
Marnay : Débit d’entrée du modèle
Q1: Villiers*3 : Débit d’entrée simulant
les apports intermédiaires en multipliant Joinville
l’hydrogramme de Villiers par 3
Q5: apport du Rongeant
Condes : Station de sortie du modèle (Villiers*5,5)
4
La Marne : Cours d’eau modélisé
La Marne
5 : Numéro du bief

Aval Chamouilley

Figure 3.1 – Le modèle Marne Amont Global.

Une estimation réaliste, variant dans le temps, des apports intermédiaires en


utilisant une approche séquentielle d’assimilation de données sur les 10 crues de valida-
tion présentées dans le Tableau 1.2, permet, en dépit de certaines limitations décrites par
la suite, une estimation correcte des apports et améliore les prévisions à des échéances
adéquates pour un usage opérationnel.

3.1.2 Article publié dans le cadre de la conférence SimHydro 2012

81
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.

Estimation of lateral inflows using data assimilation in the context of real-


time flood forecasting for the Marne catchment in France.
Estimation des apports latéraux via assimilation de données pour le bassin
versant de la Marne dans un contexte opérationnel de prévision des crues.
Johan Habert1
DREAL Champagne-Ardenne, Chalons-en-Champagne, France
johan.habert@developpement-durable.gouv.fr

Sophie Ricci, Andrea Piacentini, Gabriel Jonville


URA 1875/CERFACS, Toulouse, France
ricci@cerfacs.fr, piacentini@cerfacs.fr, jonville@cerfacs.fr

Etienne Le Pape
SCHAPI, Toulouse, France
Etienne.lepape@developpement-durable.gouv.fr

Olivier Thual
URA1875/CERFACS and INPT, CNRS, IMFT, Toulouse, France
thual@imft.fr

Nicole Goutal, Fabrice Zaoui, Riadh Ata


LNHE EDF-R&D, Chatou, France
nicole.goutal@edf.fr, fabrice.zaoui@edf.fr, riadh.ata@edf.fr

KEY WORDS

Flood forecasting, Data assimilation, Kalman filter, Karstic catchment.

Abstract

The present study describes the assimilation of discharge in-situ data for operational flood forecasting. The study
was carried out on the Marne river (France) catchment where lateral inflows's uncertainty are important due to karstic
areas. This source of error was partly accounted for using an Extended Kalman Filter algorithm built on the top of a
monodimensional hydraulic model. The lateral inflows were sequentially adjusted over a sliding 48-hour time window.
The correction leads to a significant improvement in the simulated water level and discharge in re-analysis and forecast
modes. These results pave the way for the operational use of the data assimilation procedure for real-time forecasting
at the French flood forecasting service.

1. INTRODUCTION

In 2006, 9% of the French population was exposed to flood risk, one of the greatest natural risks causing
damage and human loss [21]. The French flood forecasting service (SCHAPI - Service Central
d'Hydrométéorologie et d'Appui à la Prévision des Inondations), in collaboration with the 22 local flood
forecasting centers (SPC- Service de Prévision des Crues) produces a twice-daily broadcast vigilance map
available to governemental authorities and general public (http://www.vigicrues.gouv.fr).

In order to effectively support emergency management and decision making it is essential to properly
characterize the different sources of uncertainty in hydrologic forecasts [3][25]. The reliability of flood
forecasting strongly depends on the quality of the hydraulics model, its boundary conditions (upstream and

_______________________________________________________________________________________
1
Corresponding author
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.

lateral inflow), hydrological initial conditions and numerical parameters. Much effort has been directed
towards the estimation of hydrologic and hydraulic model parameters especially for the statistical analysis of
parameters uncertainties usually using a historical batch of data, assuming time-invariant parameters [6][24].
In practice, in addition to model simulation and batch calibration, the reliable operation of a watershed
system requires a continuous correction of the forecast as observational data become available [18]. The
application of data assimilation (DA) [1], which optimally merges information from model simulations and
independent observations with appropriate uncertainty modelling, has proved promising in improving
prediction accuracy and quantifying uncertainty [11][13][14][16]. Still, the use of such methods by
operational agencies is rare and the need for implementing effective DA in the flood forecast process is
increasing when flood frequency is likely to increase as a result of altered precipitation patterns triggered by
climate change [5].

DA offers a convenient framework to overcome some of the limits of the calibration processes:
observations and simulation outputs are combined to estimate an optimal set of model parameters and
consequently reduce uncertainties in the simulation. With the increasing abundance of new in-situ and
remote sensing observations, DA was applied in several studies formulated in an operational framework. A
great number of implementations were made on top of hydrogical models in order to improve soil moisture
initial conditions. Thirel et al. (2010a,b) [22][23] assimilated past discharges to obtain a better initial soil
moisture state and improve ensemble streamflow simulations. Dechant and Moradkhani (2011a) [4] used
SNOTEL data to improve the estimation of snow water storage and consequently improve the ensemble
streamflow prediction from the National Weather Service River Forecast System (USA). Seo et al. (2003,
2009) [19][20] explored variational assimilation of hydrologic and hydrometeorologic data into operational
hydrologic forecast. The Kalman Filter (KF) [8] algorithm is the most commonly used sequential DA
algorithm which results in the optimal estimation for linear dynamic models with Gaussian uncertainties. It
was extended to non linear problems using a first order approximation of Taylor series, namely Extended
Kalman Filter (EKF), or an ensemble approach for the Ensemble Kalman Filter (EnKF) [7]. These
algorithms are also now widely being used in hydrology and hydraulics for the estimation of model states
[10][12] as well as model parameters [15].

In the context of hydrodynamics modelling, Ricci et al. (2011) [17] showed that the EKF assimilation of
water level observations on the Adour catchment with the 1D hydraulic model MASCARET [9] developed
by LNHE (Laboratoire National d'Hydraulique et d'environnement) from EDF-R&D (Electricité De France
Recherche et Développement) enabled to improve flood forecasting of 60% at a one hour lead time and of
25% at a twelve-hour lead time. In the present study, a similar approach is applied to flood forecasting in the
Marne catchment where the presence of karstic areas makes it hard to correctly specify upstream and lateral
inflows to the model. In the framework of operational flood forecasting, the SAMA (Seine Amont Marne
Amont) SPC has developed two different models on two limited areas of the Marne catchment described in
Figure 1. On these limited areas, the batch calibration of the model was possible and the uncertainties due to
lateral inflow were accounted for by artificially adjusting the Strickler coefficients. Still, in order to increase
the forecast time on the Marne catchment, both models were recently merged into a global model far more
difficult to calibrate. The need for a coherent estimation of the so far neglected inflows, which represent the
dynamics of the karstic areas, and the unmodeled tributaries, which represent the dynamics of catchment
areas, motivates the use of a DA procedure using in situ measurements. A realistic and time varying
estimation of the lateral inflows is then achieved using a sequential data assimilation approach on 10 flood
events over 2001-2010. It is shown that, in spite of certain limitations described further on, this approach
provides a reliable estimate of the lateral inflows and leads to the improvement of the flood forecast at
meaningful lead times for operational use.

The structure of the paper is as follows. Section 2 provides a description of the Marne catchment. It also
provides the arguments for building a DA scheme to estimate lateral inflows. The DA method is described in
Section 3 along with the choices made for the implementation of the algorithm. Section 4 gives an overview
of the results, highlighting the merits of the approach for flood forecasting along with its limitations on a
representative flood event. Conclusions are given in Section 5.

2. MODELING OF THE MARNE CATCHMENT


SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.

The Marne catchment is a karstic basin located East of the Paris basin. The Marne river is a 525 km long
tributary of the Seine river, its source is located in the Langres Plateau in the Haute-Marne department
(Figure 1). The study is carried out on the upstream part of the river that is strongly sensitive to local
precipitation and where flash floods (5 to 120 m3.s-1 within a 24h period in October 2006 at Condes) occur.
The landscape of the catchment is defined by forested plateaus, incised valleys and presents numerous
limestone outcrops. Therefore the catchment area includes karstic areas and tributaries whose behaviour is
highly non linear and thus difficult to forecast.

Figure 1: The Marne catchment, the sub-models are circled with dashed lines. The hydrological observing
stations S1, S2, S3 and S4 are represented by black triangles. Lateral inflows Q1, Q2, Q3, Q4 and Q5 are
represented by black dots and the observing stations on which they depend are in parentheses.

As of today, the operational forecast relies on the integration of two sub-models on the Marne Amont
and Marne Vallage areas (Figure 1). These models are based on the mono-dimensional numerical code
MASCARET for hydraulics describing the Saint-Venant (Shallow Water) equations and developed by EDF-
R&D and CETMEF (Centre d'Etudes Techniques Maritimes Et Fluviales). They were calibrated
independently using water level in-situ measurements from five hydrological observing stations (Chaumont,
Condes, Mussey, Joinville and Chamouilley). The underestimation of the lateral inflow that leads to the
underestimation of the simulated water levels and discharge was partly corrected by reducing the Strickler
coefficients and thus artificially increasing the water level. These sub-models are used for operational
forecast at SAMA SPC since 2008. They provide a satisfying water level signal, still discharges are usually
underestimated and the maximum lead time for the forecast is 15 hours.

In order to extend the maximum lead time and benefit from measurements at Saucourt, the sub-models
were merged into a global model extending from Villiers to Chamouilley and including the karstic areas of
the Rognon. The upstream flows are specified at five upstream stations (Marnay, Louvières, Villiers, La
Crête and Humberville). This global model underestimates the discharges of 50% on average over ten
significant events as presented in Figure 2 for a representative event for Condes and Mussey observing
stations (observations are in blue and simulations, denoted by Free Run, in black). Indeed, the global model
area is about 2250 km2 when the area controled by the five upstream stations is only about 755 km2. Thus it
appears that the modeling of lateral inflows, despite the lack of hydrologic rainfall-runoff model on the area,
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.

represents a key step towards the use of the global model for the Marne catchment. Five lateral inflows were
then added to the model to represent the exsurgences of the Suize (Q1), the Seurre on the Rognon catchment
(Q2 and Q3), and tributaries upstream Musey (Q4) and Chamouilley (Q5).

Figure 2: Observed (blue crossed curves) and simulated discharges for Free Run (black solid curves) in
Condes (thin curves) and Mussey (thick curves). March 2008 event.

Figure 3: Discharge at Chamouilley, observation (blue crossed curve), Free Run (black solid curve) and Free
Run with Q5 (green dotted curve). March 2008 event.
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.

Given the homogeneous response of the catchment to an oceanic rainfall event, a water budget approach
enables to describe a coherent, yet perfectible, behavior of the catchment. For instance, adding the lateral
inflow Q5 estimated as eight times bigger than the hydrograph at Villiers leads to a satisfying simulation of
the discharge at Chamouilley as illustrated in Figure 3 where observation is represented by the blue crossed
curve, the Free Run simulation is in black and the Free Run simulation with the addition of the lateral inflow
Q5 is represented in green by the dotted curve. Similar approach using Villiers and Humberville as
elementary hydrographs to estimate each lateral inflow was used to identify multiplicative coefficients
Ai(where Qi,new(t)= AiQi(t)), with i∈ [1, 5] and their statistics, from a batch calibration over the 10 flood
events. These values presented in Table 1 can be greatly improved with a sequential method that allows for
temporal variability of the coefficients, essential for instance for summer and early automn events when the
karst behavior is complex and the Villiers station may not be representative of the entire catchment's
dynamics.

Qi Elementary hydrograph Ai Std


Q1 Villiers 3 0.8
Q2 Villiers 4 1.3
Q3 Humberville 3 1.8
Q4 Villiers 2.5 1.4
Q5 Villiers 5.5 2

Table 1: Multiplicative corrective coefficients Ai for lateral inflows and standard deviations with i ∈ [1, 5].

3. SEQUENTIAL DATA ASSIMILATION METHOD

Data assimilation approaches aim at identifying the optimal estimate of the true value of the unknown
variable x that includes, in this work, the set of corrective coefficients Ai with i∈ [1, 5]. The a priori
knowledge on these coefficients given in Table 1 describes the background vector . The observation vector
is composed of hourly discharge measurements, a conservative variable, at Condes, Saucourt, Mussey
and Chamouilley (respectively denoted by S1, S2, S3 and S4 in Figure 1). The analysis is performed on a
sliding time window, over which the Ai coefficients are assumed to be constant. Assuming that the
background, the observation and the analysis are unbiased, the analysis vector for cycle k can be
formulated as a correction to the background parameters:
= + −
where = , + is the gain matrix, , are the background and observation errors
covariance matrixs and = ( ) is the model equivalent of the observations, generated by the
observation operator Hk.

The observation operator consists of two operations, the costliest of which is the non-linear integration
of the hydraulics model given the upstream and lateral flow conditions over the assimilation window. The
second operation is the selection of the calculated discharges at the observation points and at the observation
times. represents the discharges at the observation points and times computed by MASCARET using
the background parameters Ai = 1.
The Jacobian matrix , is the tangent linear of the hydraulics model computed in the vicinity of as
follows:
+∆ = + , ∆
and , can be approximated using a finite differences scheme written as:
+∆ − ( ) Δ
, = = ≈ =
Δ Δ
The local estimation of the tangent linear dynamics of the model with respect to the boundary conditions of
the domain is a strong hypothesis. This method can be seen as an EKF algorithm without model errors (the
model is considered as perfect). Since there is no propagation model for the parameters, the usual
propagation steps of the KF algorithm are irrelevant here: the background error covariance matrix is
invariant between the cycles.
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.

The analysis is cycled over the period covering the entire flood event, thus allowing Ai to vary between
the cycles. For cycle k, the observations over the first 8 hours (the re-analysis period) are used to estimate the
optimal coefficients and a 24-hour forecast is carried out. Each of the five lateral inflows Q1, Q2 , Q3, Q4
and Q5 is controlled using downstream measurements from the hydrological observing station as described
in Figure 1; Q1 is controlled by Condes and Mussey, Q2 and Q3 are controlled by Saucourt and Mussey, Q4
is controlled by Mussey and Chamouilley and Q5 is controlled by Chamouilley only. A 5 m3.s-1 standard
deviation error is assumed on the discharge measurements to account for errors in misadjustment of pressure
tube and extrapolation of water level-discharge rating curves. The background error covariance is described
by a diagonal matrix with the same standard deviation error on every Ai estimated as the mean of those
described in Table 1. The data assimilation algorithm was implemented using the Open-PALM dynamic
coupler developed at CERFACS and designed to couple independent code components with a high level of
modularity in the data exchanges while providing a straightforward parallelization environment [2].

4. RESULTS

The benefits from the application of the sequential analysis over the 10 floods events for the Marne
cacthment are summarized in Table 2 presenting the Nash-Sutcliffe criteria computed with data assimilation
(DA) and without (Free Run) at the maximum lead time for the forecast at each observing station. It was
shown that the assimilation of discharge measurements allows for a significant improvement of the simulated
discharges in re-analysis (not shown) and forecast mode; with an the average improvement of 0.91 at the
maximum lead time.

Observing station Condes Mussey Joinville Chamouilley Saucourt


Forecast lead time +6h +12h +13h +21h +10h
Free Run 0.61 0.01 0.14 -1.38 -0.20
DA 0.87 0.78 0.55 0.47 0.80
Improvement 0.26 0.77 0.69 1.85 1.

Table 2: Nash-Sutcliffe criteria for Free Run and DA simulations averaged over 10 flood events over 2001-
2010 at maximum lead time for each observing station.

For the major flood event in December 2010, the use of the DA procedure for real-time forecast would
have improved both discharge peak forecasts of 15 % as illustrated in Figure 4 (only the first peak is shown).
The discharges are presented on the left vertical axis and water levels are on the right vertical axis with solid
thin and thick lines, respectively. Observations are represented by blue crossed curves, the Free Run 12 hour
forecast by black solid curves and the analysis 12 hour forecast by red dashed curves. For the discharge and
water level, the area between observation and Free Run is shaded in red when the model underestimates the
signal and in blue when it overestimates the signal. The corrective coefficients for Q1, Q2, Q3, Q4 and Q5
represented in Figure 5 are globally smaller than 1 when the Free Run overestimates the observed dischage
and bigger than 1 where the Free Run underestimates the observed discharge. These values also depend on
the sensitivity of the discharge at the observing station with respect to each Ai; this information is accounted
for within the linearized observation operator H.

Still, the assumption of a constant correction of the lateral inflows over a DA analysis cycle can lead to
an inappropriate correction as displayed in Figure 4 for Day 3. The 12-hour forecasted discharge at Day 3,
resulting from the DA procedure (175 m3.s-1 where the solid vertical line intersects the thick red dotted
curve) is computed using the corrected inflows resulting from the assimilation of the difference between the
Free Run and the observation during the 8-hour period in Figure 4 represented in grey between the two thin
vertical lines at Day 2 + 2h and Day 2 + 10h. Over this period, the average discharge (thick curves)
difference is bigger than that at Day 3, thus the DA procedure leads to an over correction of the discharge (an
over decrease in this case): the solid red line at Day 3 is below the blue crossed line. To sum it up, if the
model-observation error is not monotonous over the re-analysis and forecast period, the DA procedure can
lead to an under or over correction. A possible leverage for this problem is to shorten the re-analysis period
and thus allow for more temporal variability of the corrective coefficient.
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.

Figure 4: Discharge (thick curves) and water level (thin curves) at +12h, December 2010 (Mussey):
Observations (blue crossed curves), Free Run (black solid curves), DA analysis (red dashed curves).

Figure 5: Ai coefficients for Q1, Q2, Q3, Q4 and Q5 during December 2010 event.

Globally in Figure 4, the water level is also significantly improved (thin curves), still the correction of
the lateral inflows with assimilation of the discharge measurements does not improve the water level peak
simulation, it even degrades the first peak at Day 3 + 12h. Indeed, when the relation between water level and
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.

discharge in the model is not coherent with the relation between water level and discharge in the observation,
the sign of model-observation error on discharge is different from the sign of the model-observation error on
water level. This is the case from Day 2.5 to Day 3.5; the Free Run simulation overestimates the discharge
(blue area in Figure 4) but underestimates the water level (red area in Figure 4). Here, the DA correction
tends to decrease the lateral inflow in order to decrease the simulated discharge, thus leading to the decrease
of the simulated water level when the latter was already too small.

The friction coefficients (Ks) of the hydraulic model are mean values obtained from the calibration
procedure using discharge data, over 10 flood events. The resulting values for the hydraulic section
containing Mussey are 20 for the river channel and 13 for the flood plain. These values are potentially not
well suited for high discharge events and might be responsible for a non-physical local relation between
discharge and water level. To account for uncertainty in the topography and bathymetry, a local correction of
the Ks coefficient at Mussey is applied (over a 200m section downstream of the observing station). As
illustrated in Figure 6, a change in Ks allows to improve the simulated water level while the discharge is left
unchanged by this local modification. Once the lateral inflows were corrected through the DA procedure, the
simulated discharge is improved over the whole flood event, still the water level is overestimated (red areas
in Figure 6) from day 1 to 2.5 and 5 to 9 and underestimated at the flood peak (blue area in Figure 6). An
approximate calibration of the Ks coefficients is achieved to obtain the green curves in Figure 6; the river
channel and the flood plain coefficients are increased to 27 and 15 respectively over the overestimation
periods and decreased to 16 and 9 over the underestimation period. The local correction of the Ks
coefficients improves water level forecasts without changing discharges. Based on these results, ongoing
work aims at including the Ks coefficients within the DA control vector of the previously described
procedure.

Figure 6: Discharge (thick curves) and water level (thin curves) at +12h, December 2010 (Mussey):
observations (blue crossed curves), DA analysis (red dasched curves) and DA analysis with modified
Strickler coefficient (green dotted curves).

As the correction of lateral inflows, Ks coefficients must be corrected sequentially as observations


become available. The linear approximation of the relation between the Ks coefficients and the simulated
hydraulic state should be investigated. Figure 7 illustrates the nonlinear impact of the perturbation of the
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.

river channel Ks at the flood peak, at Mussey, around the reference value Ks = 20. For instance, a
perturbation of 4 leads to a maximum discrepancy in water level of 2cm with respect to the linear
approximation computed for dKs = 2 (pink dashed line in Figure 7). For a positive perturbation in Ks, the
non linearity is significantly smaller than for negative perturbations with a water level difference of 6 cm
when the Ks is increased from 20 to 32 and up to 33 cm when the Ks is decreased from 20 to 8. In order to
keep the non linearity impact small on the EKF analysis, the correction to the Ks coefficient should remain in
a limited interval such as [-5, 5].

Figure 7: Impact on the water level on the peak of the perturbation of the river channel Ks coefficient for
dKs[-12;12] (black curve) and dKs=2 (pink dashed line).

5. CONCLUSION

The sequential assimilation of discharge measurements in real time mode was presented in this
paper. The study focuses on the application of an Extended Kalman Filter (EKF) algorithm for the Marne
catchment under the assumption that the relation between the lateral boundary conditions of the domain and
the simulated discharge is fairly linear. It was shown that the estimation of the time varying contributions of
the karstic areas and the neglected tributaries can be achieved. This leads to the improvement of the
hydraulic state forecast at meaningful lead time for operational use. Since the method developed here is not
catchment dependent, it was applied for other French catchments and it is currently being integrated in the
real-time forecasting platform for operational use at SCHAPI. The reduced computational cost of the
procedure is also a strong advantage. The extension of the control vector to model parameters such as the
Strickler coefficients is one of the perspectives for further works as it will allow to correct the relation
between water level and discharge within the model.
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.

REFERENCES

[1] F. Bouttier and P. Courtier: Data assimilation concepts and methods, ECMWF Lecture Note, 1999.

[2] S. Buis, A. Piacentini, and D. Déclat: PALM: A computational framework for assembling high
performance computing applications, Concurrency Computat.: Pract. Exper., 18(2), 247-262, 2006.

[3] G. Coccia and E. Todini: Recent developments in predictive uncertainty assessment based on the model
conditional processor approach, Hydrol. Earth Syst. Sci., 7, 9219-9270; 2008b.

[4] C.M. Dechant and H. Moradkhani: Radiance data assimilation for operationnal snow and streamflow
forecasting, Adv. Water Resour. Res., 34, 351-364, 2011a.

[5] G. Drogue, L. Pfister, T. Leviandier, A. El Idrissi, J.F. Iffly, P. Matgen, J. Humbert, and L. Hoffmann:
Simulating the spatio-temporal variability of streamflow response to climatechange scenarios in a mesoscale
basin, J. Hydrol., 293,255–269, 2004.

[6] Q. Duan, V. Gupta, S. Sorooshian, A.N. Rousseau and R. Turcotte: Preface in calibration of watershed
Models, Water Sci. Appli. Ser., vol. 6; edited by Q. Duan et al., p. v, AGU, Washington, D. C, 2003.

[7] G. Evensen: Sequential data assimilation with a non linear quasi-geostrophic model using Monte Carlo
methods to forecast error statistics. J. Geophys. Res., 99:10143-62, 1994.

[8] A. Gelb: Applied optimal estimation, Cambridge Mass.: MIT Press, 1974.

[9] N. Goutal and F. Maurel: A finite volume solver for 1D shallow water equations applied in an actual
river, Int. J. Numer. Meth. Fluids, 38(2), 1-19, 2002.

[10] N. Jean-Baptiste, P.O. Malaterre, C. Dorée and J. Sau: Data assimilation for real-time estimation of
hydraulics states and unmeasured perturbations in a 1d hydrodynamic model. Math. and Computers in
Simulation, 81, 2201-2214, 2009.

[11] Y. Liu and H.V. Gupta: Uncertainty in hydrologic modeling: Toward an integrated data assimilation
framework, Water Res. Ser., 43, W07401, 2007.

[12] P.O. Malaterre, J.P. Baume and N. Jean-Baptiste: Calibration of open channel flow models: a system
analysis and control engineering approach, SimHydro 2010.

[13] D. Maclaughlin and L. Townley: A reassessment of the groundwater inverse problem, Water Resour.
Res., 32, 1131-1161, 1996.

[14] D. Maclaughlin: An integrated approach to hydrologic data assimilation: interpolation, smoothing, and
filtering, Adv. Water Res., 25, 1275-1286, 2002.

[15] H. Moradkhani, S. Sorooshian, H. Gupta and P. Houser: Dual-state parameters estimation of hydrolocal
models using ensemble Kalman filter. Adv. Water Res., 28, 135-147, 2005.

[16] R.H. Reichle: Data assimilation methods in the Earth sciences, Adv. Water Resour. 31; 1411-1418,
2008.

[17] S. Ricci, A. Piacentini, O. Thual, E. Le Pape and G. Jonville: Correction of upstream flow and
hydraulics state with data assimilation in the context of flood forecasting, Hydrol. Earth Syst. Sci, 15, 1-21,
2011.

[18] G. Schumann, P.D. Bates, M.S. Horritt, P. Matgen and F. Pappenberger: Progress in integration of
remote sensing derived flood extend and stage data and hydraulic models, Rev. Geophys., 47, 2009.
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.

[19] D.J. Seo, L. Cajina, R. Corby and T. Howieson: Automatic state updating for operational streamflow
forecasting via variational data assimilation, J. Hydrol., 367, 255-275, 2009.

[20] D.J. Seo, V. Koren and N. Cajina: Real-time variational assimilation of hydrologic and
hydrometeorological data into operational hydrologic forecasting, J. Hydrometeorol., 4, 627-641, 2003.

[21] SOeS - CGDD (Service de l'Observation et des Statistiques - Commissariat Général au Développement
Durable): Croissance du nombre de logements en zones inondables, Le point sur, 6, Février 2009.

[22] G. Thirel, E. Martin, J.F. Mahfouf, S. Massart, S. Ricci and F. Habets: A past discharges assimilation
system for ensemble streamflow forecasts over France, Part 1: Description and validation of the assimilation
system, Hydrol. Earth Syst. Sci., 14, 1623-1637, 2010a.

[23] G. Thirel, E. Martin, J.F. Mahfouf, S. Massart, S. Ricci, F. Regimbeau and F. Habets: A past discharges
assimilation system for ensemble streamflow forecasts over France, Part 2: Impact on the streamflow
forecasts, Hydrol. Earth Syst. Sci., 14, 1639-1653, 2010b.

[24] J.A. Vrugt, H.V. Gupta, W. Bouten and S. Sorooshian: A shuffled complex evolution metropolis
algorithm for optimization and uncertainty assessment of hydrological parameters. Water Resour. Res.,
39(8), 1-14, 2003.

[25] A.H. Weerts and Y. Liu: Advances in data assimilation for operational hydrologic forecasting, Eos
Trans. AGU, 92, 2011.
3.1.3 Conclusion
Dans cette étude, il a été montré que le système DAMP permet d’améliorer
les prévisions des hauteurs et des débits via l’assimilation séquentielle de débits et la
correction des forçages amont d’un modèle opérationnel de prévision des crues. L’étude se
focalise sur l’application d’un algorithme de type filtre de Kalman Étendu pour le bassin
versant de la Marne en faisant l’hypothèse que la relation entre les conditions limites
amont (débits amont et apports intermédiaires) et les débits simulés est faiblement non-
linéaire (cette hypothèse est à vérifier avec un autre algorithme tels que l’EnKF). Le
cyclage de la correction des forçages amont par assimilation de données a permis une
amélioration moyenne de 91% des débits prévus à l’échéance maximale (comprise entre
5 et 21 h selon les stations) par rapport aux prévisions du modèle sans assimilation.
La méthode développée ici pour le modèle MAG a été appliquée sur d’autres
bassins français et est utilisée en opérationnel au SPC SAMA depuis décembre 2013. Elle
a aussi récemment été intégrée dans la Plate-forme Opérationnelle pour la Modélisation
(POM) du SCHAPI et est actuellement en phase de test (cf Partie 5.2). L’extension
du vecteur de contrôle à d’autres paramètres du modèle a donné lieu, pour les Ks , à
la rédaction de l’article (Habert et al., 2015) présenté dans la suite de ce chapitre ainsi
qu’à la mise en œuvre d’une approche ensembliste pour relaxer l’hypothèse de linéarité
des opérateurs (Barthélémy, 2015).

93
3.2 Application d’un Ks local contrôlé par assimilation de
données pour le modèle Marne Amont Global (MAG)
3.2.1 Introduction
L’extension du vecteur de contrôle aux Ks locaux abordée précédemment a
donné lieu à la rédaction de l’article ci-dessous publié dans Journal of Hydrology en
décembre 2015. Nous avons pu voir dans les Partie 2.2.2 et 2.2.3 que les modèles hy-
drauliques de prévision des crues sont confrontés à différents types d’incertitudes. Ces
dernières sont liées aux données observées comme les forçages amont (où les débits sont
issus de la transformation via la courbe de tarage d’une hauteur d’eau observée elle-
même incertaine), ou bien à une représentation simplifiée du système d’écoulement dans
le modèle hydraulique (à travers la description géométrique de la vallée, l’estimation des
forçages amont et des coefficients de Strickler lors du calage).
C’est lors de la validation du modèle que l’on se rend compte de la pertinence
des données du modèle et des paramètres fixés au calage : une mauvaise représentation
de la relation hauteur-débit à une station peut signifier que les débits amont et latéraux
sont mal estimés, que la courbe de tarage utilisée pour déterminer la débit observé n’est
pas fiable, que la description topo-bathymétrique n’est pas assez fine, que les Ks ne sont
pas adaptés et parfois les quatre en même temps. Lorsqu’on ne dispose pas de données
complémentaires (jaugeages, profils en travers), le modélisateur peut être tenté de forcer
un paramètre pour combler une erreur engendrée par un manque de données. C’est le cas
dans le modèle MAG où une fois les débits amont et les apports intermédiaires estimés,
on force localement les Ks pour modifier la relation hauteur-débit en sachant que c’est
essentiellement le manque de données topo-bathymétriques qui est responsable d’une
simulation des hauteurs d’eau erronée.
Cet article illustre comment améliorer la relation hauteur-débit d’un modèle
hydraulique 1D de prévision des crues (Mascaret) à travers deux approches : la première,
en densifiant la description géométrique du modèle à partir de nouvelles données, la
seconde en contrôlant par assimilation de données les coefficients de frottement des lits
mineur m et majeur n.

3.2.2 Article publié dans la revue Journal of Hydrology

94
Journal of Hydrology 532 (2016) 52–64

Contents lists available at ScienceDirect

Journal of Hydrology
journal homepage: www.elsevier.com/locate/jhydrol

Review Paper

Reduction of the uncertainties in the water level-discharge relation


of a 1D hydraulic model in the context of operational flood forecasting
J. Habert a,b,⇑, S. Ricci b, E. Le Pape c, O. Thual d, A. Piacentini b, N. Goutal e, G. Jonville b, M. Rochoux b
a
DREAL Champagne-Ardenne, Châlons-en-Champagne, France
b
URA 1875/CERFACS, Toulouse, France
c
SCHAPI, Toulouse, France
d
URA 1875/CERFACS and INPT, CNRS, IMFT, Toulouse, France
e
LNHE EDF-R&D, Chatou, France

a r t i c l e i n f o a b s t r a c t

Article history: This paper presents a data-driven hydrodynamic simulator based on the 1-D hydraulic solver dedicated
Received 31 July 2015 to flood forecasting with lead time of an hour up to 24 h. The goal of the study is to reduce uncertainties
Received in revised form 6 November 2015 in the hydraulic model and thus provide more reliable simulations and forecasts in real time for opera-
Accepted 14 November 2015
tional use by the national hydrometeorological flood forecasting center in France. Previous studies have
Available online 1 December 2015
This manuscript was handled by
shown that sequential assimilation of water level or discharge data allows to adjust the inflows to the
Konstantine P. Georgakakos, Editor-in-Chief, hydraulic network resulting in a significant improvement of the discharge while leaving the water level
with the assistance of Hamid Moradkhani, state imperfect. Two strategies are proposed here to improve the water level-discharge relation in the
Associate Editor model. At first, a modeling strategy consists in improving the description of the river bed geometry using
topographic and bathymetric measurements. Secondly, an inverse modeling strategy proposes to locally
Keywords: correct friction coefficients in the river bed and the flood plain through the assimilation of in situ water
Hydraulic modeling level measurements. This approach is based on an Extended Kalman filter algorithm that sequentially
Flood forecasting assimilates data to infer the upstream and lateral inflows at first and then the friction coefficients. It
Data assimilation provides a time varying correction of the hydrological boundary conditions and hydraulic parameters.
Uncertainty reduction The merits of both strategies are demonstrated on the Marne catchment in France for eight validation
flood events and the January 2004 flood event is used as an illustrative example throughout the paper.
The Nash–Sutcliffe criterion for water level is improved from 0.135 to 0.832 for a 12-h forecast lead time
with the data assimilation strategy. These developments have been implemented at the SAMA SPC (local
flood forecasting service in the Haute-Marne French department) and used for operational forecast since
2013. They were shown to provide an efficient tool for evaluating flood risk and to improve the flood early
warning system. Complementary with the deterministic forecast of the hydraulic state, the estimation of
an uncertainty range is given relying on off-line and on-line diagnosis. The possibilities to further extend
the control vector while limiting the computational cost and equifinality problem are finally discussed.
Ó 2015 Elsevier B.V. All rights reserved.

Contents

1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2. Materials and methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.1. The 1D hydraulic model MASCARET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.2. Sequential DA method . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.2.1. DA algorithm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.2.2. Study on the linear assumption of the generalized observation operator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3. Correction of the model H–Q relation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.1. Bathymetric profiles densification (BATHY). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

⇑ Corresponding author at: DREAL Champagne-Ardenne/SRS/PHH/CPC, 40 boulevard Anatole France, BP80556, 51022 Châlons-en-Champagne Cedex, France. Tel.: +33
351416469.
E-mail address: johan.habert@developpement-durable.gouv.fr (J. Habert).

http://dx.doi.org/10.1016/j.jhydrol.2015.11.023
0022-1694/Ó 2015 Elsevier B.V. All rights reserved.
J. Habert et al. / Journal of Hydrology 532 (2016) 52–64 53

3.2. Data assimilation for friction coefficients correction (ASSIM) ............................................................. 60


4. Operational implementation at SPC SAMA . . . . . ................ ............................................................. 61
5. Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................ ............................................................. 62
Acknowledgments . . . . . . . . . . . . . . . . . . . . . . . . ................ ............................................................. 63
References . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................ ............................................................. 63

1. Introduction usually achieved once for all using a batch of observations such
as water level from a limited number of flood events, thus provid-
Flooding causes important social, environmental and economic ing time-invariant values for the model parameters. It is important
losses and is likely to be aggravated by climate change over the to mention that errors in the model inputs and in the model equa-
next decades. For example, flooding of the Var river in the South- tions are sometimes difficult to discriminate (Vrugt et al., 2005;
East of France in 2010 resulted in a 700 million euros loss and 25 Renard et al., 2010). These uncertainties usually translate into
victims (MEDDE, 2011). Worldwide, national or international oper- errors in the model representation of the water level-discharge
ational flood forecasting centers are in charge of providing water (H–Q) relation that is not coherent with that from the reality. In
level predictions and flood risks at short- to medium-range lead practice, this inconsistency can be reduced when complementary
time (from several hours to a few days) that are of great impor- data become available to improve the model, for instance LIDAR
tance for civil protection. To this end, operational centers aim at data for bathymetry (horizontal resolution of one point per square
providing an accurate forecast of the hydraulic variables (i.e., water meter; 10–30 cm of vertical accuracy). When no additional data
level and discharge) along the monitored network. This forecast are available to improve the model geometry, the error between
relies on the complementary use of numerical models and observa- the simulated and the observed hydraulic states must be
tions (Kirchner, 2006). For instance, the UK Environment Agency in accounted for by adjusting the model parameters and/or the model
collaboration with the Met Office has developed the National Flood state itself. Many studies have attempted to account for uncertain-
Forecasting System (NFFS) in order to access to real-time forecasts ties at varying levels (Vrugt et al., 2008; Liu and Gupta, 2011), for
from a large set of hydrologic modeling tools (Werner et al., 2009; instance by analyzing the uncertainty in hydrologic prediction
Weerts et al., 2011). In the Philippines, the Metro Manila model is based on the Generalized Likelihood Uncertainty Estimation
used operationally to issue 24-h lead time forecasts using precipi- (GLUE) (Beven and Freer, 2001; Aronica et al., 1998; Neal et al.,
tation and water level measurements that are collected and trans- 2007; Stedinger et al., 2008), Markov chain Monte Carlo (MCMC)
mitted in real time (Madsen and Skotner, 2005). In France, since (Jeremiah et al., 2011), Bayesian inference (Parrish et al., 2012)
2006, the national and hydrometeorological flood forecasting cen- and Data Assimilation (DA) (Liu and Gupta, 2011; Moradkhani
ter (SCHAPI – Service Central d’Hydrométéorologie et d’Appui à la et al., 2005b; DeChant and Moradkhani, 2011a,b).
Prévision des Inondations), in collaboration with the 22 local flood DA offers a convenient and cost-effective framework, compared
forecasting services (SPC – Service de Prévision des Crues), pro- to MCMC and Bayesian inference, to overcome some limits of the
duces a twice-daily vigilance map available for governmental classical calibration process for model parameters: observations
authorities and general public (http://www.vigicrues.gouv.fr). and simulation outputs are combined along with their respective
Meteorological, hydrologic and geographic data (bathymetry, errors to estimate an optimal set of model parameters and thereby
topography), are used as inputs to hydraulic models that are inte- reduce simulation uncertainties. Furthermore, as the DA algorithm
grated in forecast mode to describe water level and discharge at a is sequentially applied, the analysis allows for a temporal variation
limited number of observing stations over 22,000 km of rivers in of model parameters errors. The classical approach in DA for mete-
France. These hydraulic variables are then translated into a colored orology and oceanography is to directly correct the model output
flood risk map available online. On a larger scale, the European variables (also called state estimation). In the hydrology and
Flood Awareness System (EFAS) as part of the Copernicus Emer- hydraulic literature, the estimation of uncertainty in model param-
gency Management System provides probabilistic flood alert infor- eters has been extensively investigated in addition to the more tra-
mation more than 48 h in advance to national authorities. This ditional state estimation approach. DA is now being applied with
alert system covers the main European rivers on a 5-km grid using increasing frequency to hydraulic problems with two main objec-
a distributed hydrologic rainfall–runoff-routing model (LISFLOOD) tives (Liu et al., 2012): optimizing model parameters and improv-
as well as ensemble weather forecasts and real-time weather ing stream low simulation and forecasting. Recent studies have
observations (de Roo et al., 2003; Van der Knijff et al., 2010). shown the benefit hydrology and hydraulic can draw from the pro-
The capacity for real-time anticipation of extreme flood events gress of DA approaches using either variational inverse problem
remains limited due to several sources of uncertainty in hydraulic (Valstar et al., 2004; Seo et al., 2003; Seo et al., 2009), particle filter
models. On the one hand, forcing data that represent boundary (Dechant and Moradkhani, 2012), EKF (Thirel et al., 2010), EnKF for
conditions for hydraulic models usually result from the transfor- state updating (Weerts and El Serafy, 2006) or for dual state
mation of uncertain observed water levels into discharges with parameter estimation (Moradkhani et al., 2005b; Hendricks and
an uncertain rating curve (CEMAGREF, 1981; Audinet and André, Kinzelbach, 2008). Sequential state estimation for hydraulic appli-
1995), or from discharges forecasted by uncertain hydrologic cations was indeed found to have a limited impact on the forecast
models. Another source of uncertainty is the description of the performance due to the limited persistence of the model initial
river channel and flood plain geometry. This requires on-site condition. In contrast, the forecast lead time can be significantly
measurements of topographic and bathymetric profiles to provide improved via the correction of the hydrologic forcing (Hartnack
a spatially-distributed geometry. On the other hand, the equations et al., 2005; Andreadis et al., 2007; Ricci et al., 2011) or of the
that are solved by models are based on simplification and model parameters (Durand et al., 2008). Through the inclusion of
parametrization of the physics. The parametrization schemes are parameters in the DA process, it is assumed that the forecast
calibrated to adjust the model behavior to observed water levels, uncertainty can be efficiently reduced over a time window for
typically, through the calibration of friction coefficients. The which the errors statistics in the model parameters are stationary.
calibration of the river bed and flood plain friction coefficients is State and parameter correction can be performed independently,
54 J. Habert et al. / Journal of Hydrology 532 (2016) 52–64

or simultaneously (Moradkhani et al., 2005b,a) with an augmented plain friction coefficients. In this context, Ricci et al. (2011) demon-
state as illustrated in Jean-Baptiste (2011). For example Bessiere strated that the assimilation, based on an Extended Kalman Filter
et al. (2007) explored the assimilation of hydrologic data into oper- (EKF) algorithm, of water level observations to correct hydrologic
ational hydrologic forecast to correct several input parameters boundary conditions on the Adour catchment with MASCARET
including river bed friction coefficients. Neal et al. (2009) focused improves flood forecasting by 60% for 1-h lead time and by 25%
on state estimation and assimilated water level observation for 12-h lead time. A similar approach using discharge data was
derived from spaceborne imaging and digital terrain model to esti- then applied to the Marne catchment to specify upstream and lat-
mate discharge in an un-gauged basin simulated by a coupled eral inflows (Habert et al., 2012), resulting in the significant
hydrologic and hydrodynamic model. Hartnack et al. (2005) and improvement of the simulated discharge state, while the simulated
Matgen et al. (2010) used ensemble-based approaches (the Ensem- water level state remained imperfect. The correction of un-gauged
ble Kalman Filter – EnKF – and particle filters, respectively) to lateral and upstream inflows with DA offers an alternative solution
update the state but also to infer the upstream boundary condi- to the classical batch calibration procedure by considering a time-
tions. As presented in Seo et al. (2014), the key for operational varying estimation of the boundary conditions. In the present
hydrology and water resource management lies in ensemble- work, this corresponds to the first step of the DA method referred
based DA method. Ensemble approach allow objective utilization to as experiment ASSIM1 in the following. Further improvement on
of multiple sources of data and model along with their related the river bed and flood plain friction coefficients in the neighbor-
uncertainties. The next issues to be addressed relate to comple- hood of the observing stations is obtained with water level assim-
mentary use of various types of data, uncertainty quantification ilation. This represents the second step of the DA method referred
and ensemble evaluation in forecast mode. Particle filters are to as experiment ASSIM2 in the following. The method ASSIM is
now reliable for operational probabilistic prediction. In the frame- therefore a two-step DA procedure: ASSIM1 allows for the correc-
work of bayesian inference and Markov Chain Monte Carlo meth- tion of upstream and lateral inflows and ASSIM2 allows for the cor-
ods, advances Particular filter theories are proven to be effective rection of river bed and flood plain friction coefficients. The
at a limited computation cost (Moradkhani et al., 2012). sequential application of both steps in ASSIM is referred to as
The objective of the paper is to provide an advanced solution for experiment ASSIM1+ASSIM2.
improving water-level simulation and forecasting in the frame- The structure of the paper is as follows: Section 2 provides a
work of operational flood forecasting. It is assumed here that errors description of the Marne catchment and of the materials (hydraulic
in the simulated water level are due to errors in the water level- model, DA method) used to perform flood forecasting. The evalua-
discharge relation in the hydraulic model. The present study illus- tion of the linearity of the water level with respect to the friction
trates how errors in the water level-discharge relation of a 1D coefficients is investigated. The limitations of the reference model
hydraulic model can be accounted for in the context of operational REF are highlighted and the two-step DA strategy ASSIM is pre-
flood forecasting following two different approaches. The first sented in detail. In Section 3, the results of both BATHY and ASSIM
method is based on the assumption that additional data on the approaches are presented using the January 2004 flood event as an
river bed geometry are available to directly improve the model illustrative example. The operational implementation of the ASSIM
H–Q relation. In the following, this approach is referred to as exper- approach at the SAMA SPC is described in Section 4. Conclusions
iment BATHY. For the second method, it is assumed that the only and perspectives for this work are given in Section 5.
additional data available are in situ water level measurements,
which are used in real time to adjust the river bed and flood plain
friction coefficients in the model using a DA algorithm. In order to 2. Materials and methods
cope with the operational computational constraint an EKF algo-
rithm was implemented rather than an EnKF. While the limitations 2.1. The 1D hydraulic model MASCARET
of EKF were already highlighted in previous studies, in the present
case, a sensitivity study was carried out and proved that the impact The Marne river is an important tributary of the Seine river in
of non-linearities remain limited. In the following, this approach is France. Its source is located on the Langres plateau in the Haute-
referred to as experiment ASSIM. A time-dependent correction of Marne department. A mono-dimensional hydraulic model is used
the friction coefficients is provided by DA in order to account for to simulate the hydrodynamics of the 180-km Marne river as pre-
errors in the friction and bathymetry description that vary along sented in Fig. 1. This study is carried out in the upstream part of the
with the flow as water level reaches different portions of the Marne river where flash floods frequently occur; for instance, in
described geometry. It should be noted that the errors in the model December 2011, the discharge at Condes raised from 25 to
H–Q relation are potentially larger at high flow since the flood plain 125 m3/s in 24 h. Upstream boundary conditions (black dots in
topography is not well known and since the model is not well cal- Fig. 1) for the hydraulic network are described with observed
ibrated. Thus, this study aims at demonstrating that both water levels that are translated into discharges with a local rating
approaches BATHY and ASSIM can significantly improve the model curve; the downstream boundary condition at Chamouilley is also
H–Q relation and subsequently the simulated hydraulic state. This described with a local rating curve. There are six observing stations
work is carried out in the context of operational flood forecasting located on the main stream of the river (black triangles in Fig. 1)
at the SAMA (Seine Amont Marne Amont) SPC for the Marne catch- where water level is measured hourly. These data are provided
ment in France. SAMA uses the 1D hydraulic model MASCARET by the DREAL (Direction Régionale de l’Environnement, de
(Goutal and Maurel, 2002) developed by LNHE (Laboratoire l’Aménagement et du Logement) hydrometeorological service in
National d’Hydraulique et d’Environnement) from EDF-R&D (Elec- the Champagne-Ardenne region.
tricité De France – Recherche et Développement) to simulate real- Along this hydraulic network, the 1D form of the Saint–Venant
time discharge or water level forecasts at six observing stations on equations is solved with the MASCARET (Goutal and Maurel, 2002)
the upstream part of the Marne river. Maximum forecast lead time software developed by EDF-R&D and CEREMA (Centre d’Etudes et
for each site is between 5 and 21 h according to the transfer time d’Expertise sur les Risques, l’Environnement, la Mobilité et
along the hydraulic network. The reference model for this work, l’Aménagement), widely used for modeling flood events, submer-
referred to as experiment REF in the following, results from a clas- sion waves resulting from the failure of hydraulic infrastructures,
sical batch calibration procedure of the un-gauged upstream and river control, and channel waves propagation. The 1D Saint–
lateral inflows to the model as well as of the river bed and flood Venant equations read (non-conservative form):
J. Habert et al. / Journal of Hydrology 532 (2016) 52–64 55

of water level and discharge measurements from ten flood events


Upstream
at Chaumont, Condes, Saucourt, Mussey, Joinville and Chamouilley.
The model was then validated over eight independent flood events
that occurred between 2004 and 2013; these events can be classi-
1 fied in three types: two events with a maximum discharge of
100 m3/s at Mussey, two events with a maximum discharge at
Mussey ranging between 115 and 240 m3/s, and three stronger
5
events with a maximum discharge at Mussey above 260 m3/s
(among which the January 2004 flood event used in this paper
2 for illustrative purposes). Five upstream and lateral inflows (gray
dots in Fig. 1) were added to the model to represent additional
6 water input to the network. At these five locations, despite the lack
Chaumont of hydrologic rainfall–runoff model, the hydrograph is described as
proportional to a mean upstream area hydrograph; the multiplica-
tive coefficients used for the model in the present work were opti-
mized by a batch calibration procedure. Additionally, the river bed
Condes and flood plain friction coefficients (denoted respectively by m and
9 n) were calibrated by minimizing simulated and observed dis-
charge differences; the resulting calibrated friction coefficients
that have a straightforward influence on the H–Q relation in the
3 model are given in Table 1. In the following, the model with batch
7 calibration corresponds to the reference model denoted by REF.
The Nash–Sutcliffe criteria for water level N H and discharge N Q
8 were calculated for the eight validation flood events for each
observing station using the following formulation given for Q:
Saucourt Pn 2
ðQ obs  Q sim
i Þ
N ¼ 1  Pi¼1 i 2
; ð2Þ
n obs
i¼1 ðQ i  Q obs Þ

Mussey where Q obs


i and Q sim
i correspond to the observed and simulated dis-
charges at time indexed by i, and where Q obs denotes the time-
averaged value of the observed discharges. The Nash–Sutcliffe crite-
ria results are presented in Table 1. In general, the quality of the
results decreases from upstream to downstream as the use of mean
Joinville multiplicative coefficients generates errors in the lateral and
upstream inflows estimation. Additionally, the Nash–Sutcliffe crite-
ria computed with respect to discharge Q are generally better than
4 when computed with respect to water level H, especially at Mussey
(Reach 4, Portion 1 in Table 1). It should be noted that there is no
rating curve available at Joinville, thus no discharge data at this
observing station. For the January 2004 flood event used in this
work for illustrative purposes, the Nash–Sutcliffe criteria associated
with the REF model and presented in Table 2 are respectively 0.773
Downstream and 0.894 for water level and discharge. The criteria are here
Chamouilley
Fig. 1. Schematic of the Marne model hydraulic network (Haute-Marne, France). Table 1
Observed upstream flows are represented with black dots; additional inflows are Mean friction coefficients obtained after calibration for the river bed (m) and the flood
represented with gray dots; and observing stations over the hydraulic network are plain (n) in [m1/3 s1], as well as Nash criteria for water level (N H ) and discharge (N Q )
represented with triangles. calculated for eight validation flood events and for reaches 1–9 over the Marne model
hydraulic network. Reaches lengths are in meters.
  Reaches Portions Length m n Observing stations NH NQ
@S @Q @Q @QV @Z Q2
þ ¼ qa ; þ þ gS þ J þ J s ¼ 0 with J ¼ 2 2 4=3
@t @x @t @x @x S K s RH
1 1 5,172 24 14
2 1 21,753 24 14 Chaumont 0.922
ð1Þ 3 1 660 36 22 Condes 0.821 0.835
2 44,842 24 14

where S [m2] is the river cross sectional area, Q [m3/s] is the 4 1 578 20 13 Mussey 0.544 0.743
discharge, qa (x,t) is the lateral lineic discharge, K s [m1/3 s1] is the 2 8,200 24 18
3 300 14 8 Joinville 0.531
friction coefficient, RH is the hydraulic radius, g is the gravity, J and 4 26,383 24 14 Chamouilley 0.614 0.621
Js represents regular and singular head losses respectively. The river 5 1 4,150 24 14
cross sectional area S is, for each location x, a function of the water 6 1 27,101 24 14
level H ¼ Zðx; tÞ  Z bottom ðx; tÞ, where Zðx; tÞ [m] is the free surface 7 1 7,600 9 7
height and where Z bottom [m] corresponds to the river bed bathymetry. 8 1 16,266 9 7
The unsteady kernel of MASCARET was used in this study. 2 500 13 8 Saucourt 0.797 0.821
3 5,680 9 7
The Marne terrain model was built with 110 topographic and
9 1 10,819 9 7
bathymetric cross sections; it was calibrated in 2011 using a batch
56 J. Habert et al. / Journal of Hydrology 532 (2016) 52–64

Table 2 For the Marne applicative test case, discharge observations (Con-
Nash–Sutcliffe criteria for REF, BATHY, ASSIM1 and ASSIM1+ASSIM2 experiments for des, Mussey, Chamouilley and Saucourt) are assimilated to correct
water level (N H ) and discharge (N Q ) in re-analysis mode for the January 2004 flood
event at Mussey.
the five upstream and lateral inflows along the hydraulic network
(represented by gray dots in Fig. 1) in order to correctly represent
NH NQ discharge.
REF 0.773 0.894 In spite of the discharge improvement, when the model H–Q
BATHY 0.923 0.897 relation is incorrect (at high flow), the simulated water level
ASSIM1 0.784 0.976
remains imperfect. These errors are here accounted for in the sec-
BATHY+ASSIM1 0.986 0.987
ASSIM1+ASSIM2 0.97 0.978 ond step ASSIM2, which uses water level data to locally correct
river bed and flood plain friction coefficients in the neighborhood
of the observing stations. The batch calibration process leads to
computed in re-analysis mode that corresponds to a 0-h forecast an estimate that allows, on average, the model to correctly simu-
lead time (details are given in Section 2.2). REF (dashed lines) and late a set of flood events. Depending on the choice of this set of
observed (dotted lines) hydraulic states at Mussey are compared events, the calibrated friction coefficients might be better fitted
in Fig. 2 over the January 2004 flood event (thin lines correspond for low, medium or high flow. Usually, high flow are not well rep-
to water level, thick lines correspond to discharges). The difference resented. It thus makes sense to look for a time-varying correction
between REF and observations varies over time for both water level of the friction coefficients during a flood event. Additionally, the
and discharge, thus arguing for a time-dependent correction as bathymetry is described from a limited number of measured cross
enabled by DA in Section 2.2. It is important to notice that the sign sections. The correction of the friction coefficients offers a way to
of the error in discharge and in water level are different for high also account for the uncertainty related to bathymetry. In the pre-
flow conditions (flood peak from day 4 to day 5), while similar away sent study, the friction coefficients are corrected over a 600-m sec-
from the flood peak. For high water levels, the discharge is slightly tion in the vicinity of the observing station at Mussey (Portion 1 of
overestimated (by 25 m3/s at day 5), whereas the water level is sig- reach 4) and over a 300-m section in the vicinity of Joinville (Por-
nificantly underestimated (by 0.4 m at day 5). During this period, tion 3 of reach 4). These coefficients were chosen as their uncer-
the H–Q relation in the model is incorrect, a negative correction tainty has a significant influence on the simulated water level at
in the discharge would further deteriorate the water level state. the observing stations; still the following method could be applied
Thus, for this event, the batch calibration process is to fail at provid- to any friction coefficient for the hydraulic network. The friction
ing parameters (friction coefficients and upstream/lateral inflows) coefficients in the river bed and in the flood plains, respectively
that would improve both discharge and water level at the flood denoted by m and n, are gathered in the control vector x of size
peak (the same assumption seems legitimate at Joinville). It is then s ¼ 4 in the present case study. The background values in xb are
obvious that the reference model (REF) should be improved as those specified from the calibration procedure (mb ¼ 20 and
explained in the following.
nb ¼ 13 for Mussey; mb ¼ 14 and nb ¼ 8 for Joinville). The errors
in m and n are supposed to be uncorrelated, and the respective
2.2. Sequential DA method standard deviation (STD) are set according to the variability in
the calibration procedure (rbm ¼ 3 and rbn ¼ 4 at Mussey; rbm ¼ 3
2.2.1. DA algorithm and rbn ¼ 2 at Joinville). Thus the background error statistics for
The DA method (ASSIM) is a two-step procedure using an EKF the friction coefficient correction are set constant in time in the
algorithm. EKF algorithm as opposed to a flow dependent description that
The first step ASSIM1 consists in correcting the upstream and would implicitly result from an EnKF algorithm. Hourly water level
lateral inflows to the model using discharge data, with the objec- observations are assimilated over a time window at Mussey and
tive to improve the simulated discharge. The ASSIM1 method is Joinville and gathered in the observation vector yo of size p.
presented in details in Ricci et al. (2011) and Habert et al. (2012). The errors in the water level observations are supposed to be

350
3
325 Q Obs.
2.8
Q Obs. CRC
300 2.6
Q REF
275 H Obs. 2.4
250 H REF 2.2
225 H BATHY 2
Discharge (m3/s)

Water level (m)

200 1.8

175 1.6
1.4
150
1.2
125
1
100
0.8
75
0.6
50 0.4
25 0.2
0 0
0 1 2 3 4 5 6 7 8
Days

Fig. 2. Simulated water levels (thin lines) and discharges (thick lines) at Mussey for REF (dashed line) and BATHY (dashed line with triangle – discharges are unchanged) for
the January 2004 flood event. Observations are represented with small and large black dots for water level and discharge, respectively. Circles represent the discharge
observations obtained with the Corrected Rating Curve (CRC).
J. Habert et al. / Journal of Hydrology 532 (2016) 52–64 57

uncorrelated; the observation error STD ro is set to 0.025 m to Since there is no explicit propagation model for parameters
account for errors in the adjustment of the measurement pressure (Petron et al., 2002; Moradkhani et al., 2005b; Peters et al., 2005;
tube. It should be noted that the water level and discharge are not Rochoux et al., 2014), the usual propagation steps of the KF algo-
included in the control vector. Thus the hydraulic state is not rithm are irrelevant here; a persistence model is often assumed
explicitly corrected with the DA analysis step, the correction for the parameters between the analysis cycles. In the present
results from the DA update of the input flow and friction coeffi- implementation, the background vector xbk and the background
cients that are used for a new integration of the numerical model error covariance matrix Bk are kept invariant between the cycles
over the DA time window as well as over the forecast period. (for every cycle k). For that reason, the present EKF algorithm can
Following the classical equations of the Kalman filter (Kalnay, be considered as an invariant EKF (relatively to the background
2003), the analysis vector xak for cycle k can be formulated as a cor- information). It is worth noting that for a given cycle, the initial
rection to the background vector xbk as follows: condition for the background simulation is derived from the anal-
  ysis simulation obtained during the previous cycle; consequently,
xak ¼ xbk þ Kk yok  Hk ðxbk Þ ; ð3Þ each cycle restarts with an improved initial condition. Thus, the
1 background 78-h run differs from the corresponding portion (in
where Kk = Bk HTk ðHk Bk HTk þ Rk Þ is the gain matrix, Bk and Rk are time) of the continuous reference run (REF) since both runs start
respectively the background and observation errors covariance from a different model state at the cycle initial time. It is also worth
matrices, and Hk is the Jacobian of Hk at xbk . The analysis error mentioning that advanced pseudo-model for parameters could be
covariance matrice is: implemented; this question will be addressed in further work.
The small size of the control vector (less than 10 for the Marne test
Ak ¼ ðI  Kk Hk ÞBk : ð4Þ
case) enables the use of an EKF algorithm, involving matrix opera-
The generalized observation operator Hk is used to describe the tions for the computation of the gain matrix along with a finite dif-
model counterpart of the observations yok ¼ Hk ðxk Þ associated with ference scheme for the computation of the generalized observation
the control vector xk . It consists in, first integrating the hydraulic operator Jacobian.
model using the friction coefficients in xb , then selecting the corre- The cycling of the analysis is presented in Fig. 3 for ASSIM1 and
sponding simulated water level at the observed point and time. in Fig. 4 for ASSIM2 following ASSIM1. The assimilation is per-
This operator is non-linear with respect to x as it implies the inte- formed over a cycle k of 66 h with 54 h of re-analysis and 12 h of
gration of the hydraulic model; this issue will be further investi- forecast at Mussey. The forecast period is adjusted for each observ-
gated in Section 2.2.2 as it is a limiting point for the EKF ing station and decreases going downstream. Over the 54-h re-
algorithm optimality. The Jacobian Hk of the observation operator analysis period, the hydrologic upstream and lateral forcings are
Hk is a s  p matrix: each column represents the variation in the supposed to be known (either observed or calibrated). Over the
hydraulic variables at the observing locations and times that are forecast period, the forcings are supposed to be unknown and set
due to the perturbation of an element of the control vector (corre- constant to the last known value to mimic real operational config-
sponding to one friction coefficient over a given location). In the uration. These forcing could also be estimated with an external
present work, it is conveniently computed in the vicinity of the hydrogeological model using Numerical Weather Prediction rain-
background vector at the analysis time k with a finite difference fall values. While this was investigated at SPC SAMA, it is not yet
scheme that requires additional hydraulic model integrations; implemented operationally. The 54-h re-analysis period corre-
these independent integrations are run in parallel using the Parasol sponds to a 48-h period over which the model adjusts to the initial
functionality of the OpenPALM dynamic coupler (Buis et al., 2006), state, plus a 6-h period over which observations are assimilated
a framework that is convenient to develop DA methods in a mod- using the EKF algorithm. Hence, the size of the observation vector
ular way. The Jacobian matrix is computed for each analysis cycle in the present study is p ¼ 12. The last observation time from
as the impact of a perturbation in the friction coefficients on the which the forecast integration starts is the analysis time T. For
hydraulic variables depends on the hydraulic state itself. cycle k, in ASSIM1 (Fig. 3), over the 6-h assimilation period

240
Q Obs.
Q BCK
220 Q ASSIM1

200

180
Discharge (m3/s)

160

140

120

100 Reanalysis Assimilation


period period Forecast

80

60
T-54h T-6h T T+12h
40
2.5 3 3.5 4 4.5 5
Days

Fig. 3. Observed (black dots), background from previous cycle (BCK solid line) and analyzed discharges (squared solid line) for the ASSIM1 approach at the flood peak at
Mussey for the January 2004 flood event for T = 417,600 s = 4.83 days.
58 J. Habert et al. / Journal of Hydrology 532 (2016) 52–64

3.2
H Obs.
3 H REF
H ASSIM1
H ASSIM2
2.8

2.6

2.4
Water level (m)

2.2

1.8

1.6 Reanalysis Assimilation Forecast


period period
1.4

1.2
T-54h T-6h T T+12h
1
2.5 3 3.5 4 4.5 5
Days

Fig. 4. Observed (black dots), simulated (REF dashed line), background from ASSIM1 (solid line) and analyzed (squared solid line) water levels for the ASSIM2 (following
ASSIM1) approach at the flood peak at Mussey for the January 2004 flood event for T = 417,600 s = 4.83 days. Water level from ASSIM1 used as the background state for
ASSIM2 is compared to water level observations to provide analyzed friction coefficients and subsequently, corrected water level.

(hatching area), the background issued from the previous analysis (squared solid line). The oscillations at the beginning of the cycle
cycle (solid line) and observed discharges (black dots) are com- are due to the inconsistency between the initial state (stored from
pared and a correction to the inflows is obtained through the EKF a previous cycle analysis) and the friction coefficients for the cur-
analysis step. The correction is applied over the re-analysis and rent cycle. The assimilation window is shifted hourly and the
the forecast periods, thus assuming that the nature of the errors sequential application of ASSIM1+ASSIM2 provides a corrected
in the upstream and lateral inflows remains the same over the hydraulic state and forecast. This cycled DA procedure allows for
forecast period. The analyzed forcings are used to achieve a new a temporal variability of the friction coefficients over a flood event,
model integration (over the 66-h time period), which provides a which can be either associated to real changes in the river bed and
better discharge state, while the water level can be either flood plain friction or geometry properties as well as to various
improved or degraded depending on the coherence between the types of errors that are artificially accounted for here by correcting
model and the observation H–Q relation. m and n.
The analyzed water level from ASSIM1 is then used as the back-
ground state for ASSIM2; it is compared to water level observations 2.2.2. Study on the linear assumption of the generalized observation
over the 6-h assimilation period and the EKF update provides a cor- operator
rection to the river bed and flood plain friction coefficients m and n, The EKF algorithm relies on the hypothesis that the generalized
which results in the water level improvement as shown in Fig. 4 observation operator can be approximated by a linear operator on

7 stochastic pdf
Gaussian pdf

5
Density function

0
2.15 2.2 2.25 2.3 2.35 2.4 2.45 2.5
Water Level (m)

Fig. 5. Water level pdf for 10,000 perturbations of the river bed friction coefficient m with a variance of 12. The solid line represents the analytical pdf corresponding to a
Gaussian model response; and the histogram represents the actual MASCARET hydraulic model response reconstructed from the 10,000 model outputs.
J. Habert et al. / Journal of Hydrology 532 (2016) 52–64 59

the ½xb ; xa  interval. The linearity of the hydraulic model response 3. Correction of the model H–Q relation
to a perturbation in the river bed and flood plain friction coeffi-
cients m and n was thus investigated. Fig. 5 presents the probabil- 3.1. Bathymetric profiles densification (BATHY)
ity density function (pdf) of the simulated water level at Mussey
for a permanent flow (Q ¼ 150 m3/s) when the friction coefficient This section presents the method for experiment BATHY; it is
at Mussey for the minor bed is perturbed around the background assumed that the H–Q relation in the 1D hydraulic model is
mean value m ¼ 20. The 10,000 perturbations are randomly chosen improved by adding geometric data to the model. Additional mea-
following a Gaussian function with a variance of 12. surements of the river bed and flood plain geometry were made
In Fig. 5, the pdf in solid line is a Gaussian function built from available near Mussey: 4 topographic and bathymetric measure-
the first two moments (mean and variance) of the system ments were performed in the surrounding of the observing station.
response assuming a linear relation in the model. The actual The batch calibration of the local friction coefficients was then re-
response is represented by the shaded histogram that is obviously processed on Sections 1 and 2 for reach 4. The friction coefficients
non-symmetrical. First, there is a larger amount of water-level for these two sections were set to m ¼ 30 and n ¼ 8. Fig. 2 illus-
values that are smaller than the mean of the Gaussian pdf. This trates the positive impact of the cross-section densification for
means that the (negative) water level anomaly resulting from a the January 2004 flood event for water level (dashed line with tri-
small positive perturbation dm of the friction coefficient is bigger angles). As presented in Table 2, for experiment BATHY, the Nash–
than the (positive) water level anomaly resulting from a negative Sutcliffe criterion for H is improved from 0.773 to 0.923, even
perturbation dm of the friction coefficient. Secondly, the though a 10-cm underestimation remains. The discharge results
stochastic pdf is amplified for extreme water level values, mean- are left unchanged by this local bathymetry correction with a
ing that a large (negative) perturbation of the friction coefficient 0.897-Nash–Sutcliffe coefficient for BATHY (compared to 0.894
m results into a large (positive) perturbation of the water level for REF); a small overestimation at the flood peak remains
when a large (positive) perturbation of the friction coefficient (10 m3/s) for this event. As shown in Table 3, the Nash–Sutcliffe
has a smaller impact. The same test was carried out with n; sim- criteria values computed for water level over the eight validation
ilar conclusions were drawn. It was also found that the impact of flood events in re-analysis mode for BATHY are better than those
a perturbation of m and n increases when the discharge increases. computed for REF, especially at Mussey where the additional
Fig. 6 assesses the impact of a perturbation dn (where xb ¼ 13) geometry measurements were made; in contrast, the impact at
between 12 and 12 on the simulated water level at Mussey Joinville is small.
for different discharges. A perturbation of 6 for n leads to a vari- In Fig. 7 the H–Q relation for REF is represented by the thin
ation of 0.01 m when Q ¼ 80 m3/s and to a variation of 0.03 m dashed line, and the H–Q relation for BATHY is represented by a
when Q ¼ 225 m3/s. thin solid line. It is shown that the BATHY H–Q relation is in better
Based on these results, it is assumed in the following that the agreement with all available gauging (black dots and triangles)
relation between the friction coefficients and the hydraulic state than the REF H–Q relation. As a consequence, the new model
is reasonably approximated by a linear function in the vicinity of H–Q relation should be used to produce discharge data from water
xb . The Jacobian matrix of the generalized observation operator level measurements at Mussey, in place of the experimental rating
Hk is computed around the background values for m and n for a curve (thick solid line) that is in good agreement with low flow
perturbation dm ¼ 2 and dn ¼ 1 using a finite differences measurements but can lead to an underestimation of up to
scheme in consistency with the linearity study. In order to avoid 60 m3/s for high flow. It should be noted that the experimental rat-
non-physical values for the friction coefficients as well as to limit ing curve was built from numerous gaugings below 150 m3/s
the nonlinear impact, minimum and maximum threshold values (black open dots) and only two gaugings above 150 m3/s. Addition-
are applied to the friction coefficients with Goutal and Maurel, ally, two recent gaugings for high flow (black triangles) allow to
2002; Madsen and Skotner, 2005 for m and de Roo et al., 2003; validate the BATHY model H–Q relation over the entire range of
Kalnay, 2003 for n. discharge values at the observing station. Fig. 2 presents the

0.1
Simulated discharges (m3/s)
0.09
225
Variation of the water level (m)

0.08 190
130
0.07
100
0.06 80
60
0.05 50
30
0.04

0.03

0.02

0.01
Delta n
0
-12 -10 -8 -6 -4 -2 0 2 4 6 8 10 12
-0.01

-0.02

-0.03

-0.04

Fig. 6. Impact of the flood plain friction coefficient perturbations dn on the water level [m] for different simulated discharges [m3/s]. A 10 and +10 perturbation of n
generates a non equivalent variation of the water level but for low perturbations, the relation between friction coefficients and water level can be considered as linear.
60 J. Habert et al. / Journal of Hydrology 532 (2016) 52–64

Table 3 high flow but leads to a water level overestimation for low flow
Nash–Sutcliffe criteria for REF, BATHY, ASSIM1, ASSIM1+ASSIM2 and BATHY+ASSIM1 condition. The friction coefficient estimation should then be flow
computed over eight flood events for 2004–2013 at maximum lead time (12 h) at
Mussey and Joinville.
dependent and provide time-dependent friction coefficients that
account for varying errors in the friction and bathymetry river
Observing stations Mussey Joinville bed as the flow occupies a varying portion of the river and the flood
NH NQ NH plain. For this purpose, the DA method ASSIM detailed in Sec-
Forecast lead time 0h 0h 0h tion 2.2 is cycled over the entire flood event to estimate upstream
REF 0.601 0.722 0.653 and lateral inflows (ASSIM1), and river and flood plain friction
BATHY 0.681 0.721 0.661 coefficients (ASSIM2) over time using hourly observed discharge
ASSIM1 0.754 0.854 0.779
and water level at Mussey. Corrected lateral and upstream forcings
BATHY+ASSIM1 0.858 0.853 0.784
ASSIM1+ASSIM2 0.859 0.842 0.992 from ASSIM1 are used to provide the background state (thin solid
line) for the friction coefficient estimation in ASSIM2. It should be
Forecast lead time 12 h 12 h 12 h
REF 0.135 0.238 0.154 noted that while ASSIM1 leads to a significant correction of dis-
BATHY 0.272 0.241 0.158 charge, the water level in ASSIM1 remains close to that of REF.
ASSIM1 0.689 0.807 0.695 The ASSIM1+ASSIM2 DA analysis for water level is presented for
BATHY+ASSIM1 0.781 0.802 0.698 time T from day 2.25 to the end of the flood event in Fig. 8 (squared
ASSIM1+ASSIM2 0.832 0.807 0.907
line). For instance, at day 3, REF overestimates the water level,
ASSIM1+ASSIM2 increases the friction coefficients in order to
decrease the simulated water level. On the contrary, over the flood
corrected observed discharges that are derived from water level
peak period (days 4–7), REF underestimates the water level,
measurements at Mussey using the BATHY densified model H–Q
ASSIM1+ASSIM2 decreases the friction coefficients in order to
relation (black circles). Using these corrected measurements, the
increase the simulated water level.
model now slightly underestimates both water level (thin dashed
The Nash–Sutcliffe criteria for water level and discharge com-
line) and discharge (thick dashed line) at the flood peak. The sign
puted at Mussey for January 2004 in re-analysis mode are pre-
of the errors in discharge and water level are now the same over
sented in Table 2. ASSIM1 improves the discharge Nash value
the entire flood event, meaning that the optimization of upstream
from 0.894 (REF) to 0.976; it is not significantly affected by ASSIM2
and lateral inflows as proposed in Habert et al. (2012) is an appro-
(0.978). The water level Nash value is not significantly modified by
priate solution for further flood forecast improvement for both dis-
ASSIM1 (0.773 for REF compared to 0.784 for ASSIM1); it should be
charge and water level states.
noted that ASSIM1 can either lead to an improvement or a degra-
dation of the water level (as it is the case at the flood peak). How-
3.2. Data assimilation for friction coefficients correction (ASSIM) ever, it is greatly improved with ASSIM2 to 0.97. These results are
also obtained over the eight validation flood events: the Nash–
In this section, it is assumed that no additional geometric mea- Sutcliffe criteria computed at Mussey and Joinville in re-analysis
surement is available. The reference model H–Q relation is mode (0-h forecast lead time) as well as at the maximum lead time
improved accounting for errors in friction coefficients and by arti- forecast (12 h) are presented in Table 3 for REF, BATHY and ASSIM.
ficially accounting for local bathymetry error with the sequential In re-analysis mode, ASSIM1 greatly improves the discharge
estimation of the river bed and flood plain friction coefficients m results, while ASSIM2 provides improved water level states at
and n in the surrounding of the observing stations at Mussey and Mussey and Joinville since the friction coefficients are corrected
Joinville (experiment ASSIM). in the vicinity of both observing stations. In forecast mode, the
Fig. 8 illustrates that the water level can be efficiently increased upstream and lateral hydrologic forcings are supposed to be
at Mussey, compared to that of REF (m ¼ 20 and n ¼ 13 repre- unknown and set constant to the last observed value. As a conse-
sented with a thin dashed line), when decreasing the river bed fric- quence, the Nash–Sutcliffe coefficients for REF and BATHY decrease
tion coefficient to m ¼ 10 (thick solid line), while discharges are as the forecast lead time increases. The correction of upstream and
left unchanged (not shown). The value m ¼ 10 is appropriate for lateral inflows from ASSIM1 enables a correction of the forcing

300
experimental rating curve
275
REF
250 BATHY
gauging
225
recent gauging
Discharge (m3/s)

200

175

150

125

100

75

50

25
0.8 1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 2.8 3 3.2 3.4 3.6 3.8
Water level (m)

Fig. 7. Comparison of the H–Q relation at Mussey, derived experimentally (thick solid line) from gauging (black dots/triangles), involved in the reference model REF (thin
dashed line) and obtained through the BATHY approach (thin solid line). Recent gaugings are represented with black triangles.
J. Habert et al. / Journal of Hydrology 532 (2016) 52–64 61

3 100
H Obs.
H REF
95
2.8 90
H ASSIM1
2.6 H m = 10 85
H ASSIM1+ASSIM2 80
Corrected m (background = 20)
2.4 75

m and n friction coefficients


Corrected n (background = 13)
70
2.2
Water level (m)
65
2 60
55
1.8 50
45
1.6 40
1.4 35
30
1.2 T=417600s 25
20
1 15
0.8 10
5
0.6 0
0 1 2 3 4 5 6 7 8
Days

Fig. 8. Observed water levels, REF (dashed line), model with m ¼ 10 (thick solid line), background from ASSIM1 (thin solid line), ASSIM1+ASSIM2 (squared solid line) for the
January 2004 flood event at Mussey. Corrected friction coefficients for river bed (m) and flood plain (n) from DA analysis are represented with triangles and diamonds
respectively.

over the forecast period, thus allowing for a significant improve-


ment of the results at a 12-h forecast lead time. The water level
Nash criteria is further improved by ASSIM2 for Mussey and Join-
ville. For ASSIM1 and ASSIM2, it is assumed that the correction
computed over the analysis period can be applied over the forecast
period; as the nature of the errors varies in time, this assumption is
less and less valid as the forecast lead time increases and the mer-
its of ASSIM decrease.
It should be noted that the local densification of the geometric
description (BATHY) when applied sequentially with ASSIM1, leads
to similar results to ASSIM1+ASSIM2 at Mussey but not at Joinville,
where no additional bathymetric measurements were available.
ASSIM thus appears as an efficient approach for improving and
forecasting both discharge and water level given no additional data
on the river bed and flood plain geometry. Following these tests,
the approach ASSIM1+ASSIM2 has become recently operational
at SPC SAMA: the assimilation of discharge measurements used
in real-time mode to better quantify upstream and lateral inflows
(ASSIM1) has successfully run since December 2013; the extension
of the control vector to the river bed and flood plain friction coef-
ficients (ASSIM2) has recently been added into the operational
flood forecasting chain and has shown very good results. The
details for the ASSIM implementation in the framework of opera-
tional flood forecasting are given in Section 4.

4. Operational implementation at SPC SAMA

The SPC SAMA transfers a vigilance map to SCHAPI twice a day


Fig. 9. Operational organigram for DA applied to the Marne Amont forecast model
at 8:45 am and 2:45 pm so that the national vigilance map can be divided in eight tasks.
issued at 10:00 am and 4:00 pm. The real-time forecast opera-
tional chain for the Marne Amont Global (MAG) hydraulic model curve. Task 3 consists in pre-processing the observed data to pro-
using DA from the ASSIM1+ASSIM2 previously described approach vide to input files for the hydraulic model. Depending on the aver-
is presented in Fig. 9 and is broken down in three modules. This age flow conditions in the network, an initialisation file for the
chain should be computationally efficient to allow for the use of MAG model is chosen amongst a pre-computed input files data
recently acquired data while providing informed forecasts. base for low, medium and high flow. Using data from the upstream
The first module, named DATA, is composed of three tasks. In observing stations, 9 files for the boundary conditions for the
task 1, in situ measurement of water levels are made at approxi- hydraulic network are automatically generated for each analysis
mately 50 observing stations with automatic instruments over time T over [T-54 h, T], with a constant extension over
the SAMA catchment. In task 2, these data are gathered at SPC [T; T + 21 h] (maximum lead time at Chamouilley). Water level
through telephone network four times a day, up to hourly during and discharge observations files are automatically generated at
a flood event. The quality of these data is controlled and, when the assimilation station of Condes, Mussey, Joinville, Chamouilley
not observed, discharge data are computed using a local rating and Saucourt over [T-6 h, T] for the assimilation analysis.
62 J. Habert et al. / Journal of Hydrology 532 (2016) 52–64

2.8 Orange flood alert threshold

2.6 H Obs.

H REF
2.4
H ASSIM1
2.2
Water level (m)

H ASSIM1+ASSIM2
2 on-line UQ

1.8 off-line UQ

1.6

1.4

1.2

1 T= 17/12/2011 12h

0.8
15/12/2011 00:00 16/12/2011 00:00 17/12/2011 00:00 18/12/2011 00:00

Fig. 10. Observed water level (black dots) and forecasts for REF (dashed line), background from ASSIM1 (thin solid line) and ASSIM1+ASSIM2 (squared solid line) at Joinville
for the December 2011 flood event. Uncertainties computed with on-line and off-line methods are represented with gray-colored and hatched areas.

The second module, DA STEPS, gathers two tasks that launch the close to) the orange threshold for both off-line and on-line UQ
DA steps. Task 4 represents the ASSIM1 step of the DA procedure: methods (gray and hatched envelopes).
observed discharges are assimilated at Condes, Mussey, Chamouil-
ley and Saucourt to correct upstream and lateral inflows. The cor- 5. Conclusion
rected forcing files are stored for use in task 5. Task 5 represents
the ASSIM2 step of the DA procedure: observed water levels at This paper addressed the errors in the water level-discharge
Joinville are assimilated to correct the local friction coefficients. relation of a 1D hydraulic model (MASCARET) in order to improve
The improved bathymetry from BATHY in the neighboring of the forecasted water level state in the context of operational flood
Mussey is used in the operational model MAG, thus improving forecasting; this water level is used to generate a colored flood risk
the model H–Q relation locally. As a consequence, there is no need map at the French national level by SCHAPI. This improvement is
to assimilate observed water level at Mussey. The water level and obtained over the Marne catchment through the integration of
discharge correction result from a new integration of the numerical additional bathymetry data and water level measurements. In this
model over the assimilation and forecast period. work, it was first exhibited that a local densification of the descrip-
The third module is dedicated to POST-PROCESSING of the anal- tion of the river bed geometry leads to an improved water level
ysis. The REF and ASSM1+ASSIM2 result files are exported in task 6 simulation compared to the reference model issued from a batch
to a server for post-treatment using a supervision software that calibration process. The corrected bathymetry is used in the model
provides the forecaster with an integrated hydrological situation to build a rating curve that is found to be in good agreement with
of the catchment. In task 7, based on the provided forecast and recent high flow gauging. In operational context, this new rating
his expertise, the forecaster is finally able to characterize the flood curve is used to provide discharge from hourly observed water
risk within the risk-color panel. level. At high flow, both water level and discharge are slightly
In the third module, this information is then published by underestimated. The model can thus be improved by sequentially
SCHAPI on the vigicrues web site and communicated to the Civil correcting the upstream and lateral inputs to the models that are
Services. Task 8 is dedicated to quantifying the uncertainty (UQ) known to be imperfect approximation of hydrologic flows for the
related to the forecasted water level. Considering a gaussian- hydraulic network. In an alternative strategy, it was assumed that
shaped error on the controlled friction coefficients and forcing cor- no additional bathymetry measurement could be made and that
rective parameters, the analysis error is used to define a so-called the water level-discharge relation was improved by sequentially
analysis interval between the 10th and the 90th quantiles. Inte- correcting the river bed and flood plain friction coefficients. An
grating a limited number of additional model runs for these inter- extended Kalman filter (EKF) algorithm assimilates first hourly dis-
val limits thus provides an on-line envelope for forecasted water charge observations to correct inflows, then water level observa-
level. An additional information on the forecasted water level is tions are assimilated to locally correct the friction coefficients.
given by a set of abacus that are set up off line. The difference This sequential approach provides a time-dependent correction
between the simulated and observed water level for the eight val- of the friction coefficients that accounts for errors in the friction
idation flood events are computed and classified in quantiles for and bathymetry description that vary along with the flow as water
each forecast lead time. The median, 10th and 90th quantiles are level reaches different portions of the described geometry. A sensi-
identified and used in the operational chain to provide an uncer- tivity study showed that the model response is weakly nonlinear
tainty range for the analyzed water level. The computational cost with respect to the friction coefficients when the perturbation in
of the full chain is about 4 min on a mono processor work station. the friction coefficient values remains bounded. Both methods
Both uncertainty ranges are represented in Fig. 10 for the Decem- were applied in operational context and the Nash–Sutcliffe coeffi-
ber 2011 event at Joinville. On December 18th at 1 pm, the REF cient for both water level and discharge was computed over eight
model (dashed line) overestimates the observed water level (black validation flood events and greatly improved compared to the ref-
dots) reaching the orange threshold. ASSIM1+ASSIM2 analysis erence model.
(squared solid line) provides a water level that is below the thresh- At SPC SAMA, both approaches are currently used for opera-
old with an uncertainty range that remains below (or extremely tional flood forecasting. The densified bathymetry description is
J. Habert et al. / Journal of Hydrology 532 (2016) 52–64 63

used in the neighboring of the Mussey observing station and water Durand, M., Andreadis, K.M., Alsdorf, D.E., Lettenmaier, D.P., Molller, D., Wilson, M.,
2008. Estimation of bathymetric depth and slope from data assimilation of
level data are assimilated to improve the water level-discharge
swath altimetry into a hydrodynamic model. Geophys. Res. Lett. 35, L20401.
relation in the model in the neighboring of the Joinville observing Goutal, N., Maurel, F., 2002. A finite volume solver for 1D shallow water equations
station. An estimation of the analyzed water level is also provided applied to an actual river. Int. J. Numer. Meth. Fluids 38 (2), 1–19.
based on off-line abacus computed from a set of comparisons Habert, J., Ricci, S., Le Pape, E., Thual, O., Goutal, N., Zaoui, F., Ata, R., 2012. Towards
real-time flood forecasting in hydraulics: merits of in situ discharge and water
between the model and the observations over past events. The level data assimilation for the modeling of the Marne catchment in France. In:
two-step EKF-based data assimilation approach also provides an Advances in Hydroinformatics – SIMHYDRO 2012 – New Frontiers of Simulation
error analysis variance for the river bed and flood plain friction Séries: Springer Hydrogeology Conference Simhydro.
Hartnack, J., Madsen, H., Tornfeldt Sorensen, J., 2005. Data assimilation in a
coefficients that are used to describe a confidence interval for the combined 1D–2D flood model. In: Proceedings of the International Conference
forecasted water level. Innovation, Advances and Implementation of Flood Forecasting Technology of
In further work, the control vector should be extended to bathy- Tromso, pp. 1–8.
Hendricks, F.H.J., Kinzelbach, W., 2008. Real-time groundwater flow modeling with
metry profiles using parametric correction, in order to limit the the ensemble Kalman filter: joint estimation of states and parameters and the
equifinality issue as well as the size of the control vector to remain filter inbreeding problem. Water Resour. Res. 44.
compatible with operational framework. The friction coefficients Jean-Baptiste, N., 2011. Assimilation de données pour l’estimation de l’état
hydraulique d’un aménagement hydroéléctrique du Rhône équipé de la
correction will be extended to long-distance reaches; it should commande prédictive. PhD thesis, Université de Toulouse.
allow for a temporal adjustment over a flood event and thereby Jeremiah, E., Sisson, S., Marshall, L., Mehotra, R., Sharma, A., 2011. Bayesian
for a significant improvement of the forecast lead time. A flow calibration and uncertainty analysis of hydrological models: a comparaison of
adaptive metropolis and sequential monte carlo samplers. Water Resour. Res.
dependent description of the background error statistics in the
47, W07547.
EKF should be investigated to mimic the explicit evolution of this Kalnay, E., 2003. Atmospheric Modeling, Data Assimilation and Predictability.
information in the EnKF algorithm. Indeed, it seems legitimate to Cambridge University Press.
assume that the error in the friction coefficient calibration process Kirchner, J., 2006. Getting the right answers for the right reasons: linking
measurements, analyses, and models to advance the science of hydrology.
is larger for high flow as less events are available than for low and Water Resour. Res. 42, W03S04.
medium flow. The background error standard deviation could be Liu, Y., Gupta, H.V., 2011. Uncertainty in hydrologic modeling: toward an integrated
described as an increasing function of the discharge or water level data assimilation framework. J. Hydrol. 397, 211–224.
Liu, Y., Weerts, A.H., Clark, M., Hendricks Franssen, H.J., Kumar, S., Moradkhani, H.,
value with a simplified parametrization based on batch calibration Seo, D.J., Schwanenberg, D., Smith, P., Van Dijk, A.I.J.M., Van Velzen, N., He, M.,
data. A spatially and time varying correction of the hydraulic Lee, H., Noh, S.J., Rakovec, O., Restrepo, P., 2012. Toward advancing data
parameters is the next challenge in line. For that purpose, the assimilation in operational hydrologic forecasting and water resources
management: current status, challenges, and emerging opportunities. Hydrol.
use of spatially distributed data such as remote sensing data Earth Syst. Sci. 16, 3863–3887.
should be investigated. High-resolution data with global coverage Madsen, H., Skotner, C., 2005. Adaptive state updating in real-time river flow
such as those from the upcoming SWOT (Surface Water and Ocean forecasting – a combined filtering and error forecasting procedure. J. Hydrol.
308, 302–312.
Topography) mission will provide a new way to fully describe the Matgen, P., Montanari, M., Hostache, R., Pfister, L., Hoffmann, L., Plaza, D., Pauwels,
river hydrodynamics. Operational flood forecasting centers should V.R.N., De Lannoy, G.J.M., De Keyser, R., Savenije, H.H.G., 2010. Towards the
thus be prepared to make the most of the combination of remote sequential assimilation of SAR-derived water stages into hydraulic models
using the particle filter: proof and concept. Hydrol. Earth Syst. Sci. 14, 1773–
sensing and in situ data to design future vigilance products.
1785.
MEDDE, 2011. Tableau des événements naturels dommageables survenus en france
de 1900 a 2010. prim.net, aout.
Acknowledgments Moradkhani, H., Hsu, K., Gupta, H., Sorooshian, S., 2005a. Uncertainty assessment of
hydrologic model states and parameters: sequential data assimilation using the
particle filter. Water Resour. Res. 41, W05012.
The financial support provided by SCHAPI, DREAL and SPC Moradkhani, H., Sorooshian, S., Gupta, H., Houser, P., 2005b. Dual state-parameter
SAMA was greatly appreciated. The authors also gratefully estimation of hydrological models using ensemble Kalman filter. Adv. Water
acknowledge Florent Duchaine, Thierry Morel, Anthony Thévenin Resour. 28, 135–147.
Moradkhani, H., Dechant, C.M., Sorooshian, S., 2012. Evolution of ensemble data
(CERFACS) for support on OpenPALM and on the Parasol
assimilation for uncertainty quantification using the particle filter-markov
functionality. chain monte-carlo method. Water Resour. Res. 48.
Neal, J.C., Atkinson, P.M., Hutton, C.W., 2007. Flood inundation model updating
using an ensemble Kalman filter and spatially distributed measurements. J.
References Hydrol. 336, 401–415.
Neal, J.C., Schumann, G., Bates, P., Buytaert, W., Matgen, P., Pappenberger, F., 2009. A
data assimilation approach to discharge estimation from space. Hydrol. Process.
Andreadis, K.M., Clark, E.A., Lettenmaier, D.P., Alsdorf, D.E., 2007. Prospects for river
23, 3641–3649.
discharge and depth estimation through assimilation of swath-altimetry into a
Parrish, M.A., Moradkhani, H., DeChant, C.M., 2012. Toward reduction of model
raster-based hydrodynamics model. Geophys. Res. Lett. 34, L10403.
uncertainty: integration of bayesian model averaging and data assimilation.
Aronica, G., Hankin, B., Beven, K., 1998. Uncertainty and equifinality in calibrating
Water Resour. Res. 48, W03519.
distributed roughness coefficients in a flood propagation model with limited
Peters, W., Miller, J.B., Whitaker, J., Denning, A.S., Hirsch, A., Krol, M.C., Zupanski, D.,
data. Adv. Water Resour. 22, 349–365.
Bruhwiler, L., Tans, P.P., 2005. An ensemble data assimilation system to
Audinet, M., André, H., 1995. Hydrométrie appliquée aux cours d’eau. Collection
estimate CO2 surface fluxes from atmospheric trace gas observations. J.
EDF-DER no. 91.
Geophys. Res. 110, D24304.
Bessiere, H., Roux, H., Dartus, D., 2007. Data assimilation and distributed flash flood
Petron, G., Granier, C., Khattatov, B., Lamarque, J.F., Yudin, V., Muller, J.F., Gille, J.,
modeling. In: Hydrology Workshop.
2002. Inverse modeling of carbon monoxide surface emissions using climate
Beven, K., Freer, J., 2001. A dynamic topmodel. Hydrol. Process. 15, 1993–2011.
monitoring and diagnostics laboratory network observations. J. Geophys. Res.
Buis, S., Piacentini, A., Déclat, D., 2006. Palm: a computational framework for
107 (D24), 4761.
assembling high performance computing applications. Concurr. Comput.:
Renard, B., Kavetski, D., Kuczera, G., Thyer, M., Franks, S.W., 2010. Understanding
Practise Exper. 18 (2), 247–262.
predictive uncertainty in hydrologic modelling: the challenge of identifying
CEMAGREF, 1981. L’extrapolation des courbes de tarage en hydrométrie. Note
input and structural errors. Water Resour. Res. 46, W05521.
technique no. 10.
Ricci, S., Piacentini, A., Thual, O., Le Pape, E., Jonville, G., 2011. Correction of
DeChant, C.M., Moradkhani, H., 2011a. Radiance data assimilation for operational
upstream flow and hydraulic state with data assimilation in the context of flood
snow and streamflow forecasting. Adv. Water Resour. 34, 351–364.
forecasting. Hydrol. Earth Syst. Sci. 7, 1–55.
DeChant, C.M., Moradkhani, H., 2011b. Improving the characterization of initial
Rochoux, M.C., Ricci, S., Lucor, D., Cuenot, B., Trouvé, A., 2014. Towards predictive
condition for ensemble streamflow prediction using data assimilation. Hydrol.
data-driven simulations of wildfire spread. Part I: reduced-cost ensemble
Earth Syst. Sci. 15, 3399–3410.
Kalman filter based on a polynomial chaos surrogate model for parameter
Dechant, C., Moradkhani, H., 2012. Examining the effectiveness and robustness of
estimation. Nat. Hazards Earth Syst. Sci. 2 (5), 3289–3349.
sequential data assimilation methods for quantification of uncertainty in
Seo, D.J., Koren, V., Cajina, L., 2003. Real-time variational assimilation of hydrologic
hydrologic forecasting. Water Resour. Res. 48.
and hydrometeorological data into operational hydrologic forecasting. J.
de Roo, A.P.J., Gouweleeuw, B., Thielen, J., 2003. Development of a european flood
Hydrometeorol. 4, 627–641.
forecasting system. Int. J. River Bassin Manage. 1, 49–59.
64 J. Habert et al. / Journal of Hydrology 532 (2016) 52–64

Seo, D.J., Cajina, L., Corby, R., Howieson, T., 2009. Automatic state updating for Vrugt, J.A., Diks, C.G.H., Gupta, H.V., Bouten, W., Verstraten, J.M., 2005. Improved
operational streamflow forecasting via variational data assimilation. J. Hydrol. treatment of uncertainty in hydrologic modeling: combining the strengths of
367, 255–275. global optimization and data assimilation. Water Resour. Res. 41, W01017.
Seo, D.J., Moradkhani, H., Weerts, A.H., 2014. Ensemble prediction and data Vrugt, J.A., ter Braak, C.J.F., Clark, M.P., Hyman, J.M., Robinson, B.A., 2008. Treatment
assimilation for operational hydrology. J. Hydrol. 519, 2661–2662. of input uncertainty in hydrologic modeling: doing hydrology backward with
Stedinger, J.R., Vogel, R.M., Lee, S.U., Batchelder, R., 2008. Appraisal of the markov chain monte carlo simulation. Water Resour. Res. 44 (12), W00B09.
generalized likelihood uncertainty estimation (glue) method. Water Resour. Weerts, A.H., El Serafy, G.Y.H., 2006. Particle filtering and ensemble Kalman filtering
Res. 44, W00B06. for state updating with hydrological conceptual rainfall–runoff models. Water
Thirel, G., Martin, E., Mahfouf, J.F., Massart, S., Ricci, S., Habets, F., 2010. A past Resour. Res. 42.
discharges assimilation system for ensemble streamflow forecasts over France Weerts, A.H., Winsemius, H.C., Verkade, J.S., 2011. Estimation of predictive
Part 1: description and validation of the assimilation system. Hydrol. Earth Syst. hydrological uncertainty using quantile regression: examples from the
Sci. 14, 1623–1637. national flood forecasting system. Hydrol. Earth Syst. Sci. 15, 255–265.
Valstar, J.R., McLaughlin, D.B., Te Stroet, C.B.M., Van Geer, F.C., 2004. A representer- Werner, M., Cranston, M., Harrison, T., Withfield, D., Schellekens, J., 2009. Recent
based inverse method for groundwater flow and transport applications. Water developments in operational flood forecasting in England, wales and Scotland.
Resour. Res. 40. Roy. Meteorol. Soc. 16, 13–22.
Van der Knijff, J.M., Younis, J., de Roo, A.P.J., 2010. LISFLOOD: a GIS-based distributed
model for river-basin scale water balance and flood simulation. Int. J. Geogr.
Inform. Sci. 24 (2), 189–212.
3.2.3 Conclusion
Nous avons pu voir dans cet article que l’estimation des apports intermédiaires
par assimilation de données ainsi que la densification de la géométrie et le contrôle des
coefficients de Strickler des lits mineur et majeur par assimilation de données permet-
taient d’améliorer à la fois les hauteurs et les débits prévus par un modèle hydraulique
opérationnel de prévision des crues. On a aussi pu constater que la relation hauteurs-
débits simulée par le modèle densifié est plus en accord avec les jaugeages de hautes-eaux
que le modèle non-densifié. Une fois les forçages amont corrigés par assimilation de don-
nées, on considère que les débits simulés par le modèle sont corrects. Là où les hauteurs
d’eau modélisées diffèrent de celles observées, la densification est préférable au forçage
des Ks car on corrige l’erreur en grande partie responsable de la mauvaise simulation
des hauteurs d’eau. Toutefois, la donnée topographique et bathymétrique étant rare,
l’assimilation séquentielle d’observations de hauteurs d’eau pour modifier les coefficients
de frottement m et n permet (en veillant à encadrer la correction) d’améliorer la modé-
lisation des hauteurs d’eau sans dégrader les débits a priori déjà correctement estimés
avec la première étape d’assimilation de données. Nous avons pu voir que la matrice
de covariance des erreurs d’analyse peut être utilisée pour quantifier les incertitudes de
prévision. On obtient des fourchettes d’incertitudes hautes et basses comparables à celles
calculées a posteriori en utilisant les prévisions simulées lors de la phase de validation
du modèle.
La nouvelle courbe de tarage de Mussey extrapolée à l’aide du mo-
dèle aux profils densifiés est utilisée en opérationnel. Depuis décembre 2013,
les débits au pas de temps horaire des stations d’observation de Condes,
Mussey, Chamouilley et Saucourt sont assimilés pour corriger les forçages
amont où ont été intégrés les apports intermédiaires via les coefficients mul-
tiplicatifs Ai du modèle MAG. Suite à ces travaux, une fois les paramètres
de correction a analysés, les hauteurs d’eau au pas de temps horaire de la
station de Joinville (les profils ont été densifiés à Mussey) sont assimilées
pour faire varier temporellement le forçage local des Ks au droit de Joinville
afin d’améliorer la simulation des hauteurs d’eau à cette station. Cet enchaî-
nement est opérationnel au SPC SAMA depuis octobre 2014 et permet à la
fois d’améliorer les prévisions de hauteurs et de débits aux stations de Chau-
mont, Condes, Mussey, Joinville, Chamouilley et Saucourt à des échéances
de prévision de respectivement 5, 6, 12, 13, 21 et 10h.

108
3.3 Correction de la dynamique du modèle par assimila-
tion de données pour le modèle Marne Moyenne (MM)
La correction des forçages amont et des Ks localement au droit des stations
d’observations a été appliquée au modèle MAG (Marne Amont Global) dans les Par-
ties 3.1 et 3.2 pour améliorer l’estimation des apports intermédiaires et la relation
hauteur-débit. Sur les autres tronçons, les Ks ont été classiquement ajustés pendant
la phase de calage pour accélérer ou ralentir les ondes de crues simulées de sorte qu’elles
se superposent avec celle(s) observée(s) à la (ou aux) station(s) en aval pour chaque
évènement. A partir de cet échantillon de calage, on détermine des coefficients de frotte-
ment moyens ainsi que leurs écarts-types. Or, les Ks ne sont pas des paramètres constants
dans le temps. Une onde de crue se propage plus lentement dans une plaine céréalière au
printemps lorsque la végétation est dense qu’en novembre où les champs sont à nu. Ce
phénomène est observé avec le modèle MM (cf Figure 3.2) où la Marne s’écoule dans la
plaine alluviale entre Vitry-le-François et Epernay (cf Figure 1.14) large par endroit de
plus de 3 km.

Amont Frignicourt

Vitry-en-Perthois*1,2 1
3
La Saulx

2.1

La Chaussée 2.2

2.3

Châlons-en-Champagne 2.4

Frignicourt : débit d’entrée du modèle 2 La Marne

Vitry-en-Perthois*1,2 : débit d’entrée


simulant les apports intermédiaires en 2.5
multipliant l’hydrogramme de Vitry par 1,2

Damery : station de sortie du modèle


La Marne : cours d’eau modélisé
Damery 2.6
2 : numéro du bief
2.1 : numéro de portion de Ks du bief 2 2.7

Aval

Figure 3.2 – Le modèle Marne Moyenne (MM).

La variabilité temporelle des Ks sur de longues distances peut être


prise en compte via l’assimilation séquentielle de données. Il est alors possible
d’accélérer ou ralentir l’onde de crue modélisée et ainsi de réduire l’écart

109
entre les valeurs simulées et observées aux stations de sortie du modèle MM
(triangles rouges sur la Figure 3.2). Cette approche est mise en œuvre sur
le modèle MM, déjà utilisé en opérationnel. Elle est ici validée sur huit
événements de crue différents de ceux utilisés pour la phase de calage.

3.3.1 Impact d’une modification des Ks de longues distances


La linéarité de la réponse à une perturbation des Ks sur de longs tronçons
a été investiguée. En effet, comme expliqué précédemment, la plupart des algorithmes
d’assimilation de données reposent sur l’hypothèse de linéarité des opérateurs, notam-
ment l’opérateur d’observation généralisé G qui relie le vecteur de contrôle (ici composé
des paramètres m et n représentant respectivement les Ks des lits mineurs et majeur)
au vecteur des observations (ici les hauteurs et les débits observés à La Chaussée et à
Châlons-en-Champagne - on ne traitera pas l’impact à la station de Damery). On s’inté-
resse ici à la perturbation des Ks de référence que l’on choisit égaux à ceux de l’ébauche
Ksb prescrits à l’issue du calage, soit les couples de Ks [m ;n] de [30 ;13] et de [27 ;12] des
portions 1 et 3 du modèle MM (cf Tableau 1.6). On s’attache ici à déterminer l’inter-
valle de Ks sur lequel les non-linéarités entre m, n et les débits simulés à La Chaussée
et Châlons-en-Champagne sont acceptables. L’impact de la modification des Ks va être
observé à La Chaussée et Châlons-en-Champagne en perturbant indépendamment m et
n des portions 1 et 3 (cf Tableau 1.6), de −10 à +10 par pas de 2 pour m et de −6
à +6 par pas de 1 pour n. On nommera dKs ces perturbations de m et n dont l’unité
s’exprime en m1/3 /s. On observera l’impact de ces perturbations en comparant non pas
les débits à un instant, mais en mesurant le déphasage temporel de l’onde de crue par
rapport à l’axe des abscisses. Dans cette étude de sensibilité, les forçages amont (hydro-
grammes aux stations de Frignicourt et de Vitry-en-Perthois) croissent de 20 à 250 m3 /s
entre T = 0h et T = 100h et décroissent entre T = 100h et T = 200h.

Perturbation des Ks du lit mineur m


On obtient pour dKs = [−10 ;+10] à La Chaussée et Châlons-en-Champagne
les hydrogrammes des Figures 3.3 et 3.4 ci-dessous. On vérifie pour les deux stations
qu’une diminution de m ralentit l’onde de crue, une augmentation l’accélère.
Les déphasages temporels engendrés par les perturbations de m sont monotones, que
l’on soit en phase croissante ou décroissante du pic de crue. A La Chaussée, l’impact de
la perturbation croît avec l’augmentation du débit jusqu’à [150-200 m3 /s]. Au delà de
250 m3 /s une perturbation de m n’impacte plus la dynamique de la crue à cette station.
L’effet de la modification de m se fait sentir uniquement en basses et moyennes eaux, là
où la majeure partie de l’eau transite dans le lit mineur de la Marne. On constate qu’à
partir d’une augmentation de m de +6, le débit simulé à La Chaussée oscille, le nombre
de Froude approche 1. On peut estimer qu’une augmentation de m de plus de 10 va
entraîner un arrêt du calcul. On perturbe conjointement les portions 1 et 3 du bief 2.
La portion 3 se situe en aval de La Chaussée. Cela explique que cette dernière est moins
impactée que celle de Châlons-en-Champagne.

110
500 100

450 dKs = -10 90


dKs = -8
dKs = -6
400 dKs = -4 80
dKs = -2
350 dKs = 0 70
dKs = 2
dKs = 4

Ecart-types (m3/s)
300 dKs = 6 60
Débits (m3/s)

dKs = 8
250 dKs = 10 50
Ecart-types

200 40

150 30

100 20

50 10

0 0
0 24 48 72 96 120 144 168 192

Temps (h)

Figure 3.3 – Ondes de crue simulées avec dKs m ∈ [−10 ;+10] à La Chaussée, les
écart-types sont calculés en comparant les débits de la simulation d’ébauche (trait plein
noir) et des simulations perturbées.

500 100
dKs = -10
450 dKs = -8 90
dKs = -6
dKs = -4
400 80
dKs = -2
dKs = 0
350 dKs = 2 70
dKs = 4
Ecart-types (m3/s)

300 dKs = 6 60
Débits (m3/s)

dKs = 8
250 dKs = 10 50
Ecart-types

200 40

150 30

100 20

50 10

0 0
0 24 48 72 96 120 144 168 192
Temps (s)

Figure 3.4 – Ondes de crue simulées avec dKs m ∈ [−10 ;+10] à


Châlons-en-Champagne, les écart-types sont calculés en comparant les débits de la
simulation d’ébauche (trait plein noir) et des simulations perturbées.

111
A Châlons-en-Champagne, au-delà de 300 m3 /s, une perturbation négative de
m ne ralentit plus l’onde de crue mais l’accélère. Au-delà de 400 m3 /s, une perturbation
positive de m ralentit l’onde de crue (cf Figure 3.5). Le signe de la différence entre la
simulation de référence et la simulation perturbée change. Une perturbation de −8 peut
engendrer un retard maximum de 22h (au dépassement des 125 m3 /s) en basses eaux,
alors qu’en hautes eaux elle engendre au maximum une accélération de 3h.

500

dKs = -8

450 dKs = 0
dKs = 8

400
Débits (m3/s)

350

300

250

200
84 96 108 120
Temps (h)

Figure 3.5 – Ondes de crue simulées pour dKs m = −8 et +8 à Châlons-en-Champagne.

Localement, on observe les premiers écoulements dans le lit majeur en amont


de La Chaussée lorsque 150 m3 /s s’écoule dans la Marne. Au-delà de 300 m3 /s, le lit
mineur est plein, tout débit supplémentaire s’écoulera dans le lit majeur. Il n’y a donc
plus de sensibilité à la perturbation de m. Au-delà, ce seront les Ks du lit majeur n qui
impacteront l’écoulement. On n’apporte pas d’explications pour décrire le changement
de signe du déphasage en hautes eaux. L’impact d’une modification de m est fortement
dépendant du débit qui s’écoule au moment de cette modification. La réponse est aussi
non-linéaire par rapport à la perturbation du Ks :
• le déphasage engendré est accru avec un dKs négatif, dKs = −8 ralentit la
crue de 22h alors que dKs = +8 accélère la crue de 5h au franchissement
des 125 m3 /s à Châlons-en-Champagne ;
• une perturbation de −8 (déphasage de −22h) n’entraîne pas un ralentisse-
ment deux fois plus élevé qu’une modification de −4 (déphasage de −6h) de
m au franchissement des 125 m3 /s à Châlons-en-Champagne.

112
On analyse ici le décalage temporel δt engendré par dKs mais il faut signaler
que dans l’algorithme d’assimilation, c’est dK dKs
δH ou δQ que lit l’opérateur d’observation
s

G. Toutefois, la prévision des crues opérationnelle impose d’utiliser des modèles hydrau-
liques en régime non-permanent où un δt peut aussi se traduire en δH et en δQ. Afin
d’appliquer l’algorithme d’assimilation de données, il est nécessaire de déterminer dans
quelle proportion la réponse à la perturbation des Ks est linéaire en comparant les pas
de temps où les débits franchissent les seuils des 75, 100, 125, 150, 175, 200, 250, 300,
350, 400 et 450 m3 /s en montée de crue. Les Figures 3.6 et 3.7 représentent les décalages
temporels à La Chaussée et Châlons-en-Champagne engendrés par un dKs variant de
−10 à +10 en trait épais pour différents débits injectés dans le modèle, auxquels on a
ajouté en trait fin les approximations linéaires pour dKs = −2.

7
Débits en m3/s
75
75, f(0;-2) y=0.25x
100
5
100, f(0;-2) y=0.25x
150
150, f(0;-2) y=0.75x 3
250
250, f(0;-2) y=0.5x
450
450, f(0;-2) y=0x 1
dKs

-10 -8 -6 -4 -2 0 2 4 6 8 10
-1
Déphasage temporel (h)

-3

-5

-7

Figure 3.6 – Déphasages temporels obtenus pour différentes gammes de débits à La


Chaussée pour des dKs compris entre −10 et +10 et ceux calculés à partir de dKs = −2.

A La Chaussée, les perturbations de m entraînent un décalage temporel crois-


sant entre 75 et 150 m3 /s, puis ce dernier décroît jusqu’à devenir nul pour un débit
simulé de 450 m3 /s. Les déphasages engendrés pour des perturbations supérieures ou
égales à −6 et +6 diffèrent, −4h pour dKs = −6, 2h pour dKs = +6 à 125 m3 /s, −1.5h
pour dKs = −10, 4.5h pour dKs = +10 à 250 m3 /s. Les courbes épaisses et les droites
fines divergent à partir d’un dKs de −2.5 et +2.5, mais on peut considérer que les erreurs
restent faibles pour des perturbations comprises entre −5 et +5. Pour un débit simulé
de 250 m3 /s, dKs = −2 entraîne un retard d’1h, dKs = +2 une accélération d’1h. Si on
observe par exemple que l’hydrogramme est en retard de 3h aux alentours de 150 m3 /s,

113
on sait à partir de la Figure 3.6 qu’une perturbation par dKs = −2 engendre une varia-
tion de −1.5h (la linéarisation de l’opérateur G est réalisée à partir d’une perturbation
des Ks ). En faisant l’hypothèse de linéarité, l’assimilation de données va estimer à partir
de la droite bleue qu’un dKs de +4 va combler le retard de 3h. Or une telle perturbation
mène en réalité à une accélération de 2.5h, ce qui correspond à une légère sous-correction
qui reste acceptable.
À Châlons-en-Champagne, pour des perturbations fortes, les déphasages engen-
drés par des dKs positifs et négatifs sont très différents, −22.5h pour dKs = −8, 5.5h
pour dKs = +8 à 125 m3 /s. Les courbes épaisses et les droites fines de la Figure 3.7
divergent à partir d’un dKs de −3 et +3 sauf pour la gamme de débit comprise entre 100
et 150 m3 /s, là où l’impact est le plus fort. Il est donc impératif de limiter les corrections
des Ks .

10

dKs
0
-10 -8 -6 -4 -2 0 2 4 6 8 10

-5
Déphasage temporel (h)

Débits en m3/s
100
-10 100, f(0;-2), y=0.75x
150
150, f(0;-2) y=3.5x
-15 250
250, f(0;-2) y=0.5x
450
450, f(0;-2) y=-0.5x
-20

Figure 3.7 – Déphasages temporels obtenus pour différentes gammes de débits à


Châlons-en-Champagne pour des dKs compris entre −10 et +10 et ceux calculés à partir
de dKs = −2.

Les conclusions auraient été sensiblement les mêmes avec des ap-
proximations linéaires calculées pour des dKs compris entre −2.5 et +2.5
(sauf pour des débits simulés proches de 150 m3 /s à Châlons-en-Champagne)
à partir du moment où les corrections des Ks des lits mineurs m sont limitées
à des corrections de −5 à +5.

114
Perturbation des Ks du lit majeur n
On a retenu pour les portions 1 et 3 du bief 2 des Ks du lit majeur n de 13
et 12 (cf Tableau 1.6). On obtient pour dKs = [−6 ;+6] à La Chaussée et Châlons-
en-Champagne les hydrogrammes des Figures 3.8 et 3.9 ci-dessous. On vérifie qu’une
diminution de n ralentit l’onde de crue, une augmentation l’accélère. L’impact
de la perturbation croît avec l’augmentation du débit à partir de 150 m3 /s. En-deçà,
son impact est nul car l’eau s’écoule exclusivement dans le lit mineur. Comme pour les
perturbations de m, on constate que le déphasage engendré est accru avec un dKs négatif
et qu’une perturbation de −8 (déphasage de −22h) n’entraîne pas un ralentissement deux
fois plus élevé qu’une modification de −4 (déphasage de −6h) de m au franchissement
par exemple des 125 m3 /s à Châlons-en-Champagne.

500 100

450 dKs = -6 90
dKs = -5
dKs = -4
400 dKs = -3 80
dKs = -2
dKs = -1
350 dKs = 0 70
dKs = 1
dKs = 2

Ecart-types (m3/s)
300 60
Débits (m3/s)

dKs = 3
dKs = 4
250 dKs = 5 50
dKs = 6
Ecart-types
200 40

150 30

100 20

50 10

0 0
0 24 48 72 96 120 144 168 192

Temps (h)

Figure 3.8 – Ondes de crue simulées avec dKs n ∈ [−6 ;+6] à La Chaussée, les
écart-types sont calculés en comparant les débits de la simulation d’ébauche (trait plein
noir) et des simulations perturbées.

115
500 100

450 dKs = -6 90
dKs = -5
dKs = -4
400 dKs = -3 80
dKs = -2
dKs = -1
350 dKs = 0 70
dKs = 1
dKs = 2

Ecart-types (m3/s)
300 dKs = 3 60
Débits (m3/s)

dKs = 4
dKs = 5
250 50
dKs = 6
Ecart-types
200 40

150 30

100 20

50 10

0 0
0 24 48 72 96 120 144 168 192
Temps (s)

Figure 3.9 – Ondes de crue simulées avec dKs n ∈ [−6 ;+6] à Châlons-en-Champagne,
les écart-types sont calculés en comparant les débits de la simulation d’ébauche (trait plein
noir) et des simulations perturbées.

Les Figures 3.10 et 3.11 représentent les décalages temporels à La Chaussée


et Châlons-en-Champagne engendrés par un dKs variant de −6 à +6 en trait épais
pour différents débits injectés dans le modèle, auxquels on a ajouté en trait fin les
approximations linéaires pour dKs = −2.
Comme pour les Ks du lit mineur, les perturbations négatives de n impactent
plus fortement la dynamique de la crue que les perturbations positives en terme de dé-
phasage temporel. À la Chaussée et à Châlons-en-Champagne, au vu des Figures 3.10
et 3.11, on peut considérer que la réponse à la perturbation de n est linéaire sur l’in-
tervalle [−3 ;+3]. Pour des débits proches de 450 m3 /s il est préférable de perturber
négativement n car, si l’hydrogramme est en avance de 6h, avec une perturbation de +2
de n, on obtient une accélération de 3h. Si on fait l’hypothèse de linéarité, l’assimilation
de données va estimer un dKs optimal de −4. Une telle perturbation mène en fait à
un ralentissement de 10h. On passera donc d’une avance de 6h à un retard de 4h. Une
perturbation de −2 engendre un déphasage de −4h, l’assimilation de données va estimer
un dKs optimal de −3, une telle perturbation mène effectivement à un ralentissement
de 6h. En revanche, si l’hydrogramme est en retard de 6h, l’assimilation de données va
estimer à partir de la droite bleue qu’un dKs de +3 va combler le retard, or une telle
perturbation mène en fait à une accélération de 4h. L’hydrogramme simulé sera alors
encore en retard mais tout de même plus proche de l’observation.

116
5

1
dKs

-6 -4 -2 0 2 4 6
-1
Débits en m3/s
75

Déphasage temporel (h)


75, f(0;-2) y=0x
-3 150
150, f(0;-2) y=0.25x
200
200, f(0;-2) y=0.5x
-5 250
250, f(0;-2) y=0.75x
450
450, f(0;-2) y=0.5x
-7

Figure 3.10 – Déphasage temporel obtenu pour différentes gammes de débits à La


Chaussée pour des dKs compris entre −6 et +6 et ceux calculés à partir de dKs = −2.

dKs
0
-6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6
Débits en m3/s
-2
100
Déphasage temporel (h)

100, f(0;-2) y=0x


150
-4 150, f(0;-2) y=0.25x
200
200, f(0;-2) y=1.25x
-6 250
250, f(0;-2) y=1.5x
450
450, f(0;-2) y=2x
-8

Figure 3.11 – Déphasage temporel obtenu pour différentes gammes de débits à


Châlons-en-Champagne pour des dKs compris entre −6 et +6 et ceux calculés à partir de
dKs = −2.

117
De fait, cela oriente la stratégie à mettre en œuvre pour la formula-
tion du linéaire tangent par différences finies pour ce qui est de la sensibilité
aux paramètres des lits mineurs et majeurs m et n. Afin que cette estimation
soit la plus légitime sur un intervalle, il est préférable de faire ce calcul à par-
tir d’une perturbation négative. Les corrections sur les Ks des lits majeurs
ont été limitées à −5 et +5 comme pour celles liées au lit mineur m.

3.3.2 Correction des Ks sur de longues distances par assimilation de


données
Au regard des écart-types obtenus au calage et du déphasage constaté lors de la
validation du modèle MM, il semble que les Ks ont une part de responsabilité importante
dans les erreurs de modélisation. Le SPC SAMA souhaite dans un premier temps, utiliser
l’algorithme d’assimilation de données pour corriger les débits de la station de Vitry-
en-Perthois où ont été intégrés les apports intermédiaires via le coefficient multiplicatif
AMM de 1.2 (cf Partie 1.5.4) en assimilant les débits observés à Châlons-en-Champagne
(étape 1). Dans un second temps, les hauteurs observées aux stations de La Chaussée,
Châlons-en-Champagne et Damery vont être assimilées pour corriger simultanément les
Ks m et n des portions 1, 2, 3 et 6 du bief 2 (étape 2) en utilisant en guise d’ébauche la
simulation avec le forçage amont analysé lors de l’étape 1. L’enchaînement des étapes
1 et 2 sera testé sur un jeu de huit crues. Le plus gros débit atteint ces dix dernières
années à Châlons-en-Champagne a eu lieu en décembre 2010 avec près de 410 m3 /s. On
illustrera les résultats de l’enchaînement des étapes 1 et 2 avec cet événement.

Enchaînement de la correction des forçages amont et des Ks


Dans l’étape 1, on assimile les débits observés à Châlons-en-Champagne, seule
station d’observation à posséder une courbe de tarage sur le modèle MM. L’écart-type
d’erreur d’observation a été fixée à 10 m3 /s. Lors du calage, un coefficient multiplicatif
moyen AMM de 1.2 a été calculé avec un écart-type de 0.08 et appliqué à la station de
Vitry-en-Perthois. Cet écart-type a été volontairement réduit à 0.025 afin de limiter la
correction du débit par assimilation de données qui en situation de déphasage temporel,
aurait tendance à forcer la condition limite amont pour compenser une erreur induite par
les Ks . Les forçages amont auraient aussi pu être déphasés temporellement via
l’estimation du paramètre c (Ricci et al. 2011) pour corriger la dynamique,
mais ces forçages étant de qualité, on considère ici que c’est la variabilité
des Ks qui est responsable du déphasage. La question de la quantification de
l’erreur propre à chaque paramètre (pour simplifier les forçages amont, les Ks ,
la géométrie et les données observées) pour expliquer l’écart entre simulation
et observation dépend en partie de l’appréciation du modélisateur.

118
Pour l’étape 2, on assimile les hauteurs d’eau observées à :
• La Chaussée pour corriger les Ks de la portion 2 (cf Figure 3.2) ;
• Châlons-en-Champagne pour corriger les Ks des portions 1 et 3 ;
• Damery pour corriger les Ks de la portion 6.

La correction des Ks des portions 2 et 6 correspond à des modifications locales


impactant respectivement et uniquement les hauteurs des stations de La Chaussée et
Damery. Ces portions étant réduites, la dynamique de la crue sera peu impactée. Les
hauteurs assimilées à Châlons-en-Champagne vont permettre de corriger les Ks des por-
tions 1 et 3 situées en amont afin de ralentir ou d’accélérer l’onde de crue, on fait alors le
postulat que cette modification des Ks va profiter aux trois stations tout comme l’étape
1. La relation hauteur-débit à Châlons-en-Champagne étant correctement simulée par
le modèle MM (cf Figure 1.21), les débits observés auraient aussi pu être assimilés, au
même titre que les hauteurs d’eau, pour corriger les Ks des portions 1 et 3. Les résultats
auraient été sensiblement les même mais l’algorithme actuel ne permet pas d’assimiler
des observations de hauteurs d’eau et de débits au cours du même cycle. Comme pour
les portions 1 et 3, les corrections de m et n des portions 2 et 6 seront limitées à des
valeurs de dKs comprises entre −5 et +5 et déterminées à partir de perturbations de −2.
Les écarts-types d’erreur d’ébauche correspondent à la moyenne des écarts-types des m
et n déterminés pour les 12 crues de calage aux portions 1, 2, 3 et 6, soit 3 pour m et
2 pour n (cf Tableau 1.6). Les paramètres relatifs à la correction des Ks locaux et sur
de longues distances par assimilation de données sont regroupés dans le Tableau 3.1. En
estimant que les erreurs d’observation des stations du modèle MM sont du même ordre
de grandeur que celles de la station de Mussey, les écarts-types d’erreur d’observation
ont été fixés à 0.025 m aux stations de La Chaussée, Châlons-en-Champagne et Damery
(cf Partie 2.2.2).

Ksb σb Valeur seuil Ksa dKs


Bief 2 m m n n H assimilée
m n m n m n
min max min max
Portion 1 30 13 3 2 25 35 8 18 −2 −2 Châlons
Portion 2 26 12 3 2 21 31 7 17 −2 −2 La Chaussée
Portion 3 27 12 3 2 22 32 7 17 −2 −2 Châlons
Portion 6 40 15 3 2 35 45 10 20 −2 −2 Damery

Table 3.1 – Paramètres appliqués aux huit crues pour l’étape 2 de l’assimilation de données
appliquée au modèle MM. Ksb correspond aux Ks d’ébauche, σb aux écart-types d’erreur
d’ébauche et dKs à la perturbation faite à Ksb pour déterminer l’opérateur d’observation G. Les
valeurs seuils Ksa sont les valeurs minimales et maximales que peuvent atteindre les Ks
analysés.

La correction est cyclée au pas de temps horaire sur une fenêtre temporelle de
108h : on perturbe les paramètres entre T −60h et T (le débit à la station de Vitry-
en-Perthois pour l’étape 1 ; m, n pour l’étape 2), on assimile les valeurs (les débits

119
observés à Châlons-en-Champagne pour l’étape 1 et les hauteurs d’eau observées aux
trois stations pour l’étape 2) entre T −12h et T . On applique enfin les paramètres
analysés entre T −60h et T ainsi que sur la période de prévision entre T et T + T p (+48h
à Damery maximum). À chaque simulation la fenêtre temporelle est décalée d’une heure.

Résultats obtenus en mode réanalyse


On obtient pour la crue de décembre 2010 les résultats pour chaque temps de
base présentés dans les graphiques ci-dessous aux stations de La Chaussée, Châlons et
Damery (Figures 3.12, 3.13 et 3.14). Les courbes bleues, rouges et vertes représentent
respectivement le modèle libre, celle obtenue suite à l’étape 1 et celle obtenue au final
en enchaînant l’étape 1 et l’étape 2. Les seuils de vigilance jaune sont indiqués par
la ligne horizontale jaune. Les critères de Nash-Sutcliffe (équation 1.2) ont été calculés
pour chaque courbe et sont inscrits dans la légende (N ).

3.4
3.2
3
2.8
2.6
2.4
2.2
Hauteurs en m

2
1.8
1.6
1.4 H Obs.
1.2 H Brut, N=0.934
H étape 1, N=0.941
1
H étape 1 + 2, N=0.995
0.8 Seuil jaune
0.6
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours

Figure 3.12 – Hauteurs observées et simulées par le modèle brut et l’enchaînement des 2
étapes d’assimilation de données à La Chaussée entre le 05/12/2010 et le 05/01/2011. N
représente le critère de Nash-Sutcliffe dans la légende.

120
440
420
400
380
360
340
320
300
280
260
Débits en m3/s

240
220
200
180
160
140 Q Obs.
120 Q Brut, N=0.963
100
80 Q étape 1, N=0.986
60 Q étape 1 + 2, N=0.992
40
Seuil jaune
20
0
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours

Figure 3.13 – Débits observés et simulés par le modèle libre et l’enchaînement des 2
étapes d’assimilation de données à Châlons-en-Champagne entre le 05/12/2010 et le
05/01/2011. N représente le critère de Nash-Sutcliffe dans la légende.

4 140
H Obs.
3.8
H Brut, N=0.690 130
3.6 H étape 1, N=0.733
3.4 H étape 1 + 2, N=0.853 120
3.2 m, seuil max. = 45
3 m, ébauche = 40 110
m, seuil min. = 35
2.8
m analysé 100
2.6
2.4 90
Valeurs du Ks m
Hauteurs en m

2.2
2 80
1.8
1.6 70
1.4 60
1.2
1 50
0.8
0.6 40
0.4 30
0.2
0 20
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours

Figure 3.14 – Hauteurs observées et simulées par le modèle libre et l’enchaînement des 2
étapes d’assimilation de données à Damery entre le 05/12/2010 et le 05/01/2011. N
représente le critère de Nash-Sutcliffe dans la légende.

121
La correction des forçages amont (étape 1) améliore la simulation des débits à
Châlons-en-Champagne mais ne peut pas satisfaire à elle seule les trois stations à la fois,
lorsque le signe de l’erreur est différent comme à La Chaussée au premier pic de crue.
On suppose alors que la nature des erreurs est différente : à Châlons-en-Champagne, on
impute en grande partie l’erreur aux débits, tandis qu’à La Chaussée, on estime que ce
sont plutôt les erreurs liées à la bathymétrie qui engendrent les écarts entre les hauteurs
observées et simulées, d’où la correction locale des Ks appliquée à l’étape 2.
Durant l’étape 2, on impute aux Ks et à la topo-bathymétrie les écarts restants
entre observations et simulations de l’étape 1 : à Châlons-en-Champagne, les hauteurs
sont assimilées pour déphaser l’hydrogramme simulé à cette station. Les résultats sont
probants même si le critère de Nash N est faiblement amélioré, on passe de 0.986 à 0.992.
Ce déphasage impacte aussi les 2 autres stations, mais le décalage temporel est noyé dans
la correction locale des Ks de La Chaussée et Damery. On corrige ici les Ks , même si
vraisemblablement la source d’erreur est liée en grande partie à la topo-bathymétrie. A
Damery, au premier pic de crue les hauteurs observées sont influencées par le barrage
VNF (Voies Navigables de France). L’assimilation de données corrige localement les Ks
m et n, mais les seuils de correction sont rapidement atteints (les m analysés - courbe
verte - dépassent les valeurs seuil - droites grises - sur la Figure 3.14). Le forçage local
des Ks semble plus adapté à partir de 2 m à Damery lorsque le barrage est couché. On
obtient, en rejouant les huit crues de validation, les critères de Nash présentés dans le
Tableau 3.2 ci-dessous.
La Chaussée Châlons-en-Champagne Damery
H H Q H
Modèle brut 0.710 0.829 0.821 0.264
étape 1 0.703 0.950 0.950 0.362
étapes 1 + 2 0.889 0.969 0.967 0.551

Table 3.2 – Critères de Nash moyens N obtenus pour les huit crues de validation à La
Chaussée, Châlons-en-Champagne et Damery avec la simulation brute et l’enchaînement des
deux étapes d’assimilation de données.

Globalement, sur les huit crues, l’étape 1 améliore les simulations à Châlons-
en-Champagne et Damery. Le forçage des Ks sur de grandes portions de l’étape 2
améliore les scores à Châlons-en-Champagne. Les Nash calculés pour les débits et les
hauteurs d’eau sont proches, la relation hauteurs-débits est donc correctement simulée
par le modèle MM. Les écarts entre hauteurs observées et simulées à La Chaussée et
Damery sont encore forts, le forçage local permet de réduire cet écart. Toutefois les
résultats restent moyens à Damery car les corrections à apporter sont trop grandes, les
valeurs seuils de m et n (non-représentées sur la Figure 3.14) sont rapidement atteintes.
On peut conclure que l’enchaînement des étapes 1 et 2 de l’assimila-
tion de données est bénéfique.

122
Résultats obtenus en mode prévision
Les critères de Nash ont été calculés aux échéances maximales des ces trois
stations. Ils sont présentés dans le Tableau 3.3 ci-dessous. Les limnigrammes et hydro-
grammes à +24h pour la crue de décembre 2010 figurent dans l’Annexe 1.

La Chaussée Châlons-en-Champagne Damery


H+15h H+24h Q+24h H+48h
Modèle brut 0.674 0.783 0.767 0.235
étape 1 0.650 0.904 0.914 0.307
étapes 1 + 2 0.785 0.896 0.909 0.323

Table 3.3 – Critères de Nash moyens N obtenus pour les huit crues de validation aux
échéances maximales de prévision des stations de La Chaussée, Châlons-en-Champagne et
Damery avec la simulation brute et l’enchaînement des deux étapes d’assimilation de données.

En prévision, la correction du forçage amont et des Ks locaux (à La


Chaussée et Damery) est bénéfique.
D’après les critères de Nash obtenues dans le Tableau 3.3, la correction des Ks
sur de grandes portions n’améliore pas les résultats à Châlons-en-Champagne à +24h.
Le critère de Nash moyen de l’enchaînement des 2 étapes est même inférieure (de très
peu) à celui calculé pour l’étape 1. Toutefois, les résultats n’auraient pas été meilleurs
pour la crue de décembre 2010 à Châlons à +24h en corrigeant juste l’apport de la
Saulx par assimilation de données (étape 1) en utilisant comme écart-type d’erreur
d’ébauche, l’écart-type du coefficient multiplicatif AMM appliqué à la station de Vitry-en-
Perthois lors du calage (0.08, courbe rose sur la Figure 3.15). En utilisant un écart-type
d’erreur d’ébauche de 0.08 lors de l’étape 1, on donne une responsabilité plus grande à
la quantification des apports pour expliquer les écarts entre observations et simulations.
Par conséquent, le coefficient a analysé dans cette configuration varie plus fortement que
celui calculé lors de l’étape 1 avec un écart-type d’erreur d’ébauche de 0.025.

123
500 3
480 Q Obs. 2.9
460 Q Brut, N=0.952 2.8
440 Q étape 1 sigma=0.08, N=0.959 2.7
420 Q étape 1 + 2, N=0.965 2.6
400 Seuil jaune 2.5
380 Coef. a, sigma=0.08
2.4
360 Coef. a, sigma=0.025
2.3
340 Coef. a=1
2.2
320 2.1

Valeurs du coefficient a
300
Débits en m3/s

2
280
1.9
260
1.8
240
1.7
220
200 1.6
180 1.5
160 1.4
140 1.3
120 1.2
100 1.1
80 1
60 0.9
40 0.8
20 0.7
0 0.6
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours

Figure 3.15 – Comparaison des débits obtenus avec l’enchaînement des 2 étapes et
l’étape 1 avec un écart-type d’erreur d’ébauche de 0.08 (courbe rose) à
Châlons-en-Champagne entre le 05/12/2010 et le 05/01/2011 à +24h.

Même si les critères de Nash calculés à +24h ne le démontrent pas, la correction


des Ks sur de grandes portions de l’étape 2 permet d’améliorer les prévisions à Châlons-
en-Champagne (Figure 3.16). On se place ici au temps de base T , le 24/12/2010 à 2h, les
paramètres relatifs à l’assimilation de données sont les même que ceux présentés dans le
Tableau 3.1. Les prévisions entre T et T +24h des modèles bruts, avec la correction des
débits (étape 1) et avec l’enchaînement de la correction des débits et des Ks (étapes
1 + 2) sont représentées respectivement en bleu, rouge et vert. Les débits à Châlons-
en-Champagne sont assimilés entre T −12h et T pour obtenir un coefficient multiplicatif
a analysé de 1.058 appliqué à l’hydrogramme de Vitry-en-Perthois (étape 1). Puis les
hauteurs d’eau obtenues avec ce coefficient correctif sont assimilées pour corriger les Ks
des portions 1 et 3 du bief 2 (étapes 1 + 2). On obtient un incrément de 1.15 pour
m, 1.18 pour n pour la portion 1 et 3.1 pour m, 0.68 pour n pour la portion 3 (une
augmentation des Ks correspond à une accélération de l’onde de crue).

124
380
Q Obs.
Q Brut
360
Q étape 1
Q étape 1 + 2
340 Seuil jaune

320

300
Débits en m3/s

280

260

240

220

200
Assimilation Prévision

180

160
T-60h T-12h T T+24h

140
Heures

Figure 3.16 – Débits observés et prévus à Châlons-en-Champagne le 24/12/2010 à 2h.

A +24h, le modèle brut sous-estime les débits de 31 m3 /s, le modèle avec


assimilation de données (étapes 1 + 2) de 14 m3 /s. Le modèle brut est en retard de
11h pour le dépassement du seuil de vigilance jaune, le modèle avec assimilation de 5h.
Il subsiste tout de même une sous-estimation et/ou un retard des débits simulés, mais
il ne faut pas oublier qu’on a affecté des écart-types d’erreur d’observation de 10 m3 /s
pour les débits et de 0.025 m pour les hauteurs observées à Châlons-en-Champagne. Ces
écarts-types sont peut-être surestimés, ils ont été calculés pour la station de Mussey du
modèle MAG et appliqués à la station de Châlons-en-Champagne. L’effet de l’étape 1
semble ici un peu léger, le parti-pris de volontairement réduire de 0.08 à 0.025 l’écart-
type d’erreur d’ébauche pour la correction des débits amont est peut-être une erreur. On
considérera donc par la suite un écart-type d’erreur d’ébauche de 0.08 pour la correction
des débits par assimilation de données du modèle MM.
Dans le Chapitre 4, on présentera dans un cadre opérationnel, le test de l’en-
chaînement de la correction des débits, des Ks locaux et sur de longues distances ainsi
que de l’état hydraulique par assimilation de données avec un EKF pour le modèle MM.

125
126
Chapitre 4

Développements et validation
pré-opérationnelle : application
au modèle Marne Moyenne pour
la crue d’avril 1983

Sommaire
4.1 Quantification des incertitudes de prévision . . . . . . . . . . 128
4.1.1 Méthode d’analyse des erreurs constatées a posteriori . . . . . 128
4.1.2 Exploitation de la matrice A des erreurs d’analyse . . . . . . . 132
4.2 De la prévision des crues à la prévision des inondations . . . 133
4.2.1 La prévision des inondations . . . . . . . . . . . . . . . . . . . 133
4.2.2 Création d’une carte de zone inondée potentielle avec QGIS et
CartoZI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.3 Validation des travaux à partir de la crue d’avril 1983 avec
le modèle MM . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.3.1 Présentation du scénario . . . . . . . . . . . . . . . . . . . . . . 137
4.3.2 Enchaînement de la correction des forçages amont, des Ks et
de l’état hydraulique par assimilation de données . . . . . . . . 138
4.3.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
4.3.4 Quantification des incertitudes . . . . . . . . . . . . . . . . . . 143
4.3.5 Prévision des inondations . . . . . . . . . . . . . . . . . . . . . 145

127
Le SCHAPI, dans le cadre de l’opération "Prévision 2015", a pour objectif d’af-
ficher sur le site Vigicrues les prévisions associées à une fourchette d’incertitude et de
passer de la prévision des crues à la prévision des inondations en fournissant des cartes
de zones inondées potentielles en fonction de la crue. La validation pré-opérationnelle
du modèle Marne Moyenne (MM) avec assimilation de données fera l’objet de tests de
méthodes de quantification des incertitudes et de production dynamique de cartes de
zones inondées potentielles.
Avant d’utiliser en opérationnel un nouveau modèle de prévision des crues, il est
nécessaire de le tester pour connaître ses points forts et ses faiblesses. L’enchaînement
des étapes 1 et 2 d’assimilation de données permet d’améliorer les critères de Nash
moyens des hauteurs d’eau et des débits prévus aux échéances maximales des stations
de sortie du modèle Marne Moyenne (MM). Cet enchaînement a été validé à partir de
huit événements de crues différents de ceux qui ont été utilisés lors de la phase de calage
du modèle. Toutefois, aucune de ces crues de validation n’a dépassé le seuil de vigilance
orange de 4.5 m à Châlons-en-Champagne. Les hauteurs d’eau maximales observées
lors de ces événements sont comprises entre 2.8 et 3.70 m et correspondent à des crues
hivernales courantes. Le seul événement ayant dépassé les 4.5 m est la crue d’avril 1983
qui n’a pas été intégrée au jeu de crues de validation du fait de son ancienneté et du
manque de données observées aux stations de La Chaussée et Damery. L’efficacité de
l’enchaînement des corrections des forçages amont, des Ks et de l’état hydraulique du
modèle MM va être testée dans cette partie en rejouant la crue d’avril 1983 et plus
précisément en se focalisant sur la prévision du pic de crue. Ce test a été effectué au
préalable de la mise à l’opérationnel du modèle MM avec assimilation de données en
octobre 2014 au SPC SAMA.

4.1 Quantification des incertitudes de prévision


Le projet "Vigilance 2" prévoit, entre autres, la publication de prévisions de
débits ou de hauteurs sous forme graphique sur le site Vigicrues. Pour accompagner les
prévisions publiées d’une information sur le degré de confiance traduisant l’expertise du
prévisionniste, une information graphique sur l’incertitude sera associée à ces prévisions.
Un chantier d’intérêt commun SCHAPI - UH - SPC a été ouvert pour identifier les
méthodes et les conditions permettant de fournir ces informations. Ce GT (Groupe de
Travail) a testé une méthode d’estimation des incertitudes basée sur l’analyse des erreurs
constatées a posteriori et qui s’est traduite par la création d’abaques d’incertitudes. Une
autre méthode de quantification de l’incertitude, basée sur l’exploitation de la matrice
de covariance des erreurs d’analyse, a été explorée dans le cadre cette thèse.

4.1.1 Méthode d’analyse des erreurs constatées a posteriori


La comparaison d’un ensemble de sorties passées d’un système de prévision (dé-
terministe) aux observations correspondantes peut apporter beaucoup d’information sur
l’incertitude de prévision. En se basant sur un ensemble de prévisions passées considéré

128
comme représentatif (par exemple une chronique de prévision) et les valeurs observées, il
est en effet possible de décrire statistiquement les erreurs de prévision faites (également
appelées résidus), voire de chercher à modéliser ces erreurs à travers une corrélation
avec un facteur explicatif. Une approche simple consiste à calculer des statistiques sur
l’ensemble des erreurs disponibles :
• moments statistiques : moyenne, écart-type Σ ;
• quantiles statistiques.

En supposant le système modélisé (bassin versant, réseau hydrographique, ...)


et l’outil de prévision stationnaires, on peut estimer l’incertitude des prévisions à venir en
se basant sur ces statistiques calculées. Par exemple, un SPC a mis en service un modèle
de prévision hydraulique en 2010. Depuis, le modèle a été employé trente-huit fois pour
effectuer des prévisions à des échéances de 3, 6 et 12 h sur des crues d’amplitude moyenne
à la station X. Le SPC a enregistré l’ensemble de ses prévisions. En les comparant aux
valeurs observées, il dispose de trois séries d’une quarantaine de résidus. Il peut donc
estimer les quantiles statistiques q10(Σ) et q90(Σ) de ces résidus : à une échéance de
6 h, q10(Σ) = −1 m3 /s et q90(Σ) = 2.3 m3 /s. Pour ses prochaines prévisions à une
échéance de 6 h, le SPC accompagnera la valeur fournie par le modèle, Q, d’un intervalle
de prévision à 80 % compris entre Q − 1 m3 /s et Q + 2.3 m3 /s.
Il est possible d’étendre la démarche précédente en définissant des sous-groupes
au sein de l’ensemble des données possibles, correspondants à des classes de hauteurs
d’eau ou de débits observés ou prévus. Les statistiques sont ensuite calculées pour chaque
classe à une échéance donnée. Il suffit alors de choisir la statistique à prendre en compte
en fonction de la classe à laquelle appartient les hauteurs d’eau ou les débits observé ou
prévu. Le nombre de classes doit être choisi en fonction du nombre de prévisions passées
disponibles pour que chaque classe en comporte un nombre suffisant, permettant d’établir
une estimation significative des statistiques. Aussi, l’échantillon doit être d’autant plus
fourni que le nombre de classes est élevé. La méthode CEMA, développée par l’IRSTEA
(Bourgin, 2014), consiste à estimer, sur une série d’erreurs passées, un petit nombre de
quantiles empiriques de l’erreur de prévision d’un modèle déterministe pour différentes
gammes du débit prévu à une échéance donnée. Cette connaissance permet ensuite de
fournir une estimation des intervalles de prévision en fonction du débit prévu par le
modèle déterministe et de son échéance. Les quantiles des erreurs de prévision aux six
stations de sortie du modèle MAG avec et sans assimilation de données correspondant
aux intervalles de prévision à 50 % (q25 et q75) et à 80 % (q10 et q90) ont été calculés pour
cinq sous-ensembles aux échéances maximales de prévision par l’IRSTEA et transmises
au SPC SAMA sous forme d’abaques. En mode prévision, l’intervalle prédictif est alors
calculé en prenant les valeurs des quantiles du sous-ensemble correspondant à la valeur
du débit prévu par le modèle en fonction de l’échéance. D’après la Figure 4.1, l’intervalle
d’incertitude à 80 % est compris entre 1.9 m et 2.5 m pour une hauteur prévue de 2.2
m à une échéance de 12 h par le modèle MAG sans assimilation de données contre un
intervalle compris entre 2 m et 2.35 m pour le modèle aux forçages amont corrigés par
assimilation de données (Figure 4.2).

129
Figure 4.1 – Abaque d’intervalles d’incertitudes à 50 % et 80 % des hauteurs prévues à
Mussey à 12 h par le modèle MAG sans assimilation de données calculés par l’IRSTEA
avec la méthode CEMA.

130
Figure 4.2 – Abaque d’intervalles d’incertitudes à 50 % et 80 % des hauteurs prévues à
Mussey à 12 h par le modèle MAG avec assimilation de données calculés par l’IRSTEA
avec la méthode CEMA.

Ces approches descriptives supposent que le système et l’outil de prévision


soient stationnaires, de façon à ce que les informations calculées sur des prévisions pas-
sées s’appliquent aux prévisions futures. Par ailleurs, ces descriptions statistiques sont
valables sur la gamme d’erreur qui a pu être analysée, c’est-à-dire qui est représentée
dans l’échantillon étudié. Il est cependant possible d’aller chercher des quantiles rares
à partir d’un modèle d’erreur. Ainsi, en supposant que les erreurs soient issues d’une

131
distribution gaussienne dont la moyenne et l’écart-type sont égaux à la moyenne et à
l’écart-type statistiques calculés sur l’échantillon (analyse statistique pour déterminer les
paramètres du modèle d’erreur), n’importe quel quantile est théoriquement calculable.
Toutefois, il faut se poser la question de la signification de ces quantiles rares calculés
sur très peu de données : leur validité repose fortement sur celle du modèle d’erreur.
On observe que les intervalles de prévision évoluent de façon assez erratique
en fonction du débit prévu sur la Figure 4.2. Il est possible de trouver une évolution
des quantiles beaucoup plus régulière en utilisant la méthode de régression des quantiles
décrite dans Weerts et al., 2011. La régression de quantiles est une extension des ap-
proches précédentes dont le but est de fournir une relation empirique entre un quantile
qy de l’incertitude (pour différentes valeurs de y) et le débit ou la hauteur prévue. Cette
méthode a été testée sur de nombreux bassins et s’est révélée raisonnablement fiable.
Sur la base des travaux de l’IRSTEA, le SPC SAMA a développé son propre ou-
til en 2014 permettant de construire les abaques puis d’afficher graphiquement l’intervalle
d’incertitudes à 80 % encadrant les sorties des modèles MAG et MM (cf Partie 5.1.1).
Le SCHAPI souhaite d’ici fin 2015 afficher sur Vigicrues sous forme de graphique des
prévisions expertisées associées à des fourchettes d’incertitudes hautes et basses. Le
SCHAPI va prochainement mettre à disposition des SPC son propre outil, OTAMIN
(OuTil Automatique d’estiMation de l’iNcertitude prédictive) permettant de générer
des incertitudes à partir de sorties de modèles ((cf Partie 5.3.2). L’outil OTAMIN a
été conçu par l’IRSTEA avec pour objectif d’associer de manière automatique et systé-
matique des fourchettes d’incertitudes aux prévisions obtenues avec différents modèles
utilisés de manière opérationnelle au sein du réseau Vigicrues en utilisant la méthode
CEMA décrite ci-dessus. Son utilisation en opérationnel nécessite donc, au préalable, de
réaliser pour chaque modèle une analyse des séries passées et un calage des abaques.

4.1.2 Exploitation de la matrice A des erreurs d’analyse


La fourchette d’incertitudes à 80 % d’une prévision peut aussi être déterminée
en utilisant la matrice A des erreurs d’analyse (équation 2.9) calculée par le BLUE pour
l’analyse des paramètres de forçage et de frottement du modèle. Lors de l’étape 1 ou
de l’étape 2 d’assimilation de données, DAMP conserve l’écart-type d’erreur d’analyse
σ ai associé à chaque paramètre i analysé.
80 % des valeurs d’une loi normale centrée réduite sont comprises dans une
enveloppe d’amplitude 1.282 écart-type. En considérant que l’intervalle d’incertitudes
d’une prévision analysée suit une forme gaussienne, on peut déterminer les quantiles
10 et 90 à partir de deux simulations Mascaret supplémentaires en retranchant et en
ajoutant 1.282 σ ai à xai . On obtient l’intervalle d’incertitudes à 80 % compris entre les
courbes des quantiles 10 et 90 présenté dans la Figure 10 de l’article soumis à la revue
Journal of Hydrology présenté dans le Chapitre 3.

132
4.2 De la prévision des crues à la prévision des inondations
Le SCHAPI a pour objectif de passer de la prévision ponctuelle des crues (une
hauteur d’eau prévue à une station donnée) à la prévision cartographique des inonda-
tions (délimitation des zones qui seront potentiellement inondées). Les cartes de zones
inondées potentielles, destinées dans un premier temps aux seuls gestionnaires de crise,
leur donneront un aperçu immédiat des conséquences spatiales de la crue à venir et fa-
ciliteront leurs prises de décisions par anticipation. Des outils ont été développés pour
faciliter la production de ces cartes à partir de données topographiques et hydrauliques.

4.2.1 La prévision des inondations


La prévision des crues est jusqu’ici ciblée sur des niveaux à des échelles de
référence ou sur des débits, qui ont en soi une signification concrète pour une faible partie
seulement des populations concernées. Le projet vise, sur la base des expérimentations
déjà menées, à rendre opérationnelles la prévision et la diffusion des contours potentiels
de la zone inondée. Ce type de carte a prouvé son utilité lors de la crue de mai 2013
(Figure 4.3). C’est un souhait exprimé par le public, les gestionnaires de crises et les
RDI, pour pouvoir les superposer aux enjeux qu’ils auront identifiés.

Figure 4.3 – Carte de zones inondées potentielles minimum (bleu) et maximum (incluant
le rouge) à Pont-sur-Seine (en aval de Troyes) diffusée à titre expérimental le 10 mai 2013
pour un pic de crue prévu pour les 12 et 13 mai 2013, et utilisée sur le terrain par les
acteurs de la gestion de crise.

133
Des expérimentations ont déjà été effectuées au sein des SPC et ont été concré-
tisées par exemple avec la production de cartes de zones inondées potentielles par le SPC
SAMA sur le tronçon Marne Moyenne en 2014. Ces cartes ont été versées dans la base
de données de la plate-forme VIGInond.
Pour la fin de l’année 2015, l’objectif défini par le SCHAPI est d’avoir une cou-
verture nationale d’au moins 20 % des stations de prévision du réseau Vigicrues par au
moins trois scénarios d’inondation en fonction de différentes classes de hauteurs d’eau.
La programmation et le cadrage de cette production est réalisée par les SPC. Elle est
définie avec les acteurs susceptibles d’avoir produit ou de faire produire des scénarios
d’inondation relatifs à des hauteurs d’eau à une ou plusieurs stations hydrométriques.
La production des cartes doit être engagée en priorité sur les secteurs des TRI où des
données cartographiques existent déjà et sont susceptibles d’être réutilisées. Un état des
lieux est ensuite nécessaire sur les autres secteurs à enjeux, pour définir avec les ac-
teurs impliqués dans le risque inondation les données topographiques et hydrauliques
disponibles. Un guide destiné aux SPC, apportant des éléments techniques pour la pro-
duction de zones inondées pour la prévision des inondations, est en cours de finalisation.
Les cartes produites doivent respecter un format de données précis et sont ensuite in-
sérées dans la base de données de la plate-forme VIGInond. La visualisation des zones
inondées insérées dans VIGInond se fera indépendamment de Vigicrues. Les utilisateurs
autorisés auront à faire le lien entre les prévisions élaborées par le SPC et diffusées sur
Vigicrues et les scénarios de zones inondées disponibles pour les stations concernées. Afin
de permettre aux SPC d’engager la production en régie de ces données, l’outil CartoZI
a été développé au sein de réseau Vigicrues.

4.2.2 Création d’une carte de zone inondée potentielle avec QGIS et


CartoZI
L’outil CartoZI développé par P.A Hans du SPC Loire - Cher - Indre (Hans,
2012) pour le logiciel SIG (Système d’information Géographique) QGIS, permet la
construction de zones inondées à travers l’utilisation de différents modules cartogra-
phiques de traitement de données topographiques, de calculs de zones inondées et de
classes de hauteurs d’eau et enfin de traitement et de lissage des résultats. Il permet de
simplifier la réalisation de cartes de zones inondées potentielles en croisant les résultats
d’un modèle hydraulique 1D et de données topographiques et bathymétriques.
Les grandes étapes de la création d’une carte de zone inondée sont présentées
et appliquées à l’agglomération châlonnaise en exploitant les résultats d’une simulation
du modèle Mascaret MM de la façon suivante :
• Suite au calcul, un fichier de résultats contenant la cote de la surface de l’eau
au niveau des 38 profils géoréférencés de l’agglomération (sur un linéaire
d’environ 20 km) est crée. Ces cotes sont interpolées entre chaque profil
tous les 2 m (ce paramètre est défini par l’utilisateur). Plus les profils seront
distants les uns des autres, plus l’erreur liée à cette interpolation sera forte.
Cette étape permet de générer un MNSE (Modèle Numérique de Surface en
Eau) au format raster (Figures 5.11 et 5.12 de l’Annexe 2) ;

134
• La MNSE est alors comparée au MNT constitué de données issues d’un
LIDAR et de profils bathymétriques pour le lit mineur de la Marne avec
une résolution de 2 m (Figures 5.13 et 5.14 de l’Annexe 2). Les zones où
l’altitude au sol est inférieure à la cote de la surface de l’eau sont alors
considérées comme inondées. On obtient un raster de hauteurs brutes ;
• Ces hauteurs brutes sont divisées en cinq classes, entre 0 et 0.5, 0.5 et 1, 1
et 1.5, 1.5 et 2 m, et 2 m et plus (Figure 5.15 de l’Annexe 2). Le raster est
lissé de manière vectorielle pour limiter la taille des fichiers en intégrant les
polygones non représentatifs de par leur faible surface au polygone voisin ;
• Un masque de connectivité est enfin appliqué pour ne pas colorer les zones
dans lesquelles l’eau n’a pas pu s’écouler comme une zone protégée par une
digue (Figure 5.16 de l’Annexe 2) ;

La zone inondée est reportée sur la carte topographique 1/25000e de l’IGN de


Châlons-en-Champagne. On obtient alors la carte ci-dessous (Figure 4.4). La véracité de
la carte de zone inondée obtenue à partir d’une modélisation 1D dépend fortement de
la qualité de l’interpolation de la cote maximale calculée par Mascaret entre les profils
pour le calcul de la MNSE. L’exploitation d’un modèle 2D permettrait de s’affranchir
des incertitudes liées à cette approximation.
Il est à noter que l’outil CartoZI est aussi utilisé au CERFACS dans le cadre
du projet TOSCA du CNES (Centre National d’Études Spatiales) dédié à l’utilisation
des observations de la future mission SWOT.

135
Figure 4.4 – Exemple de carte de zone inondée potentielle de l’agglomération
châlonnaise réalisée avec CartoZI pour un débit simulé de 637 m3 /s.

136
4.3 Validation des travaux à partir de la crue d’avril 1983
avec le modèle MM
L’enchaînement des trois corrections est détaillé ici dans une configuration opé-
rationnelle avec le modèle Marne Moyenne (MM) pour un événement de crue important
à Châlons-en-Champagne, la crue d’avril 1983 pour laquelle le seuil de vigilance orange
a nettement été franchi. En plus du test de l’enchaînement de la correction des forçages
amont, des Ks et de l’état hydraulique, une fourchette d’incertitudes à 80 % sera calculée
à partir de la méthode utilisant la matrice de covariance des erreurs d’analyse présentée
dans le Partie 4.1.2. On analysera les résultats des modèles sans et avec assimilation de
données en comparant les limnigrammes simulés et observés à la station de Châlons-
en-Champagne, mais aussi en comparant les champs d’inondation modélisés aux photos
aériennes de l’agglomération châlonnaise prises à l’époque.

4.3.1 Présentation du scénario


La crue de 1983 sur le tronçon Marne Moyenne n’est pas l’événement de crue
connu le plus important : on a atteint 4.85 m à l’échelle de Châlons-en-Champagne en
1983 pour 5.13 m en 1955 et 5.42 m en 1910. Mais cet événement est relativement bien
documenté : on dispose de chroniques de hauteurs d’eau et de débits aux stations de
Frignicourt, Vitry-en-Perthois (conditions limites amont du modèle MM) et de Châlons-
en-Champagne mais pas aux stations de La Chaussée et de Damery.
On se place ici en configuration opérationnelle le 13 avril 1983 à 7h (heure
d’hiver), horaire supputé de prise de poste du prévisionniste en cas de crue importante.
À cet instant, la hauteur relevée par le capteur à l’échelle limnimétrique de Châlons-en-
Champagne est de 4.70 m. Les seuils de vigilance jaune et orange (respectivement 3.3 et
4.5 m) ont été franchis (Figure 4.5). Les temps de propagation moyens sont connus via
l’historique. Le prévisionniste suppose que le pic de crue ne devrait pas tarder à arriver.
Il sait aussi depuis les crues de 1910 et 1955 qu’à partir de 5.2 m (seuil de vigilance rouge
à Châlons-en-Champagne), le canal latéral à la Marne est potentiellement submergé et
que 60 hectares de zone urbanisée sont inondés.
Le prévisionniste souhaite donc disposer de la prévision à +24h à Châlons-en-
Champagne du modèle MM avec et sans assimilation de données pour essayer d’anticiper
un éventuel dépassement du seuil rouge.

137
5.2
5.0
4.8
4.6
?
4.4
4.2 H obs.
4.0 Seuil orange
Hauteurs d'eau en m

3.8 Seuil jaune


3.6 T = 13 avril 1983 7h
3.4
3.2
3.0
2.8
2.6
2.4
2.2 T
2.0
0 1 2 3 4 5 6
Jours

Figure 4.5 – Hauteurs d’eau observées à Châlons-en-Champagne lors de l’épisode de crue


d’avril 1983 ; le prévisionniste veut connaître la hauteur prévue à partir de l’instant T le 13
avril 1983 à 7h.

4.3.2 Enchaînement de la correction des forçages amont, des Ks et de


l’état hydraulique par assimilation de données
Étape 1 : correction des forçages amont
La station de Vitry-en-Perthois intègre les apports intermédiaires du modèle
en multipliant ses débits par le coefficient AMM égal à 1.2 déterminé lors de la phase de
calage. On souhaite dans l’étape 1 faire varier la prise en compte des apports en affectant
un coefficient multiplicatif a à QV itry ∗ 1.2 où QV itry représente les débits observés à
la station de Vitry-en-Perthois. Le paramètre a sera contrôlé en assimilant les débits
observés à Châlons-en-Champagne durant les 12h précédant l’instant de prévision (temps
de base, T ). À un instant t, l’hydrogramme corrigé de Vitry-en-Perthois QV itry˜ (t) ∗ 1.2
est calculé de la façon suivante :
˜ ∗ 1.2 = aa ∗ (QV itry (t) ∗ 1.2)
QV itry (t) , (4.1)

avec aa le coefficient multiplicatif analysé par assimilation de données. Au vu du


caractère exceptionnel de cette crue, un écart-type d’erreur d’observation σ o spécifique à
cette événement a été calculé pour les débits observés à Châlons-en-Champagne. Il a été
fixé à 22.1 m3 /s de la façon suivante : l’écart-type d’erreur d’observation de la hauteur

138
d’eau a été estimé à 0.025 m pour la station de Mussey. En supposant que l’écart-type
soit du même ordre à Châlons-en-Champagne, on peut estimer que la hauteur d’eau
moyenne observée entre T −12h et T (4.489 m) est comprise entre 4.464 et 4.514 m, soit
en débits entre 574.29 et 588.49 m3 /s. La courbe de tarage est une régression linéaire
passant au plus près des jaugeages. Le logiciel utilisé pour la gestion des courbes calcule
une précision en % pour chacune des portions de la courbe. Elle est pour la station de
Châlons-en-Champagne de 2.58 %. En ajoutant une erreur liée à la courbe de tarage
de 2.58 %, on obtient pour une hauteur moyenne de 4.489 m un débit compris entre
559.48 m3 /s et 603.67 m3 /s, soit pour une écart-type d’erreur d’observation en hauteur
de 0.025 m, un écart-type d’erreur d’observation en débit de 22.1 m3 /s. L’écart-type
d’erreur d’ébauche (σ b ) a été fixé à 0.08. Les paramètres relatifs à la correction du forçage
amont par assimilation de données du modèle MM sont regroupés dans le Tableau 4.1
ci-dessous.
Forçage Paramètre Valeur de Valeur de la Donnée
σb σo
corrigé corrigé ab perturbation assimilée
QV itry ∗ 1.2 a 1 1.05 0.08 Q Châlons 22.1

Table 4.1 – Paramètres appliqués pour la correction des forçages amont (étape 1) du modèle
MM pour la crue d’avril 1983.

L’hydrogramme analysé à Châlons-en-Champagne à l’issue de l’étape 1 est


obtenu à partir de trois simulations Mascaret :
• La première, la simulation d’ébauche, permet de calculer les débits modélisés
à Châlons-en-Champagne. Le paramètre d’ébauche ab est alors égal à 1. Ces
derniers sont comparés aux débits observés, assimilés entre T −12h et T afin
de calculer le vecteur d’innovation d.
• Un second calcul est réalisé avec un paramètre a perturbé pour déterminer la
modification du débit engendrée à Châlons-en-Champagne par la modifica-
tion de a et ainsi calculer G par différence finie. En connaissant les matrices
de covariance des erreurs d’ébauche (B), d’observations (R) et l’opérateur
G, la matrice de gain de Kalman K est déterminée (équation 2.5 du BLUE).
Le paramètre analysé aa est obtenu via la formule suivante : aa = ab + Kd.
• On obtient les débits simulés et prévus corrigés par assimilation de données
à Châlons-en-Champagne à partir d’une troisième simulation en forçant le
modèle par un hydrogramme amont à Vitry-en-Perthois multiplié par le
paramètre analysé aa .

Étape 2 : correction des Ks

En raison de l’absence de données à la station de La Chaussée, le modèle MM


a été simplifié : les portions 1, 2 et 3 du bief 2 ont été fusionnées (des Ks locaux
étaient affectés sur 3 km au droit de la station (cf Tableau 1.6). Dans l’étape 2, les
hauteurs observées à la station de Châlons-en-Champagne sont assimilées pour corriger
simultanément les Ks des lits mineurs et majeurs de la portion 1 du bief 2 en utilisant

139
en guise d’ébauche la simulation avec le paramètre analysé aa déterminé lors de l’étape
1. Les paramètres relatifs à la correction des Ks par assimilation de données pour le
modèle MM sont regroupés dans le Tableau 4.2 ci-dessous.

Ksb σb Valeur seuil Ksa dKs Donnée


Bief 2 m m n n assimilée σo
m n m n m n
min max min max
Portion 1 30 13 3 2 25 35 8 18 −2 −2 Q Châlons 0.025

Table 4.2 – Paramètres appliqués pour la correction des Ks par assimilation de données
(étape 2) du modèle MM pour la crue d’avril 1983.

Le limnigramme analysé à Châlons-en-Champagne à l’issu de l’étape 2 est


obtenu à partir de quatre simulations Mascaret :
• La simulation d’ébauche de l’étape 2 est réalisée avec l’hydrogramme de
Vitry-en-Perthois multiplié par le paramètre aa issu de l’étape 1 et avec
des paramètres d’ébauche mb et nb respectivement égaux à 30 et 13. Les
hauteurs d’eau simulées sont comparées à celles observées, assimilées entre
T −12h et T , afin de calculer le vecteur d’innovation d.
• Deux calculs sont effectués avec des dKs de −2, un pour m et un pour n
afin de déterminer la modification de la hauteur d’eau engendrée à Châlons-
en-Champagne par la modification des Ks et ainsi calculer G par différence
finie. En connaissant les matrices de covariance des erreurs d’ébauche (B),
d’observations (R) et l’opérateur G, la matrice de gain K est déterminée
(équation 2.5 du BLUE). Les Ks analysés ma et na sont obtenus via les
formules suivantes : ma = mb + Kd et na = nb + Kd .
• On obtient les hauteurs simulées et prévues à partir d’une troisième simu-
lation en utilisant les paramètres analysés aa , ma et na , sur la période de
réanalyse et la période de prévision.

Étape 3 : correction de l’état hydraulique

Lors de la dernière crue, un prévisionniste du SPC SAMA a fait la remarque


suivante : « je ne fais pas trop confiance au modèle avec assimilation de données car la
simulation n’est pas égale à la dernière observation ». Afin de forcer le faisceau prévu par
l’enchaînement de l’étape 1 et de l’étape 2 à se rapprocher des dernières observations,
l’étape 3 qui consiste à corriger l’état hydraulique a été ajoutée. L’état hydraulique
(hauteurs d’eau et débits) est corrigé au niveau de la station de Châlons-en-Champagne.
Cette correction est effectuée à la fin de l’étape 2 à partir de l’assimilation des hauteurs
observées à Châlons-en-Champagne et est répartie de part et d’autre du profil au droit
de la station, 2000 m en amont et 5000 m en aval. Les hauteurs sont assimilées sur les
douze dernières heures pour que la correction soit progressive entre T −12h et T . Cette
dernière permet à T d’avoir un état simulé proche de celui observé au niveau de la station.
Cet état analysé est stocké et pourrait être réutilisé pour une prochaine simulation en
cas de cyclage de l’analyse ce qui n’est pas le cas ici en condition opérationnelle. Cette

140
correction améliore les prévisions à court terme et permet d’avoir une continuité visuelle
à plus ou moins σ o entre la dernière observation et la première prévision. L’écart-type
d’erreur d’ébauche σ b au point d’observation a été fixé à 0.1 m. L’incrément analysé en
hauteurs est reporté en débits via la courbe de tarage de Châlons-en-Champagne qui est
renseignée dans le fichier ParamètresMascaretAssim.cas.
La simulation débute à T −5j avec une condition initiale proche de l’état ob-
servé. On comprend ici l’intérêt de la période d’ajustement de modèle, comprise entre le
début de la simulation et la fenêtre d’assimilation, qui permet de s’affranchir de l’effet de
la condition initiale. En opérationnel, le prévisionniste ne recalculera pas une condition
initiale pour chaque simulation mais en choisira une parmi trois préalablement calculées
selon si on est en condition de basses-eaux, moyennes-eaux ou hautes-eaux. Les observa-
tions sont assimilées entre T −12h et T . On applique les paramètres analysés entre T −5j
et T ainsi que sur la période de prévision entre T et T +24h.

4.3.3 Résultats
On obtient les résultats suivants (Figures 4.6 et 4.7) : la courbe noire représente
les hauteurs d’eau observées, la bleue la simulation brute qui sous-estime à T la hauteur
modélisée, en rouge la simulation obtenue suite à l’étape 1 et en vert foncé celle obtenue
avec l’enchaînement de l’étape 1 et de l’étape 2, enfin en vert clair celle obtenue avec
l’enchaînement des 3 étapes. Les Figures 4.6 et 4.7 ne résultent pas d’un cyclage de la
correction, on se focalise ici à un temps de base (à T , le 13 avril 1983 à 7h).

5.1
4.9
4.7
4.5
4.3 H obs.
4.1 H Brute
H étape 1
Hauteurs d'eau en m

3.9
H étape 1 + 2
3.7 H étape 1 + 2 + 3
3.5 T-12h
T
3.3 T+24h
3.1 Seuil orange
2.9
2.7
2.5
2.3
T
2.1
0 1 2 3 4 5 6
Jours

Figure 4.6 – Limnigramme observé et prévu à Châlons-en-Champagne le 13 avril 1983 à


7h.

141
5.1
5.0
4.9
4.8
4.7
4.6
4.5
Hauteurs d'eau en m

4.4
4.3
H Obs.
4.2
H Brute
4.1 H étape 1
4.0 H étape 1 + 2
3.9 H étape 1 + 2 + 3
T-12h
3.8
T
3.7 T+24h
3.6 T Seuil orange
3.5
4 4.5 5 5.5 6
Jours

Figure 4.7 – Limnigramme observé et prévu à Châlons-en-Champagne entre le 12 et le


14 avril 1983 à 7h (zoom sur les jours 4 et 5 de la Figure 4.6).

Lors de l’étape 1, un coefficient multiplicatif analysé aa de 1.2297 est calculé


et appliqué aux débits de la station de Vitry-en-Perthois, on obtient la courbe rouge.
L’étape 2 utilise en guise d’ébauche le débit de Vitry-en-Perthois multiplié par aa pour
corriger m et n de la portion 1 du bief 2 en amont de Châlons-en-Champagne afin
d’accélérer ou de ralentir l’onde de crue et au final réduire les écarts entre les hauteurs
simulées et observées. On obtient un incrément de 0.2785 pour m et 3.5067 pour n
soit des Ks analysés ma et na égaux respectivement à 30.2785 et 16.5067. Les Ks sont
augmentés, le frottement diminue, l’onde de crue est accélérée. L’incrément d’analyse de
m est faible car en hautes-eaux, une augmentation de m n’accélère plus la dynamique
de la crue, elle a même tendance à ralentir l’onde de crue (cf Partie 3.3.1). L’incrément
est toutefois positif mais l’erreur d’analyse (équation 2.9) calculée pour ce paramètre est
élevée. On obtient avec les paramètres analysés aa , ma et ma , la courbe vert foncée.
Le pic de crue est correctement prévu mais l’onde de crue est encore légèrement en
retard. Il faudrait augmenter les écarts-types d’erreur d’ébauche (σ b ) de n pour obtenir
un incrément plus élevé mais on atteindrait rapidement la valeur seuil de +5. De plus,
l’écart-type d’erreur d’ébauche est a priori correct, sa valeur a été approchée lors de la
phase de calage. Ce retard peut-être expliqué par les erreurs de non-linéarités : d’après
la Figure 3.11, une perturbation de n de −2 engendre dans cette gamme de débits (et
de hauteurs d’eau) un retard de 4h (−4h). L’onde de crue doit être accélérée d’environ

142
6h (+6h) pour coller parfaitement aux observations. On peut donc en déduire que si
la réponse à la perturbation est parfaitement linéaire un incrément d’analyse de +3
accélérera l’onde de crue de 6h (+6h). Or un incrément de +3 engendre en fait une
accélération de 4h (+4h) d’après la Figure 3.11, ce qui peut expliquer la sous-correction
du paramètre n. Pour obtenir une accélération de 6h (+6h), il faut en fait un incrément
de +6, valeur de toute façon supérieure au seuil. On peut constater d’après la Figure 4.6
que l’erreur liée à la condition initiale du modèle s’affranchit à partir du jour 2 où la
hauteur d’eau simulée commence à croître à Châlons-en-Champagne.
L’étape 3 de correction de l’état hydraulique impacte les prévisions à court
terme, à T une différence de 0.02 m subsiste, ce qui est négligeable. Au bout de 12h, les
courbes vert claires et foncées se confondent de nouveau.

4.3.4 Quantification des incertitudes


Deux méthodes ont été développées dans le Partie 4.1 pour estimer une four-
chette d’incertitudes à 80 % sur les valeurs prévues par les modèles Mascaret. La méthode
utilisant des abaques calculés a posteriori présentée dans la Partie 4.1.1 ne peut pas être
utilisée pour la crue d’avril 1983 car il n’y a pas de crue comparable dans l’échantillon
de crues de validation ayant servi à la création des abaques. On appliquera la méthode
utilisant la matrice de covariance des erreurs d’analyse A présentée dans la Partie 4.1.2
pour quantifier la fourchette d’incertitudes à 80 % de la hauteur prévue par le modèle
MM avec assimilation de données à Châlons-en-Champagne. On considère que l’inter-
valle d’incertitudes de la prévision analysée suit une loi normale centrée réduite pour
laquelle 80 % des valeurs sont comprises dans une enveloppe d’amplitude 1.282 écart-
type. On a calculé à partir des matrices de covariance des erreurs d’analyses calculées
par le BLUE, les fourchettes hautes et basses à partir d’une composition de simulation
avec plus ou moins 1.282σ a pour les paramètres a, m et n, présentés dans le Tableau 4.3
ci-dessous.
xa − xa +
Paramètre xb xa σa 1.287*σ a
1.287*σ a 1.287*σ a
a 1 1.2297 0.0239 0.0307 1.1989 1.2604
m 30 30.2785 1.7402 2.2310 28.0474 32.5095
n 13 16.5067 0.2701 0.3462 16.1604 16.8529

Table 4.3 – Erreurs d’analyses obtenues pour les paramètres a, m et n.


La fourchette d’incertitudes a été calculée à partir de simulations Mascaret
où on corrige l’état hydraulique (avec le mot-clé CTL_WATERLINE), dans lesquelles
l’hydrogramme de Vitry-en-Perthois a été multiplié par 1.1989 ou 1.2604 et les Ks m
et n modifiés à la main dans le fichier ParamètresMascaret.cas. La composition des
simulations est la suivante (Tableau 4.4) :

143
Fourchette a m n
basse 1.1989 30 13
Étape 1
haute 1.2604 30 13
basse-min. 1.1989 32.5095 16.1604
Étapes 1 + 2 basse-max. 1.1989 28.0474 16.8529
Étapes 1 + 2 + 3 haute-min. 1.2604 32.5095 16.1604
haute-max. 1.2604 280474 16.8529

Table 4.4 – Composition des différentes simulations pour le calcul de la fourchette


d’incertitudes à 80 %.

On obtient les intervalles d’incertitudes à 80 % suivants (Figure 4.8) : en poin-


tillés rouges pour l’étape 1, en pointillés vert foncé pour l’étapes 1 + 2 et en pointillés
vert clair pour l’étapes 1 + 2 + 3.

4.9
4.8
4.7
4.6
4.5
4.4
Hauteurs d'eau en m

4.3
4.2
4.1 H Obs.
H Brute
4.0 H étape 1
Erreurs étape 1
3.9 H étape 1 + 2
Erreurs étape 1 + 2
3.8 H étape 1 + 2 + 3
Erreurs étape 1 + 2 + 3
3.7 T-12h
T
3.6 T+24h
T Seuil orange
3.5
4 4.5 5 5.5 6
Jours

Figure 4.8 – Hauteurs prévues à Châlons-en-Champagne entre le 13 et le 14 avril 1983 à


7h suite à l’étape 1 (en rouge), à l’enchaînement de l’étape 1 et de l’étape 2 (en vert
foncé) et des trois corrections (en vert clair) accompagnés de leurs faisceaux d’incertitudes
respectifs (en pointillés).

En retenant les valeurs extrêmes des quatre faisceaux en pointillés verts clairs
on obtient l’intervalle de confiance à 80 % bas et haut sur le Figure 4.9. La hauteur d’eau
prévue est encadrée par un intervalle croissant de 0.02 m à T à 0.06 m à T +24h. La
hauteur d’eau observée n’est pas comprise dans cet intervalle durant les six premières

144
et dernières heures. En terme de m3 /s, le débit prévu est encadré par un intervalle
de plus ou moins 8 m3 /s. La prévision est excellente mais l’intervalle d’incertitudes
semble réduit. Le prévisionniste devra interpréter cette faible fourchette d’incertitude
avec prudence car on ne contrôle ici que les paramètres de forçage et de frottement en
faisant de surcroît l’hypothèse que les erreurs suivent un loi gaussienne.

4.9
4.8
4.7
4.6
4.5
4.4
Hauteurs d'eau en m

4.3
4.2
H Obs.
4.1 H Brute
4.0 H étape 1 + 2 + 3
Intervalle d'erreur à 80%
3.9
T-12h
3.8 T
3.7 T+24h
Seuil orange
3.6 T erreur max
3.5
4 4.5 5 5.5 6
Jours

Figure 4.9 – Hauteurs prévues à Châlons-en-Champagne entre le 13 et le 14 avril 1983 à


7h suite à l’enchaînement des trois corrections accompagné de son intervalle d’incertitudes
à 80 % calculé à partir de la matrice de covariance des erreurs d’analyses A.

La méthode de quantification doit peut-être être modifiée en retranchant ou en


ajoutant deux σ a pour élargir la fourchette d’incertitude. Les valeurs des écarts-types
d’erreurs d’ébauche σ b du paramètre a et des Ks doivent peut-être aussi être réévaluées.
Dans le cadre de l’enchaînement de l’étape 1 et de l’étape 2, il est toutefois délicat de
déterminer si c’est plutôt la quantification des apports ou bien les coefficients de rugosité
qui engendrent les écarts entre les valeurs simulées et observées.

4.3.5 Prévision des inondations


Nous avons pu voir qu’à partir du logiciel QGIS et de l’extension CartoZI,
il était possible de construire le champ d’inondation d’une ligne d’eau simulée par un
modèle hydraulique. Nous allons donc construire les champs d’inondation correspondant
aux pics de crue prévus par le modèle Mascaret MM avec et sans assimilation de données
pour l’agglomération châlonnaise et les comparer à des photos aériennes prises à l’époque.

145
On obtient pour les pics de crue simulés par le modèle brut (4.63 m soit 637
m3 /s) et avec l’enchaînement des 3 corrections (4.84 m soit 699 m3 /s) les cartes ci-
après (Figures 4.10 et 4.11), la station de Châlons-en-Champagne étant représentée
par un point bleu. Des photos aériennes ont été réalisées dans la vallée de la Marne
(Figures 4.12 et 4.13), à priori le 14/04/1983 au lendemain du pic de crue observé à
Châlons-en-Champagne (la date et l’heure des prises de vue ont été perdues). Afin de
comparer les champs d’inondation simulés à celui observé, des points de repère violets
(en amont), verts (en rive gauche) et jaunes (en rive droite) ont été dessinés sur les
cartes et leurs correspondances repérées sur les photos. On constate que les deux champs
modélisés sont comparables à la zone inondée observée sur les photos. Les digues et le
canal protègent la ville en rive droite. Sans le masque, les quartiers Verbeau, Madagascar
et Isleaux-Bois ont les pieds dans l’eau. Le masque a été appliqué car on sait qu’en deçà
de 5.2 m à la station de Châlons, la rive droite est théoriquement protégée. Le chemin
de fer protège en grande partie la rive gauche, sauf à l’aval de l’agglomération où la cote
maximale de l’eau modélisée atteint 81.20 m au niveau de la gare de triage alors que
la voie de chemin de fer a une altitude de 80.90 m d’où la tâche bleue ciel sur la voie,
aucun masque de connectivité n’a donc été appliqué. La rive gauche en contrebas de la
commune de Fagnières est donc inondée comme on peut le vérifier sur les photos.
On observe peu de différences entre la carte simulée pour un pic de crue à 4.63
et celle à 4.84 m par respectivement le modèle brut et le modèle avec assimilation de
données. On remarque juste que la Figure 4.11 est plus foncée car on a 20 cm d’eau
en plus au droit de la station de Châlons-en-Champagne. Au niveau de l’extension du
champ d’inondation, les deux simulations sont comparables. On peut conclure que la
carte calculée à partir de la simulation Mascaret brute (sous-évaluée de 20 cm à la
station de Châlons-en-Champagne) illustre aussi bien le champ d’inondation observé
lors de la crue d’avril 1983 que la carte calculée par la simulation avec assimilation de
données. L’écart pourtant effectif de 20 cm à la station de Châlons-en-Champagne entre
les deux simulations est noyé dans les incertitudes et les approximations liées aux données
LIDAR et à la méthode d’interpolation de la cote maximale calculée par Mascaret entre
les profils pour le calcul de la MNSE ainsi qu’à la division en tranches de 50 cm de la
hauteur d’eau. Une différence de 20 cm à l’échelle de Châlons-en-Champagne n’entraîne
pas une forte variation de la surface inondée, du moins pour cette gamme de hauteur
d’eau. On peut imaginer qu’une différence de 20 cm pour des hauteurs d’eau supérieures
à 5.2 m impactera fortement la surface en eau, surtout en rive droite du canal.
La réalisation de ces deux cartes centrées sur l’agglomération châlonnaise a
demandé une quarantaine de minutes (essentiellement du temps de calcul). En comptant
les quelques minutes de calcul de DAMP, il est possible en opérationnel de réaliser
une prévision avec assimilation de données ainsi que sa carte de champ d’inondation
correspondante en moins de trente minutes. Toutefois, la différence de 0.2 m entre la
simulation brute et avec l’enchaînement des 3 corrections à la station de Châlons-en-
Champagne est subtile au vu des champs d’inondation pour l’agglomération, sauf en cas
de submersion des digues et du canal. L’enchaînement dynamique et automatique de la
création de ce type de carte après la simulation avec assimilation de données est possible

146
mais pas forcément utile si des cartes de champs d’inondation ont déjà été réalisées a
posteriori pour des classes de hauteurs d’eau assez fines.

147
Figure 4.10 – Zones potentiellement inondées au pic de crue le 13/04/1983 à 21h par le
modèle brut.

148
Figure 4.11 – Zones potentiellement inondées au pic de crue le 13/04/1983 à 21h par le
modèle avec assimilation de données.

149
Figure 4.12 – Photographie aérienne de l’amont de Châlons en avril 1983.

150
Figure 4.13 – Photographie aérienne de l’aval de Châlons en avril 1983.

151
152
Lire
la seconde partie
de la thèse

Vous aimerez peut-être aussi

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy