Habert 1 PDF
Habert 1 PDF
Habert 1 PDF
Ecole doctorale :
Sciences de l'Univers de l'Environnement et de l'Espace (SDUEE)
Unité de recherche :
Centre Européen de Recherche et Formation Avancées en Calcul Scientifique (CERFACS)
Directeur(s) de Thèse :
M. OLIVIER THUAL
MME SOPHIE RICCI
Rapporteurs :
M. JEAN-MICHEL TANGUY, MINISTERE DE L'ECOLOGIE
Mme FLORENCE HABETS, UNIVERSITE PIERRE ET MARIE CURIE
M. PIERRE-OLIVIER MALATERRE, IRSTEA
Membre(s) du jury :
1 Mme NICOLE GOUTAL, EDF CHATOU, Président
2 M. ANTOINE HERMAN, CEREMA, Membre
2 M. BRUNO JANET, MINISTERE DE L'ECOLOGIE, Membre
2 Mme SOPHIE RICCI, CERFACS, Membre
2 M. OLIVIER THUAL, INP TOULOUSE, Membre
Résumé
La prévision des crues et des inondations reste aujourd’hui un défi pour antici-
per et assurer la sécurité des biens et des personnes. En France, le SCHAPI, qui dépend
du MEDDE, assure ce rôle. Les niveaux et les débits d’un cours d’eau dépendent étroi-
tement des interactions à différentes échelles entre les précipitations, les caractéristiques
géométriques du cours d’eau et les propriétés topographiques, géologiques et pédolo-
giques du bassin versant. Les modèles hydrauliques, utilisés dans le cadre de la prévision
des crues, sont entachés d’incertitudes qu’il est nécessaire de quantifier et de corriger afin
de mieux anticiper l’évolution hydrodynamique du cours d’eau en temps réel. L’objectif
de ces travaux de thèse est d’améliorer les prévisions de hauteurs d’eau et de débits, sur
le bassin de la Marne, issues des modèles hydrauliques utilisés dans le cadre opérationnel
de la prévision des crues à partir de méthodes d’assimilation de données. Ces prévisions
reposent sur une modélisation mono-dimensionnelle (1D) de l’hydrodynamique du cours
d’eau à partir du code hydraulique 1D Mascaret basé sur la résolution des équations de
Saint-Venant, enrichie par une méthode d’assimilation de données in situ utilisant un
Filtre de Kalman Étendu (EKF).
Ce mémoire de thèse s’articule en cinq chapitres, trois dédiés à la recherche
et les deux derniers à l’application opérationnelle. Le chapitre 1 présente les données
et les outils utilisés pour caractériser le risque inondation dans le cadre de la prévision
des crues, ainsi que les modèles hydrauliques Marne Amont Global (MAG) et Marne
Moyenne (MM), sujets d’application des méthodes d’assimilation de données dévelop-
pées dans cette étude. Le chapitre 2 est dédié à la méthodologie : il traite des différentes
sources d’incertitudes liées à la modélisation hydraulique et présente les approches d’as-
similation de données de type EKF appliquées dans cette étude à travers la maquette
DAMP pour les réduire. Dans le chapitre 3, cette approche est appliquée aux modèles
MAG et MM en mode réanalyse pour un ensemble de crues ayant touché le bassin de la
Marne par le passé. Deux publications ont été insérées dans ce chapitre "étude". Dans le
chapitre 4, les corrections appliquées dans le chapitre 3, sont validées à partir du rejeu
de la crue de 1983 en condition opérationnelle avec le modèle MM. La quantification
des incertitudes de prévision et la réalisation de cartes de zones inondées potentielles y
sont aussi abordées. L’application de ces méthodes d’assimilation de données pour les
modèles MAG et MM en opérationnel au SCHAPI au niveau national et au SPC SAMA
au niveau local est présentée dans le chapitre 5.
Cette thèse s’inscrit dans un contexte collaboratif où chacun apporte son ex-
pertise : la modélisation hydraulique pour le LNHE, les méthodes numériques pour le
CERFACS et la prévision opérationnelle pour le SCHAPI. L’ensemble de ces travaux
de thèse a permis de démontrer les bénéfices et la complémentarité de l’estimation des
paramètres et de l’état hydraulique par assimilation de données sur les hauteurs d’eau et
les débits prévus par un modèle hydraulique 1D, ce qui constitue un enjeu d’importance
pour l’anticipation du risque hydrologique. Ces méthodes ont été intégrées dans la chaîne
opérationnelle de prévision du SCHAPI et du SPC SAMA.
Abstract
Introduction 1
i
2.3 L’assimilation de données . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
2.3.1 État de l’art de l’assimilation de données appliquée à l’hydraulique
fluviale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.3.2 Formalisme de l’assimilation de données de type filtrage . . . . . . 66
2.3.3 La méthode d’assimilation BLUE . . . . . . . . . . . . . . . . . . . 67
2.3.4 Le filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.3.5 Le coupleur OpenPALM . . . . . . . . . . . . . . . . . . . . . . . . 68
2.4 Implémentation de la maquette d’assimilation de données DAMP . . . . . 71
2.4.1 Correction des forçages amont . . . . . . . . . . . . . . . . . . . . 71
2.4.2 Correction des coefficients de Strickler . . . . . . . . . . . . . . . . 73
2.4.3 Correction de la ligne d’eau . . . . . . . . . . . . . . . . . . . . . . 74
2.4.4 Cyclage de l’analyse . . . . . . . . . . . . . . . . . . . . . . . . . . 75
ii
4.3.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
4.3.4 Quantification des incertitudes . . . . . . . . . . . . . . . . . . . . 143
4.3.5 Prévision des inondations . . . . . . . . . . . . . . . . . . . . . . . 145
Conclusion 171
Annexe 1 183
Annexe 2 187
Annexe 3 195
Annexe 4 201
Glossaire 207
Bibliographie 213
iii
iv
Introduction
1. www.statistiques.developpement-durable.gouv.fr
2. www.vigicrues.gouv.fr
1
cours d’eau et les propriétés topographiques, géologiques et pédologiques du bassin ver-
sant. Deux familles de modèles sont utilisées pour la prévision des crues : les modèles
hydrologiques qui permettent en tête de bassin de prévoir les débits à un exutoire en fonc-
tion des précipitations observées et prévues d’une part, et les modèles hydrauliques qui
simulent la propagation d’une onde de crue en aval de stations hydrométriques d’autre
part. Dans cette thèse, on se concentrera sur l’amélioration des prévisions des modèles
hydrauliques. La validité des prévisions issues des modèles hydrauliques de prévision des
crues dépend de la qualité des données d’entrée du modèle (les données topographiques
et bathymétriques, les forçages amont). Elle dépend aussi de la façon dont ont été pris
en compte, entre autres, les débits des cours d’eau non-instrumentés et les paramètres
de frottement retenus. Les apports intermédiaires et les valeurs des paramètres de frotte-
ment sont bien souvent ajustés afin d’obtenir des paramètres minimisant les écarts entre
les valeurs simulées par le modèle et celles observées pour plusieurs épisodes de crue. On
nomme cette étape la phase de calage. Le modèle est ensuite validé en simulant d’autres
épisodes.
La qualité des prévisions du modèle hydraulique est facteur de la combinaison
des incertitudes propres aux données d’entrée du modèle et de celles engendrées par la
phase de calage. Les incertitudes en entrée des modèles se traduisent en incertitudes sur
les variables d’intérêt en sortie des modèles. Elles limitent les capacités descriptives et
prédictives de ces derniers. Afin de délivrer une information plus complète aux gestion-
naires de crises et au grand public, il convient de quantifier et si possible, de réduire
ces incertitudes. L’identification, la quantification et la réduction de ces incertitudes est
actuellement une préoccupation centrale pour la communauté de la prévision des crues.
Ces incertitudes peuvent être estimées à partir d’une étude de sensibilité, en mesurant
l’impact sur les valeurs simulées résultant d’une perturbation d’un paramètre ou d’une
donnée d’entrée incertaine du modèle hydraulique. Les approches de type Monte-Carlo
ou utilisant les polynômes du chaos permettent de réaliser ce type d’étude.
Cette thèse s’inscrit dans un contexte collaboratif entre le CERFACS (Centre
Européen de Recherche et de Formation Avancée en Calcul Scientifique, SUC URA
1875), le SCHAPI, EDF R&D (Électricité de France Réseau et Distribution) et le CE-
REMA (Centre d’Études et d’Expertise sur les Risques, l’Environnement, la Mobilité et
l’Aménagement, ex-CETMEF) encadré par une convention. Développé depuis plus de
20 ans au LNHE (Laboratoire National d’Hydraulique et Environnement - EDF R&D)
et au CEREMA, le logiciel Mascaret est un code de modélisation hydraulique mono-
dimensionnelle (1D) à surface libre, basé sur la résolution des équations de Saint-Venant.
Il est utilisé dans le réseau Vigicrues (qui regroupe, entre autres, le SCHAPI et les SPC)
depuis une dizaine d’années pour effectuer des prévisions de hauteurs d’eau et de débits
en opérationnel sur différents cours d’eau surveillés que l’on qualifiera de réglementaires.
L’application de l’assimilation de données à la modélisation hydraulique offre
un cadre pratique pour réduire les erreurs sur les valeurs simulées par le modèle liées
aux différentes sources d’incertitudes. Les méthodes d’assimilation de données ont été
développées à l’origine dans le cadre de la météorologie puis ont été appliquées à d’autres
domaines comme l’océanographie. Elles sont également appliquées depuis une vingtaine
2
d’années à l’hydraulique fluviale pour corriger l’état hydraulique du modèle (Malaterre,
1994, 1998) et plus récemment les incertitudes sur les forçages et les paramètres néces-
saires aux modèles hydrauliques. Le CERFACS a entrepris des travaux en 2010 pour
développer la maquette DAMP (Data Assimilation for Mascaret Prototype) qui permet
le portage et l’utilisation de méthodes d’assimilation de données appliquées aux modèles
hydrauliques Mascaret de prévisions des crues utilisés en opérationnel dans les SPC et
au SCHAPI. L’algorithme de type filtre de Kalman permet une estimation optimale
des incertitudes pour les modèles linéaires. Cette technique a ici été étendue à des pro-
blèmes non-linéaires avec l’utilisation d’un filtre de Kalman Étendu (EKF) aussi bien
pour corriger l’estimation de l’état hydraulique du modèle que pour celle des paramètres
du modèle. Ces travaux ont fait l’objet d’une publication (Ricci et al., 2011) dans la
revue HESS (Hydrology and Earth System Sciences) : il y est montré que l’assimilation
de données de hauteurs d’eau à partir de la maquette DAMP pour corriger les forçages
amont et l’état d’un modèle Mascaret sur le fleuve Adour a permis d’améliorer les pré-
visions à une échéance d’une heure de 60% et de 25% à une échéance de prévision de
12h.
En 2006, le logiciel Mascaret a été fourni au SPC Seine Amont Marne Amont
(SAMA). Le modèle hydraulique Mascaret Marne Amont a été développé en interne en
2006-2007. Il a immédiatement été utilisé en temps réel pour réaliser des prévisions. Suite
aux résultats encourageants obtenus avec ce modèle, cinq autres modèles ont vu le jour :
les modèles Marne Valage (2008), Marne Moyenne (MM) en 2009, Seine Amont (2011),
Seine Bassée Champenoise (2012) et Aube Amont (2013). Ces modèles ont aussi été dé-
veloppés en régie par Jérôme Halgrain, Johann Andrich, Christophe Mage et moi-même.
Outre les problèmes liés à la qualité et aux formats divers des données topographiques
et bathymétriques, la principale difficulté rencontrée a été la quantification des apports
des cours d’eau non-jaugés situés sur le bassin modélisé par le modèle Mascaret. Une
fois les modèles opérationnels établis, les échéances de prévision de certaines stations
étaient bien souvent trop limitées. Les modèles Marne Amont et Marne Valage en sont
une illustration. Pour solutionner ces difficultés, il a été décidé de fusionner les deux
modèles en un modèle global, le modèle Marne Amont Global (MAG), et d’appliquer
des méthodes d’assimilation de données pour améliorer l’estimation des apports inter-
médiaires. Ces travaux ont été réalisés en 2011 dans le cadre de mon stage professionnel
au SCHAPI et au CERFACS (encadré par Étienne Le Pape et Sophie Ricci) pour l’ob-
tention du Mastère Spécialisé Hydraulique de l’ENSEEIHT (École Nationale Supérieure
d’Électrotechnique, d’Électronique, d’Informatique, d’Hydraulique et des Télécommu-
nications) suite à un congé de formation professionnelle et une validation des acquis.
J’ai réintégré le SPC SAMA en 2012. Mon temps de travail est depuis partagé entre
les activités liées à la prévision des crues et à la recherche. L’objectif de cette thèse
est d’améliorer les prévisions des modèles hydrauliques 1D Mascaret utilisés
dans le cadre opérationnel de la prévision des crues à partir de méthodes
d’assimilation de données. Ces travaux sont appliqués aux modèles MAG et MM
opérationnels au SPC SAMA mais les méthodes et les outils présentés ici, notamment
la maquette DAMP, peuvent être utilisés sur d’autres bassins versants. L’utilisation de
3
méthodes d’assimilation de données pour la prévision des crues opérationnelle s’inscrit
dans un contexte de développement conjoint avec les thèses de Sébastien Barthélémy
et de Nabil El Mocayd, doctorants au CERFACS. Le prototype opérationnel de DAMP
évolue petit à petit en intégrant les avancées des travaux de recherche et les modifica-
tions liées aux besoins opérationnels. La mise en application rapide des avancées de mes
travaux au sein du SPC a été une condition qui a facilité la mise à disposition par la
DREAL (Direction Régionale de l’Environnement, de l’Aménagement et du Logement)
Champagne-Ardenne dont dépend le SPC SAMA de 50% de mon temps de travail pour
réaliser mes activités de recherche. Dans le cadre d’une utilisation opérationnelle, l’ap-
plication de méthodes d’assimilation de données pour la modélisation hydraulique doit
respecter les contraintes temporelles liées au métier de prévisionniste ainsi que parer
à l’éventualité d’absence temporaire de données. Des outils ont été développés par le
réseau Vigicrues pour faciliter l’intégration dans la chaîne opérationnelle des méthodes
développées dans cette étude.
4
Ce mémoire de thèse s’articule en cinq chapitres, trois dédiés à la recherche et
les deux derniers à l’application opérationnelle.
Le premier chapitre présente les données, les outils et les méthodes utilisées
pour caractériser le risque inondation dans le cadre de la prévision des crues à différentes
échelles : au niveau européen, français et local, au niveau du SPC SAMA avec, entre
autres, les modèles hydrauliques MAG et MM, sujets d’application opérationelle des
méthodes d’assimilation de données présentées dans cette thèse.
Le second chapitre est dédié à la méthodologie. Il traite des équations hydro-
dynamiques à surface libre utilisées par le code hydraulique 1D Mascaret et des données
nécessaires à l’utilisation de ce logiciel dans le cadre de la prévision des crues. On pré-
sentera les différents types d’incertitudes liées à la modélisation hydraulique ainsi que
la méthode stochastique d’assimilation de données (filtre de Kalman) appliquée dans
cette étude pour corriger certaines d’entre elles à partir de la maquette d’assimilation
de données développée par le CERFACS.
Dans le chapitre trois, nous appliquons la correction des forçages amont et des
paramètres de frottement aux modèles MAG et MM. Ce chapitre est composé de trois
parties. La première correspond aux travaux réalisés dans le cadre de mon stage de
Mastère au SCHAPI et du début de mon doctorat où il a été montré à travers l’article
publié dans le cadre de la conférence SIMHYDRO 2012 que la correction des forçages
amont par assimilation permettait d’améliorer l’estimation des apports intermédiaires du
modèle MAG et au final d’améliorer la qualité de ses prévisions. Dans la seconde partie,
le vecteur de contrôle a été étendu aux paramètres de frottement. Il a été démontré avec
l’article soumis dans la revue Journal of Hydology durant l’été 2015 que l’assimilation
de hauteurs d’eau pour corriger localement les paramètres de frottement permettait
d’améliorer la relation hauteur - débit simulée par le modèle MAG. Enfin, la troisième
partie est aussi dédiée à la correction des paramètres de frottement mais cette fois
pour corriger la dynamique de la crue. Les paramètres de frottement sur de grandes
distances sont corrigés pour accélérer ou ralentir l’onde de crue simulée par le modèle
MM à partir de l’assimilation de hauteur d’eau. Une étude de sensibilité a été réalisée au
préalable. Dans ces deux dernières parties, la correction des paramètres de frottements
a été enchaînée à la modification des forçages amont par assimilation de données.
Le chapitre quatre valide les corrections appliquées dans le chapitre trois à
partir du rejeu de la crue de 1983 en condition opérationnelle avec le modèle MM. La
correction de l’état hydraulique est ajoutée au contrôle des forçages et des paramètres
de frottement par assimilation de données. À travers ce chapitre, les développements
réalisés autour de la modélisation hydraulique comme la quantification des incertitudes
de prévision et la réalisation de cartes de zones inondées potentielles seront présentés et
appliqués à la crue de 1983 simulée par le modèle MM.
Le chapitre cinq est plus centré sur mes fonctions premières de prévisionniste
de crue et de chargé de modélisation au SPC SAMA. Il traite de la récente application
en opérationnel au SPC SAMA et au SCHAPI des méthodes d’assimilation de données
présentées dans cette thèse à partir de l’outils TOAD et de la POM et des perspectives
d’évolution à court terme des travaux engagés par le CERFACS, le SCHAPI et le SPC
5
SAMA.
Une conclusion, présentant l’apport des méthodes d’assimilation de données
pour les modèles hydrauliques opérationnelles de prévision des crues clôturera ce ma-
nuscrit.
6
Chapitre 1
Le risque inondation et la
prévision des crues
Sommaire
1.1 Le risque inondation . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.1 Un risque naturel majeur . . . . . . . . . . . . . . . . . . . . . 8
1.1.2 Définitions et typologie des inondations . . . . . . . . . . . . . 8
1.2 Observer pour mieux prévoir . . . . . . . . . . . . . . . . . . . 11
1.2.1 Les observations et prévisions pluviométriques . . . . . . . . . 11
1.2.2 Les observations hydrométriques . . . . . . . . . . . . . . . . . 13
1.2.3 Les données maritimes . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.4 Les données topographiques et bathymétriques . . . . . . . . . 18
1.3 Les modèles de prévision des crues . . . . . . . . . . . . . . . . 20
1.3.1 Les modèles hydrologiques . . . . . . . . . . . . . . . . . . . . . 21
1.3.2 Les modèles hydrauliques . . . . . . . . . . . . . . . . . . . . . 26
1.4 La prévision opérationnelle des crues en France et ailleurs . 28
1.4.1 Vue d’ensemble des centres opérationnels à l’échelle européenne 28
1.4.2 Rappel historique et législatif de la prévision des crues en France 29
1.4.3 Le réseau Vigicrues . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.4.4 Le site internet Vigicrues et la carte de vigilance météorologique 31
1.5 Limiter et anticiper les crues sur le bassin de la Seine . . . . 34
1.5.1 L’EPTB Seine Grands Lacs . . . . . . . . . . . . . . . . . . . . 36
1.5.2 Le territoire de compétence du SPC SAMA . . . . . . . . . . . 37
1.5.3 Le modèle Marne Amont Global . . . . . . . . . . . . . . . . . 41
1.5.4 Le modèle Marne Moyenne . . . . . . . . . . . . . . . . . . . . 49
7
1.1 Le risque inondation
1.1.1 Un risque naturel majeur
On appelle risque naturel la conjonction d’un phénomène naturel nommé aléa
et d’un enjeu, c’est-à-dire l’existence de personnes, de biens et activités pouvant subir
des dommages et des préjudices. L’inondation est une submersion temporaire, par l’eau,
de terres qui ne le sont pas en temps normal. Une inondation grave observée en un
lieu désert n’est donc pas un risque important, mais un événement moyennement grave
survenant dans une zone fortement urbanisée représente un risque fort. Un risque est
considéré comme majeur lorsque aléas et enjeux sont forts, quand il est susceptible de
dépasser les moyens de réaction des secours et/ou que ses conséquences sur le tissu
socio-économique sont de nature à affecter durablement la zone touchée.
Le risque inondation est un risque naturel majeur : en 2011, les inondations ont
représenté une catastrophe naturelle sur deux et ont été responsables de 20,4% des décès
liés aux catastrophes naturelles (Guha-Sapir et al., 2012) dans le monde. Entre 1998
et 2008, plus d’une centaine de grandes inondations ont eu lieu en Europe engendrant
la mort de 700 personnes et le déplacement de plus d’un demi-million de personnes.
On cite pour exemple l’épisode de mai 2014 en Bosnie-Herzégovine et en Serbie, où
les plus importantes précipitations depuis 120 ans de mesures météorologiques ont été
enregistrées entraînant des inondations catastrophiques dans les Balkans. On a recensé
59 morts au total, 33 en Serbie, 24 en Bosnie-Herzégovine et 2 en Croatie. En Bosnie-
Herzégovine, 100 000 personnes ont été évacuées, ce qui représente le plus important
exode depuis la guerre de 1992-95 dans ce pays. Les inondations ont aussi un coût
économique : au Royaume-Uni la crue de l’été 2007 a causé des pertes estimées à plus
de 4 milliards de livres sterling. En 2009, la part de la population française exposée au
risque d’inondation est estimée à 11%, une commune sur deux y est exposée. Il s’agit
du risque naturel prépondérant en France métropolitaine 1 . Face à ce constat, ont été
créés en France en 2006, les Services de Prévisions des Crues (SPC) qui en partenariat
avec Météo-France ont pour mission de prévoir, d’anticiper l’ampleur des inondations et
d’informer les services compétents et le grand public.
1. www.statistiques.developpement-durable.gouv.fr
8
physique de cet espace est la ligne de crêtes, appelée aussi ligne de partage
des eaux ;
• le lit mineur : partie du lit du cours d’eau comprise entre les berges franches
ou bien marquées, dans laquelle l’intégralité de l’écoulement s’effectue en-
dehors des périodes de très hautes eaux et de crues débordantes ;
• le lit majeur : c’est le lit maximum qu’occupe un cours d’eau, dans lequel
l’écoulement ne s’effectue que temporairement lors du débordement des eaux
hors lit mineur en période de très hautes eaux, en particulier lors de la plus
grande crue historique.
2. www.risques.gouv.fr
9
elles-mêmes être aggravées si elles sont accompagnées de chutes de pluie ;
• les tsunamis (ou raz-de-marée) qui sont des vagues destructrices pouvant
atteindre plusieurs dizaines de mètres, provoquées par un tremblement de
terre, un glissement de terrain sous-marin ou une explosion volcanique. Le
tsunami de 2004 en Asie provoqué par un séisme est la catastrophe la plus
meurtrière des trente dernières années avec plus de 200 000 victimes ;
• la débâcle qui correspond à une rupture brusque d’un barrage de glace dans
les régions nordiques.
10
1.2 Observer pour mieux prévoir
Hormis la fonte nivale et les phénomènes exceptionnels tels que les débâcles,
les tsunamis et les ruptures de barrage-réservoir, c’est la pluviométrie et les conditions
maritimes (pour les estuaires) qui conditionnent les épisodes de crue. Pour comprendre
et anticiper le comportement hydrologique d’un cours d’eau, le prévisionniste de crue se
base en grande partie sur des observations pluviométriques et hydrométriques ainsi que
sur des prévisions issues de modèles numériques météorologiques, hydrologiques et de
propagation détaillées ci-dessous.
11
processus en estimant les entrants et sortants interagissant avec le reste de l’atmosphère.
Les précipitations stratiformes sont générées par des structures atmosphériques
de moyenne à grande échelle dont l’évolution peut être simulée par un modèle composé
de mailles de taille moyenne de 7.5 à 30 km pour le modèle ARPEGE 3 (Action de
Recherche Petite Échelle Grande Échelle) de Météo-France qui présente une grille à taille
variable. L’humidité de l’air est calculée dans chaque maille du modèle et à chaque pas de
temps. Si elle atteint le niveau de saturation dans une maille, le modèle fait précipiter le
« surplus » en eau dans la maille inférieure. Le processus se poursuit de maille en maille
jusqu’à désaturation d’une maille ou jusqu’au sol (pluie). Les précipitations convectives
proviennent de structures atmosphériques plus petites dont l’évolution rapide ne peut
être suivie en détail que par un modèle à mailles fines. Toutefois, même dans les modèles
à haute résolution, il y a une paramétrage d’une partie de la convection. Météo-France,
pour modéliser les pluies convectives utilise les modèles suivants :
• ARPEGE où l’activité convective est modélisée comme uniforme sur toute
la maille. Cette simplification n’est pas sans conséquences, notamment sur
les zones de relief, où la finesse de la maille ne permet pas de rendre compte
des vents locaux et des phénomènes convectifs locaux. On constate alors que
les résultats des modèles sont nettement moins bons dans les régions à relief.
Le système opérationnel de prévision d’ensemble à courte échéance, nommé
PEARP (Prévision d’Ensemble ARPEGE) repose sur le modèle ARPEGE.
Ce système, constitué de 35 membres, vise à quantifier les incertitudes in-
hérentes aux prévisions météorologiques ;
• AROME 4 (Application de la Recherche à l’Opérationnel à MésoÉchelle) où
les phénomènes convectifs sont caractérisés par des échelles spatiales infé-
rieures à celles permettant d’employer l’hypothèse hydrostatique employée
par la plupart des modèles météorologiques. Les modèles à maille très fine
comme AROME (1.3 km) bénéficient ainsi d’une meilleure description du
relief. Les travaux en cours sur le projet PE-AROME (Prévisions d’Ensemble
AROME) permettront de quantifier les erreurs des prévisions d’AROME.
PE-AROME sera opérationnel en 2016.
Les prévisions de précipitations brutes font l’objet d’une critique humaine avant
leur diffusion via les bulletins de prévisions biquotidiens qui informent les SPC des cumuls
pluviométriques à 72 h par pas de 24 h spatialisés sur des zones homogènes. L’expertise
de Météo-France repose sur la connaissance des erreurs des modèles météorologiques et
de la comparaison entre les observations et les prévisions récentes. Les observations et
prévisions météorologiques sont utilisées par le prévisionniste de crue pour effectuer son
expertise mais servent aussi de données d’entrées aux modèles hydrologiques utilisés pour
la prévisions des crues tels que GRP (Génie Rural pour la Prévision, cf Partie 1.3.1). A
ce titre, Météo-France met à disposition des cumuls pluviométriques journaliers prévus
discrétisés au pas de temps tri-horaire (RR3).
3. www.cnrm.meteo.fr/spip.php ?article121
4. www.cnrm.meteo.fr/spip.php ?article120
12
1.2.2 Les observations hydrométriques
Ligne téléphonique
Panneau solaire
Centrale d’acquisition
Repère de crue
Modem
Janv.1910
Repère de
Échelle limnimétrique Altitude de la surface de l’eau nivellement NGF
Hauteur d’eau Z = 296,35 m Z = 296,62 m
à l’échelle
H = 1,35 m
1
P Point de mesure de
la vitesse vi, (pi,xi)
Hauteur échelle
H=0m
Verticale de mesure (v)
0
Altitude du 0
de l’échelle
Section d’écoulement S
Z = 295 m Sonde Débit Q
L
13
Lorsque en plus, on y mesure le débit, on parle de station hydrométrique. Le
débit du cours d’eau, noté Q et exprimé en m3/s ou en l/s, représente le volume total
d’eau qui s’écoule à travers une section droite du cours d’eau pendant l’unité de temps
considérée. Sa mesure est du ressort de la débitmétrie. Du fait de leur coût et de leur
complexité à installer, les dispositifs de mesure directe des débits sont rares. On convertit
alors les variations de hauteurs d’eau en fonction du temps H = f(t) (limnigramme) à
celle des débits Q = f(t) (hydrogramme) via une courbe de tarage Q = f(H) établie à
partir de jaugeages. Le jaugeage est une mesure instantanée du débit pour une hauteur
d’eau lue à l’échelle. Une technique couramment utilisée est le jaugeage par exploration
des champs de vitesse à l’aide d’un moulinet ou d’un ADCP (Acoustic Doppler Current
Profiler) (Figure 1.2) où le débit Q en m3/s s’écoulant dans une section S en m2 per-
pendiculaire à l’écoulement est défini à partir de la vitesse moyenne v en m/s par la
relation Q = v.S . Le moulinet permet de mesurer la vitesse ponctuelle de l’écoulement
à partir de la vitesse de rotation de l’hélice (nombre de tours n par unité de temps, la
fonction v = f(n) étant déterminée par un étalonnage propre au moulinet). Le nombre
de verticales ainsi que le nombre de mesures par verticale sont choisis par le jaugeur
de façon à obtenir une bonne description de la répartition des vitesses sur la section
(points roses sur la Figure 1.1). La section d’écoulement S peut être évaluée en relevant
la profondeur en diverses verticales réparties sur la largeur du cours d’eau. Le calcul de
la vitesse moyenne de l’écoulement sur l’ensemble de la section S de longueur L se fait
par intégration des vitesses vi définies en chacun des points de la section de profondeur
pi et d’abscisse xi , soit l’expression suivante :
ZZ Zx Zp
Q= V · dS = vi · dp · dx . (1.1)
S 0 0
L’ADCP, monté sur une petite embarcation, permet de déterminer le débit par
exploration des champs de vitesse dans toute la section en émettant depuis la surface
vers le fond du cours d’eau des ondes sonores dans plusieurs directions (Figure 1.2).
Les ondes se réfléchissent sur les particules en suspension qui se déplacent à la même
vitesse que l’eau. A partir de l’écart de fréquence entre l’onde émise et l’écho, on peut
déduire la vitesse des particules et donc de l’eau (effet Doppler) et en connaissant le
temps de parcours de l’onde pour retourner au transducteur, on mesure la distance
des particules au récepteur. L’ADCP nécessitant un minimum de profondeur pour être
utilisé est approprié pour jauger les débits des fleuves ou des rivières en moyennes et
hautes-eaux.
14
A C
B D
15
comme les satellites franco-américains JASON 5 car les limitations de résolution spa-
tiale et du maillage de l’altimétrie empêchent l’étude de structure à petite échelle dont
les surfaces en eau continentales. La mission franco-américaine SWOT (Surface Water
and Ocean Topography) a pour but d’étendre l’utilisation de l’altimétrie à l’hydrologie
continentale à partir de 2020 en mesurant l’altitude des fleuves, lacs et zones inondées à
l’aide du radar KaRIN (Ka-band Radar Interferometer). Le temps de vie de la mission
est compris entre trois et cinq ans. Les données SWOT ne seront pas disponibles en
temps réel, l’altitude sera calculée pour des cours d’eau d’une largeur minimum de 50 m.
De plus, la précision altimétrique des données, estimée à 10 cm pour 1 km2 de données
agrégées, sera moins précise qu’une mesure in-situ. Mais, 65% des surfaces d’eau douce
mondiales seront balayées deux fois tous les 21 jours. L’utilisation des ces données ouvre
de nombreuses perspectives mais représente aussi un challenge du fait de la complexité
et de la quantité de données à traiter (Andreadis et al., 2013). Toutefois, des travaux
préparatoires ont montré que l’utilisation de données SWOT a permis de mieux estimer
les stocks d’eau simulés par un modèle hydrologique sur le bassin du Niger (Pedinotti,
2013). L’altimétrie représente une source de données dense permettant a posteriori de
connaître l’altitude de l’eau tout le long de la rivière et non juste à une station limn-
métrique, données rares pour le calage d’un modèle hydraulique, voire de calculer des
débits en disposant de la bathymétrie. En accélérant la mise à disposition des données
SWOT, on peut imaginer une utilisation opérationnelle des données altimétriques pour
la prévision des crues.
La collecte de données hydrométriques à partir de drones, notamment de mesure
de la cote de la surface de l’eau ou bien de la prise de photographies ou de vidéos est
un sujet d’avenir qui est pour le moment à l’étude 6 . Outre les problèmes techniques et
la qualité des résultats escomptés, un point important doit porter sur la règlementation
de l’utilisation des drones. Au vu de la mauvaise fiabilité, voire de l’absence de certaines
données hydrométriques, il est nécessaire d’améliorer la capacité des modèles à pouvoir
combiner toutes ces données aux caractéristiques spatiales et temporelles différentes.
5. http ://jason-3.cnes.fr
6. http ://wikhydro.developpement-durable.gouv.fr
16
s’ajouter ou se contrarier selon leurs positions relatives. Les variations de hauteur d’eau
sont conditionnées par les phases de la lune :
• Marée de vive-eau : lors des phases de pleines et nouvelles lunes (syzygies),
les trois astres sont alignés, les forces s’additionnent et les marées sont im-
portantes ;
• Marée de morte-eau : lors des phases de premiers et derniers quartiers de
la lune (quadratures), les trois astres forment un angle droit, les forces se
contrarient, les marées sont faibles.
C Marée correspondante
20 Marée la plus faible
45 Morte-eau
70 Limite morte-eau vive-eau
95 Vive-eau
100 Vive-eau équinoxiale
120 Marée la plus forte
17
et surcotes joue un rôle essentiel dans la prévision et le suivi de situations de crises telles
les tempêtes exceptionnelles dans l’Atlantique nord ou dans l’évolution d’un cyclone tro-
pical. Lors de la tempête Xynthia en février 2010, la conjonction de la tempête, d’une
surcote exceptionnelle (1.61 m à La Rochelle) et d’une marée de vive-eau a conduit à
des inondations par submersion marine catastrophiques et meurtrières sur le littoral cha-
rentais. Météo-France a élaboré des modèles numériques de prévision à courte échéance
des surcotes, notamment pour les zones océaniques intertropicales des Départements et
Territoires d’Outre-Mer confrontés aux cyclones. Dans le cadre d’une modélisation hy-
draulique (cf Partie 1.3.2), les observations et prévisions maritimes peuvent être utilisées
comme condition limite aval du modèle.
18
ou bien la BD ALTI 8 (Base de Données ALTImétrique) qui est un MNT maillé décrivant
le relief du territoire français à moyenne échelle (de 75 m à 1 km) et mis à disposition
gratuitement au grand public par l’IGN.
8. profesionnels.ign.fr/bdalti
19
1.3 Les modèles de prévision des crues
Deux familles de modèles sont utilisées pour la prévision des crues : les modèles
hydrologiques qui permettent en tête de bassin de prévoir les débits à un exutoire en
fonction des précipitations observées et prévues d’une part, et les modèles hydrauliques
qui simulent la propagation d’une onde de crue en aval de stations hydrométriques
d’autre part.
Figure 1.3 – Le cycle de l’eau et les processus simulés par les modèles hydrologiques et
de propagation : les débits aux exutoires 1 et 2 (points rouges) sont simulés à l’aide de
modèles hydrologiques qui tiennent compte des précipitations. Le débit à l’exutoire 3 en
aval est simulé par un modèle hydraulique en propageant les débits observés et/ou prévus
(dans le cas où l’on enchaîne les modèles) aux exutoires 1 et 2 dans la vallée décrite par des
profils topographiques et/ou un maillage issu d’un MNT.
20
1.3.1 Les modèles hydrologiques
Le modèle hydrologique, appelé aussi modèle pluie-débit, est une représenta-
tion simplifiée des processus du cycle hydrologique à l’exutoire d’un bassin versant,
comprenant la précipitation de pluie ou de neige sur les surfaces continentales et son
acheminement vers les cours d’eau qui drainent à la fois les eaux de surface et souter-
raines (Figure 1.3). En fonction des modèles, il arrive que l’évapotranspiration ainsi que
le transport et le stockage des eaux souterraines ne soient pas pris en compte ou bien
de façon implicite à travers la condition initiale du modèle. Un modèle pluie-débit peut
simuler les processus du cycle de l’eau sur les surfaces continentales de façon plus ou
moins explicite : il peut s’agir de simples relations statistiques reliant la pluie au débit
à l’exutoire, sans lien direct avec la physique des processus, nommées modèles concep-
tuels. À l’inverse, on peut aussi utiliser des modèles physiques fondés sur la résolution
des équations de la mécanique des fluides comme le modèle SHE (Système Hydrolo-
gique Européen) développé par plusieurs laboratoires européens (Abbott et al., 1986).
L’écoulement en milieu poreux est dans ce cas décrit par la loi de Darcy et les écoule-
ments de surface par un modèle d’ondes diffusantes (une approximation des équations
Saint-Venant). Les modèles semi-physiques utilisent des équations de transfert en milieu
poreux simplifiées, tels que Green-Ampt ou Horton avec les équations de Saint-Venant,
ou une de leurs simplifications pour les écoulements de surface. On peut citer comme
exemple le modèle LISFLOOD (Van Der Knijff et al., 2010).
A mi-chemin entre les modèles conceptuels et physiques, il existe les modèles à
réservoir tels que les modèles Génie Rural (GR) (Perrin et al., 2007) ou le Stanford wa-
tershed model (Crawford and Burges, 2004) qui considèrent l’ensemble des écoulements
du bassin versant comme un processus de stockage d’eau suivi de son évacuation. Le
fonctionnement du système hydrologique est alors géré par deux types d’équations : la
vidange et le bilan hydrique. Sur un bassin versant, un modèle hydrologique est implé-
menté de façon globale, distribuée ou semi-distribuée. Les modèles globaux comme les
modèles GR considèrent le bassin d’étude comme une seule unité qui produit un débit en
sortie. Dans ce cas, les paramètres et les équations représentent le comportement moyen
du bassin.
Les modèles distribués discrétisent le bassin versant en mailles régulières ou
irrégulières à partir d’un MNT (cf Partie 1.2.4), qui ont chacune un fonctionnement
indépendant comme le modèle MARINE (Modélisation de l’Anticipation du Ruisselle-
ment et des Inondations pour des éveNements Extrêmes (Braud et al., 2010; Roux et al.,
2011)). Les modèles semi-distribués ont une discrétisation spatiale limitée sous forme de
sous-bassins versants ou unités hydrologiquement similaires comme le modèle HEC-HMS
(Hydrologic Engineering Center’s Hydrologic Modeling System) (Knebl et al., 2005). La
réponse hydrologique d’un bassin versant peut être modélisée de façon événementielle ou
continue. Un modèle continu représente le comportement d’un bassin versant aussi bien
en période de crue qu’en étiage (période de plus basses eaux des rivières et des nappes
souterraines). Il permet de connaître l’état hydrique du système à tout moment mais
nécessite des données pluviométriques et d’évapotranspiration continues. Une simula-
tion des écoulements débutant quelques mois ou quelques années précédant la prévision
21
permet au modèle de s’affranchir des effets de la condition initiale. On peut citer par
exemple le couplage ISBA-TOPMODEL entre un modèle hydrologique distribué TOP-
MODEL (TOPography based hydrological MODEL) et le modèle de surface ISBA (In-
teraction Sol-Biosphère-Atmosphère) simulant l’humidité des sols ; le couplage permet à
TOPMODEL de tourner en continu afin d’améliorer la reproduction des débits de crue
(Vincendon et al., 2010). On peut aussi citer l’étude de (Berthet et al., 2009) sur 178
bassins versants en France qui montre que le modèle GRP (version horaire de Génie
Rural) donne de meilleures performances en mode continu.
Le modèle continu GRP (Tangara, 2005; Berthet, 2010), développé par l’IRS-
TEA (Institut National de Recherche en Sciences et Technologies pour l’Environnement
et l’Agriculture, ex-CEMAGREF), est un modèle hydrologique global à réservoirs cou-
ramment utilisé en opérationnel pour prévoir les débits jusqu’à une échéance de 72h dans
les SPC à partir d’observations et de prévisions de pluies fournies par Météo-France. Pour
réaliser une prévision à un exutoire, GRP utilise les chroniques horaires des pluies sur
les postes pluviométriques existant sur le bassin et d’évapotranspiration pour initialiser
le modèle ainsi que les précipitations prévues sur la plage de prévision. En sortie, GRP
fournit les débits moyens horaires prévus par le modèle sur la plage de prévision. La
structure du modèle GRP repose sur les composants suivants (Figure 1.4) :
• un réservoir de production S qui permet d’assurer un suivi des conditions
d’humidité du bassin ;
• une fonction d’ajustement de la pluie efficace (paramètre CORR adimen-
sionnel supérieur ou égal à 1) ;
• un hydrogramme unitaire HU de temps de base TB en heure ;
• un réservoir de routage quadratique R de capacité ROUT en mm (il s’agit
du contenu maximum autorisé par le réservoir).
22
Figure 1.4 – Schéma structurel du modèle GRP.
23
Le modèle peut fonctionner classiquement en ne tenant compte que des informa-
tions pluviométriques et d’évapotranspiration. Cependant, ce mode de fonctionnement
dans un contexte prévisionnel conduit la plupart du temps à des performances peu satis-
faisantes. De meilleurs résultats sont obtenus lorsque l’information fournie par le débit
observé à l’instant de prévision est exploitée par le modèle. Cette exploitation se fait par
l’intermédiaire d’une procédure de mise à jour du dernier débit observé. Elle se déroule
en deux temps :
• une mise à jour directe du réservoir de routage du modèle dont le niveau est
recalculé de manière à pouvoir générer un débit exactement égal au dernier
débit observé à l’instant de prévision. On agit donc sur un seul état du
système, celui le plus en aval du modèle, les autres n’étant pas affectés par
la mise à jour ;
• une exploitation de l’erreur de prévision faite par le modèle au pas de temps
précédent pour le pas de temps courant. On considère que l’erreur du modèle
présente une certaine autocorrélation et on cherche alors, par un procédé
simple de type autorégressif, à exploiter cette propriété.
9. www.cnrm.meteo.fr/spip.php ?article424
24
une idée de l’évolution de l’incertitude et de la dispersion des différents membres de
l’ensemble (Figure 1.5).
Figure 1.5 – Débits moyens journaliers prévus par la chaîne SIM-PE à Cailly-sur-Eure le
15/12/2011 : le graphique A détaille les 51 membres de la prévision d’ensemble avec les
seuils d’alerte moyen (marron) et haut (bleu), le graphique B synthétise l’information en
utilisant des plages colorées en fonction des quantiles d’incertitude min-max Q5-95, Q10-90
et Q25-75 (sources : SCHAPI).
25
1.3.2 Les modèles hydrauliques
amont aval
débits
débits
atténuation
propagation
diffusion
temps temps
Figure 1.6 – Propagation d’une onde de crue entre une section amont et une section aval.
26
Les modèles à base physique, quant à eux, sont dérivés des équations fonda-
mentales de l’hydraulique à surface libre gouvernant l’évolution spatiale et temporelle
des débits. Ils se basent sur la résolution des équations de Saint-Venant afin de déter-
miner la hauteur d’eau, la vitesse, le périmètre mouillé, la surface mouillée ainsi que les
pertes de charge dues aux frottements. Ils demandent donc une connaissance avancée de
la bathymétrie de la rivière, de la topographie des plaines d’inondation attenantes et des
coefficients de frottement à appliquer.
En considérant les écoulements uni-directionnels dans les lits mineurs et majeurs
de la rivière, il est possible d’utiliser des modèles hydrauliques mono-dimensionnels (1D)
comme Mascaret (Goutal and Morel, 2002) (cf Partie 2.1), HEC-RAS (Knebl et al.,
2005) (Hydrological Engineering Center’s River Analysis System) ou comme Mike-11
(Thompson et al., 2004). Ces modèles permettent de résoudre les équations de Saint-
Venant dans lequel le domaine de calcul est décomposé en sections en travers. Lorsque les
écoulements ont un caractère bi-dimensionnel marqué (par exemple en présence de che-
naux d’écoulement secondaires importants dans le lit majeur), les modèles hydrauliques
bi-dimensionnels (2D) sont plus adaptés. On peut citer Telemac-2D (Hervouet, 2007) ou
MIKE21 (Warren and Bach, 1992) qui résolvent les équations de Saint-Venant 2D avec
un schéma en différences finies (MIKE21) ou un schéma éléments finis (Telemac-2D).
Dans les deux cas, les schémas de résolution du système d’équations se basent sur une
représentation discrétisée dans l’espace appelé maillage de chacune des variables décri-
vant l’écoulement. Le maillage est construit à partir d’un MNT (cf Partie 1.2.4). Pour
un modèle opérationnel, le maillage doit conserver une taille raisonnable pour limiter
les temps de calcul. Sa densité est donc adaptée afin d’affiner les résultats fournis par
le modèle dans les zones d’intérêt. Parmi les modèles hydrauliques à base physique les
plus utilisés, on peut citer LISFLOOD-FP qui modélise l’écoulement dans le lit mineur
avec un modèle 1D et dans le lit majeur avec un modèle 2D (Bates and De Roo, 2000;
Durand et al., 2008).
Les modèles de prévision se basent sur des paramètres non-réifiables comme le
coefficient de rugosité de Strickler (Ks en m1/3 /s), pour caractériser les pertes de charge
relatives aux frottements de l’eau dans les lits mineurs et majeurs de la rivière dans un
modèle hydraulique ou bien le Curve Number (CN) pour estimer la pluie nette d’un
modèle pluie-débit avec la méthode SCS (Mishra and Singh, 2003) (Soil Conservation
Service). Ces paramètres sont estimés lors de la procédure de calibration du modèle,
appelée aussi phase de calage. La phase de calage vise, par une approche déterministe,
à ajuster les valeurs des paramètres de façon à obtenir le meilleur accord possible entre
les résultats simulés et ceux observés. De manière générale, cette phase consiste à choisir
un jeu de données à utiliser pour la calibration appelé crues de calage, un ou plusieurs
critères d’évaluation de la performance du modèle comme le critère de Nash-Sutcliffe (cf
Partie 1.5.3), et enfin une méthode pour identifier les valeurs optimales de ces paramètres
vis-à-vis des critères de performance retenus. Les paramètres retenus, dit "calés", sont
par la suite évalués lors de la phase de validation en utilisant un jeu de données différent
de celui du calage, appelé crues de validation.
27
1.4 La prévision opérationnelle des crues en France et ailleurs
L’objectif d’une prévision hydrologique est de quantifier de façon anticipée l’état
futur ou l’évolution temporelle des débits et des hauteurs d’eau des cours d’eau. En
comparant cette prévision chiffrée à une valeur seuil déterminée en fonction des enjeux,
les organismes en charge de la veille hydrologique sont en mesure de prévenir les autorités
d’un éventuel risque naturel. On qualifie d’opérationnel les organismes en charge de la
veille hydrologique lorsqu’ils sont en mesure de produire et de diffuser en temps réel les
informations utiles à une gestion optimisée de la ressource et des risques associés. Un
système opérationnel de prévision hydrologique se compose :
• d’un réseau d’observations météorologiques et hydrométriques (cf Parties 1.2.1
et 1.2.2) ainsi que d’un système de collecte en temps réel de ces données ;
• de modèles hydrologiques et/ou de propagation (cf Parties 1.3.1 et 1.3.2) ;
• d’un centre de prévision dont le personnel a pour mission de contrôler la
qualité des données d’entrée, de critiquer les prévisions issues des modèles
et de produire l’information sous forme de bulletins de vigilance ou d’alerte ;
• d’une entité relevant des autorités locales dont le but est si nécessaire d’or-
ganiser les interventions.
28
(division administrative de l’Allemagne). De nombreux exploitants de la ressource en
eau disposent par ailleurs aussi de leurs propres systèmes de prévision comme les sociétés
de production d’hydroéléctricité telles que HydroQuébec au Québec, EDF (Électricité
de France) ou la CNR (Compagnie Nationale du Rhône) en France. En France, c’est le
réseau Vigicrues 12 qui est en charge de la production et de la diffusion des bulletins de
vigilance crues et des prévisions associées.
29
La mission des SPC en période de risque d’inondation est concentrée sur la
surveillance, la prévision et la transmission de l’information pour les crues sur leur zone
de compétence, qui est interdépartementale. Lors des contacts avec les gestionnaires
de crises, les SPC peuvent compléter les informations diffusées régulièrement par des
éclairages ponctuels, ce qu’ils peuvent difficilement assurer pour chacun des départements
lorsque la crise est étendue. L’institution d’une personne relais au niveau départemental
doit permettre d’améliorer sensiblement la connaissance des conséquences locales des
crues prévues. Il a donc été convenu en 2011 de mettre en place au sein des DDT
(Direction Départementale des Territoires) la mission de RDI (Référent Départemental
pour l’appui technique à la préparation et à la gestion des crises d’Inondation) dans
les départements couverts par un SPC. Le RDI, en période de crise, traduit en termes
d’enjeux territoriaux et de conséquences à attendre, les données hydrologiques élaborées
et transmises par les SPC. De plus, la mission du RDI pour la gestion de crises consiste à
capitaliser les connaissances des enjeux locaux et les conséquences a posteriori des crues
significatives.
13. www.hydro.eaufrance.fr
30
sur le site Vigicrues la courbe des hauteurs et/ou des débits prévus ainsi que l’enveloppe
d’incertitude qui les encadre.
31
1
faire face au danger susceptible de se produire dans les 24h à venir. Sur cette échelle de
risques, la couleur rouge caractérise un risque de crue majeur menaçant la sécurité des
personnes et des biens. La couleur orange est affectée à un tronçon pour prévenir d’un
risque de crue génératrice de débordements importants, susceptible d’avoir un impact
significatif sur la vie collective et la sécurité des biens et des personnes. La couleur jaune
signifie un risque de crueduou
Bulletin de de
Service montée
Prévisionrapide des
des Crues eaux
Seine n’entraînant
Amont Marne amont pas de dommage
significatif. Lorsqu’il n’y a pas de vigilance particulière, le tronçon reste coloré en vert.
La carte se présente sous une vue nationale ou locale (Figure 1.8). Les cartes locales sont
accompagnées de bulletins d’information sur les domaines des SPC correspondants.
32
1
de passage en vigilance crue jaune, orange ou rouge, des pictogrammes pluie-inondation
et inondation sont alors ajoutés sur la carte de vigilance météorologique en les localisant
sur les départements concernés et en colorant ces derniers en adéquation avec le risque
météorologique ; un exemple est montré sur la Figure 1.10.
Figure 1.9 – Débits observés à St-Jean-de-Védas sur la Mosson dans l’Hérault entre le 19
et le 26 août 2015 à 10h.
33
1.5 Limiter et anticiper les crues sur le bassin de la Seine
Le fleuve Seine, long de près de 800 km, prend sa source à une altitude de
446 m NGF à Source-Seine en Côte-d’Or sur le plateau de Langres (Figure 1.11). Il tra-
verse les agglomérations de Troyes, Paris, Rouen et trouve son exutoire dans la Manche
entre Le Havre et Honfleur. Son bassin versant couvre une surface de 97000 km2 et
présente un relief peu escarpé ainsi qu’une relative homogénéité géomorphologique et
hydrologique. Les thèses de (Flipo, 2005; Brunstein, 1999) contiennent des éléments des-
criptifs détaillés du bassin versant de la Seine. Toutefois, on rencontre des situations de
fortes singularités selon les vallées comme des pentes importantes ou un fonctionnement
karstique notamment en tête de bassin. Le karst est une structure géomorphologique
résultant de l’érosion des roches calcaires qui engendre entre autres, la formation de
rivières souterraines, de pertes, de résurgences, de grottes et de gouffres. Ses principaux
affluents, l’Oise, la Marne, l’Yonne et l’Eure, couvrent respectivement des surfaces de
bassin versant de près de 17000 km2, 12900 km2, 10800 km2 et de 6000 km2.
Légende :
N
Bassin versant de la Seine
La Marne
PARIS
L’Eure TROYES
La
Se
Plateau de
in
L’Y
Langres
on
ne
Plateau du Morvan
Les crues de la Seine et de ses principaux affluents n’ont pas le caractère dan-
gereux pour l’homme que peuvent avoir les cours d’eau à réponse rapide mais peuvent
causer d’importants dommages à l’économie régionale. Le bassin de la Seine couvre
12% du territoire français et accueille le quart de la population française, un tiers de
sa production agricole (Maybeck et al., 1998) et 40% de l’industrie nationale. Le pre-
mier risque de catastrophe naturelle menaçant le bassin est le risque inondation. Afin
de développer une vision d’ensemble du fonctionnement du système formé par le réseau
hydrographique de la Seine, son bassin versant et la société humaine qui l’investit, un en-
semble de chercheurs de différents horizons (CNRS, INRA, CEMAGREF, Université et
34
Grandes Écoles) se sont réunis au sein du Programme Interdisciplinaire de Recherche sur
l’Environnement de la Seine (PIREN Seine 16 ). Si les grandes crues sont rares, leurs effets
dévastateurs leur ont valu d’être consignés depuis longtemps : la crue la plus importante
date de 1658 où la cote de 8.96 m a été atteinte à l’échelle du Pont d’Austerlitz à Paris,
34 cm au-dessus de celle de 1910, crue connue des Parisiens et référencée par des repères
de crues où de nombreux quartiers de Paris étaient sous l’eau. Lors de cette grande crue,
les députés, pour réamorcer la reprise du travail se sont rendus à l’Assemblée nationale
en barque (Figure 1.12).
Deux autres fortes crues sont survenues en 1924 et 1955. Depuis, le bassin de
la Seine n’a vécu aucune crue d’ampleur comparable, du fait de l’absence d’événements
pluviométriques et hydrologiques aussi intenses. Le SPC SAMA (Service de Prévision
des Crues Seine Amont Marne Amont) et l’EPTB (Établissement Public Territorial de
Bassin) Seine Grands Lacs, entre autres, luttent contre ce risque en anticipant le risque
inondation à partir de modèles hydrologiques et hydrauliques de prévision des crues ainsi
qu’en limitant les inondations en retenant une partie du débit des rivières en crue dans
les lacs-réservoirs Seine, Marne et Aube.
35
1.5.1 L’EPTB Seine Grands Lacs
L’EPTB Seine Grands Lacs est un Établissement Public Territorial de Bassin
qui a une double charge : celle de garantir la ressource en eau potable en soutenant
les étiages sur la Seine et ses affluents d’une part, et celle de lutter contre le risque
inondation en écrêtant les crues d’autre part. Sur le territoire du SPC, les lacs-réservoirs
Seine, Marne et Aube créés respectivement en 1966, 1974 et 1990 prélèvent et restituent
près de 720 millions de m3 d’eau chaque année dans le fleuve Seine et les rivières Marne et
Aube (Figure 1.14). L’exploitation des lacs est déterminée par un règlement d’eau défini
par arrêté inter-préfectoral. L’eau est dérivée et stockée de novembre à fin juin et restituée
de juillet à octobre, ces périodes pouvant varier en fonction des aléas climatiques.
Le lac-réservoir Seine (ou lac de la Forêt d’Orient), d’une capacité de stockage
de 208 millions de m3 peut dériver jusqu’à 180 m3/s de la Seine pour une restitution
moyenne de 18 m3/s en période d’étiage. En crues, jusqu’à 375 m3/s peuvent être dérivés
de la Marne (soit près de 80% du débit maximal connu) via le canal de prise (photo C
Figure 1.13) et stockés dans le lac-réservoir Marne (ou lac du Der-Chantecoq, photos A
et B Figure 1.13) d’une capacité de 349 millions de m3. Le soutien d’étiage peut fournir
une moyenne de 30 m3/s supplémentaires en Marne.
B C
Figure 1.13 – Le lac-réservoir Marne, photo A : vue aérienne du lac, photo B : l’église
de Champaubert en période d’étiage, photo C : le canal de prise.
36
Aube, de création plus récente, est en capacité de dériver 135 m3/s en crue et de restituer
en moyenne 14 m3/s en période d’étiage.
En cas de crue exceptionnelle, les études indiquent que les lacs-réservoirs per-
mettraient un abaissement de 60 cm du niveau de la Seine à Paris par rapport au pic
de la crue de 1910 (soit une diminution d’un tiers des dommages pour une crue compa-
rable). Cependant, leur efficacité reste limitée à la capacité d’écrêtage des lacs (forte en
début de saison hydrologique, faible en juin lorsque les lacs sont théoriquement pleins).
L’EPTB Seine Grands Lacs gère les trois lacs situés sur le territoire du SPC. Un réseau
de mesures hydrométriques qui lui est propre permet de contrôler les valeurs des débits
entrant et sortant de ces ouvrages. L’EPTB informe le SPC SAMA de l’état de rem-
plissage, des prises et des restitutions de chaque lac. Les deux structures s’échangent les
données collectées au sein de leurs propres réseaux de mesure. Une convention définit les
modalités de ces échanges d’information.
37
Aisne
CHÂTEAU- Marne
THIERRY
La Marne
EPERNAY Meuse
CHÂLONS-EN-
CHAMPAGNE
PARIS BAR-LE-DUC
VITRY-LE-
FRANÇOIS
La
L’O
ST-DIZIER
Sa
rn
ai
ul
n
NOGENT-
x
Légende :
SUR-SEINE Lac-réservoir
Aube Limite départementale
La Seine Aube
Territoire du SPC SAMA
Lac-réservoir
Unité Marne Amont
L’
TROYES Marne
Au
be
Unité Seine Amont
Aube
L’Aube Cours d’eau surveillés par le SPC SAMA
BAR- CHAUMONT
Cours d’eau non surveillés par le SPC SAMA SUR-AUBE
38
Saulx est son principal affluent en rive droite. Le climat de l’unité Marne Amont présente
d’Ouest en Est une accentuation nette de la pluviométrie, avec une moyenne de 700 mm
par an de pluie à Châlons-en-Champagne à 1100 mm par an sur les hauteurs des dé-
partements de la Haute-Marne et de la Meuse. Comme pour la Seine, le fonctionnement
hydrologique de la rivière n’est pas uniforme : on distingue le linéaire de la Marne en
amont de Vitry-le-François et l’ensemble du Perthois composé de la Saulx et de l’Ornain,
karstique, réactif à la pluie, qui représente la zone de genèse des crues, du linéaire en aval
de Vitry-le-François, zone crayeuse perméable où les apports intermédiaires sont rares
et où la large vallée constitue un vaste champ d’expansion des crues. Les principaux en-
jeux humains, économiques et environnementaux se concentrent dans les agglomérations
de Chaumont, Saint-Dizier, Bar-le-Duc, Châlons-en-Champagne, Epernay et Château-
Thierry. Depuis 2012, Saint-Dizier et Châlons-en-Champagne sont citées dans la liste des
TRI (cf Partie 1.4.2). L’unité Marne Amont est composée de 4 tronçons règlementaires :
• Marne Amont, de Marnay-sur-Marne au canal d’amenée du lac-réservoir
Marne ;
• Marne Der, du canal d’amenée à la confluence avec la Saulx ;
• Marne Moyenne, de la confluence à la limite entre l’Aisne et la Seine-et-
Marne ;
• Saulx-Ornain, de Montiers-sur-Saulx pour la Saulx et de Houdelincourt
pour l’Ornain à la confluence avec la Marne.
39
Légende :
Station limnimétrique avec courbe de tarage
Station limnimétrique sans courbe de tarage
Station disposant d’une prévision GRP
Station disposant d’une prévision Mascaret
Poste pluviométrique Météo France N
Radar de précipitations Météo France
Échelle :
40
1.5.3 Le modèle Marne Amont Global
Le modèle Marne Amont Global (MAG) est utilisé en opérationnel pour ef-
fectuer des prévisions depuis 2011 sur le tronçon Marne Amont (linéaire rouge sur la
Figure 1.14). Ce tronçon est sensible aux précipitations où l’on peut rencontrer des réac-
tions hydrologiques soudaines (de 5 à 120 m3/s sur une période de 24h en octobre 2006 à
Condes). Ce tronçon est constitué de plateaux forestiers calcaires incisés par des vallées
et comporte des zones karstiques au comportement hydrologique non linéaire et délicat
à anticiper. A l’origine, sur ce secteur, les prévisions étaient effectuées avec les modèles
Marne Valage (linéaire de la Marne débutant à Condes et s’achevant à Chamouilley)
crée en 2007 et mis à jour en 2010 et Marne Amont (linéaire de la Marne entre Marnay
et Condes) conçu en 2008 (Figure 1.16).
Chamouilley
Le Rongeant
Joinville N
Mussey
Saucourt
La Manoise
Le Rigolot Le
Ro
g no Humberville
n La Sueurre
La Falouse et Le Vaux
Légende :
Altitude (m) Lacrête
Condes
Modèle Marne
Chaumont
Amont, 2008
Source du
La
Louvières Rognon
S uiz
e
41
Ces deux sous-bassins versants ont été modélisés avec le code numérique d’hy-
draulique mono-dimensionnel Mascaret développé par EDF et le CEREMA (Centre
d’Études et d’expertise sur les Risques, l’Environnement, la Mobilité et l’Aménagement,
ex-CETMEF) qui résout les équations de St-Venant (cf Parties 1.3.2 et 2.1). Ils ont
été calés indépendamment en utilisant les observations de hauteur d’eau aux stations
de Chaumont, Condes, Mussey, Joinville et Chamouilley. La non prise en compte des
apports intermédiaires, qui conduit à une sous-estimation des hauteurs et des débits
modélisés, a été compensée en réduisant localement les coefficients de Strickler, accrois-
sant ainsi artificiellement le niveau d’eau. Ces deux modèles, utilisés à l’opérationnel au
SPC SAMA de 2007 à 2011, ont donné des prévisions satisfaisantes en hauteur mais
les débits étaient sous-estimés et le temps de prévision maximum n’était qu’au mieux
de 15h. Afin d’augmenter le temps de prévision maximum et d’obtenir des prévisions à
Saucourt, les deux modèles ont été fusionnés en un modèle global (MAG), en incluant le
bassin karstique du Rognon, qui peut, en crue, apporter autant de débit que la Marne.
Le modèle MAG est limité en amont par les stations hydrométriques de Marnay,
Villiers, Louvières, Lacrête et Humberville, stations d’entrée du modèle (ronds noirs
sur la Figure 1.16). Les stations de Chaumont, Condes, Saucourt, Mussey, Joinville et
Chamouilley sont des stations de sortie du modèle (triangles rouges). La courbe de tarage
de Chamouilley a été appliquée en condition limite aval du modèle. Le modèle comporte
5 conditions limites amont, 9 biefs, 4 confluences et 6 points de sortie (Figure 1.17).
Les données topographiques se composent de 111 profils en travers géoréférencés en lit
mineur et majeur qui ont été capitalisés par le SPC auprès de l’Entente Marne (syndicat
de rivière) et de la DDT de la Haute-Marne pour un linéaire modélisé d’environ 180 km.
42
Amont Marnay
Louvières 1
5
La Traire
Q1: Villiers*3
Chaumont
6
2 La Suize
Lacrête
Q3: Humberville*3
Condes
9
7 Q4: apport de la Falouse, du
La Manoise Vaux et du Rigolot (Villiers*2,5)
Q2: apport de la Sueurre 3
(Villiers*4)
Le Rognon 8
Saucourt
Mussey
Marnay : Débit d’entrée du modèle
Q1: Villiers*3 : Débit d’entrée simulant
les apports intermédiaires en multipliant Joinville
l’hydrogramme de Villiers par 3
Q5: apport du Rongeant
Condes : Station de sortie du modèle (Villiers*5,5)
4
La Marne : Cours d’eau modélisé
La Marne
5 : Numéro du bief
Aval Chamouilley
43
de la DREAL Champagne-Ardenne. Il faut noter que les données observées en débit ne
sont pas disponibles aux stations de Chaumont et de Joinville du fait de l’absence de
courbe de tarage valide. On dispose de 20 épisodes de crue au pas de temps horaire
pour les phases de calage et validation du modèle présentés dans le Tableau 1.2 où les
couleurs jaunes et orange indiquent si les seuils de vigilance crue jaunes et orange ont
été dépassés aux stations de Condes, Mussey et Chamouilley lors de ces événements.
Table 1.2 – Épisodes de crues utilisés pour le calage et la validation du modèle MAG. Les
seuils de vigilance jaunes et orange sont de respectivement 60 et 120 m3/s à Condes, 120 et 210
m3/s à Mussey et 170 et 350 m3/s à Chamouilley.
44
Hydrogramme
Qi Ai Écart-type
élémentaire
Q1 Villiers 3 0.8
Q2 Villiers 4 1.3
Q3 Humberville 3 1.8
Q4 Villiers 2.5 1.4
Q5 Villiers 5.5 2
D’autres indicateurs auraient pu être utilisés pour évaluer la qualité d’un modèle
de prévision des crues comme le calcul de l’erreur sur l’heure d’occurence des pics de
crue ou encore le calcul du biais sur la hauteur maximale observée ou au dépassement
des seuils de vigilance jaune, orange et rouge. Le critère de Nash-Sutcliffe a été retenu
car il permet d’évaluer l’erreur du modèle sur l’ensemble de la crue. Le calcul de ce score
sur des épisodes de crue seulement permet d’avoir une vision globale des performances
du modèle (aussi bien en montée, au pic qu’en décrue) sans accroître artificiellement sa
valeur en analysant des périodes hydrologiquement stables où les résultats sont excellents.
45
Longueur Station de Critère de Nash
Bief Portion m n
(m) sortie H Q
1 1 5172 24 14
2 1 21753 24 14 Chaumont 0.922
1 660 36 22 Condes 0.821 0.835
3
2 44842 24 14
1 578 20 13 Mussey 0.544 0.743
2 8200 24 18
4
3 300 14 8 Joinville 0.531
4 26383 24 14 Chamouilley 0.614 0.621
5 1 4150 24 14
6 1 27101 24 14
7 1 7600 9 7
1 16266 9 7
8 2 500 13 8 Saucourt 0.797 0.821
3 5680 9 7
9 1 10819 9 7
Table 1.4 – Coefficients de Strickler moyens des lits mineurs (m) et majeurs (n) retenus au
calage pour le modèle Marne Amont Global en fonction des biefs décrits dans la Figure 1.17.
46
120 1.8
Q Obs.
Q Mod. Qa=Villiers*3 1.6
Q Mod. Qa=Villiers*1
100
H Obs.
1.4
H Mod. Qa=Villiers*3
H Mod. Qa=Villiers*1
80 1.2
Hauteurs d'eau en m
Débits en m3/s
1
60
0.8
40 0.6
0.4
20
0.2
0 0
0 1 2 3 Jours 4 5 6
Figure 1.18 – Débits et hauteurs modélisés à Condes lors de la crue de validation d’avril
2001 avec et sans prise en compte des apports intermédiaires.
350
3
Q Obs.
Q Mod. 2.8
300
H Obs. 2.6
H Mod. 2.4
250 2.2
2
Hauteurs d'eau en m
Débits en m3/s
200 1.8
1.6
1.4
150
1.2
1
100
0.8
0.6
50 0.4
0.2
0 0
0 1 2 3 4 5 Jours 6 7 8 9
47
On montrera dans le Chapitre 3, que la correction des forçages amont Q1 , Q2 ,
Q3 , Q4 et Q5 où ont été intégrés les apports intermédiaires avec les coefficients multipli-
catifs Ai par une méthode séquentielle d’assimilation de données améliore les prévisions
des hauteurs d’eau et des débits sur l’ensemble du modèle MAG. Cette correction va
être effectuée via un nouveau coefficient multiplicatif a contrôlé par assimilation de don-
nées, qui une fois appliqué aux forçages amont Q1 , Q2 , Q3 , Q4 et Q5 , va permettre une
variabilité temporelle de la prise en compte des apports intermédiaires, essentielle par
exemple pour des événements estivaux ou de début d’automne quand le comportement
du karst est complexe ou quand la station de Villiers n’est pas représentative de l’en-
semble de la dynamique du bassin. En dépit de profils topographiques et bathymétriques
supplémentaires, au même titre que les forçages amont, le contrôle des Ks locaux par
assimilation de données permettrait de modifier le forçage local.
48
1.5.4 Le modèle Marne Moyenne
Le SPC SAMA utilise le modèle Mascaret Marne Moyenne (MM) pour effectuer
en temps réel des prévisions de hauteur d’eau aux stations de La Chaussée, Châlons-en-
Champagne et Damery et de débit uniquement à Châlons-en-Champagne sur la partie
moyenne de la rivière Marne en aval du lac-réservoir Marne (cf Partie 1.5.1). Ces stations
sont représentées par des triangles rouges sur la Figure 1.20). Les stations de La Chaussée
et de Damery ne disposent pas de courbe de tarage. La largeur du lit majeur au droit
de la station de La Chaussée (plus de 2 km) ne permet pas d’effectuer des jaugeages en
crue, lorsque la Marne sort de son lit. Damery se situe une dizaine de mètres en aval
d’un barrage manuel utile à la navigation sur le canal de la Marne, zone difficilement
jaugeable par l’UH de la DREAL Champagne-Ardenne.
Amont Frignicourt
Vitry-en-Perthois*1,2 1
3
La Saulx
2.1
La Chaussée 2.2
2.3
Châlons-en-Champagne 2.4
Aval
Ne disposant pas de stations hydrométriques pour simuler les débits des quelques
affluents crayeux de la Marne, les apports intermédiaires ont été pris en compte dans le
modèle en affectant un coefficient multiplicatif moyen, nommé AMM , de 1.2 aux débits de
la station d’entrée de Vitry-en-Perthois. On considère alors que la même quantité d’eau
49
s’écoule aux trois stations de sortie du modèle. Ce coefficient moyen a été déterminé
en comparant les hydrogrammes simulés et observés à Châlons-en-Champagne pour les
douze épisodes de crues de calage présentés dans le Tableau 1.5 ci-dessous où les couleurs
jaunes et orange indiquent si les seuils de vigilance crue jaunes et orange ont été dépassés
à la station de Châlons-en-Champagne lors de ces événements.
Q maximum à Châlons-
Épisode de crue Utilité
en-Champagne (m3/s)
avril 1983 650 validation chapitre 4
mars 2001 338 calage
avril 2001 305 calage
décembre 2001 295 calage
janvier 2002 346 calage
mars 2002 338 calage
décembre 2002 247 calage
janvier 2003 354 calage
janvier 2004 288 calage
mars 2006 260 validation
janvier 2007 230 calage
février 2007 272 validation
mars 2007 332 calage
décembre 2007 329 validation
février 2008 217 calage
mars 2008 294 validation
février 2010 264 calage
décembre 2010 412 validation
décembre 2011 330 validation
décembre 2012 319 validation
février 2013 375 validation
Table 1.5 – Épisodes de crues utilisés pour le calage et la validation du modèle MM. Les
seuils de vigilance jaunes et orange sont de respectivement 340 et 550 m3/s à la station de
Châlons-en-Champagne. La crue d’avril 1983 sera utilisée pour valider la maquette de
correction des paramètres du modèle MM par assimilation de données dans le Chapitre 4.
50
Longueur Écart- Écart- Station de
Bief Portion m n
(m) type m type n sortie
1 1 586 40 0 30 0
1 14000 30 3.6 13 2.5
2 2999 26 1 12 2.1 La Chaussée
3 14999 27 5.3 12 1.8
2 Châlons-en-
4 2999 40 0 15 0
Champagne
5 46999 40 2.6 15 4.3
6 2999 40 1.4 15 2.2 Damery
7 67469 40 0 20 0
3 1 3691 40 0 30 0
Table 1.6 – Coefficients de Strickler moyens des lits mineurs (m) et majeurs (n) retenus au
calage pour le modèle MM.
Les Ks de la portion 1 des biefs 1 et 3 ont été déterminés à partir de la littéra-
ture, car d’une part leurs distances respectives sont faibles (elles ont donc peu d’impact
sur l’écoulement) et d’autre part on ne dispose pas de station d’observation juste en aval
pour les caler correctement (idem pour les Ks de la portion 7 du bief 2). Les Ks de la
portion 4 du bief 2, au droit de la station de Châlons-en-Champagne, ont été déterminés
afin de simuler au mieux la courbe de tarage (Figure 1.21). Il est à noter que les Ks
n’ont donc pas été modifiés lors du calage. Les Ks des portions 1, 3 et 5 du bief 2 ont
été déterminés de façon à mettre en phase les hydrogrammes simulés et observés aux
stations de La Chaussée, Châlons-en-Champagne et Damery. On obtient des écarts-types
importants aussi bien pour m que n. Enfin, les Ks des portions 2 et 6 du bief 2 sont des
forçages locaux qui impactent juste les hauteurs modélisées au droit des stations de La
Chaussée et de Damery, leurs écarts-types étant plus faibles.
51
650
450
Débits en m3/s
400
350
300
250
200
150
100
50
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Hauteurs en m
Le modèle a été validé à partir d’un jeu de 8 crues différentes de celles ayant
participées au calage avec le coefficient multiplicatif d’apport AMM de 1.2 affecté à la
station de Vitry-en-Perthois et les Ks moyens présentés dans le Tableau 1.6. Les résultats
sont satisfaisants en hauteurs à La Chaussée, en hauteurs et en débits à Châlons-en-
Champagne. Ils sont mitigés en hauteurs à Damery du fait d’une part d’une description
topo-bathymétrique incomplète du secteur dans le modèle, et d’autre part de la présence
du barrage manuel à aiguilles situé une dizaine de mètres en amont de la station. La loi
de l’ouvrage théorique est connue et intégrée dans le modèle mais bien souvent différente
des manipulations pratiquées par les barragistes en basses et moyennes eaux (le barrage
est couché en crue aux alentours de 2 m à l’échelle limnimétrique de Damery). Les
résultats simulés à ces trois stations lors de la crue de validation de décembre 2010
sont présentés dans les Figures 1.22, 1.23 et 1.24. A La Chaussée, la dynamique du
limnigramme modélisé est respectée. On observe toutefois une mauvaise simulation du
second pic de crue. A Châlons, les débits simulés au premier pic sont surestimés d’environ
20 m3 /s et en retard de 12h au franchissement du seuil jaune au second. On a ici
simultanément un problème de quantité et de dynamique avec une prédominance de
"trop de débit" avec un coefficient multiplicatif moyen de 1.2 surement trop élevé au
premier pic et de "retard" avec des Ks trop faibles en amont de Châlons-en-Champagne
pour le second.
52
3.4
3.2
3
2.8
2.6
2.4
2.2
Hauteurs en m
2
1.8
1.6
1.4
1.2
1
0.8
H Obs.
0.6 H Mod.
0.4 Seuil jaune
0.2
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours
475
450
425
400
375
350
325
300
Débits en m3/s
275
250
225
200
175
150
125
100 Q Obs.
75 Q Mod.
50 Seuil jaune
25
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours
53
A Damery (Figure 1.24), le manque de données topo-bathymétriques et les
manœuvres du barrage rendent la simulation hasardeuse avec une surestimation d’un
mètre au premier pic de crue. Au second, le barrage est couché, l’écoulement est de
nouveau naturel. La simulation est améliorée malgré un retard de l’onde de crue comme
à Châlons-en-Champagne.
3.8
3.6
3.4
3.2
3
2.8
2.6
2.4
2.2
2
Hauteurs en m
1.8
1.6
1.4
1.2
1
0.8
0.6
0.4
H Obs.
0.2
H Mod.
0
-0.2 Seuil jaune
-0.4
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours
Figure 1.24 – Hauteurs observées et modélisées à Damery pour la crue de décembre 2010.
54
Chapitre 2
Contexte et implémentation de
l’assimilation de données
Sommaire
2.1 Le code d’hydraulique 1D Mascaret . . . . . . . . . . . . . . . 56
2.1.1 Forme non-conservative des équations de Saint-Venant . . . . . 56
2.1.2 Données nécessaires à un calcul . . . . . . . . . . . . . . . . . . 57
2.2 Les incertitudes liées aux observations et à la modélisation . 61
2.2.1 Incertitudes et erreurs . . . . . . . . . . . . . . . . . . . . . . . 61
2.2.2 Les incertitudes liées aux observations . . . . . . . . . . . . . . 61
2.2.3 Les incertitudes liées à la modélisation hydraulique . . . . . . . 62
2.3 L’assimilation de données . . . . . . . . . . . . . . . . . . . . . 63
2.3.1 État de l’art de l’assimilation de données appliquée à l’hydrau-
lique fluviale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.3.2 Formalisme de l’assimilation de données de type filtrage . . . . 66
2.3.3 La méthode d’assimilation BLUE . . . . . . . . . . . . . . . . . 67
2.3.4 Le filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . 67
2.3.5 Le coupleur OpenPALM . . . . . . . . . . . . . . . . . . . . . . 68
2.4 Implémentation de la maquette d’assimilation de données
DAMP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.4.1 Correction des forçages amont . . . . . . . . . . . . . . . . . . 71
2.4.2 Correction des coefficients de Strickler . . . . . . . . . . . . . . 73
2.4.3 Correction de la ligne d’eau . . . . . . . . . . . . . . . . . . . . 74
2.4.4 Cyclage de l’analyse . . . . . . . . . . . . . . . . . . . . . . . . 75
55
2.1 Le code d’hydraulique 1D Mascaret
Développé depuis plus de 20 ans par EDF R&D (Réseau et Distribution) et
le CEREMA (Centre d’Études et d’expertise sur les Risques, l’Environnement, la Mo-
bilité et l’Aménagement, ex-CETMEF), le logiciel Mascaret est un code de modélisa-
tion hydraulique mono-dimensionnelle (1D) à surface libre, basé sur la résolution des
équations de Saint-Venant. Il permet des calculs en régime fluvial permanent, fluvial
non-permanent et torrentiel. Mascaret est un logiciel libre téléchargeable depuis le site
internet du projet 1 avec son interface Fudaa-Mascaret qui facilite la construction et l’ex-
ploitation des modèles hydrauliques, ainsi que la visualisation des résultats du calcul.
Les équations de Saint-Venant 2 sont dérivées de celles de Navier-Stokes. Les équations
de Navier-Stokes sont les équations de base de la mécanique des fluides établies par
le mathématicien Henri Navier et le physicien Georges Stokes. Elles sont couramment
utilisées en sciences et en ingénierie pour modéliser l’océan, l’atmosphère, l’écoulement
des rivières ; elles sont composées de trois équations : une équation de conservation de la
masse (ou équation de continuité), une équation de conservation de la quantité de mou-
vement et une équation de conservation de l’énergie. Le code Mascaret n’utilise pas cette
dernière, car celle-ci exprime les variations de température dans le fluide, paramètre que
Mascaret ne simule pas.
56
avec V (x, t) la vitesse en m/s, g l’accélération de la pesanteur en m/s2 , Z(x, t)
la cote de la surface de l’eau en m et J représentant les pertes de charge linéiques. Ces
pertes résultent du frottement sur le fond et les berges du cours d’eau, elles sont évaluées
par la loi de Strickler (équation 2.3) :
Q2
J= , (2.3)
Ks2 S 2 R4/3
Description géométrique
Dans Mascaret, on nomme bief un tronçon de rivière délimitée à ses extrémités
par une condition limite ou une confluence, et composée de profils en travers décrivant
les lits mineurs et majeurs du cours d’eau. Les bornes des lits mineurs et majeurs sont
fixées par le modélisateur (Figure 2.1).
57
Figure 2.1 – Profil en travers de la rivière Saulx (affluent de la Marne pris en compte
dans le modèle MM). Les droites verticales bleues correspondent aux limites extérieures du
lit mineur ; les droites vertes correspondent aux limites du lit majeur.
Une confluence correspond à la convergence de deux cours d’eau. Elle est mo-
délisée par un nœud et est composée de trois extrémités libres appartenant à trois biefs.
Les équations résolues aux nœuds en régime fluvial non-permanent sont la continuité
des débits ainsi que l’égalité des cotes à chaque extrémité libre. Ainsi dans l’exemple
ci-dessous, Figure 2.2, les inconnues sont (Z2 , Q2 ), (Z3 , Q3 )et(Z6 , Q6 ) et les équations du
nœud n1 sont :
• la répartition des débits : Q2 + Q6 = Q3 ;
• l’égalité des cotes : Z2 = Z3 = Z6 .
58
Aval e4
b2 e3(Z3,Q3)
b3
n1 La Saulx
e2(Z2,Q2)
e6(Z6,Q6) e5
b1
e1 Amont
La Marne
Figure 2.2 – Schéma de la confluence entre la Marne et la Saulx du modèle MM. Le
modèle est composé de 3 biefs (b) ; deux hydrogrammes ont été imposés en condition limite
amont aux extrémités libres e1 et e5 ; une courbe de tarage a été imposée en condition
limite aval à l’extrémité libre e4 . Le nœud n1 composé des extrémités libres e2 , e3 et e6
modélise la confluence.
Discrétisation spatiale
La discrétisation spatiale du domaine est effectuée à travers le planimétrage
et le maillage. On appelle planimétrage la discrétisation verticale des profils en travers,
où dans chaque tranche d’eau, la section mouillée, le périmètre mouillé et le rayon hy-
draulique sont évalués. Pour calculer l’évolution d’une ligne d’eau d’un cours d’eau, le
59
domaine doit être discrétisé spatialement le long de l’abscisse curviligne en sections de
calcul, formant le maillage. Le pas de maillage indiquera la distance de discrétisation
entre deux sections de calcul le long de l’écoulement.
60
2.2 Les incertitudes liées aux observations et à la modéli-
sation
Le recensement des différents types d’incertitudes et leur éventuelle quantifica-
tion se base sur le document (SCHAPI-SPC, 2014) rédigé dans le cadre d’un chantier
commun entre le SCHAPI et les SPC sur l’estimation des incertitudes de prévision des
crues.
Ces données sont utilisées d’une part en temps réel en guise de condition limite
amont (ou aval pour les données maritimes), mais aussi lors de la phase de calage du
61
modèle. Dans le cadre de cette thèse et de la participation au groupe de travail sur
l’estimation des incertitudes organisé par le SCHAPI, nous avons tenté d’estimer l’in-
certitude liée aux hauteurs d’eau et aux débits mesurés. La hauteur d’eau mesurée par
le capteur est parfois différente de celle relevée visuellement. Les capteurs qui dérivent
sont alors recalés par les agents des UH lors de leur passage toutes les six semaines. Le
SPC SAMA dispose d’observateurs de crue (personnes physiques qui relèvent la hauteur
à l’échelle) aux stations importantes du réseau hydrométrique, notamment à la station
de Mussey (cf Figure 1.16). Les hauteurs d’eau relevées une fois par semaine par l’obser-
vateur de crue de Mussey ont été comparées à la hauteur brute mesurée par le capteur
utilisé en opérationnel sur plusieurs années. En considérant que la hauteur relevée par
l’observateur est précise, l’écart-type de l’erreur liée à la hauteur brute à la station de
Mussey est de 0,025 m. L’UH de la DREAL Champagne-Ardenne établit et tient à jour
la courbe de tarage de Mussey à partir de jaugeages au moulinet (micro-moulinet ou
saumon) ou par ADCP (cf Partie 1.2.2) qui ont lieu en moyenne une fois par mois.
La partie de la courbe de tarage de Mussey relative aux moyennes et hautes-eaux est
constituée d’un nuage d’une vingtaine de points de jaugeages. L’écart moyen calculé
entre les débits mesurés lors des jaugeages et les débits calculés par la courbe de tarage
à partir des hauteurs relevées par les jaugeurs est de 4,62 %, c’est-à-dire que pour une
hauteur d’eau brute, le débit calculé via la courbe de tarage varie en moyenne de plus
ou moins 4,62 %. Concrètement, pour une hauteur brute de 2 m à Mussey mesurée par
le capteur, on peut considérer que la hauteur réelle est comprise entre 1,975 et 2,025 m.
Après transformation en débit via la courbe de tarage et en tenant compte de l’écart
moyen de 4.62 %, on obtient un débit compris entre 107 et 122 m3 /s, intervalle qui est
loin d’être négligeable. Toutefois, cette erreur peut être fortement réduite en dissipant
l’incertitude liée à la dérive du capteur en interrogeant l’observateur de crue.
La géométrie du lit mineur est réalisée par des relevés terrestres (nivellements
classiques ou relevés GPS) et pour la partie sous l’eau (la bathymétrie) par sondage.
La précision des mesures dépend des contraintes imposées au géomètre dans le cahier
des charges : densité de points, précision de la mesure altimétrique et planimétrique. En
général, la précision altimétrique demandée est meilleure que 10 cm et la précision plani-
métrique est de l’ordre du mètre. La description du lit majeur se fait traditionnellement
par des relevés terrestres, souvent dans le prolongement du lit mineur. La précision de
ces levés est du même ordre que ceux réalisés pour le lit mineur. Depuis quelques années,
l’utilisation du LIDAR s’est imposée dès lors que les surfaces à couvrir sont importantes.
La précision de ces relevés est meilleure que le mètre en planimétrie et de l’ordre de 10
à 20 cm en altimétrie.
62
incertitudes liées :
• à des approximations physiques non négligeables, comme par exemple les
équations de Saint-Venant dérivées des équations de Navier-Stokes avec cer-
taines hypothèses simplificatrices ou l’application d’équations physiques à
des échelles où elles ne sont pas valides ;
• à une représentation simplifiée du système d’écoulement par divers para-
mètres : la géométrie du cours d’eau est représentée à partir de profils en
travers parfois épars, les profils sont alors interpolés pour créer des sections
de calcul intermédiaires dans le maillage.
63
pour déterminer la correction à imputer à la variable d’intérêt. Dans les deux approches,
les observations sont assimilées de manière séquentielles dans le temps. Dans le filtre
de Kalman, la matrice de covariance d’erreur d’ébauche évolue explicitement au fil des
cycles d’analyses. Cette étape peut-être effectuée algébriquement en utilisant le linéaire
tangent du modèle ou bien stochastiquement au sein d’ensemble d’intégrations dans le
cas d’un filtre de Kalman d’Ensemble (EnKF).
64
tion horizontale comprise entre 50 et 100 m, ne pourront pas être utilisées pour corriger
l’état hydraulique de modèle hydraulique de cours d’eau ayant une largeur inférieure à
50 m. De plus, la fréquence de revisite des satellites est de 22 jours, il peut donc s’écou-
ler plusieurs jours entre deux passages successifs. Ainsi les données satellitaires ont un
intérêt pour surveiller les cours d’eau ayant des dimensions suffisamment importantes et
peuvent être complétées par des données in situ. En accélérant la mise à disposition des
données SWOT, avec en complément des données observées in situ, on peut imaginer
une utilisation opérationnelle des données altimétriques pour la prévision des crues.
L’assimilation de données a aussi été utilisée pour corriger les forçages et les pa-
ramètres qui engendrent des erreurs de la ligne d’eau simulée par le modèle hydraulique.
(Jean-Baptiste et al., 2011), dans une étude menée sur le Rhône, incluent les forçages
dans le vecteur d’état en plus des hauteurs d’eau et des débits, pour les corriger par
assimilation de données en utilisant soit un filtre de Kalman soit un filtre particulaire.
Dans les deux cas, les résultats sont satisfaisants : le filtre de Kalman se distinguant
par son coût de calcul relativement faible, tandis que le filtre particulaire est en mesure
de prendre en compte les non-linéarités du modèle. On peut également citer l’étude de
(Lai and Monnier, 2009) qui assimile des observations satellitaires de hauteurs d’eau
avec un algorithme 4D-Var pour corriger notamment les apports latéraux d’un modèle
hydraulique 2D. Dans (Durand et al., 2008) et (Yoon et al., 2012), les auteurs ont montré
que l’assimilation de données altimétriques visant à corriger la bathymétrie de modèles
hydrodynamiques sur les fleuves Amazone et Ohio permettait d’améliorer la simulation
des hauteurs d’eau et des débits. (Ricci et al., 2011) utilise un filtre de Kalman Étendu
pour corriger les forçages amont de deux modèles hydrauliques Mascaret de prévisions
des crues combiné avec une procédure de correction de l’état hydraulique utilisant un
filtre de Kalman où la matrice de covariance d’erreur d’ébauche est invariante au cours
du temps. Cette procédure en deux temps permet d’améliorer les hauteurs d’eau prévues
sur les rivières Adour et Marne à des échéances de 6 et 12h (Figure 2.3).
Ces travaux se sont concrétisés avec la récente mise en place en opérationnel
de cette méthodologie pour la prévision des crues à travers la maquette DAMP (Data
Assimilation for Mascaret Prototype, cf Partie 2.4) au SPC SAMA ainsi qu’au SCHAPI
au sein de la POM (Plate-forme Opérationnelle pour la Modélisation) qui sera présentée
dans le Chapitre 5. Au niveau de la recherche, les publications sur l’application de
l’assimilation de données aux modèles hydrauliques sont nombreuses, mais à ce jour,
très peu de services opérationnels de prévision des crues utilisent à notre connaissance
ces méthodes en temps réel pour améliorer les prévisions de hauteurs d’eau et de débits.
65
Figure 2.3 – Diminution du pourcentage de l’erreur moyenne sur une période de 26 jours
avec la méthode de correction des forçages amonts (en rouge) en réanalyse (à −24h, en
pointillés) et en prévision (à +6h en trait plein) présentée dans (Ricci et al., 2011).
xa = xb + Kd , (2.5)
où K est la matrice de gain et d le vecteur d’innovation,
d = yo − H(xb ) . (2.6)
H, appelé opérateur d’observation représente l’opérateur qui permet de passer
des quantités modélisées dans l’espace des quantités observées.
66
2.3.3 La méthode d’assimilation BLUE
L’analyse BLUE (Best Linear Unbiased Estimator, (Gelb, 1974; Talagrand
et al., 1997)) est optimale quand la variance des erreurs est minimum. La matrice K qui
minimise la variance de l’état analysé est donnée par l’expression :
−1
K = BHT HBHT + R . (2.7)
∂y ∂H(x)
H= = . (2.8)
∂x ∂x
La matrice des covariances d’erreur de l’état analysé s’écrit :
A = (I − KH) B . (2.9)
Ai = (Ii − Ki Hi ) Bi , (2.14)
67
où Bi , Ri représentent les matrices de covariance d’erreurs d’ébauche et d’ob-
servation au temps i et Hi est le linéaire tangent de l’opérateur d’observation Hi au
temps i. La matrice des covariances d’erreur d’analyse Ai est calculée à chaque pas
d’assimilation par l’équation 2.14. Les équations 2.10 et 2.14 sont les équations du filtre
de Kalman (Todling and Cohn, 1994). A travers la matrice des covariances d’erreur
d’analyse Ai , le filtre de Kalman donne une estimation de la qualité de l’état analysé à
chaque temps i sur une fenêtre d’assimilation. Le filtre de Kalman étendu (ou extended
Kalman filter, EKF ) consiste en l’extension du filtre de Kalman aux modèles et/ou opé-
rateurs d’observations faiblement non-linéaires. Le filtre de Kalman d’ensemble (EnKF,
(Evensen, 2007)) consiste en la version stochastique du filtre de Kalman, c’est-à-dire
que la matrice de gain K est estimée stochastiquement par un ensemble de réalisations
du modèle. Cette méthode étant coûteuse en terme de puissance de calcul, des efforts
sont actuellement poursuivis au niveau recherche pour limiter son coût. Comme cette
thèse vise une application opérationnelle, nous nous intéresserons plus particulièrement à
l’EKF qui nécessite moins de réalisations du modèle et qui prend en compte en partie les
non-linéarités. Les lecteurs peuvent se référer aux thèses de (Barthélémy, 2015; Rochoux,
2014) qui explicitent, entre autres, les différentes méthodes basées sur le filtrage.
3. www.onera.fr
68
par exemple le nombre de composants utilisés, si ces derniers sont lancés de manière
séquentielle ou parallèle. Les composants sont des unités appartenant à une branche.
Plusieurs unités disposées à la suite sur une même branche sont lancées séquentielle-
ment, des unités disposées sur des branches différentes sont lancées en parallèle. Les
unités communiquent via des connexions mettant en relation les données produites par
un code avec celles nécessaires à un autre. Lors de la création de l’exécutable Open-
PALM, les unités sont encapsulées comme sous-programme d’un programme généré par
OpenPALM. La Figure 2.4 représente l’interface PrePALM de la maquette DAMP dé-
veloppé par le CERFACS qui permet l’utilisation de méthode d’assimilation de données
pour la prévision des crues. Le coupleur OpenPALM est peu intrusif, c’est-à-dire qu’il
ne nécessite pas de réaliser des modifications importantes des codes existants.
69
teur, au nombre de simulations perturbées sont lus dans la boite read_damocles de la
branche principale (en bleu). La simulation d’ébauche est calculée au niveau de la boite
Mascaret et les résultats envoyés dans la branche verte si l’on souhaite corriger les Ks ou
la branche rose si l’on souhaite corriger les forçages amont. C’est dans l’une de ces deux
branches, munies de la fonctionnalité PARASOL afin de lancer en parallèle les simula-
tions perturbées, que sont calculés les vecteurs analysés. Les paramètres analysés sont
envoyés dans la boite mascaret_2 pour le calcul de la simulation analysée. Des indices
de synchronisation (ovales oranges 1 et 2) permettent d’indiquer à la branche principale
que les calculs dans les branches PARASOL sont terminés. Les communications entre
les différentes branches et boites sont représentées par des traits de couleur en pointillés.
70
2.4 Implémentation de la maquette d’assimilation de don-
nées DAMP
L’application de la chaîne d’assimilation de données au modèle Mascaret sera
présentée dans cette partie. En se basant sur une approche d’assimilation de type BLUE,
c’est-à-dire un filtre de Kalman sans évolution des matrices de covariance d’erreur
d’ébauche B, deux types d’assimilation ont été mis en place à l’intérieur de la même
chaîne (Ricci et al., 2011). D’une part, l’assimilation modifie l’état hydraulique du sys-
tème, c’est-à-dire les hauteurs d’eau et les débits simulés par le modèle, au cours de son
évolution temporelle de façon à se rapprocher des mesures aux stations d’observations
au fur et à mesure qu’elles sont disponibles. Nous appellerons dans la suite cette correc-
tion "correction de la ligne d’eau". On ne cherche pas avec cette approche à corriger les
sources d’erreur qui engendrent l’écart entre l’état hydraulique simulé et les observations.
D’autre part, avec la seconde approche, on assimile les observations sur un intervalle de
temps pour corriger dynamiquement les forçages amont ou les coefficients de Strickler qui
impactent les simulations du modèle sur cet intervalle. On tente ici de corriger les para-
mètres qui sont potentiellement des sources d’erreur du modèle afin d’avoir une meilleure
performance du modèle en prévision. Pour mener à bien ces corrections, le CERFACS a
développé la maquette DAMP (Data Assimilation for Mascaret Prototype) qui englobe
le code Mascaret, les routines d’assimilation, le schéma PrePALM, les fichiers de para-
mètres relatifs au modèle Mascaret et à l’assimilation de données ainsi qu’un pilote qui
permet de cycler les calculs avec ou sans assimilation de données c’est-à-dire de décaler
la fenêtre temporelle au fur et à mesure que les étapes d’analyse et de prévision sont
effectuées.
71
paramétriques linéaires de type :
¯
loi(t) = a ∗ loi(t − c) + b , (2.15)
Le but étant d’estimer de manière séquentielle les paramètres (a, b, c). Les va-
leurs d’ébauche des paramètres de contrôle sont xb = (ab , bb , cb ) = (1, 0, 0). La taille de
la matrice d’erreur de covariance d’ébauche est de (3 ∗ s)2 où s est le nombre de forçages
amont à corriger. On peut utiliser les écarts-types des coefficients A calculés lors du
calage pour spécifier les valeurs de la matrice B. On considère que les erreurs des para-
mètres d’ébauche (ab , bb , cb ) ne sont pas corrélées et que leurs variances sont déterminées
statistiquement afin de représenter la variabilité des forçages amont.
L’opérateur d’observation non-linéaire généralisé G relie les éléments du vecteur
de contrôle aux observations aux stations de mesure. Il peut être vu comme une intégra-
tion du modèle Mascaret sur toute l’étendue de la simulation avec des lois déterminées
aux extrémités libres par le contrôle, accompagnée d’une sélection des hauteurs d’eau ou
des débits calculés aux points d’observations dans l’intervalle temporel d’assimilation.
L’opérateur G est la composition de deux fonctions mathématiques dont la première
est le modèle numérique M et la seconde la sélection aux points d’observations S où
G(x) = S ◦ M(x). G est le linéaire tangent de G calculé au voisinage de l’ébauche. La
valeur de la matrice Jacobienne G peut être approchée au voisinage de l’ébauche xb de
la façon suivante :
72
Ces valeurs sont un moyen de limiter les corrections en dehors de la zone de validité de
linéarité. En considérant que ces paramètres analysés évoluent peu pour des échéances
courtes, en conservant ces paramètres constants durant la période de prévision, on peut
espérer une amélioration des débits et des hauteurs prévues par le modèle, au moins
à courte échéance. La stationnarité des erreurs relatives aux paramètres analysés est
donc une hypothèse essentielle pour améliorer les hauteurs d’eau et les débits prévus
aux stations d’observations.
73
observations aberrantes, on rejette les valeurs d’observation qui diffèrent excessivement
de l’ébauche. La sélection s’effectue en comparant le vecteur d’innovation avec la valeur
de l’ébauche à la station d’observation. Si le vecteur d’innovation dépasse un pourcentage
de la valeur l’état hydraulique calculé avec les Ks de l’ébauche, l’observation n’est pas
assimilée. En considérant que les Ks des lits mineur et majeur évoluent peu dans le temps
pour des échéances courtes, on peut espérer une amélioration des valeurs prévues par le
modèle, au moins à courte échéance, en conservant ces paramètres constants durant la
période de prévision. La stationnarité des erreurs relatives aux Ks analysés est donc une
hypothèse essentielle pour améliorer les prévisions des hauteurs d’eau et des débits aux
stations d’observations.
74
multiplication matricielle δZ = Kd où d est le vecteur d’innovation de taille p d’écart
aux observations d = y o − H(xb ) et K la matrice de gain définie par l’équation 2.7.
δZ correspond au vecteur de correction de la hauteur d’eau aux points d’observation
avec δZ = (δZ1 , ..., δZi , ..., δZp ), i ∈ 1, ..., p. Une fois l’incrément analysé, ce dernier est
spatialisé de part et d’autre du point d’observation pour répartir la correction sur la
ligne d’eau. L’incrément d’analyse relatif à δQ est par la suite obtenu par linéarisation
de la courbe de tarage à partir de l’incrément de δZ et spatialisé en amont et en aval de
la station d’observation.
L’une des deux premières corrections peut être enchaînée automatiquement avec
la troisième. DAMP permet de rejouer un événement passé pas à pas en cyclant automa-
tiquement les calculs (mode réanalyse). Il permet aussi, dans un contexte opérationnel,
de lancer une analyse à un seul pas de temps correspondant au moment où l’on souhaite
avoir une prévision, nommé temps de base (T base) du modèle hydraulique Mascaret de
l’état hydraulique d’un cours d’eau donné.
L’utilisation de DAMP se fait par l’intermédiaire d’un pilote qui permet de
lancer les calculs avec ou sans assimilation de données. Ce pilote repose sur un script
KornShell. Il est chargé non seulement de lancer l’exécutable OpenPALM mais aussi
de modifier en fonction des données fournies en entrée par l’utilisateur, les fichiers de
paramètres utilisés par Mascaret. Pour l’assimilation, c’est aussi lui qui gère les fichiers
de sortie ainsi que les répertoires destinés à les accueillir. L’utilisateur doit renseigner
au pilote cinq paramètres temporels et un mot-clé dans un fichier de paramétrage en
fonction de ce qu’il veut calculer :
• T base_ini : date du premier temps de base qui est l’instant à partir duquel
on souhaite bénéficier d’une prévision ;
• T base_end : date du dernier temps de base ;
• T ime_step_replay : pas de temps du cyclage de l’analyse ;
• Spinup_length : durée de la simulation avant le temps de base, pour un
cycle, le calcul débutera à T base − Spinup_lengths ;
• F orecast_length : échéance de prévision au-delà du temps de base ;
• Run_type : type de méthode d’assimilation, DRY RU N (sans assimilation
de données), CT L_W AT ERLIN E (correction de la ligne d’eau), CT L_LOI
(correction des forçages amont), CT L_KS (correction des Ks ) ou l’un des
enchaînements CT L_LOI_W AT ERLIN E ou CT L_KS_W AT ERLIN E.
75
Le pilote permet de cycler l’analyse entre un premier temps de base T base_ini
et un dernier temps de base T base_end avec un pas d’avancement T ime_step_replay
qui correspond à la durée entre chaque cycle (ou fenêtre temporelle). On appelle fenêtre
temporelle la période simulée entre T base−Spinup_length et T base+F orecast_length.
Pour effectuer un calcul à un seul temps de base, comme en condition opérationnelle,
T base_ini = T base_end. La simulation débutera à T base_ini - Spinup_length et se
terminera à T base_end + F orecast_length et le paramètre T ime_step_replay n’est
dans ce cas pas utilisé. Les périodes sur lesquelles les données observées sont assimilées et
comparées aux valeurs simulées pour la correction de la ligne d’eau et pour les corrections
des forçages amont ou des Ks sont paramétrables ; elles sont appelées périodes d’assimi-
lation. La période comprise entre le début de la simulation et la fenêtre d’assimilation
est appelée période d’ajustement du modèle ou temps d’initialisation du modèle. Ce laps
de temps permet de réduire (voire de s’affranchir) de l’effet de la condition initiale. Les
périodes d’ajustement et d’assimilation constituent le Spinup_length.
L’implémentation de l’enchaînement des deux étapes d’assimilation est présen-
tée dans la Figure 2.5 ci-après. On considère une fenêtre d’assimilation de quatre jours
composée d’une période de réanalyse de trois jours et d’une période de prévision d’une
journée. On dispose d’observations et d’une simulations horaires des hauteurs d’eau.
Analyse Prévision
Observations
H modèle
H CTL_LOI ou CTL_KS
H CTL_LOI_WATERLINE
Hauteurs d’eau
ou CTL_KS_WATERLINE
Temps
de base
Période d’assimilation
CTL_WATERLINE
76
Durant les trois premiers jours de l’événement, la simulation débute avec une
condition initiale standard fixée par l’utilisateur mais au bout de trois jours, le cycle
suivant pourra utiliser l’état hydraulique sauvegardé en tant que condition initiale. Dans
un premier temps, une intégration des hauteurs d’eau simulées par le modèle est réalisée
(courbe noire). Á partir des valeurs observées durant les deuxième et troisième jours, on
détermine les paramètres (a, b, c) ou (m, n) optimaux. Une nouvelle simulation utilisant
ces corrections est alors réalisée. On obtient la courbe verte de la Figure 2.5. En sélection-
nant les mots-clés CT L_LOI ou CT L_KS, l’analyse s’arrêterait ici et on obtiendrait
les valeurs prévues par la courbe verte à partir du jour 4.
L’utilisateur souhaite ajouter la correction de l’état hydraulique avec les mots-
clés CT L_LOI_W AT ERLIN E ou CT L_KS_W AT ERLIN E. La première étape de
correction des paramètres est alors suivie d’une seconde étape. Une nouvelle intégration
des hauteurs d’eau simulées par le modèle aux paramètres corrigés est alors réalisée.
Durant le troisième jour, les observations à chaque pas de temps sont assimilées pour
corriger la condition initiale du modèle. Le modèle repart d’un état plus proche de
l’observation et évoluent de façon discontinue en fonction de la prochaine observation
disponible. Au temps de base, la simulation repart d’une condition initiale plus proche
de la dernière observation. Les paramètres analysés avec les mots-clés CT L_LOI et
CT L_KS sont appliqués sur la période de prévision. L’effet de la correction de la ligne
d’eau se dissipe rapidement en prévision car le modèle n’est plus contraint au-delà du
temps de base contrairement à la correction paramétrique où on conserve les paramètres
(a, b, c) ou (m et n) analysés sur la période de prévision.
Lors d’un rejeu d’un événement passé, il est possible de cycler l’analyse. Dans
ce cas, la fenêtre temporelle est décalée temporellement du T ime_step_replay et une
nouvelle analyse est alors effectuée.
Il est aussi possible d’enchaîner les trois types de corrections. Le calcul des pa-
ramètres optimaux et la correction de l’état ne sont pas effectués en une seule fois par
l’intermédiaire d’un nouveau mot-clé CT L_LOI_KS_W AT ERLIN E mais en deux
temps : on corrige dans un premier temps les forçages amont par assimilation de don-
nées (CT L_LOI), puis dans un second temps, on corrige les Ks et l’état hydraulique
(CT L_KS_W AT ERLIN E) en utilisant en guise d’ébauche les coefficients (a, b, c) ana-
lysés auparavant. Dans la suite de cette étude, on nommera étape 1, la correction des
forçages amont, étape 2 la correction des Ks par assimilation de données et étape 3
la correction de la ligne d’eau. Avant d’appliquer la maquette d’assimilation de données
DAMP à des modèles de prévision des crues, les algorithmes de correction ont été vali-
dés à partir d’expériences jumelles réalisées avec des modèles d’onde de crue, notamment
dans le cadre de la thèse de Sébastien Barthélémy (Barthélémy, 2015).
77
78
Chapitre 3
Sommaire
3.1 Estimation des apports intermédiaires par assimilation de
données pour le modèle Marne Amont Global (MAG) . . . . 80
3.1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.1.2 Article publié dans le cadre de la conférence SimHydro 2012 . . 81
3.1.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
3.2 Application d’un Ks local contrôlé par assimilation de don-
nées pour le modèle Marne Amont Global (MAG) . . . . . . 94
3.2.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.2.2 Article publié dans la revue Journal of Hydrology . . . . . . . . 94
3.2.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.3 Correction de la dynamique du modèle par assimilation de
données pour le modèle Marne Moyenne (MM) . . . . . . . . 109
3.3.1 Impact d’une modification des Ks de longues distances . . . . . 110
3.3.2 Correction des Ks sur de longues distances par assimilation de
données . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
79
3.1 Estimation des apports intermédiaires par assimila-
tion de données pour le modèle Marne Amont Global
(MAG)
3.1.1 Introduction
L’article (Habert et al., 2013) ci-dessous a été publié suite à la conférence SIM-
HYDRO 2012 1 organisée par la SHF (Société Hydrotechnique de France). Il fait suite
aux premiers travaux sur l’assimilation de données menés au CERFACS en partenariat
avec le SCHAPI. Ils portaient sur la correction des forçages et de l’état d’un modèle hy-
draulique de prévision des crues. Les travaux de (Ricci et al., 2011) ont montré que, sur
le bassin de l’Adour, l’assimilation de données de hauteurs d’eau avec un filtre de Kal-
man étendu (EKF) pour le modèle hydraulique 1D Mascaret (cf Partie 2.3.4) a permis
d’améliorer les prévisions à une échéance d’une heure de 60% et de 25% à une échéance
de prévision de 12h.
L’article (Habert et al., 2013) présente l’adaptation de ces travaux pour le bas-
sin versant de la Marne. La présence de zones karstiques rend difficile la quantification
des débits amont et des apports intermédiaires dans le modèle MAG (cf Figure 3.1). Le
besoin d’une estimation cohérente des apports karstiques et des affluents non-modélisés
a motivé la mise en place d’une procédure d’assimilation de données en utilisant les
observations de débit de quatre stations hydrométriques. On montrera dans cet article
que la correction des forçages amont (Q1 , Q2 , Q3 , Q4 et Q5 ) via ces coefficients multipli-
catifs Ai (cf Partie 1.5.3) par une méthode séquentielle d’assimilation de données (avec
le mot-clé CTL_LOI, cf Partie 2.4.4) améliore les prévisions des hauteurs d’eau et des
débits sur l’ensemble du modèle. Cette correction permet une variabilité temporelle de
la prise en compte des apports intermédiaires, essentielle par exemple pour des événe-
ments estivaux ou de début d’automne, quand le comportement du karst est complexe
ou quand la station de Villiers n’est pas représentative de l’ensemble de la dynamique
du bassin.
1. www.simhydro.org
80
Amont Marnay
Louvières 1
5
La Traire
Q1: Villiers*3
Chaumont
6
2 La Suize
Lacrête
Q3: Humberville*3
Condes
9
7 Q4: apport de la Falouse, du
La Manoise Vaux et du Rigolot (Villiers*2,5)
Q2: apport de la Sueurre 3
(Villiers*4)
Le Rognon 8
Saucourt
Mussey
Marnay : Débit d’entrée du modèle
Q1: Villiers*3 : Débit d’entrée simulant
les apports intermédiaires en multipliant Joinville
l’hydrogramme de Villiers par 3
Q5: apport du Rongeant
Condes : Station de sortie du modèle (Villiers*5,5)
4
La Marne : Cours d’eau modélisé
La Marne
5 : Numéro du bief
Aval Chamouilley
81
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.
Etienne Le Pape
SCHAPI, Toulouse, France
Etienne.lepape@developpement-durable.gouv.fr
Olivier Thual
URA1875/CERFACS and INPT, CNRS, IMFT, Toulouse, France
thual@imft.fr
KEY WORDS
Abstract
The present study describes the assimilation of discharge in-situ data for operational flood forecasting. The study
was carried out on the Marne river (France) catchment where lateral inflows's uncertainty are important due to karstic
areas. This source of error was partly accounted for using an Extended Kalman Filter algorithm built on the top of a
monodimensional hydraulic model. The lateral inflows were sequentially adjusted over a sliding 48-hour time window.
The correction leads to a significant improvement in the simulated water level and discharge in re-analysis and forecast
modes. These results pave the way for the operational use of the data assimilation procedure for real-time forecasting
at the French flood forecasting service.
1. INTRODUCTION
In 2006, 9% of the French population was exposed to flood risk, one of the greatest natural risks causing
damage and human loss [21]. The French flood forecasting service (SCHAPI - Service Central
d'Hydrométéorologie et d'Appui à la Prévision des Inondations), in collaboration with the 22 local flood
forecasting centers (SPC- Service de Prévision des Crues) produces a twice-daily broadcast vigilance map
available to governemental authorities and general public (http://www.vigicrues.gouv.fr).
In order to effectively support emergency management and decision making it is essential to properly
characterize the different sources of uncertainty in hydrologic forecasts [3][25]. The reliability of flood
forecasting strongly depends on the quality of the hydraulics model, its boundary conditions (upstream and
_______________________________________________________________________________________
1
Corresponding author
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.
lateral inflow), hydrological initial conditions and numerical parameters. Much effort has been directed
towards the estimation of hydrologic and hydraulic model parameters especially for the statistical analysis of
parameters uncertainties usually using a historical batch of data, assuming time-invariant parameters [6][24].
In practice, in addition to model simulation and batch calibration, the reliable operation of a watershed
system requires a continuous correction of the forecast as observational data become available [18]. The
application of data assimilation (DA) [1], which optimally merges information from model simulations and
independent observations with appropriate uncertainty modelling, has proved promising in improving
prediction accuracy and quantifying uncertainty [11][13][14][16]. Still, the use of such methods by
operational agencies is rare and the need for implementing effective DA in the flood forecast process is
increasing when flood frequency is likely to increase as a result of altered precipitation patterns triggered by
climate change [5].
DA offers a convenient framework to overcome some of the limits of the calibration processes:
observations and simulation outputs are combined to estimate an optimal set of model parameters and
consequently reduce uncertainties in the simulation. With the increasing abundance of new in-situ and
remote sensing observations, DA was applied in several studies formulated in an operational framework. A
great number of implementations were made on top of hydrogical models in order to improve soil moisture
initial conditions. Thirel et al. (2010a,b) [22][23] assimilated past discharges to obtain a better initial soil
moisture state and improve ensemble streamflow simulations. Dechant and Moradkhani (2011a) [4] used
SNOTEL data to improve the estimation of snow water storage and consequently improve the ensemble
streamflow prediction from the National Weather Service River Forecast System (USA). Seo et al. (2003,
2009) [19][20] explored variational assimilation of hydrologic and hydrometeorologic data into operational
hydrologic forecast. The Kalman Filter (KF) [8] algorithm is the most commonly used sequential DA
algorithm which results in the optimal estimation for linear dynamic models with Gaussian uncertainties. It
was extended to non linear problems using a first order approximation of Taylor series, namely Extended
Kalman Filter (EKF), or an ensemble approach for the Ensemble Kalman Filter (EnKF) [7]. These
algorithms are also now widely being used in hydrology and hydraulics for the estimation of model states
[10][12] as well as model parameters [15].
In the context of hydrodynamics modelling, Ricci et al. (2011) [17] showed that the EKF assimilation of
water level observations on the Adour catchment with the 1D hydraulic model MASCARET [9] developed
by LNHE (Laboratoire National d'Hydraulique et d'environnement) from EDF-R&D (Electricité De France
Recherche et Développement) enabled to improve flood forecasting of 60% at a one hour lead time and of
25% at a twelve-hour lead time. In the present study, a similar approach is applied to flood forecasting in the
Marne catchment where the presence of karstic areas makes it hard to correctly specify upstream and lateral
inflows to the model. In the framework of operational flood forecasting, the SAMA (Seine Amont Marne
Amont) SPC has developed two different models on two limited areas of the Marne catchment described in
Figure 1. On these limited areas, the batch calibration of the model was possible and the uncertainties due to
lateral inflow were accounted for by artificially adjusting the Strickler coefficients. Still, in order to increase
the forecast time on the Marne catchment, both models were recently merged into a global model far more
difficult to calibrate. The need for a coherent estimation of the so far neglected inflows, which represent the
dynamics of the karstic areas, and the unmodeled tributaries, which represent the dynamics of catchment
areas, motivates the use of a DA procedure using in situ measurements. A realistic and time varying
estimation of the lateral inflows is then achieved using a sequential data assimilation approach on 10 flood
events over 2001-2010. It is shown that, in spite of certain limitations described further on, this approach
provides a reliable estimate of the lateral inflows and leads to the improvement of the flood forecast at
meaningful lead times for operational use.
The structure of the paper is as follows. Section 2 provides a description of the Marne catchment. It also
provides the arguments for building a DA scheme to estimate lateral inflows. The DA method is described in
Section 3 along with the choices made for the implementation of the algorithm. Section 4 gives an overview
of the results, highlighting the merits of the approach for flood forecasting along with its limitations on a
representative flood event. Conclusions are given in Section 5.
The Marne catchment is a karstic basin located East of the Paris basin. The Marne river is a 525 km long
tributary of the Seine river, its source is located in the Langres Plateau in the Haute-Marne department
(Figure 1). The study is carried out on the upstream part of the river that is strongly sensitive to local
precipitation and where flash floods (5 to 120 m3.s-1 within a 24h period in October 2006 at Condes) occur.
The landscape of the catchment is defined by forested plateaus, incised valleys and presents numerous
limestone outcrops. Therefore the catchment area includes karstic areas and tributaries whose behaviour is
highly non linear and thus difficult to forecast.
Figure 1: The Marne catchment, the sub-models are circled with dashed lines. The hydrological observing
stations S1, S2, S3 and S4 are represented by black triangles. Lateral inflows Q1, Q2, Q3, Q4 and Q5 are
represented by black dots and the observing stations on which they depend are in parentheses.
As of today, the operational forecast relies on the integration of two sub-models on the Marne Amont
and Marne Vallage areas (Figure 1). These models are based on the mono-dimensional numerical code
MASCARET for hydraulics describing the Saint-Venant (Shallow Water) equations and developed by EDF-
R&D and CETMEF (Centre d'Etudes Techniques Maritimes Et Fluviales). They were calibrated
independently using water level in-situ measurements from five hydrological observing stations (Chaumont,
Condes, Mussey, Joinville and Chamouilley). The underestimation of the lateral inflow that leads to the
underestimation of the simulated water levels and discharge was partly corrected by reducing the Strickler
coefficients and thus artificially increasing the water level. These sub-models are used for operational
forecast at SAMA SPC since 2008. They provide a satisfying water level signal, still discharges are usually
underestimated and the maximum lead time for the forecast is 15 hours.
In order to extend the maximum lead time and benefit from measurements at Saucourt, the sub-models
were merged into a global model extending from Villiers to Chamouilley and including the karstic areas of
the Rognon. The upstream flows are specified at five upstream stations (Marnay, Louvières, Villiers, La
Crête and Humberville). This global model underestimates the discharges of 50% on average over ten
significant events as presented in Figure 2 for a representative event for Condes and Mussey observing
stations (observations are in blue and simulations, denoted by Free Run, in black). Indeed, the global model
area is about 2250 km2 when the area controled by the five upstream stations is only about 755 km2. Thus it
appears that the modeling of lateral inflows, despite the lack of hydrologic rainfall-runoff model on the area,
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.
represents a key step towards the use of the global model for the Marne catchment. Five lateral inflows were
then added to the model to represent the exsurgences of the Suize (Q1), the Seurre on the Rognon catchment
(Q2 and Q3), and tributaries upstream Musey (Q4) and Chamouilley (Q5).
Figure 2: Observed (blue crossed curves) and simulated discharges for Free Run (black solid curves) in
Condes (thin curves) and Mussey (thick curves). March 2008 event.
Figure 3: Discharge at Chamouilley, observation (blue crossed curve), Free Run (black solid curve) and Free
Run with Q5 (green dotted curve). March 2008 event.
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.
Given the homogeneous response of the catchment to an oceanic rainfall event, a water budget approach
enables to describe a coherent, yet perfectible, behavior of the catchment. For instance, adding the lateral
inflow Q5 estimated as eight times bigger than the hydrograph at Villiers leads to a satisfying simulation of
the discharge at Chamouilley as illustrated in Figure 3 where observation is represented by the blue crossed
curve, the Free Run simulation is in black and the Free Run simulation with the addition of the lateral inflow
Q5 is represented in green by the dotted curve. Similar approach using Villiers and Humberville as
elementary hydrographs to estimate each lateral inflow was used to identify multiplicative coefficients
Ai(where Qi,new(t)= AiQi(t)), with i∈ [1, 5] and their statistics, from a batch calibration over the 10 flood
events. These values presented in Table 1 can be greatly improved with a sequential method that allows for
temporal variability of the coefficients, essential for instance for summer and early automn events when the
karst behavior is complex and the Villiers station may not be representative of the entire catchment's
dynamics.
Table 1: Multiplicative corrective coefficients Ai for lateral inflows and standard deviations with i ∈ [1, 5].
Data assimilation approaches aim at identifying the optimal estimate of the true value of the unknown
variable x that includes, in this work, the set of corrective coefficients Ai with i∈ [1, 5]. The a priori
knowledge on these coefficients given in Table 1 describes the background vector . The observation vector
is composed of hourly discharge measurements, a conservative variable, at Condes, Saucourt, Mussey
and Chamouilley (respectively denoted by S1, S2, S3 and S4 in Figure 1). The analysis is performed on a
sliding time window, over which the Ai coefficients are assumed to be constant. Assuming that the
background, the observation and the analysis are unbiased, the analysis vector for cycle k can be
formulated as a correction to the background parameters:
= + −
where = , + is the gain matrix, , are the background and observation errors
covariance matrixs and = ( ) is the model equivalent of the observations, generated by the
observation operator Hk.
The observation operator consists of two operations, the costliest of which is the non-linear integration
of the hydraulics model given the upstream and lateral flow conditions over the assimilation window. The
second operation is the selection of the calculated discharges at the observation points and at the observation
times. represents the discharges at the observation points and times computed by MASCARET using
the background parameters Ai = 1.
The Jacobian matrix , is the tangent linear of the hydraulics model computed in the vicinity of as
follows:
+∆ = + , ∆
and , can be approximated using a finite differences scheme written as:
+∆ − ( ) Δ
, = = ≈ =
Δ Δ
The local estimation of the tangent linear dynamics of the model with respect to the boundary conditions of
the domain is a strong hypothesis. This method can be seen as an EKF algorithm without model errors (the
model is considered as perfect). Since there is no propagation model for the parameters, the usual
propagation steps of the KF algorithm are irrelevant here: the background error covariance matrix is
invariant between the cycles.
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.
The analysis is cycled over the period covering the entire flood event, thus allowing Ai to vary between
the cycles. For cycle k, the observations over the first 8 hours (the re-analysis period) are used to estimate the
optimal coefficients and a 24-hour forecast is carried out. Each of the five lateral inflows Q1, Q2 , Q3, Q4
and Q5 is controlled using downstream measurements from the hydrological observing station as described
in Figure 1; Q1 is controlled by Condes and Mussey, Q2 and Q3 are controlled by Saucourt and Mussey, Q4
is controlled by Mussey and Chamouilley and Q5 is controlled by Chamouilley only. A 5 m3.s-1 standard
deviation error is assumed on the discharge measurements to account for errors in misadjustment of pressure
tube and extrapolation of water level-discharge rating curves. The background error covariance is described
by a diagonal matrix with the same standard deviation error on every Ai estimated as the mean of those
described in Table 1. The data assimilation algorithm was implemented using the Open-PALM dynamic
coupler developed at CERFACS and designed to couple independent code components with a high level of
modularity in the data exchanges while providing a straightforward parallelization environment [2].
4. RESULTS
The benefits from the application of the sequential analysis over the 10 floods events for the Marne
cacthment are summarized in Table 2 presenting the Nash-Sutcliffe criteria computed with data assimilation
(DA) and without (Free Run) at the maximum lead time for the forecast at each observing station. It was
shown that the assimilation of discharge measurements allows for a significant improvement of the simulated
discharges in re-analysis (not shown) and forecast mode; with an the average improvement of 0.91 at the
maximum lead time.
Table 2: Nash-Sutcliffe criteria for Free Run and DA simulations averaged over 10 flood events over 2001-
2010 at maximum lead time for each observing station.
For the major flood event in December 2010, the use of the DA procedure for real-time forecast would
have improved both discharge peak forecasts of 15 % as illustrated in Figure 4 (only the first peak is shown).
The discharges are presented on the left vertical axis and water levels are on the right vertical axis with solid
thin and thick lines, respectively. Observations are represented by blue crossed curves, the Free Run 12 hour
forecast by black solid curves and the analysis 12 hour forecast by red dashed curves. For the discharge and
water level, the area between observation and Free Run is shaded in red when the model underestimates the
signal and in blue when it overestimates the signal. The corrective coefficients for Q1, Q2, Q3, Q4 and Q5
represented in Figure 5 are globally smaller than 1 when the Free Run overestimates the observed dischage
and bigger than 1 where the Free Run underestimates the observed discharge. These values also depend on
the sensitivity of the discharge at the observing station with respect to each Ai; this information is accounted
for within the linearized observation operator H.
Still, the assumption of a constant correction of the lateral inflows over a DA analysis cycle can lead to
an inappropriate correction as displayed in Figure 4 for Day 3. The 12-hour forecasted discharge at Day 3,
resulting from the DA procedure (175 m3.s-1 where the solid vertical line intersects the thick red dotted
curve) is computed using the corrected inflows resulting from the assimilation of the difference between the
Free Run and the observation during the 8-hour period in Figure 4 represented in grey between the two thin
vertical lines at Day 2 + 2h and Day 2 + 10h. Over this period, the average discharge (thick curves)
difference is bigger than that at Day 3, thus the DA procedure leads to an over correction of the discharge (an
over decrease in this case): the solid red line at Day 3 is below the blue crossed line. To sum it up, if the
model-observation error is not monotonous over the re-analysis and forecast period, the DA procedure can
lead to an under or over correction. A possible leverage for this problem is to shorten the re-analysis period
and thus allow for more temporal variability of the corrective coefficient.
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.
Figure 4: Discharge (thick curves) and water level (thin curves) at +12h, December 2010 (Mussey):
Observations (blue crossed curves), Free Run (black solid curves), DA analysis (red dashed curves).
Figure 5: Ai coefficients for Q1, Q2, Q3, Q4 and Q5 during December 2010 event.
Globally in Figure 4, the water level is also significantly improved (thin curves), still the correction of
the lateral inflows with assimilation of the discharge measurements does not improve the water level peak
simulation, it even degrades the first peak at Day 3 + 12h. Indeed, when the relation between water level and
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.
discharge in the model is not coherent with the relation between water level and discharge in the observation,
the sign of model-observation error on discharge is different from the sign of the model-observation error on
water level. This is the case from Day 2.5 to Day 3.5; the Free Run simulation overestimates the discharge
(blue area in Figure 4) but underestimates the water level (red area in Figure 4). Here, the DA correction
tends to decrease the lateral inflow in order to decrease the simulated discharge, thus leading to the decrease
of the simulated water level when the latter was already too small.
The friction coefficients (Ks) of the hydraulic model are mean values obtained from the calibration
procedure using discharge data, over 10 flood events. The resulting values for the hydraulic section
containing Mussey are 20 for the river channel and 13 for the flood plain. These values are potentially not
well suited for high discharge events and might be responsible for a non-physical local relation between
discharge and water level. To account for uncertainty in the topography and bathymetry, a local correction of
the Ks coefficient at Mussey is applied (over a 200m section downstream of the observing station). As
illustrated in Figure 6, a change in Ks allows to improve the simulated water level while the discharge is left
unchanged by this local modification. Once the lateral inflows were corrected through the DA procedure, the
simulated discharge is improved over the whole flood event, still the water level is overestimated (red areas
in Figure 6) from day 1 to 2.5 and 5 to 9 and underestimated at the flood peak (blue area in Figure 6). An
approximate calibration of the Ks coefficients is achieved to obtain the green curves in Figure 6; the river
channel and the flood plain coefficients are increased to 27 and 15 respectively over the overestimation
periods and decreased to 16 and 9 over the underestimation period. The local correction of the Ks
coefficients improves water level forecasts without changing discharges. Based on these results, ongoing
work aims at including the Ks coefficients within the DA control vector of the previously described
procedure.
Figure 6: Discharge (thick curves) and water level (thin curves) at +12h, December 2010 (Mussey):
observations (blue crossed curves), DA analysis (red dasched curves) and DA analysis with modified
Strickler coefficient (green dotted curves).
river channel Ks at the flood peak, at Mussey, around the reference value Ks = 20. For instance, a
perturbation of 4 leads to a maximum discrepancy in water level of 2cm with respect to the linear
approximation computed for dKs = 2 (pink dashed line in Figure 7). For a positive perturbation in Ks, the
non linearity is significantly smaller than for negative perturbations with a water level difference of 6 cm
when the Ks is increased from 20 to 32 and up to 33 cm when the Ks is decreased from 20 to 8. In order to
keep the non linearity impact small on the EKF analysis, the correction to the Ks coefficient should remain in
a limited interval such as [-5, 5].
Figure 7: Impact on the water level on the peak of the perturbation of the river channel Ks coefficient for
dKs[-12;12] (black curve) and dKs=2 (pink dashed line).
5. CONCLUSION
The sequential assimilation of discharge measurements in real time mode was presented in this
paper. The study focuses on the application of an Extended Kalman Filter (EKF) algorithm for the Marne
catchment under the assumption that the relation between the lateral boundary conditions of the domain and
the simulated discharge is fairly linear. It was shown that the estimation of the time varying contributions of
the karstic areas and the neglected tributaries can be achieved. This leads to the improvement of the
hydraulic state forecast at meaningful lead time for operational use. Since the method developed here is not
catchment dependent, it was applied for other French catchments and it is currently being integrated in the
real-time forecasting platform for operational use at SCHAPI. The reduced computational cost of the
procedure is also a strong advantage. The extension of the control vector to model parameters such as the
Strickler coefficients is one of the perspectives for further works as it will allow to correct the relation
between water level and discharge within the model.
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.
REFERENCES
[1] F. Bouttier and P. Courtier: Data assimilation concepts and methods, ECMWF Lecture Note, 1999.
[2] S. Buis, A. Piacentini, and D. Déclat: PALM: A computational framework for assembling high
performance computing applications, Concurrency Computat.: Pract. Exper., 18(2), 247-262, 2006.
[3] G. Coccia and E. Todini: Recent developments in predictive uncertainty assessment based on the model
conditional processor approach, Hydrol. Earth Syst. Sci., 7, 9219-9270; 2008b.
[4] C.M. Dechant and H. Moradkhani: Radiance data assimilation for operationnal snow and streamflow
forecasting, Adv. Water Resour. Res., 34, 351-364, 2011a.
[5] G. Drogue, L. Pfister, T. Leviandier, A. El Idrissi, J.F. Iffly, P. Matgen, J. Humbert, and L. Hoffmann:
Simulating the spatio-temporal variability of streamflow response to climatechange scenarios in a mesoscale
basin, J. Hydrol., 293,255–269, 2004.
[6] Q. Duan, V. Gupta, S. Sorooshian, A.N. Rousseau and R. Turcotte: Preface in calibration of watershed
Models, Water Sci. Appli. Ser., vol. 6; edited by Q. Duan et al., p. v, AGU, Washington, D. C, 2003.
[7] G. Evensen: Sequential data assimilation with a non linear quasi-geostrophic model using Monte Carlo
methods to forecast error statistics. J. Geophys. Res., 99:10143-62, 1994.
[8] A. Gelb: Applied optimal estimation, Cambridge Mass.: MIT Press, 1974.
[9] N. Goutal and F. Maurel: A finite volume solver for 1D shallow water equations applied in an actual
river, Int. J. Numer. Meth. Fluids, 38(2), 1-19, 2002.
[10] N. Jean-Baptiste, P.O. Malaterre, C. Dorée and J. Sau: Data assimilation for real-time estimation of
hydraulics states and unmeasured perturbations in a 1d hydrodynamic model. Math. and Computers in
Simulation, 81, 2201-2214, 2009.
[11] Y. Liu and H.V. Gupta: Uncertainty in hydrologic modeling: Toward an integrated data assimilation
framework, Water Res. Ser., 43, W07401, 2007.
[12] P.O. Malaterre, J.P. Baume and N. Jean-Baptiste: Calibration of open channel flow models: a system
analysis and control engineering approach, SimHydro 2010.
[13] D. Maclaughlin and L. Townley: A reassessment of the groundwater inverse problem, Water Resour.
Res., 32, 1131-1161, 1996.
[14] D. Maclaughlin: An integrated approach to hydrologic data assimilation: interpolation, smoothing, and
filtering, Adv. Water Res., 25, 1275-1286, 2002.
[15] H. Moradkhani, S. Sorooshian, H. Gupta and P. Houser: Dual-state parameters estimation of hydrolocal
models using ensemble Kalman filter. Adv. Water Res., 28, 135-147, 2005.
[16] R.H. Reichle: Data assimilation methods in the Earth sciences, Adv. Water Resour. 31; 1411-1418,
2008.
[17] S. Ricci, A. Piacentini, O. Thual, E. Le Pape and G. Jonville: Correction of upstream flow and
hydraulics state with data assimilation in the context of flood forecasting, Hydrol. Earth Syst. Sci, 15, 1-21,
2011.
[18] G. Schumann, P.D. Bates, M.S. Horritt, P. Matgen and F. Pappenberger: Progress in integration of
remote sensing derived flood extend and stage data and hydraulic models, Rev. Geophys., 47, 2009.
SimHydro 2012: Hydraulic modeling and uncertainty, 12-14 September 2012, Sophia Antipolis – Habert et al.
Estimation of lateral inflow using DA in the context of real-time flood forecasting for the Marne catchment in France.
[19] D.J. Seo, L. Cajina, R. Corby and T. Howieson: Automatic state updating for operational streamflow
forecasting via variational data assimilation, J. Hydrol., 367, 255-275, 2009.
[20] D.J. Seo, V. Koren and N. Cajina: Real-time variational assimilation of hydrologic and
hydrometeorological data into operational hydrologic forecasting, J. Hydrometeorol., 4, 627-641, 2003.
[21] SOeS - CGDD (Service de l'Observation et des Statistiques - Commissariat Général au Développement
Durable): Croissance du nombre de logements en zones inondables, Le point sur, 6, Février 2009.
[22] G. Thirel, E. Martin, J.F. Mahfouf, S. Massart, S. Ricci and F. Habets: A past discharges assimilation
system for ensemble streamflow forecasts over France, Part 1: Description and validation of the assimilation
system, Hydrol. Earth Syst. Sci., 14, 1623-1637, 2010a.
[23] G. Thirel, E. Martin, J.F. Mahfouf, S. Massart, S. Ricci, F. Regimbeau and F. Habets: A past discharges
assimilation system for ensemble streamflow forecasts over France, Part 2: Impact on the streamflow
forecasts, Hydrol. Earth Syst. Sci., 14, 1639-1653, 2010b.
[24] J.A. Vrugt, H.V. Gupta, W. Bouten and S. Sorooshian: A shuffled complex evolution metropolis
algorithm for optimization and uncertainty assessment of hydrological parameters. Water Resour. Res.,
39(8), 1-14, 2003.
[25] A.H. Weerts and Y. Liu: Advances in data assimilation for operational hydrologic forecasting, Eos
Trans. AGU, 92, 2011.
3.1.3 Conclusion
Dans cette étude, il a été montré que le système DAMP permet d’améliorer
les prévisions des hauteurs et des débits via l’assimilation séquentielle de débits et la
correction des forçages amont d’un modèle opérationnel de prévision des crues. L’étude se
focalise sur l’application d’un algorithme de type filtre de Kalman Étendu pour le bassin
versant de la Marne en faisant l’hypothèse que la relation entre les conditions limites
amont (débits amont et apports intermédiaires) et les débits simulés est faiblement non-
linéaire (cette hypothèse est à vérifier avec un autre algorithme tels que l’EnKF). Le
cyclage de la correction des forçages amont par assimilation de données a permis une
amélioration moyenne de 91% des débits prévus à l’échéance maximale (comprise entre
5 et 21 h selon les stations) par rapport aux prévisions du modèle sans assimilation.
La méthode développée ici pour le modèle MAG a été appliquée sur d’autres
bassins français et est utilisée en opérationnel au SPC SAMA depuis décembre 2013. Elle
a aussi récemment été intégrée dans la Plate-forme Opérationnelle pour la Modélisation
(POM) du SCHAPI et est actuellement en phase de test (cf Partie 5.2). L’extension
du vecteur de contrôle à d’autres paramètres du modèle a donné lieu, pour les Ks , à
la rédaction de l’article (Habert et al., 2015) présenté dans la suite de ce chapitre ainsi
qu’à la mise en œuvre d’une approche ensembliste pour relaxer l’hypothèse de linéarité
des opérateurs (Barthélémy, 2015).
93
3.2 Application d’un Ks local contrôlé par assimilation de
données pour le modèle Marne Amont Global (MAG)
3.2.1 Introduction
L’extension du vecteur de contrôle aux Ks locaux abordée précédemment a
donné lieu à la rédaction de l’article ci-dessous publié dans Journal of Hydrology en
décembre 2015. Nous avons pu voir dans les Partie 2.2.2 et 2.2.3 que les modèles hy-
drauliques de prévision des crues sont confrontés à différents types d’incertitudes. Ces
dernières sont liées aux données observées comme les forçages amont (où les débits sont
issus de la transformation via la courbe de tarage d’une hauteur d’eau observée elle-
même incertaine), ou bien à une représentation simplifiée du système d’écoulement dans
le modèle hydraulique (à travers la description géométrique de la vallée, l’estimation des
forçages amont et des coefficients de Strickler lors du calage).
C’est lors de la validation du modèle que l’on se rend compte de la pertinence
des données du modèle et des paramètres fixés au calage : une mauvaise représentation
de la relation hauteur-débit à une station peut signifier que les débits amont et latéraux
sont mal estimés, que la courbe de tarage utilisée pour déterminer la débit observé n’est
pas fiable, que la description topo-bathymétrique n’est pas assez fine, que les Ks ne sont
pas adaptés et parfois les quatre en même temps. Lorsqu’on ne dispose pas de données
complémentaires (jaugeages, profils en travers), le modélisateur peut être tenté de forcer
un paramètre pour combler une erreur engendrée par un manque de données. C’est le cas
dans le modèle MAG où une fois les débits amont et les apports intermédiaires estimés,
on force localement les Ks pour modifier la relation hauteur-débit en sachant que c’est
essentiellement le manque de données topo-bathymétriques qui est responsable d’une
simulation des hauteurs d’eau erronée.
Cet article illustre comment améliorer la relation hauteur-débit d’un modèle
hydraulique 1D de prévision des crues (Mascaret) à travers deux approches : la première,
en densifiant la description géométrique du modèle à partir de nouvelles données, la
seconde en contrôlant par assimilation de données les coefficients de frottement des lits
mineur m et majeur n.
94
Journal of Hydrology 532 (2016) 52–64
Journal of Hydrology
journal homepage: www.elsevier.com/locate/jhydrol
Review Paper
a r t i c l e i n f o a b s t r a c t
Article history: This paper presents a data-driven hydrodynamic simulator based on the 1-D hydraulic solver dedicated
Received 31 July 2015 to flood forecasting with lead time of an hour up to 24 h. The goal of the study is to reduce uncertainties
Received in revised form 6 November 2015 in the hydraulic model and thus provide more reliable simulations and forecasts in real time for opera-
Accepted 14 November 2015
tional use by the national hydrometeorological flood forecasting center in France. Previous studies have
Available online 1 December 2015
This manuscript was handled by
shown that sequential assimilation of water level or discharge data allows to adjust the inflows to the
Konstantine P. Georgakakos, Editor-in-Chief, hydraulic network resulting in a significant improvement of the discharge while leaving the water level
with the assistance of Hamid Moradkhani, state imperfect. Two strategies are proposed here to improve the water level-discharge relation in the
Associate Editor model. At first, a modeling strategy consists in improving the description of the river bed geometry using
topographic and bathymetric measurements. Secondly, an inverse modeling strategy proposes to locally
Keywords: correct friction coefficients in the river bed and the flood plain through the assimilation of in situ water
Hydraulic modeling level measurements. This approach is based on an Extended Kalman filter algorithm that sequentially
Flood forecasting assimilates data to infer the upstream and lateral inflows at first and then the friction coefficients. It
Data assimilation provides a time varying correction of the hydrological boundary conditions and hydraulic parameters.
Uncertainty reduction The merits of both strategies are demonstrated on the Marne catchment in France for eight validation
flood events and the January 2004 flood event is used as an illustrative example throughout the paper.
The Nash–Sutcliffe criterion for water level is improved from 0.135 to 0.832 for a 12-h forecast lead time
with the data assimilation strategy. These developments have been implemented at the SAMA SPC (local
flood forecasting service in the Haute-Marne French department) and used for operational forecast since
2013. They were shown to provide an efficient tool for evaluating flood risk and to improve the flood early
warning system. Complementary with the deterministic forecast of the hydraulic state, the estimation of
an uncertainty range is given relying on off-line and on-line diagnosis. The possibilities to further extend
the control vector while limiting the computational cost and equifinality problem are finally discussed.
Ó 2015 Elsevier B.V. All rights reserved.
Contents
1. Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2. Materials and methods . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.1. The 1D hydraulic model MASCARET . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.2. Sequential DA method . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.2.1. DA algorithm. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.2.2. Study on the linear assumption of the generalized observation operator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3. Correction of the model H–Q relation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.1. Bathymetric profiles densification (BATHY). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
⇑ Corresponding author at: DREAL Champagne-Ardenne/SRS/PHH/CPC, 40 boulevard Anatole France, BP80556, 51022 Châlons-en-Champagne Cedex, France. Tel.: +33
351416469.
E-mail address: johan.habert@developpement-durable.gouv.fr (J. Habert).
http://dx.doi.org/10.1016/j.jhydrol.2015.11.023
0022-1694/Ó 2015 Elsevier B.V. All rights reserved.
J. Habert et al. / Journal of Hydrology 532 (2016) 52–64 53
1. Introduction usually achieved once for all using a batch of observations such
as water level from a limited number of flood events, thus provid-
Flooding causes important social, environmental and economic ing time-invariant values for the model parameters. It is important
losses and is likely to be aggravated by climate change over the to mention that errors in the model inputs and in the model equa-
next decades. For example, flooding of the Var river in the South- tions are sometimes difficult to discriminate (Vrugt et al., 2005;
East of France in 2010 resulted in a 700 million euros loss and 25 Renard et al., 2010). These uncertainties usually translate into
victims (MEDDE, 2011). Worldwide, national or international oper- errors in the model representation of the water level-discharge
ational flood forecasting centers are in charge of providing water (H–Q) relation that is not coherent with that from the reality. In
level predictions and flood risks at short- to medium-range lead practice, this inconsistency can be reduced when complementary
time (from several hours to a few days) that are of great impor- data become available to improve the model, for instance LIDAR
tance for civil protection. To this end, operational centers aim at data for bathymetry (horizontal resolution of one point per square
providing an accurate forecast of the hydraulic variables (i.e., water meter; 10–30 cm of vertical accuracy). When no additional data
level and discharge) along the monitored network. This forecast are available to improve the model geometry, the error between
relies on the complementary use of numerical models and observa- the simulated and the observed hydraulic states must be
tions (Kirchner, 2006). For instance, the UK Environment Agency in accounted for by adjusting the model parameters and/or the model
collaboration with the Met Office has developed the National Flood state itself. Many studies have attempted to account for uncertain-
Forecasting System (NFFS) in order to access to real-time forecasts ties at varying levels (Vrugt et al., 2008; Liu and Gupta, 2011), for
from a large set of hydrologic modeling tools (Werner et al., 2009; instance by analyzing the uncertainty in hydrologic prediction
Weerts et al., 2011). In the Philippines, the Metro Manila model is based on the Generalized Likelihood Uncertainty Estimation
used operationally to issue 24-h lead time forecasts using precipi- (GLUE) (Beven and Freer, 2001; Aronica et al., 1998; Neal et al.,
tation and water level measurements that are collected and trans- 2007; Stedinger et al., 2008), Markov chain Monte Carlo (MCMC)
mitted in real time (Madsen and Skotner, 2005). In France, since (Jeremiah et al., 2011), Bayesian inference (Parrish et al., 2012)
2006, the national and hydrometeorological flood forecasting cen- and Data Assimilation (DA) (Liu and Gupta, 2011; Moradkhani
ter (SCHAPI – Service Central d’Hydrométéorologie et d’Appui à la et al., 2005b; DeChant and Moradkhani, 2011a,b).
Prévision des Inondations), in collaboration with the 22 local flood DA offers a convenient and cost-effective framework, compared
forecasting services (SPC – Service de Prévision des Crues), pro- to MCMC and Bayesian inference, to overcome some limits of the
duces a twice-daily vigilance map available for governmental classical calibration process for model parameters: observations
authorities and general public (http://www.vigicrues.gouv.fr). and simulation outputs are combined along with their respective
Meteorological, hydrologic and geographic data (bathymetry, errors to estimate an optimal set of model parameters and thereby
topography), are used as inputs to hydraulic models that are inte- reduce simulation uncertainties. Furthermore, as the DA algorithm
grated in forecast mode to describe water level and discharge at a is sequentially applied, the analysis allows for a temporal variation
limited number of observing stations over 22,000 km of rivers in of model parameters errors. The classical approach in DA for mete-
France. These hydraulic variables are then translated into a colored orology and oceanography is to directly correct the model output
flood risk map available online. On a larger scale, the European variables (also called state estimation). In the hydrology and
Flood Awareness System (EFAS) as part of the Copernicus Emer- hydraulic literature, the estimation of uncertainty in model param-
gency Management System provides probabilistic flood alert infor- eters has been extensively investigated in addition to the more tra-
mation more than 48 h in advance to national authorities. This ditional state estimation approach. DA is now being applied with
alert system covers the main European rivers on a 5-km grid using increasing frequency to hydraulic problems with two main objec-
a distributed hydrologic rainfall–runoff-routing model (LISFLOOD) tives (Liu et al., 2012): optimizing model parameters and improv-
as well as ensemble weather forecasts and real-time weather ing stream low simulation and forecasting. Recent studies have
observations (de Roo et al., 2003; Van der Knijff et al., 2010). shown the benefit hydrology and hydraulic can draw from the pro-
The capacity for real-time anticipation of extreme flood events gress of DA approaches using either variational inverse problem
remains limited due to several sources of uncertainty in hydraulic (Valstar et al., 2004; Seo et al., 2003; Seo et al., 2009), particle filter
models. On the one hand, forcing data that represent boundary (Dechant and Moradkhani, 2012), EKF (Thirel et al., 2010), EnKF for
conditions for hydraulic models usually result from the transfor- state updating (Weerts and El Serafy, 2006) or for dual state
mation of uncertain observed water levels into discharges with parameter estimation (Moradkhani et al., 2005b; Hendricks and
an uncertain rating curve (CEMAGREF, 1981; Audinet and André, Kinzelbach, 2008). Sequential state estimation for hydraulic appli-
1995), or from discharges forecasted by uncertain hydrologic cations was indeed found to have a limited impact on the forecast
models. Another source of uncertainty is the description of the performance due to the limited persistence of the model initial
river channel and flood plain geometry. This requires on-site condition. In contrast, the forecast lead time can be significantly
measurements of topographic and bathymetric profiles to provide improved via the correction of the hydrologic forcing (Hartnack
a spatially-distributed geometry. On the other hand, the equations et al., 2005; Andreadis et al., 2007; Ricci et al., 2011) or of the
that are solved by models are based on simplification and model parameters (Durand et al., 2008). Through the inclusion of
parametrization of the physics. The parametrization schemes are parameters in the DA process, it is assumed that the forecast
calibrated to adjust the model behavior to observed water levels, uncertainty can be efficiently reduced over a time window for
typically, through the calibration of friction coefficients. The which the errors statistics in the model parameters are stationary.
calibration of the river bed and flood plain friction coefficients is State and parameter correction can be performed independently,
54 J. Habert et al. / Journal of Hydrology 532 (2016) 52–64
or simultaneously (Moradkhani et al., 2005b,a) with an augmented plain friction coefficients. In this context, Ricci et al. (2011) demon-
state as illustrated in Jean-Baptiste (2011). For example Bessiere strated that the assimilation, based on an Extended Kalman Filter
et al. (2007) explored the assimilation of hydrologic data into oper- (EKF) algorithm, of water level observations to correct hydrologic
ational hydrologic forecast to correct several input parameters boundary conditions on the Adour catchment with MASCARET
including river bed friction coefficients. Neal et al. (2009) focused improves flood forecasting by 60% for 1-h lead time and by 25%
on state estimation and assimilated water level observation for 12-h lead time. A similar approach using discharge data was
derived from spaceborne imaging and digital terrain model to esti- then applied to the Marne catchment to specify upstream and lat-
mate discharge in an un-gauged basin simulated by a coupled eral inflows (Habert et al., 2012), resulting in the significant
hydrologic and hydrodynamic model. Hartnack et al. (2005) and improvement of the simulated discharge state, while the simulated
Matgen et al. (2010) used ensemble-based approaches (the Ensem- water level state remained imperfect. The correction of un-gauged
ble Kalman Filter – EnKF – and particle filters, respectively) to lateral and upstream inflows with DA offers an alternative solution
update the state but also to infer the upstream boundary condi- to the classical batch calibration procedure by considering a time-
tions. As presented in Seo et al. (2014), the key for operational varying estimation of the boundary conditions. In the present
hydrology and water resource management lies in ensemble- work, this corresponds to the first step of the DA method referred
based DA method. Ensemble approach allow objective utilization to as experiment ASSIM1 in the following. Further improvement on
of multiple sources of data and model along with their related the river bed and flood plain friction coefficients in the neighbor-
uncertainties. The next issues to be addressed relate to comple- hood of the observing stations is obtained with water level assim-
mentary use of various types of data, uncertainty quantification ilation. This represents the second step of the DA method referred
and ensemble evaluation in forecast mode. Particle filters are to as experiment ASSIM2 in the following. The method ASSIM is
now reliable for operational probabilistic prediction. In the frame- therefore a two-step DA procedure: ASSIM1 allows for the correc-
work of bayesian inference and Markov Chain Monte Carlo meth- tion of upstream and lateral inflows and ASSIM2 allows for the cor-
ods, advances Particular filter theories are proven to be effective rection of river bed and flood plain friction coefficients. The
at a limited computation cost (Moradkhani et al., 2012). sequential application of both steps in ASSIM is referred to as
The objective of the paper is to provide an advanced solution for experiment ASSIM1+ASSIM2.
improving water-level simulation and forecasting in the frame- The structure of the paper is as follows: Section 2 provides a
work of operational flood forecasting. It is assumed here that errors description of the Marne catchment and of the materials (hydraulic
in the simulated water level are due to errors in the water level- model, DA method) used to perform flood forecasting. The evalua-
discharge relation in the hydraulic model. The present study illus- tion of the linearity of the water level with respect to the friction
trates how errors in the water level-discharge relation of a 1D coefficients is investigated. The limitations of the reference model
hydraulic model can be accounted for in the context of operational REF are highlighted and the two-step DA strategy ASSIM is pre-
flood forecasting following two different approaches. The first sented in detail. In Section 3, the results of both BATHY and ASSIM
method is based on the assumption that additional data on the approaches are presented using the January 2004 flood event as an
river bed geometry are available to directly improve the model illustrative example. The operational implementation of the ASSIM
H–Q relation. In the following, this approach is referred to as exper- approach at the SAMA SPC is described in Section 4. Conclusions
iment BATHY. For the second method, it is assumed that the only and perspectives for this work are given in Section 5.
additional data available are in situ water level measurements,
which are used in real time to adjust the river bed and flood plain
friction coefficients in the model using a DA algorithm. In order to 2. Materials and methods
cope with the operational computational constraint an EKF algo-
rithm was implemented rather than an EnKF. While the limitations 2.1. The 1D hydraulic model MASCARET
of EKF were already highlighted in previous studies, in the present
case, a sensitivity study was carried out and proved that the impact The Marne river is an important tributary of the Seine river in
of non-linearities remain limited. In the following, this approach is France. Its source is located on the Langres plateau in the Haute-
referred to as experiment ASSIM. A time-dependent correction of Marne department. A mono-dimensional hydraulic model is used
the friction coefficients is provided by DA in order to account for to simulate the hydrodynamics of the 180-km Marne river as pre-
errors in the friction and bathymetry description that vary along sented in Fig. 1. This study is carried out in the upstream part of the
with the flow as water level reaches different portions of the Marne river where flash floods frequently occur; for instance, in
described geometry. It should be noted that the errors in the model December 2011, the discharge at Condes raised from 25 to
H–Q relation are potentially larger at high flow since the flood plain 125 m3/s in 24 h. Upstream boundary conditions (black dots in
topography is not well known and since the model is not well cal- Fig. 1) for the hydraulic network are described with observed
ibrated. Thus, this study aims at demonstrating that both water levels that are translated into discharges with a local rating
approaches BATHY and ASSIM can significantly improve the model curve; the downstream boundary condition at Chamouilley is also
H–Q relation and subsequently the simulated hydraulic state. This described with a local rating curve. There are six observing stations
work is carried out in the context of operational flood forecasting located on the main stream of the river (black triangles in Fig. 1)
at the SAMA (Seine Amont Marne Amont) SPC for the Marne catch- where water level is measured hourly. These data are provided
ment in France. SAMA uses the 1D hydraulic model MASCARET by the DREAL (Direction Régionale de l’Environnement, de
(Goutal and Maurel, 2002) developed by LNHE (Laboratoire l’Aménagement et du Logement) hydrometeorological service in
National d’Hydraulique et d’Environnement) from EDF-R&D (Elec- the Champagne-Ardenne region.
tricité De France – Recherche et Développement) to simulate real- Along this hydraulic network, the 1D form of the Saint–Venant
time discharge or water level forecasts at six observing stations on equations is solved with the MASCARET (Goutal and Maurel, 2002)
the upstream part of the Marne river. Maximum forecast lead time software developed by EDF-R&D and CEREMA (Centre d’Etudes et
for each site is between 5 and 21 h according to the transfer time d’Expertise sur les Risques, l’Environnement, la Mobilité et
along the hydraulic network. The reference model for this work, l’Aménagement), widely used for modeling flood events, submer-
referred to as experiment REF in the following, results from a clas- sion waves resulting from the failure of hydraulic infrastructures,
sical batch calibration procedure of the un-gauged upstream and river control, and channel waves propagation. The 1D Saint–
lateral inflows to the model as well as of the river bed and flood Venant equations read (non-conservative form):
J. Habert et al. / Journal of Hydrology 532 (2016) 52–64 55
where S [m2] is the river cross sectional area, Q [m3/s] is the 4 1 578 20 13 Mussey 0.544 0.743
discharge, qa (x,t) is the lateral lineic discharge, K s [m1/3 s1] is the 2 8,200 24 18
3 300 14 8 Joinville 0.531
friction coefficient, RH is the hydraulic radius, g is the gravity, J and 4 26,383 24 14 Chamouilley 0.614 0.621
Js represents regular and singular head losses respectively. The river 5 1 4,150 24 14
cross sectional area S is, for each location x, a function of the water 6 1 27,101 24 14
level H ¼ Zðx; tÞ Z bottom ðx; tÞ, where Zðx; tÞ [m] is the free surface 7 1 7,600 9 7
height and where Z bottom [m] corresponds to the river bed bathymetry. 8 1 16,266 9 7
The unsteady kernel of MASCARET was used in this study. 2 500 13 8 Saucourt 0.797 0.821
3 5,680 9 7
The Marne terrain model was built with 110 topographic and
9 1 10,819 9 7
bathymetric cross sections; it was calibrated in 2011 using a batch
56 J. Habert et al. / Journal of Hydrology 532 (2016) 52–64
Table 2 For the Marne applicative test case, discharge observations (Con-
Nash–Sutcliffe criteria for REF, BATHY, ASSIM1 and ASSIM1+ASSIM2 experiments for des, Mussey, Chamouilley and Saucourt) are assimilated to correct
water level (N H ) and discharge (N Q ) in re-analysis mode for the January 2004 flood
event at Mussey.
the five upstream and lateral inflows along the hydraulic network
(represented by gray dots in Fig. 1) in order to correctly represent
NH NQ discharge.
REF 0.773 0.894 In spite of the discharge improvement, when the model H–Q
BATHY 0.923 0.897 relation is incorrect (at high flow), the simulated water level
ASSIM1 0.784 0.976
remains imperfect. These errors are here accounted for in the sec-
BATHY+ASSIM1 0.986 0.987
ASSIM1+ASSIM2 0.97 0.978 ond step ASSIM2, which uses water level data to locally correct
river bed and flood plain friction coefficients in the neighborhood
of the observing stations. The batch calibration process leads to
computed in re-analysis mode that corresponds to a 0-h forecast an estimate that allows, on average, the model to correctly simu-
lead time (details are given in Section 2.2). REF (dashed lines) and late a set of flood events. Depending on the choice of this set of
observed (dotted lines) hydraulic states at Mussey are compared events, the calibrated friction coefficients might be better fitted
in Fig. 2 over the January 2004 flood event (thin lines correspond for low, medium or high flow. Usually, high flow are not well rep-
to water level, thick lines correspond to discharges). The difference resented. It thus makes sense to look for a time-varying correction
between REF and observations varies over time for both water level of the friction coefficients during a flood event. Additionally, the
and discharge, thus arguing for a time-dependent correction as bathymetry is described from a limited number of measured cross
enabled by DA in Section 2.2. It is important to notice that the sign sections. The correction of the friction coefficients offers a way to
of the error in discharge and in water level are different for high also account for the uncertainty related to bathymetry. In the pre-
flow conditions (flood peak from day 4 to day 5), while similar away sent study, the friction coefficients are corrected over a 600-m sec-
from the flood peak. For high water levels, the discharge is slightly tion in the vicinity of the observing station at Mussey (Portion 1 of
overestimated (by 25 m3/s at day 5), whereas the water level is sig- reach 4) and over a 300-m section in the vicinity of Joinville (Por-
nificantly underestimated (by 0.4 m at day 5). During this period, tion 3 of reach 4). These coefficients were chosen as their uncer-
the H–Q relation in the model is incorrect, a negative correction tainty has a significant influence on the simulated water level at
in the discharge would further deteriorate the water level state. the observing stations; still the following method could be applied
Thus, for this event, the batch calibration process is to fail at provid- to any friction coefficient for the hydraulic network. The friction
ing parameters (friction coefficients and upstream/lateral inflows) coefficients in the river bed and in the flood plains, respectively
that would improve both discharge and water level at the flood denoted by m and n, are gathered in the control vector x of size
peak (the same assumption seems legitimate at Joinville). It is then s ¼ 4 in the present case study. The background values in xb are
obvious that the reference model (REF) should be improved as those specified from the calibration procedure (mb ¼ 20 and
explained in the following.
nb ¼ 13 for Mussey; mb ¼ 14 and nb ¼ 8 for Joinville). The errors
in m and n are supposed to be uncorrelated, and the respective
2.2. Sequential DA method standard deviation (STD) are set according to the variability in
the calibration procedure (rbm ¼ 3 and rbn ¼ 4 at Mussey; rbm ¼ 3
2.2.1. DA algorithm and rbn ¼ 2 at Joinville). Thus the background error statistics for
The DA method (ASSIM) is a two-step procedure using an EKF the friction coefficient correction are set constant in time in the
algorithm. EKF algorithm as opposed to a flow dependent description that
The first step ASSIM1 consists in correcting the upstream and would implicitly result from an EnKF algorithm. Hourly water level
lateral inflows to the model using discharge data, with the objec- observations are assimilated over a time window at Mussey and
tive to improve the simulated discharge. The ASSIM1 method is Joinville and gathered in the observation vector yo of size p.
presented in details in Ricci et al. (2011) and Habert et al. (2012). The errors in the water level observations are supposed to be
350
3
325 Q Obs.
2.8
Q Obs. CRC
300 2.6
Q REF
275 H Obs. 2.4
250 H REF 2.2
225 H BATHY 2
Discharge (m3/s)
200 1.8
175 1.6
1.4
150
1.2
125
1
100
0.8
75
0.6
50 0.4
25 0.2
0 0
0 1 2 3 4 5 6 7 8
Days
Fig. 2. Simulated water levels (thin lines) and discharges (thick lines) at Mussey for REF (dashed line) and BATHY (dashed line with triangle – discharges are unchanged) for
the January 2004 flood event. Observations are represented with small and large black dots for water level and discharge, respectively. Circles represent the discharge
observations obtained with the Corrected Rating Curve (CRC).
J. Habert et al. / Journal of Hydrology 532 (2016) 52–64 57
uncorrelated; the observation error STD ro is set to 0.025 m to Since there is no explicit propagation model for parameters
account for errors in the adjustment of the measurement pressure (Petron et al., 2002; Moradkhani et al., 2005b; Peters et al., 2005;
tube. It should be noted that the water level and discharge are not Rochoux et al., 2014), the usual propagation steps of the KF algo-
included in the control vector. Thus the hydraulic state is not rithm are irrelevant here; a persistence model is often assumed
explicitly corrected with the DA analysis step, the correction for the parameters between the analysis cycles. In the present
results from the DA update of the input flow and friction coeffi- implementation, the background vector xbk and the background
cients that are used for a new integration of the numerical model error covariance matrix Bk are kept invariant between the cycles
over the DA time window as well as over the forecast period. (for every cycle k). For that reason, the present EKF algorithm can
Following the classical equations of the Kalman filter (Kalnay, be considered as an invariant EKF (relatively to the background
2003), the analysis vector xak for cycle k can be formulated as a cor- information). It is worth noting that for a given cycle, the initial
rection to the background vector xbk as follows: condition for the background simulation is derived from the anal-
ysis simulation obtained during the previous cycle; consequently,
xak ¼ xbk þ Kk yok Hk ðxbk Þ ; ð3Þ each cycle restarts with an improved initial condition. Thus, the
1 background 78-h run differs from the corresponding portion (in
where Kk = Bk HTk ðHk Bk HTk þ Rk Þ is the gain matrix, Bk and Rk are time) of the continuous reference run (REF) since both runs start
respectively the background and observation errors covariance from a different model state at the cycle initial time. It is also worth
matrices, and Hk is the Jacobian of Hk at xbk . The analysis error mentioning that advanced pseudo-model for parameters could be
covariance matrice is: implemented; this question will be addressed in further work.
The small size of the control vector (less than 10 for the Marne test
Ak ¼ ðI Kk Hk ÞBk : ð4Þ
case) enables the use of an EKF algorithm, involving matrix opera-
The generalized observation operator Hk is used to describe the tions for the computation of the gain matrix along with a finite dif-
model counterpart of the observations yok ¼ Hk ðxk Þ associated with ference scheme for the computation of the generalized observation
the control vector xk . It consists in, first integrating the hydraulic operator Jacobian.
model using the friction coefficients in xb , then selecting the corre- The cycling of the analysis is presented in Fig. 3 for ASSIM1 and
sponding simulated water level at the observed point and time. in Fig. 4 for ASSIM2 following ASSIM1. The assimilation is per-
This operator is non-linear with respect to x as it implies the inte- formed over a cycle k of 66 h with 54 h of re-analysis and 12 h of
gration of the hydraulic model; this issue will be further investi- forecast at Mussey. The forecast period is adjusted for each observ-
gated in Section 2.2.2 as it is a limiting point for the EKF ing station and decreases going downstream. Over the 54-h re-
algorithm optimality. The Jacobian Hk of the observation operator analysis period, the hydrologic upstream and lateral forcings are
Hk is a s p matrix: each column represents the variation in the supposed to be known (either observed or calibrated). Over the
hydraulic variables at the observing locations and times that are forecast period, the forcings are supposed to be unknown and set
due to the perturbation of an element of the control vector (corre- constant to the last known value to mimic real operational config-
sponding to one friction coefficient over a given location). In the uration. These forcing could also be estimated with an external
present work, it is conveniently computed in the vicinity of the hydrogeological model using Numerical Weather Prediction rain-
background vector at the analysis time k with a finite difference fall values. While this was investigated at SPC SAMA, it is not yet
scheme that requires additional hydraulic model integrations; implemented operationally. The 54-h re-analysis period corre-
these independent integrations are run in parallel using the Parasol sponds to a 48-h period over which the model adjusts to the initial
functionality of the OpenPALM dynamic coupler (Buis et al., 2006), state, plus a 6-h period over which observations are assimilated
a framework that is convenient to develop DA methods in a mod- using the EKF algorithm. Hence, the size of the observation vector
ular way. The Jacobian matrix is computed for each analysis cycle in the present study is p ¼ 12. The last observation time from
as the impact of a perturbation in the friction coefficients on the which the forecast integration starts is the analysis time T. For
hydraulic variables depends on the hydraulic state itself. cycle k, in ASSIM1 (Fig. 3), over the 6-h assimilation period
240
Q Obs.
Q BCK
220 Q ASSIM1
200
180
Discharge (m3/s)
160
140
120
80
60
T-54h T-6h T T+12h
40
2.5 3 3.5 4 4.5 5
Days
Fig. 3. Observed (black dots), background from previous cycle (BCK solid line) and analyzed discharges (squared solid line) for the ASSIM1 approach at the flood peak at
Mussey for the January 2004 flood event for T = 417,600 s = 4.83 days.
58 J. Habert et al. / Journal of Hydrology 532 (2016) 52–64
3.2
H Obs.
3 H REF
H ASSIM1
H ASSIM2
2.8
2.6
2.4
Water level (m)
2.2
1.8
1.2
T-54h T-6h T T+12h
1
2.5 3 3.5 4 4.5 5
Days
Fig. 4. Observed (black dots), simulated (REF dashed line), background from ASSIM1 (solid line) and analyzed (squared solid line) water levels for the ASSIM2 (following
ASSIM1) approach at the flood peak at Mussey for the January 2004 flood event for T = 417,600 s = 4.83 days. Water level from ASSIM1 used as the background state for
ASSIM2 is compared to water level observations to provide analyzed friction coefficients and subsequently, corrected water level.
(hatching area), the background issued from the previous analysis (squared solid line). The oscillations at the beginning of the cycle
cycle (solid line) and observed discharges (black dots) are com- are due to the inconsistency between the initial state (stored from
pared and a correction to the inflows is obtained through the EKF a previous cycle analysis) and the friction coefficients for the cur-
analysis step. The correction is applied over the re-analysis and rent cycle. The assimilation window is shifted hourly and the
the forecast periods, thus assuming that the nature of the errors sequential application of ASSIM1+ASSIM2 provides a corrected
in the upstream and lateral inflows remains the same over the hydraulic state and forecast. This cycled DA procedure allows for
forecast period. The analyzed forcings are used to achieve a new a temporal variability of the friction coefficients over a flood event,
model integration (over the 66-h time period), which provides a which can be either associated to real changes in the river bed and
better discharge state, while the water level can be either flood plain friction or geometry properties as well as to various
improved or degraded depending on the coherence between the types of errors that are artificially accounted for here by correcting
model and the observation H–Q relation. m and n.
The analyzed water level from ASSIM1 is then used as the back-
ground state for ASSIM2; it is compared to water level observations 2.2.2. Study on the linear assumption of the generalized observation
over the 6-h assimilation period and the EKF update provides a cor- operator
rection to the river bed and flood plain friction coefficients m and n, The EKF algorithm relies on the hypothesis that the generalized
which results in the water level improvement as shown in Fig. 4 observation operator can be approximated by a linear operator on
7 stochastic pdf
Gaussian pdf
5
Density function
0
2.15 2.2 2.25 2.3 2.35 2.4 2.45 2.5
Water Level (m)
Fig. 5. Water level pdf for 10,000 perturbations of the river bed friction coefficient m with a variance of 12. The solid line represents the analytical pdf corresponding to a
Gaussian model response; and the histogram represents the actual MASCARET hydraulic model response reconstructed from the 10,000 model outputs.
J. Habert et al. / Journal of Hydrology 532 (2016) 52–64 59
the ½xb ; xa interval. The linearity of the hydraulic model response 3. Correction of the model H–Q relation
to a perturbation in the river bed and flood plain friction coeffi-
cients m and n was thus investigated. Fig. 5 presents the probabil- 3.1. Bathymetric profiles densification (BATHY)
ity density function (pdf) of the simulated water level at Mussey
for a permanent flow (Q ¼ 150 m3/s) when the friction coefficient This section presents the method for experiment BATHY; it is
at Mussey for the minor bed is perturbed around the background assumed that the H–Q relation in the 1D hydraulic model is
mean value m ¼ 20. The 10,000 perturbations are randomly chosen improved by adding geometric data to the model. Additional mea-
following a Gaussian function with a variance of 12. surements of the river bed and flood plain geometry were made
In Fig. 5, the pdf in solid line is a Gaussian function built from available near Mussey: 4 topographic and bathymetric measure-
the first two moments (mean and variance) of the system ments were performed in the surrounding of the observing station.
response assuming a linear relation in the model. The actual The batch calibration of the local friction coefficients was then re-
response is represented by the shaded histogram that is obviously processed on Sections 1 and 2 for reach 4. The friction coefficients
non-symmetrical. First, there is a larger amount of water-level for these two sections were set to m ¼ 30 and n ¼ 8. Fig. 2 illus-
values that are smaller than the mean of the Gaussian pdf. This trates the positive impact of the cross-section densification for
means that the (negative) water level anomaly resulting from a the January 2004 flood event for water level (dashed line with tri-
small positive perturbation dm of the friction coefficient is bigger angles). As presented in Table 2, for experiment BATHY, the Nash–
than the (positive) water level anomaly resulting from a negative Sutcliffe criterion for H is improved from 0.773 to 0.923, even
perturbation dm of the friction coefficient. Secondly, the though a 10-cm underestimation remains. The discharge results
stochastic pdf is amplified for extreme water level values, mean- are left unchanged by this local bathymetry correction with a
ing that a large (negative) perturbation of the friction coefficient 0.897-Nash–Sutcliffe coefficient for BATHY (compared to 0.894
m results into a large (positive) perturbation of the water level for REF); a small overestimation at the flood peak remains
when a large (positive) perturbation of the friction coefficient (10 m3/s) for this event. As shown in Table 3, the Nash–Sutcliffe
has a smaller impact. The same test was carried out with n; sim- criteria values computed for water level over the eight validation
ilar conclusions were drawn. It was also found that the impact of flood events in re-analysis mode for BATHY are better than those
a perturbation of m and n increases when the discharge increases. computed for REF, especially at Mussey where the additional
Fig. 6 assesses the impact of a perturbation dn (where xb ¼ 13) geometry measurements were made; in contrast, the impact at
between 12 and 12 on the simulated water level at Mussey Joinville is small.
for different discharges. A perturbation of 6 for n leads to a vari- In Fig. 7 the H–Q relation for REF is represented by the thin
ation of 0.01 m when Q ¼ 80 m3/s and to a variation of 0.03 m dashed line, and the H–Q relation for BATHY is represented by a
when Q ¼ 225 m3/s. thin solid line. It is shown that the BATHY H–Q relation is in better
Based on these results, it is assumed in the following that the agreement with all available gauging (black dots and triangles)
relation between the friction coefficients and the hydraulic state than the REF H–Q relation. As a consequence, the new model
is reasonably approximated by a linear function in the vicinity of H–Q relation should be used to produce discharge data from water
xb . The Jacobian matrix of the generalized observation operator level measurements at Mussey, in place of the experimental rating
Hk is computed around the background values for m and n for a curve (thick solid line) that is in good agreement with low flow
perturbation dm ¼ 2 and dn ¼ 1 using a finite differences measurements but can lead to an underestimation of up to
scheme in consistency with the linearity study. In order to avoid 60 m3/s for high flow. It should be noted that the experimental rat-
non-physical values for the friction coefficients as well as to limit ing curve was built from numerous gaugings below 150 m3/s
the nonlinear impact, minimum and maximum threshold values (black open dots) and only two gaugings above 150 m3/s. Addition-
are applied to the friction coefficients with Goutal and Maurel, ally, two recent gaugings for high flow (black triangles) allow to
2002; Madsen and Skotner, 2005 for m and de Roo et al., 2003; validate the BATHY model H–Q relation over the entire range of
Kalnay, 2003 for n. discharge values at the observing station. Fig. 2 presents the
0.1
Simulated discharges (m3/s)
0.09
225
Variation of the water level (m)
0.08 190
130
0.07
100
0.06 80
60
0.05 50
30
0.04
0.03
0.02
0.01
Delta n
0
-12 -10 -8 -6 -4 -2 0 2 4 6 8 10 12
-0.01
-0.02
-0.03
-0.04
Fig. 6. Impact of the flood plain friction coefficient perturbations dn on the water level [m] for different simulated discharges [m3/s]. A 10 and +10 perturbation of n
generates a non equivalent variation of the water level but for low perturbations, the relation between friction coefficients and water level can be considered as linear.
60 J. Habert et al. / Journal of Hydrology 532 (2016) 52–64
Table 3 high flow but leads to a water level overestimation for low flow
Nash–Sutcliffe criteria for REF, BATHY, ASSIM1, ASSIM1+ASSIM2 and BATHY+ASSIM1 condition. The friction coefficient estimation should then be flow
computed over eight flood events for 2004–2013 at maximum lead time (12 h) at
Mussey and Joinville.
dependent and provide time-dependent friction coefficients that
account for varying errors in the friction and bathymetry river
Observing stations Mussey Joinville bed as the flow occupies a varying portion of the river and the flood
NH NQ NH plain. For this purpose, the DA method ASSIM detailed in Sec-
Forecast lead time 0h 0h 0h tion 2.2 is cycled over the entire flood event to estimate upstream
REF 0.601 0.722 0.653 and lateral inflows (ASSIM1), and river and flood plain friction
BATHY 0.681 0.721 0.661 coefficients (ASSIM2) over time using hourly observed discharge
ASSIM1 0.754 0.854 0.779
and water level at Mussey. Corrected lateral and upstream forcings
BATHY+ASSIM1 0.858 0.853 0.784
ASSIM1+ASSIM2 0.859 0.842 0.992 from ASSIM1 are used to provide the background state (thin solid
line) for the friction coefficient estimation in ASSIM2. It should be
Forecast lead time 12 h 12 h 12 h
REF 0.135 0.238 0.154 noted that while ASSIM1 leads to a significant correction of dis-
BATHY 0.272 0.241 0.158 charge, the water level in ASSIM1 remains close to that of REF.
ASSIM1 0.689 0.807 0.695 The ASSIM1+ASSIM2 DA analysis for water level is presented for
BATHY+ASSIM1 0.781 0.802 0.698 time T from day 2.25 to the end of the flood event in Fig. 8 (squared
ASSIM1+ASSIM2 0.832 0.807 0.907
line). For instance, at day 3, REF overestimates the water level,
ASSIM1+ASSIM2 increases the friction coefficients in order to
decrease the simulated water level. On the contrary, over the flood
corrected observed discharges that are derived from water level
peak period (days 4–7), REF underestimates the water level,
measurements at Mussey using the BATHY densified model H–Q
ASSIM1+ASSIM2 decreases the friction coefficients in order to
relation (black circles). Using these corrected measurements, the
increase the simulated water level.
model now slightly underestimates both water level (thin dashed
The Nash–Sutcliffe criteria for water level and discharge com-
line) and discharge (thick dashed line) at the flood peak. The sign
puted at Mussey for January 2004 in re-analysis mode are pre-
of the errors in discharge and water level are now the same over
sented in Table 2. ASSIM1 improves the discharge Nash value
the entire flood event, meaning that the optimization of upstream
from 0.894 (REF) to 0.976; it is not significantly affected by ASSIM2
and lateral inflows as proposed in Habert et al. (2012) is an appro-
(0.978). The water level Nash value is not significantly modified by
priate solution for further flood forecast improvement for both dis-
ASSIM1 (0.773 for REF compared to 0.784 for ASSIM1); it should be
charge and water level states.
noted that ASSIM1 can either lead to an improvement or a degra-
dation of the water level (as it is the case at the flood peak). How-
3.2. Data assimilation for friction coefficients correction (ASSIM) ever, it is greatly improved with ASSIM2 to 0.97. These results are
also obtained over the eight validation flood events: the Nash–
In this section, it is assumed that no additional geometric mea- Sutcliffe criteria computed at Mussey and Joinville in re-analysis
surement is available. The reference model H–Q relation is mode (0-h forecast lead time) as well as at the maximum lead time
improved accounting for errors in friction coefficients and by arti- forecast (12 h) are presented in Table 3 for REF, BATHY and ASSIM.
ficially accounting for local bathymetry error with the sequential In re-analysis mode, ASSIM1 greatly improves the discharge
estimation of the river bed and flood plain friction coefficients m results, while ASSIM2 provides improved water level states at
and n in the surrounding of the observing stations at Mussey and Mussey and Joinville since the friction coefficients are corrected
Joinville (experiment ASSIM). in the vicinity of both observing stations. In forecast mode, the
Fig. 8 illustrates that the water level can be efficiently increased upstream and lateral hydrologic forcings are supposed to be
at Mussey, compared to that of REF (m ¼ 20 and n ¼ 13 repre- unknown and set constant to the last observed value. As a conse-
sented with a thin dashed line), when decreasing the river bed fric- quence, the Nash–Sutcliffe coefficients for REF and BATHY decrease
tion coefficient to m ¼ 10 (thick solid line), while discharges are as the forecast lead time increases. The correction of upstream and
left unchanged (not shown). The value m ¼ 10 is appropriate for lateral inflows from ASSIM1 enables a correction of the forcing
300
experimental rating curve
275
REF
250 BATHY
gauging
225
recent gauging
Discharge (m3/s)
200
175
150
125
100
75
50
25
0.8 1 1.2 1.4 1.6 1.8 2 2.2 2.4 2.6 2.8 3 3.2 3.4 3.6 3.8
Water level (m)
Fig. 7. Comparison of the H–Q relation at Mussey, derived experimentally (thick solid line) from gauging (black dots/triangles), involved in the reference model REF (thin
dashed line) and obtained through the BATHY approach (thin solid line). Recent gaugings are represented with black triangles.
J. Habert et al. / Journal of Hydrology 532 (2016) 52–64 61
3 100
H Obs.
H REF
95
2.8 90
H ASSIM1
2.6 H m = 10 85
H ASSIM1+ASSIM2 80
Corrected m (background = 20)
2.4 75
Fig. 8. Observed water levels, REF (dashed line), model with m ¼ 10 (thick solid line), background from ASSIM1 (thin solid line), ASSIM1+ASSIM2 (squared solid line) for the
January 2004 flood event at Mussey. Corrected friction coefficients for river bed (m) and flood plain (n) from DA analysis are represented with triangles and diamonds
respectively.
2.6 H Obs.
H REF
2.4
H ASSIM1
2.2
Water level (m)
H ASSIM1+ASSIM2
2 on-line UQ
1.8 off-line UQ
1.6
1.4
1.2
1 T= 17/12/2011 12h
0.8
15/12/2011 00:00 16/12/2011 00:00 17/12/2011 00:00 18/12/2011 00:00
Fig. 10. Observed water level (black dots) and forecasts for REF (dashed line), background from ASSIM1 (thin solid line) and ASSIM1+ASSIM2 (squared solid line) at Joinville
for the December 2011 flood event. Uncertainties computed with on-line and off-line methods are represented with gray-colored and hatched areas.
The second module, DA STEPS, gathers two tasks that launch the close to) the orange threshold for both off-line and on-line UQ
DA steps. Task 4 represents the ASSIM1 step of the DA procedure: methods (gray and hatched envelopes).
observed discharges are assimilated at Condes, Mussey, Chamouil-
ley and Saucourt to correct upstream and lateral inflows. The cor- 5. Conclusion
rected forcing files are stored for use in task 5. Task 5 represents
the ASSIM2 step of the DA procedure: observed water levels at This paper addressed the errors in the water level-discharge
Joinville are assimilated to correct the local friction coefficients. relation of a 1D hydraulic model (MASCARET) in order to improve
The improved bathymetry from BATHY in the neighboring of the forecasted water level state in the context of operational flood
Mussey is used in the operational model MAG, thus improving forecasting; this water level is used to generate a colored flood risk
the model H–Q relation locally. As a consequence, there is no need map at the French national level by SCHAPI. This improvement is
to assimilate observed water level at Mussey. The water level and obtained over the Marne catchment through the integration of
discharge correction result from a new integration of the numerical additional bathymetry data and water level measurements. In this
model over the assimilation and forecast period. work, it was first exhibited that a local densification of the descrip-
The third module is dedicated to POST-PROCESSING of the anal- tion of the river bed geometry leads to an improved water level
ysis. The REF and ASSM1+ASSIM2 result files are exported in task 6 simulation compared to the reference model issued from a batch
to a server for post-treatment using a supervision software that calibration process. The corrected bathymetry is used in the model
provides the forecaster with an integrated hydrological situation to build a rating curve that is found to be in good agreement with
of the catchment. In task 7, based on the provided forecast and recent high flow gauging. In operational context, this new rating
his expertise, the forecaster is finally able to characterize the flood curve is used to provide discharge from hourly observed water
risk within the risk-color panel. level. At high flow, both water level and discharge are slightly
In the third module, this information is then published by underestimated. The model can thus be improved by sequentially
SCHAPI on the vigicrues web site and communicated to the Civil correcting the upstream and lateral inputs to the models that are
Services. Task 8 is dedicated to quantifying the uncertainty (UQ) known to be imperfect approximation of hydrologic flows for the
related to the forecasted water level. Considering a gaussian- hydraulic network. In an alternative strategy, it was assumed that
shaped error on the controlled friction coefficients and forcing cor- no additional bathymetry measurement could be made and that
rective parameters, the analysis error is used to define a so-called the water level-discharge relation was improved by sequentially
analysis interval between the 10th and the 90th quantiles. Inte- correcting the river bed and flood plain friction coefficients. An
grating a limited number of additional model runs for these inter- extended Kalman filter (EKF) algorithm assimilates first hourly dis-
val limits thus provides an on-line envelope for forecasted water charge observations to correct inflows, then water level observa-
level. An additional information on the forecasted water level is tions are assimilated to locally correct the friction coefficients.
given by a set of abacus that are set up off line. The difference This sequential approach provides a time-dependent correction
between the simulated and observed water level for the eight val- of the friction coefficients that accounts for errors in the friction
idation flood events are computed and classified in quantiles for and bathymetry description that vary along with the flow as water
each forecast lead time. The median, 10th and 90th quantiles are level reaches different portions of the described geometry. A sensi-
identified and used in the operational chain to provide an uncer- tivity study showed that the model response is weakly nonlinear
tainty range for the analyzed water level. The computational cost with respect to the friction coefficients when the perturbation in
of the full chain is about 4 min on a mono processor work station. the friction coefficient values remains bounded. Both methods
Both uncertainty ranges are represented in Fig. 10 for the Decem- were applied in operational context and the Nash–Sutcliffe coeffi-
ber 2011 event at Joinville. On December 18th at 1 pm, the REF cient for both water level and discharge was computed over eight
model (dashed line) overestimates the observed water level (black validation flood events and greatly improved compared to the ref-
dots) reaching the orange threshold. ASSIM1+ASSIM2 analysis erence model.
(squared solid line) provides a water level that is below the thresh- At SPC SAMA, both approaches are currently used for opera-
old with an uncertainty range that remains below (or extremely tional flood forecasting. The densified bathymetry description is
J. Habert et al. / Journal of Hydrology 532 (2016) 52–64 63
used in the neighboring of the Mussey observing station and water Durand, M., Andreadis, K.M., Alsdorf, D.E., Lettenmaier, D.P., Molller, D., Wilson, M.,
2008. Estimation of bathymetric depth and slope from data assimilation of
level data are assimilated to improve the water level-discharge
swath altimetry into a hydrodynamic model. Geophys. Res. Lett. 35, L20401.
relation in the model in the neighboring of the Joinville observing Goutal, N., Maurel, F., 2002. A finite volume solver for 1D shallow water equations
station. An estimation of the analyzed water level is also provided applied to an actual river. Int. J. Numer. Meth. Fluids 38 (2), 1–19.
based on off-line abacus computed from a set of comparisons Habert, J., Ricci, S., Le Pape, E., Thual, O., Goutal, N., Zaoui, F., Ata, R., 2012. Towards
real-time flood forecasting in hydraulics: merits of in situ discharge and water
between the model and the observations over past events. The level data assimilation for the modeling of the Marne catchment in France. In:
two-step EKF-based data assimilation approach also provides an Advances in Hydroinformatics – SIMHYDRO 2012 – New Frontiers of Simulation
error analysis variance for the river bed and flood plain friction Séries: Springer Hydrogeology Conference Simhydro.
Hartnack, J., Madsen, H., Tornfeldt Sorensen, J., 2005. Data assimilation in a
coefficients that are used to describe a confidence interval for the combined 1D–2D flood model. In: Proceedings of the International Conference
forecasted water level. Innovation, Advances and Implementation of Flood Forecasting Technology of
In further work, the control vector should be extended to bathy- Tromso, pp. 1–8.
Hendricks, F.H.J., Kinzelbach, W., 2008. Real-time groundwater flow modeling with
metry profiles using parametric correction, in order to limit the the ensemble Kalman filter: joint estimation of states and parameters and the
equifinality issue as well as the size of the control vector to remain filter inbreeding problem. Water Resour. Res. 44.
compatible with operational framework. The friction coefficients Jean-Baptiste, N., 2011. Assimilation de données pour l’estimation de l’état
hydraulique d’un aménagement hydroéléctrique du Rhône équipé de la
correction will be extended to long-distance reaches; it should commande prédictive. PhD thesis, Université de Toulouse.
allow for a temporal adjustment over a flood event and thereby Jeremiah, E., Sisson, S., Marshall, L., Mehotra, R., Sharma, A., 2011. Bayesian
for a significant improvement of the forecast lead time. A flow calibration and uncertainty analysis of hydrological models: a comparaison of
adaptive metropolis and sequential monte carlo samplers. Water Resour. Res.
dependent description of the background error statistics in the
47, W07547.
EKF should be investigated to mimic the explicit evolution of this Kalnay, E., 2003. Atmospheric Modeling, Data Assimilation and Predictability.
information in the EnKF algorithm. Indeed, it seems legitimate to Cambridge University Press.
assume that the error in the friction coefficient calibration process Kirchner, J., 2006. Getting the right answers for the right reasons: linking
measurements, analyses, and models to advance the science of hydrology.
is larger for high flow as less events are available than for low and Water Resour. Res. 42, W03S04.
medium flow. The background error standard deviation could be Liu, Y., Gupta, H.V., 2011. Uncertainty in hydrologic modeling: toward an integrated
described as an increasing function of the discharge or water level data assimilation framework. J. Hydrol. 397, 211–224.
Liu, Y., Weerts, A.H., Clark, M., Hendricks Franssen, H.J., Kumar, S., Moradkhani, H.,
value with a simplified parametrization based on batch calibration Seo, D.J., Schwanenberg, D., Smith, P., Van Dijk, A.I.J.M., Van Velzen, N., He, M.,
data. A spatially and time varying correction of the hydraulic Lee, H., Noh, S.J., Rakovec, O., Restrepo, P., 2012. Toward advancing data
parameters is the next challenge in line. For that purpose, the assimilation in operational hydrologic forecasting and water resources
management: current status, challenges, and emerging opportunities. Hydrol.
use of spatially distributed data such as remote sensing data Earth Syst. Sci. 16, 3863–3887.
should be investigated. High-resolution data with global coverage Madsen, H., Skotner, C., 2005. Adaptive state updating in real-time river flow
such as those from the upcoming SWOT (Surface Water and Ocean forecasting – a combined filtering and error forecasting procedure. J. Hydrol.
308, 302–312.
Topography) mission will provide a new way to fully describe the Matgen, P., Montanari, M., Hostache, R., Pfister, L., Hoffmann, L., Plaza, D., Pauwels,
river hydrodynamics. Operational flood forecasting centers should V.R.N., De Lannoy, G.J.M., De Keyser, R., Savenije, H.H.G., 2010. Towards the
thus be prepared to make the most of the combination of remote sequential assimilation of SAR-derived water stages into hydraulic models
using the particle filter: proof and concept. Hydrol. Earth Syst. Sci. 14, 1773–
sensing and in situ data to design future vigilance products.
1785.
MEDDE, 2011. Tableau des événements naturels dommageables survenus en france
de 1900 a 2010. prim.net, aout.
Acknowledgments Moradkhani, H., Hsu, K., Gupta, H., Sorooshian, S., 2005a. Uncertainty assessment of
hydrologic model states and parameters: sequential data assimilation using the
particle filter. Water Resour. Res. 41, W05012.
The financial support provided by SCHAPI, DREAL and SPC Moradkhani, H., Sorooshian, S., Gupta, H., Houser, P., 2005b. Dual state-parameter
SAMA was greatly appreciated. The authors also gratefully estimation of hydrological models using ensemble Kalman filter. Adv. Water
acknowledge Florent Duchaine, Thierry Morel, Anthony Thévenin Resour. 28, 135–147.
Moradkhani, H., Dechant, C.M., Sorooshian, S., 2012. Evolution of ensemble data
(CERFACS) for support on OpenPALM and on the Parasol
assimilation for uncertainty quantification using the particle filter-markov
functionality. chain monte-carlo method. Water Resour. Res. 48.
Neal, J.C., Atkinson, P.M., Hutton, C.W., 2007. Flood inundation model updating
using an ensemble Kalman filter and spatially distributed measurements. J.
References Hydrol. 336, 401–415.
Neal, J.C., Schumann, G., Bates, P., Buytaert, W., Matgen, P., Pappenberger, F., 2009. A
data assimilation approach to discharge estimation from space. Hydrol. Process.
Andreadis, K.M., Clark, E.A., Lettenmaier, D.P., Alsdorf, D.E., 2007. Prospects for river
23, 3641–3649.
discharge and depth estimation through assimilation of swath-altimetry into a
Parrish, M.A., Moradkhani, H., DeChant, C.M., 2012. Toward reduction of model
raster-based hydrodynamics model. Geophys. Res. Lett. 34, L10403.
uncertainty: integration of bayesian model averaging and data assimilation.
Aronica, G., Hankin, B., Beven, K., 1998. Uncertainty and equifinality in calibrating
Water Resour. Res. 48, W03519.
distributed roughness coefficients in a flood propagation model with limited
Peters, W., Miller, J.B., Whitaker, J., Denning, A.S., Hirsch, A., Krol, M.C., Zupanski, D.,
data. Adv. Water Resour. 22, 349–365.
Bruhwiler, L., Tans, P.P., 2005. An ensemble data assimilation system to
Audinet, M., André, H., 1995. Hydrométrie appliquée aux cours d’eau. Collection
estimate CO2 surface fluxes from atmospheric trace gas observations. J.
EDF-DER no. 91.
Geophys. Res. 110, D24304.
Bessiere, H., Roux, H., Dartus, D., 2007. Data assimilation and distributed flash flood
Petron, G., Granier, C., Khattatov, B., Lamarque, J.F., Yudin, V., Muller, J.F., Gille, J.,
modeling. In: Hydrology Workshop.
2002. Inverse modeling of carbon monoxide surface emissions using climate
Beven, K., Freer, J., 2001. A dynamic topmodel. Hydrol. Process. 15, 1993–2011.
monitoring and diagnostics laboratory network observations. J. Geophys. Res.
Buis, S., Piacentini, A., Déclat, D., 2006. Palm: a computational framework for
107 (D24), 4761.
assembling high performance computing applications. Concurr. Comput.:
Renard, B., Kavetski, D., Kuczera, G., Thyer, M., Franks, S.W., 2010. Understanding
Practise Exper. 18 (2), 247–262.
predictive uncertainty in hydrologic modelling: the challenge of identifying
CEMAGREF, 1981. L’extrapolation des courbes de tarage en hydrométrie. Note
input and structural errors. Water Resour. Res. 46, W05521.
technique no. 10.
Ricci, S., Piacentini, A., Thual, O., Le Pape, E., Jonville, G., 2011. Correction of
DeChant, C.M., Moradkhani, H., 2011a. Radiance data assimilation for operational
upstream flow and hydraulic state with data assimilation in the context of flood
snow and streamflow forecasting. Adv. Water Resour. 34, 351–364.
forecasting. Hydrol. Earth Syst. Sci. 7, 1–55.
DeChant, C.M., Moradkhani, H., 2011b. Improving the characterization of initial
Rochoux, M.C., Ricci, S., Lucor, D., Cuenot, B., Trouvé, A., 2014. Towards predictive
condition for ensemble streamflow prediction using data assimilation. Hydrol.
data-driven simulations of wildfire spread. Part I: reduced-cost ensemble
Earth Syst. Sci. 15, 3399–3410.
Kalman filter based on a polynomial chaos surrogate model for parameter
Dechant, C., Moradkhani, H., 2012. Examining the effectiveness and robustness of
estimation. Nat. Hazards Earth Syst. Sci. 2 (5), 3289–3349.
sequential data assimilation methods for quantification of uncertainty in
Seo, D.J., Koren, V., Cajina, L., 2003. Real-time variational assimilation of hydrologic
hydrologic forecasting. Water Resour. Res. 48.
and hydrometeorological data into operational hydrologic forecasting. J.
de Roo, A.P.J., Gouweleeuw, B., Thielen, J., 2003. Development of a european flood
Hydrometeorol. 4, 627–641.
forecasting system. Int. J. River Bassin Manage. 1, 49–59.
64 J. Habert et al. / Journal of Hydrology 532 (2016) 52–64
Seo, D.J., Cajina, L., Corby, R., Howieson, T., 2009. Automatic state updating for Vrugt, J.A., Diks, C.G.H., Gupta, H.V., Bouten, W., Verstraten, J.M., 2005. Improved
operational streamflow forecasting via variational data assimilation. J. Hydrol. treatment of uncertainty in hydrologic modeling: combining the strengths of
367, 255–275. global optimization and data assimilation. Water Resour. Res. 41, W01017.
Seo, D.J., Moradkhani, H., Weerts, A.H., 2014. Ensemble prediction and data Vrugt, J.A., ter Braak, C.J.F., Clark, M.P., Hyman, J.M., Robinson, B.A., 2008. Treatment
assimilation for operational hydrology. J. Hydrol. 519, 2661–2662. of input uncertainty in hydrologic modeling: doing hydrology backward with
Stedinger, J.R., Vogel, R.M., Lee, S.U., Batchelder, R., 2008. Appraisal of the markov chain monte carlo simulation. Water Resour. Res. 44 (12), W00B09.
generalized likelihood uncertainty estimation (glue) method. Water Resour. Weerts, A.H., El Serafy, G.Y.H., 2006. Particle filtering and ensemble Kalman filtering
Res. 44, W00B06. for state updating with hydrological conceptual rainfall–runoff models. Water
Thirel, G., Martin, E., Mahfouf, J.F., Massart, S., Ricci, S., Habets, F., 2010. A past Resour. Res. 42.
discharges assimilation system for ensemble streamflow forecasts over France Weerts, A.H., Winsemius, H.C., Verkade, J.S., 2011. Estimation of predictive
Part 1: description and validation of the assimilation system. Hydrol. Earth Syst. hydrological uncertainty using quantile regression: examples from the
Sci. 14, 1623–1637. national flood forecasting system. Hydrol. Earth Syst. Sci. 15, 255–265.
Valstar, J.R., McLaughlin, D.B., Te Stroet, C.B.M., Van Geer, F.C., 2004. A representer- Werner, M., Cranston, M., Harrison, T., Withfield, D., Schellekens, J., 2009. Recent
based inverse method for groundwater flow and transport applications. Water developments in operational flood forecasting in England, wales and Scotland.
Resour. Res. 40. Roy. Meteorol. Soc. 16, 13–22.
Van der Knijff, J.M., Younis, J., de Roo, A.P.J., 2010. LISFLOOD: a GIS-based distributed
model for river-basin scale water balance and flood simulation. Int. J. Geogr.
Inform. Sci. 24 (2), 189–212.
3.2.3 Conclusion
Nous avons pu voir dans cet article que l’estimation des apports intermédiaires
par assimilation de données ainsi que la densification de la géométrie et le contrôle des
coefficients de Strickler des lits mineur et majeur par assimilation de données permet-
taient d’améliorer à la fois les hauteurs et les débits prévus par un modèle hydraulique
opérationnel de prévision des crues. On a aussi pu constater que la relation hauteurs-
débits simulée par le modèle densifié est plus en accord avec les jaugeages de hautes-eaux
que le modèle non-densifié. Une fois les forçages amont corrigés par assimilation de don-
nées, on considère que les débits simulés par le modèle sont corrects. Là où les hauteurs
d’eau modélisées diffèrent de celles observées, la densification est préférable au forçage
des Ks car on corrige l’erreur en grande partie responsable de la mauvaise simulation
des hauteurs d’eau. Toutefois, la donnée topographique et bathymétrique étant rare,
l’assimilation séquentielle d’observations de hauteurs d’eau pour modifier les coefficients
de frottement m et n permet (en veillant à encadrer la correction) d’améliorer la modé-
lisation des hauteurs d’eau sans dégrader les débits a priori déjà correctement estimés
avec la première étape d’assimilation de données. Nous avons pu voir que la matrice
de covariance des erreurs d’analyse peut être utilisée pour quantifier les incertitudes de
prévision. On obtient des fourchettes d’incertitudes hautes et basses comparables à celles
calculées a posteriori en utilisant les prévisions simulées lors de la phase de validation
du modèle.
La nouvelle courbe de tarage de Mussey extrapolée à l’aide du mo-
dèle aux profils densifiés est utilisée en opérationnel. Depuis décembre 2013,
les débits au pas de temps horaire des stations d’observation de Condes,
Mussey, Chamouilley et Saucourt sont assimilés pour corriger les forçages
amont où ont été intégrés les apports intermédiaires via les coefficients mul-
tiplicatifs Ai du modèle MAG. Suite à ces travaux, une fois les paramètres
de correction a analysés, les hauteurs d’eau au pas de temps horaire de la
station de Joinville (les profils ont été densifiés à Mussey) sont assimilées
pour faire varier temporellement le forçage local des Ks au droit de Joinville
afin d’améliorer la simulation des hauteurs d’eau à cette station. Cet enchaî-
nement est opérationnel au SPC SAMA depuis octobre 2014 et permet à la
fois d’améliorer les prévisions de hauteurs et de débits aux stations de Chau-
mont, Condes, Mussey, Joinville, Chamouilley et Saucourt à des échéances
de prévision de respectivement 5, 6, 12, 13, 21 et 10h.
108
3.3 Correction de la dynamique du modèle par assimila-
tion de données pour le modèle Marne Moyenne (MM)
La correction des forçages amont et des Ks localement au droit des stations
d’observations a été appliquée au modèle MAG (Marne Amont Global) dans les Par-
ties 3.1 et 3.2 pour améliorer l’estimation des apports intermédiaires et la relation
hauteur-débit. Sur les autres tronçons, les Ks ont été classiquement ajustés pendant
la phase de calage pour accélérer ou ralentir les ondes de crues simulées de sorte qu’elles
se superposent avec celle(s) observée(s) à la (ou aux) station(s) en aval pour chaque
évènement. A partir de cet échantillon de calage, on détermine des coefficients de frotte-
ment moyens ainsi que leurs écarts-types. Or, les Ks ne sont pas des paramètres constants
dans le temps. Une onde de crue se propage plus lentement dans une plaine céréalière au
printemps lorsque la végétation est dense qu’en novembre où les champs sont à nu. Ce
phénomène est observé avec le modèle MM (cf Figure 3.2) où la Marne s’écoule dans la
plaine alluviale entre Vitry-le-François et Epernay (cf Figure 1.14) large par endroit de
plus de 3 km.
Amont Frignicourt
Vitry-en-Perthois*1,2 1
3
La Saulx
2.1
La Chaussée 2.2
2.3
Châlons-en-Champagne 2.4
Aval
109
entre les valeurs simulées et observées aux stations de sortie du modèle MM
(triangles rouges sur la Figure 3.2). Cette approche est mise en œuvre sur
le modèle MM, déjà utilisé en opérationnel. Elle est ici validée sur huit
événements de crue différents de ceux utilisés pour la phase de calage.
110
500 100
Ecart-types (m3/s)
300 dKs = 6 60
Débits (m3/s)
dKs = 8
250 dKs = 10 50
Ecart-types
200 40
150 30
100 20
50 10
0 0
0 24 48 72 96 120 144 168 192
Temps (h)
Figure 3.3 – Ondes de crue simulées avec dKs m ∈ [−10 ;+10] à La Chaussée, les
écart-types sont calculés en comparant les débits de la simulation d’ébauche (trait plein
noir) et des simulations perturbées.
500 100
dKs = -10
450 dKs = -8 90
dKs = -6
dKs = -4
400 80
dKs = -2
dKs = 0
350 dKs = 2 70
dKs = 4
Ecart-types (m3/s)
300 dKs = 6 60
Débits (m3/s)
dKs = 8
250 dKs = 10 50
Ecart-types
200 40
150 30
100 20
50 10
0 0
0 24 48 72 96 120 144 168 192
Temps (s)
111
A Châlons-en-Champagne, au-delà de 300 m3 /s, une perturbation négative de
m ne ralentit plus l’onde de crue mais l’accélère. Au-delà de 400 m3 /s, une perturbation
positive de m ralentit l’onde de crue (cf Figure 3.5). Le signe de la différence entre la
simulation de référence et la simulation perturbée change. Une perturbation de −8 peut
engendrer un retard maximum de 22h (au dépassement des 125 m3 /s) en basses eaux,
alors qu’en hautes eaux elle engendre au maximum une accélération de 3h.
500
dKs = -8
450 dKs = 0
dKs = 8
400
Débits (m3/s)
350
300
250
200
84 96 108 120
Temps (h)
112
On analyse ici le décalage temporel δt engendré par dKs mais il faut signaler
que dans l’algorithme d’assimilation, c’est dK dKs
δH ou δQ que lit l’opérateur d’observation
s
G. Toutefois, la prévision des crues opérationnelle impose d’utiliser des modèles hydrau-
liques en régime non-permanent où un δt peut aussi se traduire en δH et en δQ. Afin
d’appliquer l’algorithme d’assimilation de données, il est nécessaire de déterminer dans
quelle proportion la réponse à la perturbation des Ks est linéaire en comparant les pas
de temps où les débits franchissent les seuils des 75, 100, 125, 150, 175, 200, 250, 300,
350, 400 et 450 m3 /s en montée de crue. Les Figures 3.6 et 3.7 représentent les décalages
temporels à La Chaussée et Châlons-en-Champagne engendrés par un dKs variant de
−10 à +10 en trait épais pour différents débits injectés dans le modèle, auxquels on a
ajouté en trait fin les approximations linéaires pour dKs = −2.
7
Débits en m3/s
75
75, f(0;-2) y=0.25x
100
5
100, f(0;-2) y=0.25x
150
150, f(0;-2) y=0.75x 3
250
250, f(0;-2) y=0.5x
450
450, f(0;-2) y=0x 1
dKs
-10 -8 -6 -4 -2 0 2 4 6 8 10
-1
Déphasage temporel (h)
-3
-5
-7
113
on sait à partir de la Figure 3.6 qu’une perturbation par dKs = −2 engendre une varia-
tion de −1.5h (la linéarisation de l’opérateur G est réalisée à partir d’une perturbation
des Ks ). En faisant l’hypothèse de linéarité, l’assimilation de données va estimer à partir
de la droite bleue qu’un dKs de +4 va combler le retard de 3h. Or une telle perturbation
mène en réalité à une accélération de 2.5h, ce qui correspond à une légère sous-correction
qui reste acceptable.
À Châlons-en-Champagne, pour des perturbations fortes, les déphasages engen-
drés par des dKs positifs et négatifs sont très différents, −22.5h pour dKs = −8, 5.5h
pour dKs = +8 à 125 m3 /s. Les courbes épaisses et les droites fines de la Figure 3.7
divergent à partir d’un dKs de −3 et +3 sauf pour la gamme de débit comprise entre 100
et 150 m3 /s, là où l’impact est le plus fort. Il est donc impératif de limiter les corrections
des Ks .
10
dKs
0
-10 -8 -6 -4 -2 0 2 4 6 8 10
-5
Déphasage temporel (h)
Débits en m3/s
100
-10 100, f(0;-2), y=0.75x
150
150, f(0;-2) y=3.5x
-15 250
250, f(0;-2) y=0.5x
450
450, f(0;-2) y=-0.5x
-20
Les conclusions auraient été sensiblement les mêmes avec des ap-
proximations linéaires calculées pour des dKs compris entre −2.5 et +2.5
(sauf pour des débits simulés proches de 150 m3 /s à Châlons-en-Champagne)
à partir du moment où les corrections des Ks des lits mineurs m sont limitées
à des corrections de −5 à +5.
114
Perturbation des Ks du lit majeur n
On a retenu pour les portions 1 et 3 du bief 2 des Ks du lit majeur n de 13
et 12 (cf Tableau 1.6). On obtient pour dKs = [−6 ;+6] à La Chaussée et Châlons-
en-Champagne les hydrogrammes des Figures 3.8 et 3.9 ci-dessous. On vérifie qu’une
diminution de n ralentit l’onde de crue, une augmentation l’accélère. L’impact
de la perturbation croît avec l’augmentation du débit à partir de 150 m3 /s. En-deçà,
son impact est nul car l’eau s’écoule exclusivement dans le lit mineur. Comme pour les
perturbations de m, on constate que le déphasage engendré est accru avec un dKs négatif
et qu’une perturbation de −8 (déphasage de −22h) n’entraîne pas un ralentissement deux
fois plus élevé qu’une modification de −4 (déphasage de −6h) de m au franchissement
par exemple des 125 m3 /s à Châlons-en-Champagne.
500 100
450 dKs = -6 90
dKs = -5
dKs = -4
400 dKs = -3 80
dKs = -2
dKs = -1
350 dKs = 0 70
dKs = 1
dKs = 2
Ecart-types (m3/s)
300 60
Débits (m3/s)
dKs = 3
dKs = 4
250 dKs = 5 50
dKs = 6
Ecart-types
200 40
150 30
100 20
50 10
0 0
0 24 48 72 96 120 144 168 192
Temps (h)
Figure 3.8 – Ondes de crue simulées avec dKs n ∈ [−6 ;+6] à La Chaussée, les
écart-types sont calculés en comparant les débits de la simulation d’ébauche (trait plein
noir) et des simulations perturbées.
115
500 100
450 dKs = -6 90
dKs = -5
dKs = -4
400 dKs = -3 80
dKs = -2
dKs = -1
350 dKs = 0 70
dKs = 1
dKs = 2
Ecart-types (m3/s)
300 dKs = 3 60
Débits (m3/s)
dKs = 4
dKs = 5
250 50
dKs = 6
Ecart-types
200 40
150 30
100 20
50 10
0 0
0 24 48 72 96 120 144 168 192
Temps (s)
Figure 3.9 – Ondes de crue simulées avec dKs n ∈ [−6 ;+6] à Châlons-en-Champagne,
les écart-types sont calculés en comparant les débits de la simulation d’ébauche (trait plein
noir) et des simulations perturbées.
116
5
1
dKs
-6 -4 -2 0 2 4 6
-1
Débits en m3/s
75
dKs
0
-6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6
Débits en m3/s
-2
100
Déphasage temporel (h)
117
De fait, cela oriente la stratégie à mettre en œuvre pour la formula-
tion du linéaire tangent par différences finies pour ce qui est de la sensibilité
aux paramètres des lits mineurs et majeurs m et n. Afin que cette estimation
soit la plus légitime sur un intervalle, il est préférable de faire ce calcul à par-
tir d’une perturbation négative. Les corrections sur les Ks des lits majeurs
ont été limitées à −5 et +5 comme pour celles liées au lit mineur m.
118
Pour l’étape 2, on assimile les hauteurs d’eau observées à :
• La Chaussée pour corriger les Ks de la portion 2 (cf Figure 3.2) ;
• Châlons-en-Champagne pour corriger les Ks des portions 1 et 3 ;
• Damery pour corriger les Ks de la portion 6.
Table 3.1 – Paramètres appliqués aux huit crues pour l’étape 2 de l’assimilation de données
appliquée au modèle MM. Ksb correspond aux Ks d’ébauche, σb aux écart-types d’erreur
d’ébauche et dKs à la perturbation faite à Ksb pour déterminer l’opérateur d’observation G. Les
valeurs seuils Ksa sont les valeurs minimales et maximales que peuvent atteindre les Ks
analysés.
La correction est cyclée au pas de temps horaire sur une fenêtre temporelle de
108h : on perturbe les paramètres entre T −60h et T (le débit à la station de Vitry-
en-Perthois pour l’étape 1 ; m, n pour l’étape 2), on assimile les valeurs (les débits
119
observés à Châlons-en-Champagne pour l’étape 1 et les hauteurs d’eau observées aux
trois stations pour l’étape 2) entre T −12h et T . On applique enfin les paramètres
analysés entre T −60h et T ainsi que sur la période de prévision entre T et T + T p (+48h
à Damery maximum). À chaque simulation la fenêtre temporelle est décalée d’une heure.
3.4
3.2
3
2.8
2.6
2.4
2.2
Hauteurs en m
2
1.8
1.6
1.4 H Obs.
1.2 H Brut, N=0.934
H étape 1, N=0.941
1
H étape 1 + 2, N=0.995
0.8 Seuil jaune
0.6
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours
Figure 3.12 – Hauteurs observées et simulées par le modèle brut et l’enchaînement des 2
étapes d’assimilation de données à La Chaussée entre le 05/12/2010 et le 05/01/2011. N
représente le critère de Nash-Sutcliffe dans la légende.
120
440
420
400
380
360
340
320
300
280
260
Débits en m3/s
240
220
200
180
160
140 Q Obs.
120 Q Brut, N=0.963
100
80 Q étape 1, N=0.986
60 Q étape 1 + 2, N=0.992
40
Seuil jaune
20
0
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours
Figure 3.13 – Débits observés et simulés par le modèle libre et l’enchaînement des 2
étapes d’assimilation de données à Châlons-en-Champagne entre le 05/12/2010 et le
05/01/2011. N représente le critère de Nash-Sutcliffe dans la légende.
4 140
H Obs.
3.8
H Brut, N=0.690 130
3.6 H étape 1, N=0.733
3.4 H étape 1 + 2, N=0.853 120
3.2 m, seuil max. = 45
3 m, ébauche = 40 110
m, seuil min. = 35
2.8
m analysé 100
2.6
2.4 90
Valeurs du Ks m
Hauteurs en m
2.2
2 80
1.8
1.6 70
1.4 60
1.2
1 50
0.8
0.6 40
0.4 30
0.2
0 20
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours
Figure 3.14 – Hauteurs observées et simulées par le modèle libre et l’enchaînement des 2
étapes d’assimilation de données à Damery entre le 05/12/2010 et le 05/01/2011. N
représente le critère de Nash-Sutcliffe dans la légende.
121
La correction des forçages amont (étape 1) améliore la simulation des débits à
Châlons-en-Champagne mais ne peut pas satisfaire à elle seule les trois stations à la fois,
lorsque le signe de l’erreur est différent comme à La Chaussée au premier pic de crue.
On suppose alors que la nature des erreurs est différente : à Châlons-en-Champagne, on
impute en grande partie l’erreur aux débits, tandis qu’à La Chaussée, on estime que ce
sont plutôt les erreurs liées à la bathymétrie qui engendrent les écarts entre les hauteurs
observées et simulées, d’où la correction locale des Ks appliquée à l’étape 2.
Durant l’étape 2, on impute aux Ks et à la topo-bathymétrie les écarts restants
entre observations et simulations de l’étape 1 : à Châlons-en-Champagne, les hauteurs
sont assimilées pour déphaser l’hydrogramme simulé à cette station. Les résultats sont
probants même si le critère de Nash N est faiblement amélioré, on passe de 0.986 à 0.992.
Ce déphasage impacte aussi les 2 autres stations, mais le décalage temporel est noyé dans
la correction locale des Ks de La Chaussée et Damery. On corrige ici les Ks , même si
vraisemblablement la source d’erreur est liée en grande partie à la topo-bathymétrie. A
Damery, au premier pic de crue les hauteurs observées sont influencées par le barrage
VNF (Voies Navigables de France). L’assimilation de données corrige localement les Ks
m et n, mais les seuils de correction sont rapidement atteints (les m analysés - courbe
verte - dépassent les valeurs seuil - droites grises - sur la Figure 3.14). Le forçage local
des Ks semble plus adapté à partir de 2 m à Damery lorsque le barrage est couché. On
obtient, en rejouant les huit crues de validation, les critères de Nash présentés dans le
Tableau 3.2 ci-dessous.
La Chaussée Châlons-en-Champagne Damery
H H Q H
Modèle brut 0.710 0.829 0.821 0.264
étape 1 0.703 0.950 0.950 0.362
étapes 1 + 2 0.889 0.969 0.967 0.551
Table 3.2 – Critères de Nash moyens N obtenus pour les huit crues de validation à La
Chaussée, Châlons-en-Champagne et Damery avec la simulation brute et l’enchaînement des
deux étapes d’assimilation de données.
Globalement, sur les huit crues, l’étape 1 améliore les simulations à Châlons-
en-Champagne et Damery. Le forçage des Ks sur de grandes portions de l’étape 2
améliore les scores à Châlons-en-Champagne. Les Nash calculés pour les débits et les
hauteurs d’eau sont proches, la relation hauteurs-débits est donc correctement simulée
par le modèle MM. Les écarts entre hauteurs observées et simulées à La Chaussée et
Damery sont encore forts, le forçage local permet de réduire cet écart. Toutefois les
résultats restent moyens à Damery car les corrections à apporter sont trop grandes, les
valeurs seuils de m et n (non-représentées sur la Figure 3.14) sont rapidement atteintes.
On peut conclure que l’enchaînement des étapes 1 et 2 de l’assimila-
tion de données est bénéfique.
122
Résultats obtenus en mode prévision
Les critères de Nash ont été calculés aux échéances maximales des ces trois
stations. Ils sont présentés dans le Tableau 3.3 ci-dessous. Les limnigrammes et hydro-
grammes à +24h pour la crue de décembre 2010 figurent dans l’Annexe 1.
Table 3.3 – Critères de Nash moyens N obtenus pour les huit crues de validation aux
échéances maximales de prévision des stations de La Chaussée, Châlons-en-Champagne et
Damery avec la simulation brute et l’enchaînement des deux étapes d’assimilation de données.
123
500 3
480 Q Obs. 2.9
460 Q Brut, N=0.952 2.8
440 Q étape 1 sigma=0.08, N=0.959 2.7
420 Q étape 1 + 2, N=0.965 2.6
400 Seuil jaune 2.5
380 Coef. a, sigma=0.08
2.4
360 Coef. a, sigma=0.025
2.3
340 Coef. a=1
2.2
320 2.1
Valeurs du coefficient a
300
Débits en m3/s
2
280
1.9
260
1.8
240
1.7
220
200 1.6
180 1.5
160 1.4
140 1.3
120 1.2
100 1.1
80 1
60 0.9
40 0.8
20 0.7
0 0.6
0 2 4 6 8 10 12 14 16 18 20 22 24 26 28
Jours
Figure 3.15 – Comparaison des débits obtenus avec l’enchaînement des 2 étapes et
l’étape 1 avec un écart-type d’erreur d’ébauche de 0.08 (courbe rose) à
Châlons-en-Champagne entre le 05/12/2010 et le 05/01/2011 à +24h.
124
380
Q Obs.
Q Brut
360
Q étape 1
Q étape 1 + 2
340 Seuil jaune
320
300
Débits en m3/s
280
260
240
220
200
Assimilation Prévision
180
160
T-60h T-12h T T+24h
140
Heures
125
126
Chapitre 4
Développements et validation
pré-opérationnelle : application
au modèle Marne Moyenne pour
la crue d’avril 1983
Sommaire
4.1 Quantification des incertitudes de prévision . . . . . . . . . . 128
4.1.1 Méthode d’analyse des erreurs constatées a posteriori . . . . . 128
4.1.2 Exploitation de la matrice A des erreurs d’analyse . . . . . . . 132
4.2 De la prévision des crues à la prévision des inondations . . . 133
4.2.1 La prévision des inondations . . . . . . . . . . . . . . . . . . . 133
4.2.2 Création d’une carte de zone inondée potentielle avec QGIS et
CartoZI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
4.3 Validation des travaux à partir de la crue d’avril 1983 avec
le modèle MM . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.3.1 Présentation du scénario . . . . . . . . . . . . . . . . . . . . . . 137
4.3.2 Enchaînement de la correction des forçages amont, des Ks et
de l’état hydraulique par assimilation de données . . . . . . . . 138
4.3.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
4.3.4 Quantification des incertitudes . . . . . . . . . . . . . . . . . . 143
4.3.5 Prévision des inondations . . . . . . . . . . . . . . . . . . . . . 145
127
Le SCHAPI, dans le cadre de l’opération "Prévision 2015", a pour objectif d’af-
ficher sur le site Vigicrues les prévisions associées à une fourchette d’incertitude et de
passer de la prévision des crues à la prévision des inondations en fournissant des cartes
de zones inondées potentielles en fonction de la crue. La validation pré-opérationnelle
du modèle Marne Moyenne (MM) avec assimilation de données fera l’objet de tests de
méthodes de quantification des incertitudes et de production dynamique de cartes de
zones inondées potentielles.
Avant d’utiliser en opérationnel un nouveau modèle de prévision des crues, il est
nécessaire de le tester pour connaître ses points forts et ses faiblesses. L’enchaînement
des étapes 1 et 2 d’assimilation de données permet d’améliorer les critères de Nash
moyens des hauteurs d’eau et des débits prévus aux échéances maximales des stations
de sortie du modèle Marne Moyenne (MM). Cet enchaînement a été validé à partir de
huit événements de crues différents de ceux qui ont été utilisés lors de la phase de calage
du modèle. Toutefois, aucune de ces crues de validation n’a dépassé le seuil de vigilance
orange de 4.5 m à Châlons-en-Champagne. Les hauteurs d’eau maximales observées
lors de ces événements sont comprises entre 2.8 et 3.70 m et correspondent à des crues
hivernales courantes. Le seul événement ayant dépassé les 4.5 m est la crue d’avril 1983
qui n’a pas été intégrée au jeu de crues de validation du fait de son ancienneté et du
manque de données observées aux stations de La Chaussée et Damery. L’efficacité de
l’enchaînement des corrections des forçages amont, des Ks et de l’état hydraulique du
modèle MM va être testée dans cette partie en rejouant la crue d’avril 1983 et plus
précisément en se focalisant sur la prévision du pic de crue. Ce test a été effectué au
préalable de la mise à l’opérationnel du modèle MM avec assimilation de données en
octobre 2014 au SPC SAMA.
128
comme représentatif (par exemple une chronique de prévision) et les valeurs observées, il
est en effet possible de décrire statistiquement les erreurs de prévision faites (également
appelées résidus), voire de chercher à modéliser ces erreurs à travers une corrélation
avec un facteur explicatif. Une approche simple consiste à calculer des statistiques sur
l’ensemble des erreurs disponibles :
• moments statistiques : moyenne, écart-type Σ ;
• quantiles statistiques.
129
Figure 4.1 – Abaque d’intervalles d’incertitudes à 50 % et 80 % des hauteurs prévues à
Mussey à 12 h par le modèle MAG sans assimilation de données calculés par l’IRSTEA
avec la méthode CEMA.
130
Figure 4.2 – Abaque d’intervalles d’incertitudes à 50 % et 80 % des hauteurs prévues à
Mussey à 12 h par le modèle MAG avec assimilation de données calculés par l’IRSTEA
avec la méthode CEMA.
131
distribution gaussienne dont la moyenne et l’écart-type sont égaux à la moyenne et à
l’écart-type statistiques calculés sur l’échantillon (analyse statistique pour déterminer les
paramètres du modèle d’erreur), n’importe quel quantile est théoriquement calculable.
Toutefois, il faut se poser la question de la signification de ces quantiles rares calculés
sur très peu de données : leur validité repose fortement sur celle du modèle d’erreur.
On observe que les intervalles de prévision évoluent de façon assez erratique
en fonction du débit prévu sur la Figure 4.2. Il est possible de trouver une évolution
des quantiles beaucoup plus régulière en utilisant la méthode de régression des quantiles
décrite dans Weerts et al., 2011. La régression de quantiles est une extension des ap-
proches précédentes dont le but est de fournir une relation empirique entre un quantile
qy de l’incertitude (pour différentes valeurs de y) et le débit ou la hauteur prévue. Cette
méthode a été testée sur de nombreux bassins et s’est révélée raisonnablement fiable.
Sur la base des travaux de l’IRSTEA, le SPC SAMA a développé son propre ou-
til en 2014 permettant de construire les abaques puis d’afficher graphiquement l’intervalle
d’incertitudes à 80 % encadrant les sorties des modèles MAG et MM (cf Partie 5.1.1).
Le SCHAPI souhaite d’ici fin 2015 afficher sur Vigicrues sous forme de graphique des
prévisions expertisées associées à des fourchettes d’incertitudes hautes et basses. Le
SCHAPI va prochainement mettre à disposition des SPC son propre outil, OTAMIN
(OuTil Automatique d’estiMation de l’iNcertitude prédictive) permettant de générer
des incertitudes à partir de sorties de modèles ((cf Partie 5.3.2). L’outil OTAMIN a
été conçu par l’IRSTEA avec pour objectif d’associer de manière automatique et systé-
matique des fourchettes d’incertitudes aux prévisions obtenues avec différents modèles
utilisés de manière opérationnelle au sein du réseau Vigicrues en utilisant la méthode
CEMA décrite ci-dessus. Son utilisation en opérationnel nécessite donc, au préalable, de
réaliser pour chaque modèle une analyse des séries passées et un calage des abaques.
132
4.2 De la prévision des crues à la prévision des inondations
Le SCHAPI a pour objectif de passer de la prévision ponctuelle des crues (une
hauteur d’eau prévue à une station donnée) à la prévision cartographique des inonda-
tions (délimitation des zones qui seront potentiellement inondées). Les cartes de zones
inondées potentielles, destinées dans un premier temps aux seuls gestionnaires de crise,
leur donneront un aperçu immédiat des conséquences spatiales de la crue à venir et fa-
ciliteront leurs prises de décisions par anticipation. Des outils ont été développés pour
faciliter la production de ces cartes à partir de données topographiques et hydrauliques.
Figure 4.3 – Carte de zones inondées potentielles minimum (bleu) et maximum (incluant
le rouge) à Pont-sur-Seine (en aval de Troyes) diffusée à titre expérimental le 10 mai 2013
pour un pic de crue prévu pour les 12 et 13 mai 2013, et utilisée sur le terrain par les
acteurs de la gestion de crise.
133
Des expérimentations ont déjà été effectuées au sein des SPC et ont été concré-
tisées par exemple avec la production de cartes de zones inondées potentielles par le SPC
SAMA sur le tronçon Marne Moyenne en 2014. Ces cartes ont été versées dans la base
de données de la plate-forme VIGInond.
Pour la fin de l’année 2015, l’objectif défini par le SCHAPI est d’avoir une cou-
verture nationale d’au moins 20 % des stations de prévision du réseau Vigicrues par au
moins trois scénarios d’inondation en fonction de différentes classes de hauteurs d’eau.
La programmation et le cadrage de cette production est réalisée par les SPC. Elle est
définie avec les acteurs susceptibles d’avoir produit ou de faire produire des scénarios
d’inondation relatifs à des hauteurs d’eau à une ou plusieurs stations hydrométriques.
La production des cartes doit être engagée en priorité sur les secteurs des TRI où des
données cartographiques existent déjà et sont susceptibles d’être réutilisées. Un état des
lieux est ensuite nécessaire sur les autres secteurs à enjeux, pour définir avec les ac-
teurs impliqués dans le risque inondation les données topographiques et hydrauliques
disponibles. Un guide destiné aux SPC, apportant des éléments techniques pour la pro-
duction de zones inondées pour la prévision des inondations, est en cours de finalisation.
Les cartes produites doivent respecter un format de données précis et sont ensuite in-
sérées dans la base de données de la plate-forme VIGInond. La visualisation des zones
inondées insérées dans VIGInond se fera indépendamment de Vigicrues. Les utilisateurs
autorisés auront à faire le lien entre les prévisions élaborées par le SPC et diffusées sur
Vigicrues et les scénarios de zones inondées disponibles pour les stations concernées. Afin
de permettre aux SPC d’engager la production en régie de ces données, l’outil CartoZI
a été développé au sein de réseau Vigicrues.
134
• La MNSE est alors comparée au MNT constitué de données issues d’un
LIDAR et de profils bathymétriques pour le lit mineur de la Marne avec
une résolution de 2 m (Figures 5.13 et 5.14 de l’Annexe 2). Les zones où
l’altitude au sol est inférieure à la cote de la surface de l’eau sont alors
considérées comme inondées. On obtient un raster de hauteurs brutes ;
• Ces hauteurs brutes sont divisées en cinq classes, entre 0 et 0.5, 0.5 et 1, 1
et 1.5, 1.5 et 2 m, et 2 m et plus (Figure 5.15 de l’Annexe 2). Le raster est
lissé de manière vectorielle pour limiter la taille des fichiers en intégrant les
polygones non représentatifs de par leur faible surface au polygone voisin ;
• Un masque de connectivité est enfin appliqué pour ne pas colorer les zones
dans lesquelles l’eau n’a pas pu s’écouler comme une zone protégée par une
digue (Figure 5.16 de l’Annexe 2) ;
135
Figure 4.4 – Exemple de carte de zone inondée potentielle de l’agglomération
châlonnaise réalisée avec CartoZI pour un débit simulé de 637 m3 /s.
136
4.3 Validation des travaux à partir de la crue d’avril 1983
avec le modèle MM
L’enchaînement des trois corrections est détaillé ici dans une configuration opé-
rationnelle avec le modèle Marne Moyenne (MM) pour un événement de crue important
à Châlons-en-Champagne, la crue d’avril 1983 pour laquelle le seuil de vigilance orange
a nettement été franchi. En plus du test de l’enchaînement de la correction des forçages
amont, des Ks et de l’état hydraulique, une fourchette d’incertitudes à 80 % sera calculée
à partir de la méthode utilisant la matrice de covariance des erreurs d’analyse présentée
dans le Partie 4.1.2. On analysera les résultats des modèles sans et avec assimilation de
données en comparant les limnigrammes simulés et observés à la station de Châlons-
en-Champagne, mais aussi en comparant les champs d’inondation modélisés aux photos
aériennes de l’agglomération châlonnaise prises à l’époque.
137
5.2
5.0
4.8
4.6
?
4.4
4.2 H obs.
4.0 Seuil orange
Hauteurs d'eau en m
138
d’eau a été estimé à 0.025 m pour la station de Mussey. En supposant que l’écart-type
soit du même ordre à Châlons-en-Champagne, on peut estimer que la hauteur d’eau
moyenne observée entre T −12h et T (4.489 m) est comprise entre 4.464 et 4.514 m, soit
en débits entre 574.29 et 588.49 m3 /s. La courbe de tarage est une régression linéaire
passant au plus près des jaugeages. Le logiciel utilisé pour la gestion des courbes calcule
une précision en % pour chacune des portions de la courbe. Elle est pour la station de
Châlons-en-Champagne de 2.58 %. En ajoutant une erreur liée à la courbe de tarage
de 2.58 %, on obtient pour une hauteur moyenne de 4.489 m un débit compris entre
559.48 m3 /s et 603.67 m3 /s, soit pour une écart-type d’erreur d’observation en hauteur
de 0.025 m, un écart-type d’erreur d’observation en débit de 22.1 m3 /s. L’écart-type
d’erreur d’ébauche (σ b ) a été fixé à 0.08. Les paramètres relatifs à la correction du forçage
amont par assimilation de données du modèle MM sont regroupés dans le Tableau 4.1
ci-dessous.
Forçage Paramètre Valeur de Valeur de la Donnée
σb σo
corrigé corrigé ab perturbation assimilée
QV itry ∗ 1.2 a 1 1.05 0.08 Q Châlons 22.1
Table 4.1 – Paramètres appliqués pour la correction des forçages amont (étape 1) du modèle
MM pour la crue d’avril 1983.
139
en guise d’ébauche la simulation avec le paramètre analysé aa déterminé lors de l’étape
1. Les paramètres relatifs à la correction des Ks par assimilation de données pour le
modèle MM sont regroupés dans le Tableau 4.2 ci-dessous.
Table 4.2 – Paramètres appliqués pour la correction des Ks par assimilation de données
(étape 2) du modèle MM pour la crue d’avril 1983.
140
correction améliore les prévisions à court terme et permet d’avoir une continuité visuelle
à plus ou moins σ o entre la dernière observation et la première prévision. L’écart-type
d’erreur d’ébauche σ b au point d’observation a été fixé à 0.1 m. L’incrément analysé en
hauteurs est reporté en débits via la courbe de tarage de Châlons-en-Champagne qui est
renseignée dans le fichier ParamètresMascaretAssim.cas.
La simulation débute à T −5j avec une condition initiale proche de l’état ob-
servé. On comprend ici l’intérêt de la période d’ajustement de modèle, comprise entre le
début de la simulation et la fenêtre d’assimilation, qui permet de s’affranchir de l’effet de
la condition initiale. En opérationnel, le prévisionniste ne recalculera pas une condition
initiale pour chaque simulation mais en choisira une parmi trois préalablement calculées
selon si on est en condition de basses-eaux, moyennes-eaux ou hautes-eaux. Les observa-
tions sont assimilées entre T −12h et T . On applique les paramètres analysés entre T −5j
et T ainsi que sur la période de prévision entre T et T +24h.
4.3.3 Résultats
On obtient les résultats suivants (Figures 4.6 et 4.7) : la courbe noire représente
les hauteurs d’eau observées, la bleue la simulation brute qui sous-estime à T la hauteur
modélisée, en rouge la simulation obtenue suite à l’étape 1 et en vert foncé celle obtenue
avec l’enchaînement de l’étape 1 et de l’étape 2, enfin en vert clair celle obtenue avec
l’enchaînement des 3 étapes. Les Figures 4.6 et 4.7 ne résultent pas d’un cyclage de la
correction, on se focalise ici à un temps de base (à T , le 13 avril 1983 à 7h).
5.1
4.9
4.7
4.5
4.3 H obs.
4.1 H Brute
H étape 1
Hauteurs d'eau en m
3.9
H étape 1 + 2
3.7 H étape 1 + 2 + 3
3.5 T-12h
T
3.3 T+24h
3.1 Seuil orange
2.9
2.7
2.5
2.3
T
2.1
0 1 2 3 4 5 6
Jours
141
5.1
5.0
4.9
4.8
4.7
4.6
4.5
Hauteurs d'eau en m
4.4
4.3
H Obs.
4.2
H Brute
4.1 H étape 1
4.0 H étape 1 + 2
3.9 H étape 1 + 2 + 3
T-12h
3.8
T
3.7 T+24h
3.6 T Seuil orange
3.5
4 4.5 5 5.5 6
Jours
142
6h (+6h) pour coller parfaitement aux observations. On peut donc en déduire que si
la réponse à la perturbation est parfaitement linéaire un incrément d’analyse de +3
accélérera l’onde de crue de 6h (+6h). Or un incrément de +3 engendre en fait une
accélération de 4h (+4h) d’après la Figure 3.11, ce qui peut expliquer la sous-correction
du paramètre n. Pour obtenir une accélération de 6h (+6h), il faut en fait un incrément
de +6, valeur de toute façon supérieure au seuil. On peut constater d’après la Figure 4.6
que l’erreur liée à la condition initiale du modèle s’affranchit à partir du jour 2 où la
hauteur d’eau simulée commence à croître à Châlons-en-Champagne.
L’étape 3 de correction de l’état hydraulique impacte les prévisions à court
terme, à T une différence de 0.02 m subsiste, ce qui est négligeable. Au bout de 12h, les
courbes vert claires et foncées se confondent de nouveau.
143
Fourchette a m n
basse 1.1989 30 13
Étape 1
haute 1.2604 30 13
basse-min. 1.1989 32.5095 16.1604
Étapes 1 + 2 basse-max. 1.1989 28.0474 16.8529
Étapes 1 + 2 + 3 haute-min. 1.2604 32.5095 16.1604
haute-max. 1.2604 280474 16.8529
4.9
4.8
4.7
4.6
4.5
4.4
Hauteurs d'eau en m
4.3
4.2
4.1 H Obs.
H Brute
4.0 H étape 1
Erreurs étape 1
3.9 H étape 1 + 2
Erreurs étape 1 + 2
3.8 H étape 1 + 2 + 3
Erreurs étape 1 + 2 + 3
3.7 T-12h
T
3.6 T+24h
T Seuil orange
3.5
4 4.5 5 5.5 6
Jours
En retenant les valeurs extrêmes des quatre faisceaux en pointillés verts clairs
on obtient l’intervalle de confiance à 80 % bas et haut sur le Figure 4.9. La hauteur d’eau
prévue est encadrée par un intervalle croissant de 0.02 m à T à 0.06 m à T +24h. La
hauteur d’eau observée n’est pas comprise dans cet intervalle durant les six premières
144
et dernières heures. En terme de m3 /s, le débit prévu est encadré par un intervalle
de plus ou moins 8 m3 /s. La prévision est excellente mais l’intervalle d’incertitudes
semble réduit. Le prévisionniste devra interpréter cette faible fourchette d’incertitude
avec prudence car on ne contrôle ici que les paramètres de forçage et de frottement en
faisant de surcroît l’hypothèse que les erreurs suivent un loi gaussienne.
4.9
4.8
4.7
4.6
4.5
4.4
Hauteurs d'eau en m
4.3
4.2
H Obs.
4.1 H Brute
4.0 H étape 1 + 2 + 3
Intervalle d'erreur à 80%
3.9
T-12h
3.8 T
3.7 T+24h
Seuil orange
3.6 T erreur max
3.5
4 4.5 5 5.5 6
Jours
145
On obtient pour les pics de crue simulés par le modèle brut (4.63 m soit 637
m3 /s) et avec l’enchaînement des 3 corrections (4.84 m soit 699 m3 /s) les cartes ci-
après (Figures 4.10 et 4.11), la station de Châlons-en-Champagne étant représentée
par un point bleu. Des photos aériennes ont été réalisées dans la vallée de la Marne
(Figures 4.12 et 4.13), à priori le 14/04/1983 au lendemain du pic de crue observé à
Châlons-en-Champagne (la date et l’heure des prises de vue ont été perdues). Afin de
comparer les champs d’inondation simulés à celui observé, des points de repère violets
(en amont), verts (en rive gauche) et jaunes (en rive droite) ont été dessinés sur les
cartes et leurs correspondances repérées sur les photos. On constate que les deux champs
modélisés sont comparables à la zone inondée observée sur les photos. Les digues et le
canal protègent la ville en rive droite. Sans le masque, les quartiers Verbeau, Madagascar
et Isleaux-Bois ont les pieds dans l’eau. Le masque a été appliqué car on sait qu’en deçà
de 5.2 m à la station de Châlons, la rive droite est théoriquement protégée. Le chemin
de fer protège en grande partie la rive gauche, sauf à l’aval de l’agglomération où la cote
maximale de l’eau modélisée atteint 81.20 m au niveau de la gare de triage alors que
la voie de chemin de fer a une altitude de 80.90 m d’où la tâche bleue ciel sur la voie,
aucun masque de connectivité n’a donc été appliqué. La rive gauche en contrebas de la
commune de Fagnières est donc inondée comme on peut le vérifier sur les photos.
On observe peu de différences entre la carte simulée pour un pic de crue à 4.63
et celle à 4.84 m par respectivement le modèle brut et le modèle avec assimilation de
données. On remarque juste que la Figure 4.11 est plus foncée car on a 20 cm d’eau
en plus au droit de la station de Châlons-en-Champagne. Au niveau de l’extension du
champ d’inondation, les deux simulations sont comparables. On peut conclure que la
carte calculée à partir de la simulation Mascaret brute (sous-évaluée de 20 cm à la
station de Châlons-en-Champagne) illustre aussi bien le champ d’inondation observé
lors de la crue d’avril 1983 que la carte calculée par la simulation avec assimilation de
données. L’écart pourtant effectif de 20 cm à la station de Châlons-en-Champagne entre
les deux simulations est noyé dans les incertitudes et les approximations liées aux données
LIDAR et à la méthode d’interpolation de la cote maximale calculée par Mascaret entre
les profils pour le calcul de la MNSE ainsi qu’à la division en tranches de 50 cm de la
hauteur d’eau. Une différence de 20 cm à l’échelle de Châlons-en-Champagne n’entraîne
pas une forte variation de la surface inondée, du moins pour cette gamme de hauteur
d’eau. On peut imaginer qu’une différence de 20 cm pour des hauteurs d’eau supérieures
à 5.2 m impactera fortement la surface en eau, surtout en rive droite du canal.
La réalisation de ces deux cartes centrées sur l’agglomération châlonnaise a
demandé une quarantaine de minutes (essentiellement du temps de calcul). En comptant
les quelques minutes de calcul de DAMP, il est possible en opérationnel de réaliser
une prévision avec assimilation de données ainsi que sa carte de champ d’inondation
correspondante en moins de trente minutes. Toutefois, la différence de 0.2 m entre la
simulation brute et avec l’enchaînement des 3 corrections à la station de Châlons-en-
Champagne est subtile au vu des champs d’inondation pour l’agglomération, sauf en cas
de submersion des digues et du canal. L’enchaînement dynamique et automatique de la
création de ce type de carte après la simulation avec assimilation de données est possible
146
mais pas forcément utile si des cartes de champs d’inondation ont déjà été réalisées a
posteriori pour des classes de hauteurs d’eau assez fines.
147
Figure 4.10 – Zones potentiellement inondées au pic de crue le 13/04/1983 à 21h par le
modèle brut.
148
Figure 4.11 – Zones potentiellement inondées au pic de crue le 13/04/1983 à 21h par le
modèle avec assimilation de données.
149
Figure 4.12 – Photographie aérienne de l’amont de Châlons en avril 1983.
150
Figure 4.13 – Photographie aérienne de l’aval de Châlons en avril 1983.
151
152
Lire
la seconde partie
de la thèse