SAAD 2019 Archivage
SAAD 2019 Archivage
SAAD 2019 Archivage
Présentée par
SOHA SAAD
Méthodologie de réorganisation du
trafic ferroviaire par analyse de
sensibilité régionale : application à un
incident sur infrastructure électrique
Thèse soutenue publiquement le 9 octobre 2019,
devant le jury composé de :
Monsieur Bruno SARENI
Professeur, INP TOULOUSE, Président
Monsieur Jean BIGEON
DIRECTEUR DE RECHERCHE, CNRS DELEGUATION ALPES, Directeur
de thèse
Monsieur Stéphane BRISSET
Professeur, ECOLE CENTRALE LILLE, Rapporteur
Madame Marie-Cécile PERA
Professeure, UNIVERSITE DE FRANCHE-COMTE, Examinateur
Monsieur Jean-Marie FLAUS
Professeur, UNIVERSITE GRENOBLE ALPES, Examinateur
Invités :
Remerciements ......................................................................................................................... 10
Résumé ..................................................................................................................................... 11
Abstract .................................................................................................................................... 12
Notations .................................................................................................................................. 15
Introduction générale................................................................................................................ 16
Chapitre 1 ................................................................................................................................. 23
Chapitre 2 ................................................................................................................................. 41
3
2.1. Gestion des incidents : état de l’art ............................................................................ 41
Chapitre 3 ................................................................................................................................. 67
Analyse de sensibilité sur des modèles à entrées indépendantes et à sortie dynamique .......... 67
3.3.4. Estimation des indices de Sobol par algorithme de Monte Carlo ...................... 87
3.3.5. Estimation des indices de Sobol généralisés par la méthode Monte Carlo ........ 91
4
3.4. Analyse de sensibilité fondée sur la distance entre distributions .............................. 92
5
4.5.6. Critères de comparaison des méthodes ............................................................ 125
6
C- Phase d’analyse de sensibilité .............................................................................. 153
7
8
Au souvenir de mon père …
9
Remerciements
Ce travail est le fruit d’une collaboration dans le cadre d’une thèse cifre entre le laboratoire des
Sciences pour la conception, l’Optimisation et la Production de Grenoble, le laboratoire Génie
électrique et électronique de Paris et la direction Ingénierie et Projets (I&P) de la SNCF.
Je remercie vivement Monsieur Bruno Sareni professeur à INP Toulouse, pour m’avoir fait
l’honneur de présider le jury de ma thèse.
J’adresse mes vifs remerciements à Monsieur Stéphane Brisset professeur à l’école Centrale de
Lille, Madame Marie Cécile Pera, professeure à l’université de Franche-Comté et Monsieur
Jean Marie Flaus, professeur à l’université Grenoble Alpes, pour l’honneur qu’ils m’ont fait en
acceptant de juger mon travail.
Ce travail a été encadré par Monsieur Etienne Sourdille, Monsieur Gance Harold et Monsieur
Olivier Bossi au sein de la SNCF. Je tiens à leur adresser mes sincères remerciements pour leur
encadrement et leur disponibilité malgré leurs nombreuses autres responsabilités.
J’adresse mes remerciements à toute l’équipe de CES3, CES5 et CES2 avec qui j’ai travaillé
pendant ces trois années de thèse, en particulier, Monsieur Hervé Caron et Karima Tioua.
10
Résumé
La qualité d'alimentation électrique d'un réseau ferroviaire peut être fortement affectée par
l'indisponibilité d'un équipement électrique, que ce soit suite à un incident technique ou une
opération de maintenance. Il est alors nécessaire de réduire le trafic prévu en ajustant les grilles
horaires et les profils de vitesse, tout en conservant des performances d'exploitation optimales.
Le but du travail présenté dans ce mémoire est de développer un outil d'aide à la décision pour
assister les agents en charge de la réorganisation du trafic lors d'un incident sur infrastructure
électrique. Le système étudié est complexe et son analyse repose sur des simulations coûteuses.
Nous avons donc proposé une démarche en deux phases. Dans un premier temps, une analyse
de sensibilité permet de détecter de manière efficace les variables d’ajustement du trafic les
plus influentes. Après une analyse comparative entre différentes techniques, nous avons retenu
l’analyse de sensibilité régionale par filtrage de Monte Carlo et test de KS, car cela permet de
prendre en compte les contraintes opérationnelles, comme les niveaux de tension en ligne. La
deuxième phase consiste à optimiser la solution en travaillant dans un espace de recherche de
dimension réduite. Un ensemble de solutions Pareto optimales sont générées afin d’évaluer le
meilleur compromis entre le critère principal qui est la densité de trafic et d’autres critères tels
que les pertes ou les échauffements. Les techniques mises en œuvre ont abouti à la réalisation
d’un prototype. Cet outil permet à l’ingénieur de définir les variables d’ajustement et les critères
de performance du trafic. Il analyse ensuite l’influence des différentes variables d’ajustement
et optimise le trafic par rapport aux critères définis. L’outil a été testé sur quatre cas d’étude
correspondant à des portions de réseaux et à des trafics ferroviaires réels.
11
Abstract
The power supply quality of a railway network can be strongly affected by the unavailability
of electrical equipment, whether due to a technical incident or a maintenance operation. It is
then necessary to reduce the expected traffic by adjusting the time schedules and speed profiles,
while maintaining optimal operating performance. The purpose of the work presented in this
thesis is to develop a decision support tool to assist the agents in charge of the reorganization
of traffic during an incident on electrical infrastructure. The studied system is complex and its
analysis is based on costly simulations. We therefore proposed a two-phase approach. As a first
step, a sensitivity analysis can effectively detect the most influential traffic adjustment
variables. After a comparative analysis between different techniques, we selected the regional
sensitivity analysis by Monte Carlo filtering and KS test, because it allows us to take into
account the operational constraints, like the tension levels in line. The second phase consists in
optimizing the solution by working in a small research area. A set of Pareto-Optimal solutions
are generated to evaluate the best trade-off between the main criterion "traffic density" and
other criteria such as losses or overheating. The techniques implemented led to the production
of a prototype. The tool allows the engineer to define traffic adjustment variables and traffic
performance criteria. Then it analyzes the influence of the various adjustment variables and
optimizes the traffic according to the defined criteria. The tool was tested on four case studies
proposed by SNCF Réseau and corresponding to network segments and actual rail traffic.
12
Terminologie utilisée par la SNCF
Acronymes ferroviaires
Capacité ferroviaire : nombre maximum de trains pouvant circuler dans le réseau, dans un
intervalle de temps donné en tenant compte de la qualité de services.
Canton : section élémentaire d’infrastructure encadrée par deux signaux. Zones élémentaires
pour le système de sécurité. Espaces de sécurité dans lesquels le train ne peut pénétrer que
lorsque les signaux l’y autorisent.
Intercités : transports interrégionaux à moyens et longs parcours, comprenant aussi les intercités
de nuit.
Marche : succession de consignes (par exemple, accélérer, freiner…) que le conducteur doit
suivre tout au long du trajet.
13
Plan de transport : ensemble des dispositions destinées à organiser les ressources (sillons,
matériels, agents, …) mises en place pour transporter des biens ou des personnes par voie ferrée.
Sillon : ressource d’infrastructure ferroviaire requise par une circulation pendant une période
donnée. Toute circulation de train s’inscrit dans le cadre de « sillons ».
Système ferroviaire : ensemble des ressources du monde ferroviaire (lignes de chemins de fer,
de gares …) et d’installations techniques diverses (atelier, dépôts, triages, …) qui permettent la
circulation de convois ferroviaire ou trains dans un ensemble géographique donné, région, pays,
continent.
14
Notations
𝑓 modèle mathématique
𝑋, Y vecteur de variable aléatoire réelle
𝑋𝑖 variable aléatoire réelle
𝑥𝑖 réalisation de 𝑋𝑖 (une valeur de la variable aléatoire)
𝑌𝑝𝑘 ou 𝑌(𝑡) variable aléatoire réelle à une position pk (ou à l’instant t)
𝑦𝑝𝑘 ou 𝑦(𝑡) réalisation de la variable aléatoire 𝑌𝑝𝑘 (ou 𝑌(𝑡))
𝐸[𝑋𝑖 ] espérance de 𝑋𝑖
𝑉(𝑋𝑖 ) ou 𝑉𝑖 variance de 𝑋𝑖
𝐶𝑜𝑣(𝑋𝑖 , 𝑋𝑖′ ) covariance de 𝑋𝑖 et 𝑋𝑖 ′
𝑓𝑋 (. ) fonction de densité d’un variable aléatoire 𝑋𝑖
15
Introduction générale
Contexte et problématique
Le secteur ferroviaire se développe avec des évolutions profondes à travers le monde. Cela
s’accompagne d’une évolution importante du secteur matérialisée par de nombreux
investissements afin de développer de nouvelles infrastructures et améliorer la capacité des
structures existantes. L’objectif est de promouvoir la qualité de service et la satisfaction des
clients. De nouveaux outils informatiques sont nécessaires pour répondre à ces nouvelles
problématiques notamment celles d’optimisation et d’aide à la décision.
L’alimentation électrique des trains requiert des Infrastructures Fixes de Traction Electrique
(IFTE) dont les principales sont les sous-stations et les caténaires. Ce sont des équipements
1
Train Express Régional
2
Trains à Grande Vitesse
3
Itinéraire suivi par un train suivant les horaires du trajet
16
lourds (15 millions euros-Km pour construire la LGV Est, dont 4% représente le coût
d’infrastructure électrique) dont la durée de vie est longue (30 ans). Il faut donc assurer une
maintenance régulière sur toute la durée de vie et optimiser leur exploitation.
Les infrastructures sont gérées par le gestionnaire d’infrastructure SNCF Réseau. Deux
problématiques essentielles se posent :
Notre travail se concentre sur cette deuxième problématique et porte sur la perturbation du trafic
ferroviaire en cas de défaillance d’un élément de l’infrastructure électrique, comme par exemple
une sous-station d’alimentation. La puissance transmissible par les caténaires est alors réduite
et le trafic doit être adapté : il faut réduire le nombre de trains qui circulent en même temps et
éventuellement les ralentir. Cela peut être géré en espaçant davantage les trains ou en réduisant
leurs vitesses. Ces ajustements ont pour objectif d’aboutir à un trafic qui respecte les différentes
contraintes opérationnelles du système. Parmi ces contraintes, la principale est que la tension à
la caténaire doit toujours être supérieure à une certaine valeur définie par les normes. Les
échauffements dans les transformateurs et les caténaires doivent également être acceptables.
17
La recherche de solutions s’appuie sur la simulation numérique du système, qui permet de
déterminer l’ensemble des grandeurs physiques dans le système, pour un trafic donné. Le
problème est alors d’ajuster les grilles horaires et la vitesse des trains, avec comme objectif que
les grandeurs de sortie du modèle respectent les contraintes opérationnelles sur la tension et les
échauffements.
En résumé, la réorganisation du trafic consiste à agir sur la circulation des trains de façon à
obtenir un résultat « satisfaisant ». Actuellement, cette réorganisation du trafic est faite suivant
une démarche itérative par essais/erreurs reposant surtout sur l’expertise de l’opérateur. Ce
dernier, responsable de réorganiser le trafic, teste différents scénarios d’ajustement dans le but
de rechercher une solution réalisable ou optimale.
Cette approche empirique est peu efficace compte tenu de la complexité des situations
analysées, avec des problèmes de plus en plus contraints du fait de l’augmentation du trafic. Le
nombre de variables d’ajustement à envisager est important, et la durée de simulation d’un
scenario de trafic est longue (de quelques minutes à une demi-heure de calcul selon la taille du
réseau et la durée de trafic simulé). Dans cette démarche par essais/erreurs la qualité des
résultats est tributaire de l’expertise de l’opérateur et rien ne garantit l’optimalité des solutions
obtenues. Par ailleurs, l’expertise nécessaire à ces études est longue à acquérir et se partage
difficilement. Notons enfin que les périmètres d’études du trafic ferroviaire se sont récemment
étendus jusqu’à atteindre des régions entières en France et que les contraintes sur la gestion du
trafic sont de plus en plus nombreuses. Les études portent sur des problèmes de plus en plus
grosses et complexes, avec par conséquent des calculs coûteux et des résultats de plus en plus
difficiles à analyser. Par conséquent, il est nécessaire de développer des outils permettant
d’analyser les résultats de simulation, afin d’optimiser le processus de réorganisation du trafic.
Notre travail s’inscrit donc dans le cadre de la régulation du trafic ferroviaire en situation
perturbée, qui intervient dans la phase opérationnelle de circulation des trains. Ce travail doit
déboucher sur des méthodes d’analyse et une application informatique efficace pour la prise en
compte des infrastructures électriques lors de l’optimisation du trafic ferroviaire. Ces
recherches visent à déterminer objectivement le trafic qui peut être alimenté par une
configuration de puissance électrique donnée. Seules les contraintes liées aux installations
électriques seront considérées. Les contraintes de signalisation ne sont pas prises en compte.
18
En résumé, l’objectif est de fournir aux concepteurs d’alimentation électrique un outil capable
de proposer (par la simulation) automatiquement des solutions pour maximiser la capacité du
trafic pour une infrastructure électrique donnée. Pour être utile aux utilisateurs, cet outil doit
être efficace, robuste et fiable.
Nous présentons maintenant les travaux réalisés et la démarche proposée pour réorganiser le
trafic en cas d’incident sur une infrastructure électrique.
Une fois le modèle d’ajustement défini, le problème consiste à explorer l’espace des variables
d’ajustement afin de déterminer quels sont les trafics acceptables en termes de respect des
contraintes opérationnelles, puis à déterminer parmi ceux-ci les trafics optimaux par rapport
aux critères de performances définis par l’opérateur.
Le modèle d’ajustement du trafic est un modèle complexe en ce sens qu’il repose sur simulateur
ferroviaire complexe (modèle électro-mécanique dynamique, comportement non linéaire, grand
nombre de variables d’entrées, sorties dynamiques, temps de calcul élevé). Par ailleurs, les
sorties du modèle sont des sorties dynamiques (milliers de pas de temps) et ne sont pas
exploitables sans post-traitement.
19
Pour résoudre le problème d’ajustement du trafic, nous avons cherché une méthodologie
adaptée. Les méthodes d’optimisation classiques et les méthodes de surfaces de réponses4 ne
conviennent pas du fait de la complexité du modèle.
Nous avons proposé une méthodologie en deux étapes. La première partie consiste à réaliser
une analyse de sensibilité afin de déterminer quelles sont les variables d’ajustement les plus
influentes, puis de réduire la dimension du problème. Pour cela, nous avons recherché une
méthode d’analyse de sensibilité compatible avec la complexité du modèle étudié et l’objectif
du problème. Après avoir réalisé une comparaison entre différentes méthodes d’analyse de
sensibilité, nous avons conclu que l’analyse de sensibilité régionale par filtrage de Monte-Carlo
est la plus adaptée à notre problème car elle prend en compte les contraintes sur la sortie qui
définissent les solutions acceptables. De plus, cette méthode est la plus efficace en termes de
ressources informatiques (temps de calcul, stockage, …).
La deuxième étape consiste à rechercher les solutions les plus performantes dans l’espace des
solutions réalisables. Différents critères de performances interviennent (densité de trafic,
consommation électrique, échauffements) et une approximation d’un ensemble de solutions de
Pareto optimales est générée, afin de présenter les meilleurs compromis entre ces critères.
L’opérateur dispose alors d’éléments objectifs pour choisir la solution qui lui parait la meilleure.
La démarche proposée a été mise en œuvre et a abouti à la réalisation d’un prototype d’outil de
réorganisation du trafic. La démarche proposée a d’abord été testée sur un cas test simple, afin
de vérifier sa faisabilité et sa pertinence. Puis, nous avons appliqué avec succès cette
méthodologie à quatre cas-tests issus d’études réalisées par SNCF Réseau et représentatifs de
la diversité des situations rencontrées.
Organisation du manuscrit
4
Modèles d’approximations (connus sous le nom de modèles de substitution « surrogate model » en anglais,
modèles de surface de réponse, méta-modèles ou émulateurs) qui imitent le comportement du modèle aussi proche
que possible
20
2) Problématique de la gestion des incidents ferroviaires et proposition d’une
méthodologie de résolution : Ce chapitre introduit la problématique de la gestion des
incidents ayant un impact sur la circulation des trains. Nous présentons également une
étude bibliographique qui liste les techniques et les modèles employés en fonction du
type d’incident. Cette bibliographie montre que les incidents sur infrastructure
électrique (notre problématique) ne sont pas traités dans la littérature. Le chapitre
présente alors la définition de la problématique de notre travail ainsi que la démarche
proposée pour réorganiser le trafic en cas d’incident électrique.
3) Analyse de sensibilité sur des modèles à entrées indépendantes et à sortie
dynamique – Ce chapitre est consacré à la présentation de différentes méthodes
d’analyse de sensibilité adaptées aux modèles à entrées indépendantes et à sortie
dynamique. Nous détaillons trois méthodes d’analyse de sensibilité globale et
présentons leurs caractéristiques.
4) Application de la méthodologie sur un cas-test simple – dans ce chapitre nous
appliquons la démarche proposée sur un test ferroviaire simple en exécutant les
différentes méthodes d’analyse de sensibilité décrites dans le chapitre 3. Une
comparaison des méthodes d’analyse de sensibilité appliquées par rapport aux différents
critères en termes de ressources informatiques sera exposée.
5) Application de la méthodologie sur un ensemble de cas représentatifs – les tests
expérimentaux réalisés avec notre méthodologie au niveau industriel seront présentés
dans ce chapitre.
21
22
Chapitre 1
Un réseau ferroviaire est constitué d’un ensemble de lignes de chemin de fer, de gares et
d’installations techniques diverses qui permettent la circulation des trains dans une zone
géographique (région, pays, continent) pour répondre au besoin de transport de voyageurs et de
marchandises. Dans ce paragraphe nous résumerons un peu d’histoire du transport ferroviaire.
Nous présenterons ensuite le principe des systèmes d’électrification installés sur ces réseaux.
Nous développerons quelques concepts spécifiques à l’exploitation ferroviaire et décrirons une
synthèse de production ferroviaire.
Le chemin de fer s’est développé lors du boom ferroviaire des années 1840 [2]. Néanmoins,
plusieurs innovations avaient eu lieu au cours des siècles précédents. Le premier chemin de fer
ouvert au public a été le Surrey Iron Railway en Angleterre. Il a été construit en 1802 et ouvert
le 26 juillet 1803, au sud de Londres. Des chevaux tiraient les wagons. La première locomotive
à vapeur à fonctionner sur des rails a été essayée en 1804 au Royaume-Uni, mais cette tentative
ne fut pas couronnée de succès car la locomotive était trop lourde. Le Middleton Railway fut
en 1812 le premier chemin de fer à utiliser la vapeur avec succès. En France, la première ligne
de chemin de fer est construite par le gouvernement dans la région de Saint-Etienne, entre 1827
et 1830. Cette ligne permet le transport du charbon. La première ligne construite spécifiquement
pour le transport de voyageurs était la ligne qui relie la capitale Paris à Saint-Germain (19 km)
en 1837. Cette ligne connait un énorme succès : 18000 voyageurs sont transportés le premier
jour d’exploitation. La première grande ligne internationale européenne relie Strasbourg et Bâle
(140 km) en 1841. En Europe et en Amérique du Nord, la période de plus grand développement
de chemin de fer va de 1848 à 1914. Durant cette période, le chemin de fer dominait le marché
des transports. Dans les années qui suivent la guerre mondiale, la domination des chemins de
fer sur l’économie des transports stagne puis amorce une régression sous l’effet de moyens de
23
transport concurrents : l’automobile et l’avion. La crise pétrolière de 1973 marque le début du
renouveau du chemin de fer [3] et la construction de nouvelles lignes parcourues par des trains
à grande vitesse. Le développement des lignes de chemin de fer à grande vitesse commence en
France au début des années 80 lorsque la ligne Paris-Lyon est ouverte (1983). Les
développements français ont été suivis par d’autres en Allemagne, en Italie, et en Belgique. La
première ligne à grande vitesse de chemin de fer espagnole (Madrid-Séville) a été ouverte en
1992. Le succès technique de cette ligne a encouragé le gouvernement espagnol à lancer de
nouveaux projets : Madrid-Barcelone-frontière française (800 km).
L’évolution des infrastructures a été accompagnée par une évolution des systèmes
d’alimentation et du matériel roulant.
Historiquement, les premières lignes sont parcourues par des locomotives à vapeur. Le premier
train à traction électrique, construit par le Baron Von SIEMENS, a été présenté à l’exposition
universelle de Berlin en 1879. L’énergie est fournie à volonté aux locomotives sous forme de
puissance électrique par l’intermédiaire des caténaires et des rails. Les locomotives sont
équipées de machines électriques.
Entre 1879 et 1900, différentes techniques d’alimentation électrique ont été testées, mais les
travaux ont porté essentiellement sur deux modes d’alimentation : le courant continu en basse
et moyenne tension et le courant alternatif en haute tension monophasé. En 1900, on compte
12000 km de lignes électrifiées aux États-Unis et 3000 km en Europe. Ce développement s’est
poursuivi dans le monde au cours des années 1930 et généralisé après la 2ème guerre mondiale,
lors de la reconstruction des réseaux et de leur électrification. La France a, quant à elle, décidé
d’investir un peu plus dans l’industrie ferroviaire après la première guerre mondiale. Elle a
décidé d’abord d’harmoniser le type d’électrification en choisissant une alimentation en 1500V
continu. Le continu est caractérisé par sa simplicité de mise en œuvre et les avantages de la
machine à courant continu : fort couple à basse vitesse, et pilotage simple de la vitesse.
L’utilisation du courant monophasé à 50 Hz n’était pas possible à cause des technologies
utilisées pour les moteurs de traction (machines dites universelles, dont le collecteur posait des
problèmes de durabilité à cette fréquence). Le monophasé à 16 Hz 2/3 était par contre utilisable
car la fréquence est plus basse, mais il nécessitait des équipements spécialisés de conversion,
de production et de transport. Face à ces inconvénients, de nombreux pays ont choisi de
24
développer des réseaux électriques ferroviaires en continu, alors que d’autres dont l’Allemagne
ont préféré investir dans le monophasé 16 Hz 2/3. En France, l’électrification des lignes s’est
effectuée d’abord dans le sud du pays, laissant de côté le nord et l’est de la France du fait de
réticences des autorités militaires. Les chemins de fer sont nationalisés en créant le 1er janvier
1938 la société nationale des chemins de fer français (SNCF) dont le but est de fusionner tous
les réseaux en un. Après la seconde guerre mondiale, la SNCF doit de reconstruire le réseau.
Les évolutions technologiques auraient permis l’utilisation du continu sous 3000 V, mais les
économies réalisées par rapport au 1500 V n’ont pas été jugées suffisantes pour retenir cette
solution. Profitant des progrès de l’électrotechnique (moteurs plus performants, redresseurs
permettant la conversion en courant continu dans les locomotives …) il fut décidé d’utiliser le
courant monophasé à 50 Hz sous une tension de 25000 V sur une partie du réseau. Le Nord et
l’Est autrefois délaissés par l’électrification ont étés les premiers à bénéficier de cette
technologie. Le monophasé a plusieurs avantages par rapport au continu. Il permet d’élever
facilement la tension de ligne, et donc de réduire les pertes Joule. Il limite les phénomènes de
corrosion et les courants vagabonds dans le sol. La haute tension permet de diminuer la taille
des caténaires et d’espacer les points d’alimentation des caténaires.
Ces avantages conduisent les pays qui n’avaient pas encore commencé à électrifier à adopter
cette solution technique.
Le terme de Grande Vitesse apparait dans les années 60. Les lignes à très grande vitesse (LGV)
nécessitent des puissances plus grandes que les lignes classiques. Les niveaux de puissance
requis (6,4 MW pour le TGV Sud-Est) nécessitent de passer au système d’alimentation 2x25
kV 50 Hz. Le premier octobre 1964 est inauguré le premier train à grande vitesse du monde, le
Tokaido Shinkansen entre Tokyo et Osaka (515 Kilomètres). La vitesse maximale était de 200
km/h, pour un temps de parcours de 4 heures. Le Japon a conservé le record de vitesse jusqu’en
1981, date à laquelle la France prend la première place avec une vitesse de 380 km/h [4].
Le système 2x25 kV entraine des coûts supplémentaires par rapport au 1x25 kV. Cela implique
en effet la pose d’un câble supplémentaire (Feeder), l’utilisation de poteaux caténaires
spécifiques et l’installation d’autotransformateurs. L’ensemble donc revient à augmenter le coût
de l’électrification par kilomètre. En revanche, il y a moins de sous-stations car l’espacement
est plus grand, donc on réduit le coût des divers raccordements au réseau de transport d’énergie
haute tension. Cette technologie a aussi l’avantage de limiter les perturbations
électromagnétiques engendrées par la ligne. Cela permet ainsi de réduire les coûts des
25
protections des circuits de télécommunication proche des voies (toutefois, cet argument devient
aujourd’hui caduque avec la généralisation des fibres optiques en télécommunication).
Puissance par
Tension
Système d’électrification train
nominale (V)
(MW)
1500 V DC 1500 5
25 kV 50Hz 25000 10
50 kV 50 Hz (2×25 kV 50 Hz) 25000 20
En France, le chemin de fer est un des moyens de transport très importants, avec 5 millions de
voyageurs et 15 000 trains par jour. Le réseau ferroviaire s’étend sur une longueur totale de
presque 30000 kilomètres, dont 15 687 km électrifiés, ce qui en fait le deuxième réseau
ferroviaire d’Europe.
Un de ses points forts est sans doute son réseau de lignes à grande vitesse sophistiqué, avec près
de 11000 km de lignes spécialement créées pour les trains à grande vitesse. Il joue aussi un rôle
important dans le transport de marchandises (250000 tonnes de fret par jour). Ce réseau qui
continue de se développer : plus de 1600 chantiers sont programmés et 5.7 Mrds euros seront
investis dans le réseau en 2019 (1050 km de voies seront renouvelés et 500 aiguillages
remplacés).
26
Actuellement, la moitié des lignes sont électrifiées, mais cela représente plus de 80% du trafic
ferroviaire [5]. Pour les raisons historiques que nous avons évoquées, trois systèmes
d’électrification coexistent sur l’ensemble du territoire : continu 1500 V, alternatif 1x25 kV 50
Hz et alternatif 2x25 kV 50 Hz. Par exemple, le TGV Paris-Lyon est alimenté successivement
en 1500 V DC, 1x25 kV Hz puis 2x25 kV 50 Hz sur la portion grande vitesse. La diversité des
types d’alimentation électrique, rend l’analyse du système ferroviaire complexe et nécessite des
simulateurs capables de prendre en compte ces différents systèmes d’électrification.
Un réseau électrique ferroviaire est composé des principaux éléments suivants (Figure 1):
Les sous-stations de traction sont réparties le long des lignes et permettent leur
alimentation électrique. Chaque sous-station est connectée au réseau public haute
tension 63 kV et alimente une section de ligne par l’intermédiaire d’un transformateur
qui adapte le niveau de tension de l’énergie électrique fournie aux caténaires.
Les caténaires transportent l’énergie électrique vers les trains. Elles sont composées de
fil de contact en cuivre (ou alliage de cuivre) et de câbles porteurs (principalement en
bronze ou en aluminium armé acier). L’énergie est transmise au train par un contact
glissant au niveau du pantographe comme le montre la Figure 2.
Les rails, dans ce contexte, assurent le retour du courant électrique vers les sous-
stations. Une partie du courant de retour passe par le sol.
Les postes de sectionnement assurent l’isolation électrique entre les secteurs alimentés
par des sous-stations différentes.
27
Dans le système 2x25 kV (Figure 4) utilisé pour les lignes à grande vitesse, il existe un
troisième conducteur, appelé feeder -25 kV, en opposition de phase avec la caténaire.
Associé à des autotransformateurs répartis le long de la ligne, le feeder assure le
transport du courant de retour. Dans ce système, le train est alimenté en 25 kV, mais
l’énergie électrique est transportée en 50 kV, ce qui limite les pertes et permet d’espacer
les sous-stations.
Figure 2: Une caténaire est composée de câbles porteurs en bronze ou en aluminium, de ligne de contact et de
câbles conducteurs en cuivre
28
Figure 4: Le schéma général d'alimentation en 2x25 KV
Le trafic ferroviaire est constitué de l’ensemble des trains qui circulent sur le réseau pendant un
certain intervalle de temps. Vu de l’usager du réseau, ce trafic se traduit par des grilles horaires,
avec des heures de départ d’une gare et des heures d’arrivée à une autre gare. La construction
de cette grille est faite très en amont et doit prendre en compte la disponibilité des différentes
ressources nécessaires à la circulation des trains : matériel roulant, personnel navigant, quais,
voies. Des marges de sécurité sont prévues afin d’absorber les inévitables aléas lors de la
réalisation effective du trajet.
Vu du conducteur d’un train, un trajet donné se traduit par une « mission », définie comme une
succession de points d’arrêt commerciaux ou techniques (points de passage ou de service
nécessaires pour la réalisation du plan de transport) et des temps de trajet entre ces points. Cette
mission se traduit par des consignes (accélérer par exemple) tout au long du trajet, et le
conducteur doit atteindre et respecter les vitesses de consigne définies par sa feuille de route
sans jamais les dépasser, et ce quelles que soient les contraintes extérieures : relief, courbes,
conditions climatiques.
Pour accomplir sa mission, le conducteur de train peut tractionner, freiner, ou ne rien faire (roue
libre). On distingue ainsi usuellement cinq modes de pilotage spécifiques SNCF, dont le
séquencement permet de réaliser la mission :
29
o Marche sur l’Erre (ME) : le conducteur coupe la traction sans pour autant freiner, afin
de profiter de l’inertie du train (roue libre).
o Freinage Maintien (FM) : ce freinage peut être nécessaire éviter d’accélérer en descente.
o Freinage Décélération (FD) : le conducteur freine pour respecter une consigne de vitesse
à venir ou un arrêt en gare.
On appelle « marche » d’un train la succession de consignes que le conducteur doit suivre tout
au long du trajet. Ces consignes portent à la fois sur le mode de pilotage et sur la vitesse de
consigne.
TA TM FM ME FD Vitesse limite
Vitesse
TA FM
Position
Les marches sont calculées de façon à minimiser l’énergie mécanique déployée par le train pour
réaliser son parcours, tout en respectant les contraintes de durée de la mission [6]. Les calculs
intègrent une certaine flexibilité afin de permettre au conducteur de rattraper un éventuel retard,
ou encore de placer les phases de traction aux meilleurs endroits de la ligne. Le trafic d’une
ligne ferroviaire est constitué d’un certain nombre de trains qui circulent suivant des horaires
préétablis, suivant leurs marches respectives. La mission d’un train sur une ligne constitue une
« circulation » et l’ensemble des circulations peut être reporté sur un graphe de circulation qui
représente la position de chaque train de la ligne en fonction du temps (Figure 6). La grille de
circulation permet de visualiser l’espacement en temps et en espace entre les différentes
30
circulations. La trace correspondante à un train sur le graphe est appelée sillon, et définit un
créneau espace-temps pendant lequel la voie doit être réservée pour le train considéré.
La production ferroviaire représente l’ensemble des opérations permettant les circulations des
trains dans un réseau. Cette production passe par plusieurs étapes qui commencent très en
amont et se terminent par la gestion opérationnelle, consistant à s’assurer un bon
fonctionnement des opérations en temps réel.
Etudes en amont
Commande des Construction Adaptation Gestion
(prévision du
sillons des EF d’horaire du trafic opérationnelle
trafic)
Planification
des engins
31
La Figure 7 représente les principales étapes de la production ferroviaire, que nous allons
décrire rapidement dans la suite de cette section. Plus de détails sont disponibles dans les
références [7] et [8].
La notion de capacité d’une ligne est définie comme le nombre maximum de trains pouvant
circuler dans un intervalle de temps donné, tout cela dans les conditions pratiques
d’exploitation, pour une structure de ligne, une structure d’horaire, et une qualité de service
données respectant les contraintes de sécurité et les contraintes clients (temps de trajet, …) [9].
Il s’agit par conséquent d’une notion complexe faisant intervenir de nombreux paramètres et
facteurs tels que :
Par ailleurs, la SNCF réalise des études prévisionnelles de trafic afin de déterminer s’il y a lieu
de faire évoluer les infrastructures pour renforcer la capacité du réseau. A ce niveau, on est dans
une phase d’anticipation du besoin à long terme.
En parallèle, mais à plus court terme, les entreprises ferroviaires, dont SNCF Mobilités,
expriment leurs besoins sous forme de demandes de sillons auprès de la Direction de
l’Attribution des Capacités (DAC) de SNCF Réseau [10]. La DAC est en relation avec de
5
Infrastructures Fixes de Traction Électrique
32
nombreux partenaires en raison de forts enjeux liés à la capacité dans la production ferroviaire.
Son rôle est de centraliser l’ensemble des demandes de sillons de manière cohérente et de
réaliser un arbitrage entre ces demandes quand c’est nécessaire. Ces études amont, qui assurent
une mise en forme des besoins de sillons et une transparence entre les activités, sont faites au
moins un an et demi à l’avance. Après réception des études amont, la Direction de l’Attribution
des Capacités déclenche des études de faisabilité du trafic qui tiennent compte de l’ensemble
des contraintes (travaux, évolutions de la grille de trafic) pour confirmer la compatibilité des
besoins des entreprises ferroviaires avec la capacité du réseau.
La réponse à la demande de transport ferroviaire se traduit par l’élaboration d’une grille horaire,
ou graphique de circulation. L’axe vertical correspond aux positions le long de la ligne, et l’axe
horizontal représente le temps. Toutes les circulations des trains prévus sont représentées par
leurs sillons, c’est-à-dire la succession de leur position dans le temps. La Figure 8 montre un
exemple de graphe de circulation entre Strasbourg et Colmar, entre 16h et 18h. Chaque ligne
correspond au sillon d’un train, et on suit le déplacement du train au cours du temps. La pente
représente la vitesse du train à la position considérée. Les arrêts correspondent donc à des
segments horizontaux de longueur proportionnelle à la durée de l’arrêt. Les sillons dont la pente
est grande correspondent à des trains rapides. Sur la section Strasbourg-Selestat, on repère
clairement les trains omnibus qui font le trajet en 45 mn (sillons bleus) et les trains plus rapides
qui font le même trajet en moins de 20 mn (sillons violet).
33
Cette grille précise les heures de départ et d’arrivée des trains aux différentes stations de leur
parcours. Elle définit également la réservation de l’infrastructure ferroviaire dans le temps et
l’espace pour chaque circulation.
La méthode de conception d’une grille horaire à la SNCF se base sur un modèle représentatif
du réseau et du fonctionnement du système ferroviaire. La plupart des outils logiciels exploités
à la SNCF pour le processus de planification reposent fortement sur l’expertise humaine et
embarquent peu (voire pas) des modules d’optimisation et d’aide à la décision.
Jusqu’à présent le seul levier dont dispose la SNCF pour assurer la robustesse des horaires est
la marge de régularité. La tendance naturelle est aujourd’hui de régler les problèmes de non
robustesse du système ferroviaire par l’introduction, lors de la construction des horaires, de
marges de régularité (temps supplémentaires). En augmentant les temps de parcours, ces marges
ont un effet négatif sur la capacité du réseau, sur la pertinence des offres, voire sur la
mobilisation des équipes. On peut retenir qu’il y a des optima pour les valeurs de ces marges :
34
‒ Trop faibles, ces dernières rendent l’exploitation tendue, donc plus fragile face aux
perturbations,
‒ Trop élevées, elles conduisent à une sous-utilisation de la capacité et sont propices au
relâchement de la précision des acteurs opérationnels qui perdent la notion de « tenir
la minute ».
Les grilles horaires sont établies plusieurs mois à l’avance. Il est cependant nécessaire de faire
des ajustements de la veille pour le lendemain pour gérer d’éventuels imprévus ou pour
répondre à des demandes de dernière minute compatibles avec la capacité résiduelle du réseau.
C’est la phase d’adaptation du trafic.
C’est également à ce moment que l’affectation des ressources matérielles (type et nombre de
rames ou de voitures, engins de traction) et humaines (agent de conduite, personnel de bord).
35
— En cas d’interruption du trafic sur une voie ou d’incidents divers, organiser la prise en
charge des voyageurs en concertation avec le chef régulateur pour utiliser des moyens
de transport de substitution (autocars…) …
Notre thèse s’inscrit dans le cadre de la replanification du trafic dans la phase gestion
opérationnelle, indépendamment des autres phases. On s’intéresse au cas particulier des
incidents sur infrastructure électrique. Plus précisément, l’objectif de notre travail est de fournir
un outil s’appuyant sur la simulation électrique du réseau pour proposer des solutions
d’ajustement du trafic quand ce type de défaillance se produit. En pratique, les calculs requis
sont longs, de sorte que l’outil sera utilisé pour préparer à l’avance un ensemble de scénarios
de secours.
Notre étude porte sur l’interaction entre trafic et alimentation électrique. Il faut donc disposer
d’un modèle qui décrit correctement ces interactions. Comme nous l’avons vu précédemment,
un réseau électrique ferroviaire est un système complexe qui met en jeu de très nombreux trains
se déplaçant simultanément sur l’ensemble du réseau français, impliquant de nombreuses
infrastructures. Par conséquent, l’étude de ce système repose sur l’utilisation de la simulation
numérique.
36
1.2.1. Principe de la simulation électrique ferroviaire
Un simulateur électrique ferroviaire permet de déterminer les tensions et les courants dans
l’ensemble du réseau électrique pour un trafic ferroviaire donné. Le trafic est défini par un
ensemble de trains qui circulent suivant une certaine grille horaires, avec des instructions de
vitesse définies par les marches. Le simulateur calcule également les profils de vitesse des trains
effectivement réalisés à partir des consignes de vitesse. Par exemple, lors de la phase de
démarrage, la consigne est d’accélérer jusqu’à une certaine vitesse. Le profil de vitesse
effectivement réalisé dépend de la puissance des engins moteurs et de la capacité du réseau
électrique à fournir la puissance appelée.
Parmi les simulateurs électriques existants utilisés dans le monde on peut citer :
‒ TPSS [16] est un simulateur électrique développé et utilisé en Suède pour simuler le
trafic des trains et son influence sur le système d’alimentation.
‒ TrainOps est développé par LTK engineering, un simulateur électrique pour tous les
types de systèmes ferroviaires de réseau [17].
37
‒ Fabel est un logiciel de simulation de véhicules électriques et de réseaux d’alimentation
électrique développé par ENOTRAC [18].
‒ Sitras Sidytrac est un logiciel de simulation pour les systèmes de traction électrique
DC ou AC ou les deux. Il permet la conception du système et les divers calculs,
développé par Siemens [19].
‒ TracFeed est développé par Balfour Beatty rail, est un programme informatique pour
le calcul dynamique des systèmes de traction [20].
‒ CATMOS est développé par Balfour Beatty rail, simulateur utilisé pour l’optimisation
et la simulation pour le développement de nouveaux systèmes de lignes et l’optimisation
de modifications de conception spéciales aux installations fixes.
‒ OpenPowerNet [21] : est un logiciel de simulation d’alimentation en traction et de
performance des trains dont la simulation opérationnelle est réalisée par OpenTrack [22]
en co-simulation avec la simulation électrique, développé par l'Institut für Bahntechnik
GmbH, BO Dresden.
‒ RAILSIM X [23] : simulateur développé par SYSTRA (Canada) pour la modélisation
et la simulation du fonctionnement et la performance de tous les systèmes ferroviaires
‒ µPAS [24]: simulateur électrique développé par l’Allemagne et utilisé par la Swisse,
Autriche et Suède.
‒ ESMERALDA NG : simulateur développé par l’ingénierie de la SNCF et détaillé dans
le paragraphe suivant.
38
Le trafic défini d’une part par les horaires des trains (heures de départ et de
passage en différents points du trajet, et d’autre part par les marches-types des
trains en circulation.
A partir de ces données, le simulateur réalise le calcul couplé de la dynamique des trains et des
équations de circuit afin de déterminer l’évolution au cours du temps des grandeurs mécaniques
des trains (accélérations, vitesses, positions, effort à la jante) ainsi que des grandeurs électriques
(tensions, courant, puissances actives et réactives) des différents composants électriques du
réseau (engins et infrastructures). Un calcul en post-traitement permet de déterminer les
échauffements qui en résultent (Figure 9). Il s’agit d’un modèle numérique complexe, non
linéaire, comportant un grand nombre d’entrées et de sorties dynamiques du fait du grand
nombre de trains en circulation (des centaines de trains).
Infrastructures
électriques Modèle couplé : Horaires d’arrivée
réalisés, tensions,
Horaires prévus, courants,
Equations de circuit
puissances,
électrique
échauffements
Marche des trains +
Dynamique des
…
trains
…
Ce logiciel développé dans sa première version par [26] est devenu un outil interne à la SNCF.
Il est reconnu comme une référence et est utilisé par différentes sociétés d’ingénierie ferroviaire
francophones. Il permet d’analyser les systèmes 1500 V DC, 1x25 kV 50 Hz et 2x25 kV 50 Hz.
Il est utilisé pour le dimensionnement des installations fixes de traction électrique. Ce
dimensionnement consiste à déterminer les paramètres électriques nécessaires à la définition
des éléments constitutifs de ces installations (type de caténaires, puissance de
transformateurs…). Le dimensionnement se fait usuellement en simulant le trafic d’une ligne.
Le principe est de choisir un trafic dimensionnant que l’on va faire rouler sur la ligne. On
regarde ensuite la qualité de l’alimentation fournie aux trains ainsi que les paramètres des sous-
stations pour dimensionner les installations.
39
40
Chapitre 2
2.1.1. Introduction
Les systèmes ferroviaires sont des systèmes très complexes (nombreuses lignes, trafic
hétérogène, centaines des trains…). Par conséquent, les processus opérationnels comme la
planification et la réorganisation du trafic sont des domaines riches en problème d’optimisation
intéressants. Parmi les problèmes d’optimisation abordés dans la littérature nous mentionnons
particulièrement :
Notre problème concerne la gestion des incidents sur infrastructure électrique. Il s’agit d’un
type d’incident particulier, qui limite l’énergie transmissible sur une certaine portion du réseau
et affecte de ce fait sa capacité. La gestion de l’incident consiste à adapter au mieux le trafic à
la puissance transmissible par le réseau. Avant d’exposer la démarche proposée pour résoudre
ce problème, nous présentons dans cette partie une revue bibliographique des différentes
méthodes utilisées pour la gestion des différents types d’incidents ferroviaires.
Les opérations d’un système ferroviaire sont inévitablement sujettes à des incidents non
prévisibles, qui provoquent des retards : défaillances techniques, conditions météorologiques
défavorables, …). Dans un système très contraint, avec un trafic de plus en plus dense, le retard
d’un seul train peut impacter la circulation de nombreux autres trains et empêcher la réalisation
des plannings prévus. Pour les passagers, les conséquences sont des retards ou des annulations
de trains, des correspondances non assurées, des trains bondés sans place assise. Les trains de
marchandises sont également affectés, principalement sous la forme de retards ou de trains
41
déroutés. Les incidents perturbent le trafic et ont de nombreuses conséquences négatives pour
les voyageurs (retard, inconfort) et les opérateurs (pertes financières) et il est nécessaire de
rétablir le plus vite possible une situation normale, conforme aux grilles horaires prévues. La
gestion des incidents ferroviaires consiste donc à limiter l’impact d’un incident sur le trafic,
puis à rétablir au plus vite et dans les meilleures conditions une situation normale, conforme
aux grilles horaires prévues.
Actuellement, les personnes en charge des modifications (les répartiteurs) prennent des
décisions, principalement en fonction de leur expérience et de leur savoir-faire, sans soutien
décisionnel intelligent. Cependant, un grand nombre de travaux de recherche récents ont eu
pour objectif de développer des modèles mathématiques et des algorithmes de récupération
d’une situation perturbée afin de soutenir les ingénieurs dans leur processus d’ajustement
décisionnel.
Les auteurs de [27] définissent un incident dans le cadre d’opérations aériennes comme « un
événement ou une série d’événements rendant les horaires prévus pour l’aéronef, l’équipage,
etc. … impossibles ». Dans notre document, nous utilisons la même définition pour les
opérations ferroviaires, en remplaçant « aéronef » par « matériel roulant ».La gravité d’un
incident, difficile à quantifier, est évaluée à partir de deux critères : durée nécessaire pour
rétablir une situation normale et nombre de trains touchés.
La synthèse présentée dans [28] propose un aperçu des modèles et des algorithmes de
récupération en temps réel d’une situation perturbée. Les incidents sont classés suivant leurs
conséquences en termes de gestion des ressources.
Par ailleurs, les approches sont classées en « vue macroscopique » et « vue microscopique »
selon le niveau de modélisation du système. Une modélisation macroscopique est fondée sur
une représentation très globale du système sous la forme d’un graphe dont les nœuds et les arcs
42
sont respectivement les stations et les lignes les reliant. Ces arcs sont caractérisés pas la capacité
de transport de la ligne correspondant. La modélisation microscopique du système correspond
à une description plus fine. Elle décrit précisément la topologie du réseau et intègre des
informations telles que la position des signaux, le découpage des cantons, les pentes… Cette
distinction microscopique/macroscopique s’applique également à la modélisation du trafic (flux
global de trains, ou trains suivis individuellement).
Un dernier critère de classement porte sur les objectifs prioritaires lors de la gestion de la
situation perturbée. On peut se focaliser sur les intérêts des opérateurs ferroviaires (limiter les
retards et les trains annulés) ou sur ceux des passagers (temps total de voyage, nombre de
correspondances).
43
Critère Description
Un petit incident peut être géré en rééchelonnement la grille
Type d’incident
Tableau 2: Les principaux critères pour classifier les travaux concernant la replanification des horaires
ferroviaires
Les travaux portant sur la gestion des perturbations fortes sont moins nombreux que ceux qui
traitent la gestion des perturbations faibles. Par ailleurs, on note que la plupart des recherches
traitant les perturbations faibles s’appuient sur une représentation du système au niveau
microscopique
44
Dans les sections nous présenterons les approches proposées dans la littérature pour la gestion
des situations faiblement perturbées, puis des situations fortement perturbées. Nous
distinguerons les méthodes dédiées aux critères mono-objectifs d’une part et multi-objectifs
d’autre part.
Le problème de la replanification des horaires de trains en cas d’incident a reçu une grande
attention dans la littérature scientifique récente, en particulier en cas de perturbations mineures.
Dans la plupart des travaux cités ci-dessous, le réseau ferroviaire est représenté au niveau
microscopique (c’est-à-dire une modélisation fine du réseau, avec des informations précises
telles que la position des signaux, le découpage des cantons…) plutôt qu’au niveau
macroscopique. Dans la plupart de ces recherches, les problèmes ont été modélisés linéairement
et formulés en programmation linéaire mixte en nombre entier (MILP), et résolus par CPLEX
[30] soit avec des méthodes exactes soit avec des méthodes heuristiques pour accélérer la
recherche. Dans ces recherches les contraintes prises en compte ont été formulées sous forme
d’équations linéaires. Les modèles sont simples à résoudre, ne faisant pas appel à un simulateur
physique non linéaire lourd. L’alimentation électrique étant dans ces cas supposée toujours
suffisante il n’est pas besoin d’utiliser une simulation électrique de trains. De côté de l’objectif,
la littérature de la réorganisation des perturbations se concentre particulièrement sur la
réduction des retards.
Dans ce paragraphe, nous présentons les différentes méthodes utilisées pour résoudre la
replanification de la grille horaire pendant une perturbation faible. Les travaux sont divisés en
deux parties : (A) les travaux qui ont pris en compte un seul objectif d’optimisation et (B) les
travaux qui ont pris en compte plusieurs objectifs d’optimisation.
Dans [31], les auteurs utilisent une méthode itérative de replanification au niveau
microscopique (« alternative graph formulation ») en temps réel qui génère une solution
acceptable respectant les contraintes de signalisation et de sécurité dont l’objectif est de
minimiser les retards consécutifs des trains durant les perturbations. L’approche itérative
utilisée contient des méthodes exactes comme l’algorithme B&B « Branch and Bound ». Le
même travail est repris dans [32], mais cette fois les auteurs ont ajouté l’idée d’une grille horaire
45
flexible en tant que politique efficace qui offre plus de liberté pour résoudre les conflits en
améliorant la ponctualité sans diminuer la capacité des lignes. Cette gestion en temps réel aussi
est abordé avec les mêmes auteurs dans [33], mais cette fois en utilisant un système appelé
ROMA (Railway traffic optimization by means of alternative graphs) afin de récupérer
automatiquement les perturbations. ROMA est capable de contrôler automatiquement le trafic,
tout en tenant compte des distances minimales entre les trains consécutifs. Le système de
ROMA est conçu comme un système d’aide à la décision pour les contrôleurs de trafic [34].
Une formulation à programmation en nombre entiers mixte (MIP) est présentée dans [35] pour
le problème afin de trouver une nouvelle grille horaire après avoir des perturbations comme des
retards pour certains trains. Dans l’objectif de minimiser le retard total, les auteurs ont proposé
d’utiliser une approche fondée sur « local-branching-type cuts » [36].
Lorsque de telles des perturbations se produisent, le travail consiste à détecter et à résoudre les
conflits significatifs. Le travail dans [37] aborde le problème de résoudre plusieurs conflits avec
l’objectif de minimiser les retards totaux. Les auteurs ont utilisé un algorithme glouton afin de
résoudre un seul conflit à chaque étape et d’obtenir la solution optimale visant uniquement le
conflit actuel et indépendamment de tous les autres en même temps, jusqu’à ce que tous les
conflits soient résolus. Ainsi, l’optimisation du problème avec une grande taille a été divisée en
une séquence de problèmes de très petite taille et la solution a pu être obtenue rapidement.
Dans l’objectif de minimiser la somme des retards de tous les passagers, les auteurs de [38] ont
formulés le problème en MILP au niveau microscopique du réseau prenant en compte les
contraintes de capacités. Ils ont utilisé quatre approches heuristiques en temps réel pour
résoudre le problème en fixant l’ordre des trains selon la grille horaire initiale.
Les auteurs de [39] ont utilisé un algorithme évolutionnaire fondée sur la permutation de trains,
pour reconstruire la grille horaire en insérant des trains les uns après les autres dont l’objectif
est de minimiser les retards accumulés. Cet algorithme peut être hybridé avec l’outil
commercial de programmation mixte en nombres entiers (MIP) CPL d’ILOG : la méthode
évolutionnaire permet d’obtenir rapidement une solution bonne mais sous-optimale et cette
solution intermédiaire est affinée avec CPLEX.
46
solution acceptable, indépendamment du type de scénario de perturbation. L’algorithme
proposé possède trois phases. La phase 1 est la phase de prétraitement, la phase 2 est une
recherche de parcours en profondeur (depth-first) afin de trouver rapidement une solution
réalisable et suffisante en créant une première branche complète de l’arbre. Au cours de la phase
3, l’algorithme utilise le temps de calcul autorisé restant pour améliorer la solution existante en
revenant aux nœuds potentiels dans l’arborescence existante et les branches pour trouver de
solutions dont l’objectif est de minimiser les retards.
Quelques auteurs ont utilisé des méta-heuristiques pour résoudre la replanification durant les
petites perturbations. Dans [44], les algorithmes génétiques (AG) et le réseau de neurones
artificiels (ANN Artificial Neural Networks) sont développés pour la replanification des trains,
dont l’objectif est de minimiser les retards totaux dans les résolutions de conflit. L’ANN est
utilisée pour évaluer les résultats de l’AG développé.
Dans [45], un modèle de programmation linéaire à nombres entiers mixte (MILP) a été formulé
pour minimiser les retards. Cet article présente une approche appelé « modified shifting
bottleneck » pour résoudre les problèmes de planification et de replanification des trains. C’est
une méthode heuristique qui décompose le problème en plusieurs problèmes simples. Tandis
que les auteurs de [46] ont introduit deux méthodes de « Distributed Model Predictive Control »
(DMPC) pour résoudre leur modèle MILP. Dans chaque étape de DMPC des actions sont
déterminés pour réduire les retards dans le réseau.
Les auteurs de [47] présentent un système d’aide à la décision pour la gestion en temps réel. Ce
système utilise une approche de programmation mathématique adressant la replanification du
trafic durant des perturbations inattendues dans un réseau hétérogène. Le système simule le
47
comportement du réseau à l’aide du modèle de programmation mathématique fondée sur la
topologie et les contraintes du chemin de fer en utilisant des méthodes heuristiques dans le but
est de minimiser les retards.
L’article [48] traite du problème de replanification des trains sur les lignes à double voie. Le
problème de replanification est considéré comme une procédure de détection et de résolution
de conflit. Cet article aborde le problème de replanification du train de manière différente en
utilisant la théorie des réseaux de Petri (PN) afin de réduire les retards. Un réseau de Petri est
un formalisme mathématique et un outil graphique pouvant être utilisé pour la modélisation, la
conception et l'analyse de systèmes discrets, qui permettent de visualiser un système ferroviaire.
Pour le même objectif de réduire les retards, les auteurs de [49] ont présenté un modèle qui
permet de réagir non seulement en retardant le départ des trains, mais aussi en modifiant
l’itinéraire de trains (rerouting). Pour cela, ils ont introduit l’origine et la destination des trains
en tant qu’événements dans le réseau d’activité événementielle utilisé et ont connecté les
décisions d’attente à un problème de plus court chemin dans le réseau résultant.
Pour traiter les petites perturbations aussi les auteurs de [50] présentent une approche pour la
replanification des trains, fondée sur une approche de graphes de conflits de ressources
(Resource Conflict Graph RCG), en prenant en compte les aspects d’efficacité énergétique dans
les solutions. Ce modèle est développé pour les réseaux à trafic mixte très encombrés, où les
opérations ferroviaires constituent différents services ferroviaires (Intercity, InterRegio...).
Dans leur travail, la consommation d’énergie est considérée comme une contrainte afin
d’améliorer les performances de l’algorithme et en même temps, d’obtenir une solution plus
économe en énergie.
Certaines recherches ont traité le problème de replanification du point de vue des passagers.
Les auteurs de [51] ont créé aussi un système de replanification de train qui cherche à minimiser
les inconvénients pour les passagers. L’algorithme calcule une valeur qui quantifie
l’inconvénient subi par le passager. Pour minimiser les retards des passagers, les auteurs de [52]
ont fourni un modèle permettant d’inclure les contraintes de capacité dans la formulation du
problème de gestion des retards au niveau microscopique. Ils ont utilisé deux heuristiques
(FSFS : First-Scheduled-First-Served et B&B-OS : Branch & Bound including optimal-served)
afin de trouver rapidement une solution optimale. Dans le cadre du travail de [53], les auteurs
ont défini l’insatisfaction de tous les passagers de l’ensemble du réseau ferroviaire comme un
critère et ont développé un algorithme qui cherche un plan de gestion des retards des trains qui
48
minimise l’insatisfaction des passagers. L'algorithme utilisé est une combinaison de simulation
et d'optimisation. La partie simulation comprend un simulateur de trafic ferroviaire et un
simulateur de flux de passagers qui fonctionnent en parallèle. Le simulateur de trafic ferroviaire
prévoit les futurs schémas de trains en tenant compte de l’interaction dynamique entre les trains
et les passagers. Le simulateur de flux de passagers trace le comportement de tous les passagers
un par un et calcule le nombre de passagers qui montent / descendent à chaque station.
L'insatisfaction des passagers est également estimée à partir des résultats de la simulation du
flux de passagers. Dans la partie optimisation, ils ont utilisé l'algorithme de recherche tabou
(tabu search). Une méta-heuristique a été utilisée dans [54] pour maximiser le nombre des
passagers transportés pour améliorer la capacité de transport et minimiser le temps d’attente des
passagers. Les auteurs ont utilisé l’optimisation par essaims particulaires (PSO) pour la
replanification des trains à grande vitesse d’un trafic à double voie en cas de perturbation. Les
auteurs de [55] ont supposé que l’inconvénient subi par les passagers comprend le temps de
trajet, le temps d’attente sur les quais et le nombre de correspondances. Ils ont présenté un
algorithme de replanification fondée sur une formulation MIP (Mixed integer programming).
Pareillement, pour satisfaire les passagers, les auteurs de [56], ont développé aussi un modèle
de replanification des trains en temps réel afin de minimiser le temps de trajet du trafic, en
formulant le problème en modèle de programmation linéaire au niveau microscopique.
Dans le but de minimiser l’écart total entre les horaires originaux et reprogrammés des trains,
les auteurs de [57] ont utilisé la méthode de génération de colonnes qui exploite la séparabilité
du problème. Ils ont montré que cette méthode heuristique est efficace pour réduire la taille de
problème. Les auteurs de [58] ont présenté une approche pour résoudre le problème de
replanification ferroviaire. Cette approche concerne la récupération d'un horaire ferroviaire
perturbé de manière à minimiser la différence entre le plan initial et le nouveau plan provisoire.
Ils ont utilisé une formulation mixte de programmation linéaire en nombres entiers (MIP) qui
modélise leur problème. Vu le grand nombre de variables et de contraintes qui ne permet pas
de résoudre ce problème efficacement en utilisant un solveur MIP standard, ils ont défini une
nouvelle approche appelée SAPI (analyse statistique de la propagation des incidents) pour
résoudre le problème. Le point clé de SAPI est d'estimer la probabilité qu'un événement, une
étape de l'itinéraire d'un train, soit affecté par un ensemble d'incidents. En utilisant ces
probabilités, l'espace de recherche est réduit, permettant d'obtenir de très bonnes solutions en
peu de temps.
49
(B). Travaux menés dans le cadre d’optimisation multi-objectif
Une approche optimisation multi-objectif existe aussi dans ce domaine. L’article [59] traite la
gestion du trafic pour différents scénarios de perturbations pour réduire à la fois les retards de
trains et la consommation d’énergie au niveau microscopique en prenant en compte les
contraintes de signalisation. Trois algorithmes ont été utilisés dans cet article : le premier
algorithme est B&B (Branch and Bound), le deuxième algorithme simule la pratique de la
gestion du trafic basée sur le système ARI décrit dans [60] et le troisième algorithme est « First
In First Out » (FIFO). Le principal objectif des auteurs de [61] était de minimiser les délais en
respectant les objectifs des sociétés d’exploitation des trains. La procédure de replanification
des trains utilisée est itérative, basée sur l’algorithme B&B (Branch and Bound). Les auteurs
de [62] ont aussi utilisé l’algorithme B&B pour résoudre le problème formulé sous la forme
d’une programmation linéaire à nombres entiers mixte (MILP). Dans le but de minimiser les
retards totaux des trains ainsi que le nombre de trains sérieusement affectés, les auteurs de [63]
ont défini un modèle d’optimisation basée sur la logique floue pour gérer le replanification des
trains à grande vitesse pendant la restriction de vitesse à cause des perturbations comme une
forte tempête et de fort vent.
Le problème de replanification efficace en temps réel des trains après une perturbation n’est
pas facile. Il devient plus compliqué par le fait qu’il peut être à la fois dynamique (le terme
dynamique est défini quand les trains attendent d’être reportés, plus de trains arriveront avec
des caractéristiques et des horaires différents, ce qui changera la nature du problème) et multi-
objectifs. Un autre problème multi-objectif étudié dans la littérature est le compromis entre la
minimisation des retards de train et la durée du trajet des passagers. L’article [64] cherche ce
compromis en intégrant une replanification des trains dans une série de modèles et de méthodes
de contrôle du trafic résolus par le solveur CPLEX.
L’article [65] présente une procédure de prise de décision par auto-apprentissage pour une
replanification d’une grille horaire robuste en temps réel en cas de perturbations. Le modèle a
été reformulé en problème de programmation linéaire en nombres entiers mixte visant à trouver
le compromis optimal entre deux objectifs : la minimisation des retards des trains et la
maximisation de la robustesse des horaires. La résolution a été intégrée à une procédure
heuristique pour accélérer la procédure de replanification en temps réel.
50
L’article [66] présente une version améliorée de l’approche « Resource Conflict Graph » (RCG)
développée par [67] pour résoudre le problème formulé sous un modèle linéaire mixte en
nombre entiers (MILP). Ce travail prend en compte trois objectifs d’optimisation : minimiser
le délai d’arrivée global aux gares, minimiser le nombre de trains annulés et minimiser la
consommation d’énergie. L’article [68] examine le problème bi-objectif de la minimisation des
retards des trains et la minimisation de nombre total de correspondances. Le problème a été
formulé au niveau microscopique en prenant en compte le système de signalisation. Dans ce
but deux nouveaux algorithmes heuristiques sont développés. Les résultats des tests appliqués
ont montré l’efficacité de ces deux algorithmes pour approcher le front de Pareto dans un temps
de calcul limité.
Pour modéliser les problèmes de replanification des trains en temps réel autour de sections de
goulots d’étranglement, un modèle de programmation à nombres entiers mixte est présenté dans
l’article [69]. Un algorithme amélioré (DE_JRM) a été développé pour résoudre le problème
de réduire les retards et satisfaire aux exigences des applications de contrôle du trafic en temps
réel.
Les méthodes méta-heuristiques ont été les choix d’auteurs de l’article [70] pour résoudre les
conflits du trafic durant les perturbations. Dans cet article, le problème a été traité en utilisant
un processus itératif à deux niveaux. Le niveau supérieur traite les rencontres et les
dépassements des trains sur les voies. Le niveau inférieur traite la détermination des heures de
début et de fin pour chaque train et pour chaque section. Deux algorithmes ont été appliqués :
« Recuit Simulé » et « Recherche tabou ». Ce problème a deux fonctions d’objectif différentes :
une qui minimise le délai total pour les trains et un autre qui minimise les coûts totaux.
L’objectif de l’article [71] est d’étudier l’algorithme de colonies de fourmis (ACO) dans le
problème de replanification à une intersection (jonction) après une perturbation dans un
environnement en mutation dynamique (problème de replanification de jonction ferroviaire
dynamique). Dans [72], les auteurs ont étudié la capacité des algorithmes d’optimisation des
colonies de fourmis à résoudre le problème de replanification ferroviaire dynamique et multi-
objectif à la fois. Dont l’objectif était minimiser l’écart de la grille horaire et minimiser les coûts
énergétiques supplémentaires. Les auteurs de [73] cherchent des bonnes solutions réalisables
en cas de retard dans un trafic mixte (hétérogène). L’optimisation repose sur des algorithmes
génétiques centralisés (GA) et le classement de Pareto. Les solutions sont évaluées dans cette
recherche en fonction de trois objectifs : la satisfaction de la distance par rapport aux contraintes
de la circulation, la distance par rapport aux objectifs et la ponctualité aux points critiques. De
51
plus, la réorganisation peut être autorisée en modifiant les contraintes du problème. Ces travaux
s’appuient sur un outil de simulation développé par la SNCF et adapté à une étude de trafic
mixte.
Inversement aux perturbations, les interruptions sont des incidents qui ont une grande gravité
comme : indisponibilité d’une voie ferrée, panne de matériel roulant …, sont classés comme
des interruptions. La littérature qui a abordé le sujet d’ajustement des horaires lors de des
interruptions est limitée. Ces problématiques ont suscitées un intérêt moindre du fait de leur
plus faible occurrence par rapport aux perturbations faibles. Le plus souvent la situation d’un
blocage de la voie est considérée d’un point de vue macroscopique. Nous présenterons dans ce
paragraphe quelques recherches qui ont abordé le problème de la replanification des trains lors
de blocage complet ou partiel d’une voie ou plusieurs voies du trafic. Les auteurs de [74]
désignent par un blocage complet, la situation dans laquelle tous les cantons (section
élémentaire d’infrastructure encadrée par deux signaux) d’un segment sont bloqués et aucun
train ne peut être utilisé sur ce canton. Si seulement certains cantons sont bloqués, la situation
est désignée comme un blocage partiel et un trafic limité est encore possible. En conséquence
d’un blocage complet ou partiel, les trains ne peuvent plus être utilisés conformément la grille
horaire normale et une autre grille reprogrammée doit être déterminée. Les mesures proposées
lors d’une perturbation de blocage sont l’annulation des trains, le report des trains et le demi-
tour des trains dans les stations adjacentes au blocage. Les travaux cités sont aussi divisés en
deux parties : (A) les travaux qui ont pris en compte un seul objectif d’optimisation et (B) les
travaux qui ont pris en compte plus qu’un objectif d’optimisation.
Un problème de réorganisation est présenté dans [75] pour la situation dans laquelle une voie
d’un segment à deux voies de directions opposées est fermée en raison d’un blocage ou en
raison de travaux de construction. Le but est de minimiser le retard en appliquant une recherche
locale.
Dans [76], les auteurs ont examiné l’efficacité de stratégies avancées intégrées dans
l’algorithme recherche tabou, pour résoudre le problème de replanification des trains en temps
réel dans le but de minimiser les retards consécutifs en cas de blocage de plusieurs voies. Les
52
stratégies proposées ont amélioré considérablement les performances de la version précédente
de ROMA, tant en termes de qualité de la solution que de temps de calcul.
Les auteurs de [77] développent un modèle MILP qui détecte et résout les conflits provoqués
par une perturbation qui bloque une partie d’une ligne à voie unique. Les mouvements des trains
perturbés sont reprogrammés dans les deux directions de la ligne dans le but de minimiser le
retard total de tous les trains.
Les auteurs de [78] considèrent les conditions de trafic sérieusement perturbées sur les lignes
de chemin de fer à double voie où certaines sections de blocs d’une voie ne sont pas disponibles.
Le problème formulé au niveau microscopique est résolu à la fois par des approches centralisées
et distribuées dans le but de minimiser les retards. Dans une approche centralisée, les trains sont
reprogrammés tous ensemble, tandis que dans une approche distribuée, les trains sont
reprogrammés par des répartiteurs locaux avec un coordinateur gérant les interactions aux zones
frontalières. Les expériences de calcul montrent que, les approches distribuées obtiennent de
meilleures solutions que les approches centralisées.
La replanification des trains en temps réel est devenue un domaine intéressant pour les
chercheurs dans le secteur ferroviaire. Toutefois, peu de travaux traitent la replanification des
trains en temps réel en cas de fortes perturbations. Les auteurs de [79] présentent la
replanification en temps réel du trafic ferroviaire sur une ligne de chemin de fer à grande vitesse
en cas de blocage complet de l’infrastructure ferroviaire, où toutes les pistes d’un segment de
chemin de fer sont en panne pendant un certain temps. Un modèle de programmation en
nombres entiers mixte est formulé au niveau macroscopique (c’est-à-dire seules les horaires de
départ et d’arrivée sont considérées, les informations de routes et de système de signalisation
sont négligées). En recalculant, en réordonnant et en annulant les trains, l’objectif de leur travail
est de minimiser le nombre de trains annulés et minimiser les retards des trains tout en
respectant les contraintes de capacité en circulation et en gare. Les auteurs de [80] ont introduit
aussi un modèle macroscopique de replanification dans le cas d’un blocage complet, formulé
en MILP et implémenté sous Matlab dont l’objectif est de trouver le compromis entre
l’annulation de certains services et les retards d’autres services. Les auteurs de [81] proposent
une nouvelle approche de replanification des trains à grande vitesse en temps réel. Ils se sont
concentrés sur la récupération du temps stochastique et ils ont proposé une approche « track-
53
backup », en reformulant le problème en modèle MIP, pour améliorer la flexibilité nécessaire
pour gérer les perturbations et réduire les délais et les coûts. Ils ont formulé le problème en tant
que modèle MIP.
Les auteurs de [82] ont proposé une approche d’optimisation du problème de la réorganisation
du trafic ferroviaire hétérogène dans un réseau à n-voies lors d’une perturbation, où n est un
nombre arbitraire de voies parallèles de telle sorte que les segments peuvent être simple-,
double- ou à multiples voies. Le problème est formulé sous forme d’un modèle MILP dont le
but est de minimiser le retard final total du trafic et minimiser le coût total associé aux retards.
Le problème a été résolu en utilisant le logiciel CPLEX, avec sa procédure heuristique B&B.
L’article [83] étudie comment gérer un grand réseau, avec des lignes à double voie, dans le cas
de l’indisponibilité d’un ensemble des sections d’une voie afin d’avoir un compromis entre
minimiser les retards de tous les trains circulant sur le réseau et limiter l’annulation des services
de trains perturbés en utilisant le logiciel ROMA pour étudier différents scénarios de résolution
des perturbations au niveau microscopique.
Les auteurs de [74] gèrent les ajustements d'horaires à un niveau macroscopique en cas de
blocage partiel ou complet. Un graphique événement-activité est utilisé pour exprimer le réseau
ferroviaire et un modèle de programmation mixte en nombres entiers (MIP) est formulé. La
fonction objectif utilisée dans ce travail est pondérée, qui minimise le nombre de trains annulés
et les retards de trains, équilibre le nombre de trains dans les deux sens et repartit les trains
exploités de manière uniforme dans le temps.
Le document [84] porte sur le problème de replanification des trains d’un point de vue
macroscopique en cas de perturbations majeures entrainant l’indisponibilité d’une (ou
plusieurs) piste(s) pendant une période de temps connue. L’originalité de cette recherche est
l’intégration de trois objectifs pour générer une grille horaire réalisable : la satisfaction des
passagers, les coûts opérationnels et les écarts par rapport à la grille horaire initiale. Les auteurs
ont formulé le problème sous forme d’un programme linéaire en nombre entiers qui optimise
le premier objectif et qui inclut les sigma-contraintes pour les deux autres. En résolvant le
problème pour différentes valeurs de sigma, la frontière tridimensionnelle de Pareto peut être
explorée pour comprendre les compromis entre les trois objectifs. Ce modèle comprend des
mesures telles que l’annulation, le retard ou le réacheminement des trains.
54
La littérature axée sur la réduction des effets négatifs des retards pour les passagers s’est
également développée, mais elle est beaucoup moins volumineuse. Le modèle formulé au
niveau macroscopique dans [85] vise à aider les sociétés d’exploitation des trains à évaluer le
compromis entre la faisabilité économique et la faisabilité infrastructurelle des programmes de
récupération, d’une part et la satisfaction des passagers d’autre part à partir d’une formulation
d’ordonnancement macroscopique. Ce modèle se concentre principalement sur les
perturbations sévères comme l’indisponibilité d’une voie et propose plusieurs stratégies de
récupération. L'évaluation des stratégies de récupération (par exemple : annulation partielle du
train, annulation complète du train, ajout du train, remplacement du train) utilisée dans ce
travail, repose sur un certain nombre d'indicateurs de satisfaction des passagers, notamment le
temps de parcours total et le nombre de correspondances.
Dans la recherche [86] les auteurs ont abordé le problème de replanification d’un point de vue
macroscopique, sans tenir compte de détails tels que le système de signalisation et les
assignations de voies dans les gares, en cas de perturbations majeures, telles que
l’indisponibilité des voies ferrées en raison d’événements imprévus. Ils cherchent un
compromis entre les aspects suivants : l’écart par rapport à la grille horaire initiale, le faible
coût d’exploitation et le service acceptable de passagers. Ils ont proposé un cadre heuristique
qui quantifie ces aspects, dans lequel la grille est optimisée à l’aide d’une méta-heuristique
« Adaptive Large Neighborhood search », et un modèle d’affectation de passagers pour évaluer
l’horaire de manière itérative. Les stratégies de récupération utilisées sont : les annulations de
trains, les retards, les réacheminements et les ajouts de bus ou de taxi.
Les travaux sur la gestion des incidents ferroviaires que nous avons identifiés dans la littérature
s’intéressent aux conséquences d’un incident sur les grilles horaires, avec différentes approches
selon le type d’incident considéré.
Le cas le plus simple correspond à la situation où l’incident est lié à un retard de train lié à une
cause externe au système. Les infrastructures ne sont pas affectées par un incident matériel,
mais le retard d’un train décale leur disponibilité dans le temps et provoque d’autres retards par
effet domino. La situation se complique quand une infrastructure est totalement ou
partiellement indisponible.
55
Dans l’un ou l’autre cas, la gestion de l’incident consiste à réaffecter au mieux les ressources
disponibles (voies uniquement dans le cas d’une perturbation faible ; voies, matériel roulant,
équipage dans le cas d’une perturbation forte) afin d’assurer la circulation ferroviaire. Les
travaux de la littérature sont basés sur des méthodes de recherche opérationnelle et s’appuient
sur des modèles de réseau simplifiés : les lignes sont caractérisées par des capacités (nombre
maximal de trains par heure), des intervalles de temps minimaux entre trains, des vitesses
moyennes, … . Le trafic est défini par des horaires de départ et d’arrivée, et ce sont ces horaires
qu’il faut déterminer de façon à optimiser des critères tels que le retard moyen des trains.
Le problème qui nous concerne est posé d’un point de vue très technique, au plus près des
infrastructures : il s’agit d’évaluer les conséquences de la perte d’un équipement électrique sur
la capacité d’une ligne. Pour dire les choses de manière simplifiée, on cherche à évaluer
combien de trains peuvent continuer de circuler en même temps sur la ligne, et suivant quel
profil de vitesse (marche du train). Dans ce travail, le problème est posé en termes d’adaptation
du trafic prévu à la puissance effectivement transmissible par la caténaire. Il s’agit donc d’agir
sur la grille horaire et sur la marche des trains, de façon que la puissance appelée par les trains
soit toujours dans les limites de ce que le système électrique peut fournir en respectant les
normes techniques en vigueur.
Une telle étude s’appuie nécessairement sur un simulateur ferroviaire électrique. Il s’agit d’un
modèle numérique non linéaire beaucoup plus fin que les modèles utilisés classiquement pour
la gestion des incidents, et comportant de très nombreuses variables. Son exécution nécessite
des ressources informatiques importantes avec une durée d’exécution caractéristique d’une
dizaine de minutes. De ce fait, les méthodes linéaires basées sur des modèles rapides
d’exécution rencontrées dans la littérature ne sont pas envisageables. Nous n’avons trouvé
aucune publication qui aborde cette problématique et le travail présenté dans la suite est
entièrement original
56
dans notre travail est la perte totale d’une sous-station. Ce genre d’incident engendre une baisse
de tension à la caténaire et donc une augmentation des courants dans l’ensemble du système.
Le fonctionnement des motrices de trains est perturbé (diminution de performance, voir mise
en sécurité par disjonction du train), et les transformateurs et les câbles peuvent être sollicités
au-delà de leurs limites thermiques. Dans ces conditions et pour ne pas entrainer d’avaries au
niveau des installations, les puissances appelées par les trains sont réduites, entrainant des
retards et des perturbations du trafic.
En effet, chaque installation est soumise à des contraintes de respect des normes qui définissent,
par exemple, les niveaux de tension à respecter le long des lignes, les courants admissibles ou
les échauffements dans les différents composants. Toutes ces contraintes opérationnelles
doivent impérativement être respectées pour que le trafic soit considéré comme acceptable (voir
chapitre 4).
Quand le trafic n’est pas acceptable, il faut le réduire de façon à limiter les appels de puissance
et respecter toutes les contraintes opérationnelles. Cet ajustement est fait par le biais de ce que
nous appelons des actions d’ajustement. Le rôle de ces actions est de réduire les appels de
puissance et de les étaler dans le temps. Les principaux leviers sont d’augmenter l’espacement
entre les trains et/ou de réduire leur vitesse sur certaines portions critiques de la ligne. La
définition et le choix des actions d’ajustements est issue de l’expertise métier, car il faut intégrer
de nombreuses particularités sur la circulation des trains. Ce point sera détaillé dans le chapitre
4.
Pour tester si la capacité d’alimentation électrique6 d’une configuration d’un réseau donné est
suffisante pour un trafic donné, l’opérateur lance une simulation avec les entrées nécessaires
(IFTE, horaires, marches des trains,…) à l’aide d’ESMERALDA NG. Puis, il observe un
ensemble de sorties dimensionnantes (tensions à la caténaire, échauffements des câbles,
puissances et échauffements des sous-stations) afin de vérifier si les normes opérationnelles
6
Puissance électrique disponible pour les consommateurs en conservant une qualité de fourniture compatible
avec le bon fonctionnement des charges et du réseau.
57
sont respectées. Dans la suite du document, nous parlerons de trafic acceptable quand ces
normes sont vérifiées.
Lorsqu’un incident électrique survient (ou est envisagé au cours d’études prévisionnelles),
l’opérateur responsable de réorganiser le trafic se base sur son expérience pour choisir des
scénarios d’ajustement du trafic, puis il les teste avec ESMERALDA NG afin de trouver une
solution acceptable, puis essayer de l’améliorer pour trouver une solution souvent qualifiée à
tort d’ « optimale ». Cette démarche est schématisée sur la Figure 10.
Infrastructures
Modèle du système
Analyse
Contraintes respectées ?
(Ex : tension de ligne
acceptable ?)
Continuer la recherche ?
La méthode suivie consiste à effectuer des essais de manière séquentielle en faisant varier les
facteurs d’entrée du système étudié l’un après l’autre, comme par exemple les vitesses des
trains, ou les horaires de départ des trains. Ce changement et le choix d’ajuster l’un ou l’autre
des facteurs d’entrée se fait de manière empirique selon l’expertise des opérateurs, sans
planification systématique de l’ensemble des essais à réaliser. La décision d’arrêter ou de
continuer la recherche d’une solution repose sur la comparaison des résultats obtenus d’un essai
à l’autre. Cette comparaison se fait sur la base du test d’acceptabilité pour vérifier si le scénario
58
testé aboutit à des résultats conformes aux contraintes ou non. Ces tests sont très compliqués
vu le grand nombre des sorties dynamiques : en effet, il faut tester la tension à la caténaire de
chaque train tout au long de son déplacement et vérifier les échauffements dans tous les
éléments du réseau (engins, sous-stations). Cela représente des centaines de sorties dynamiques
à analyser. Par ailleurs, il y a de nombreux scénarios d’ajustement possibles et le temps de
simulation d’un seul scénario est typiquement d’une dizaine de minutes. Ces contraintes
limitent de fait le nombre d’essais effectivement réalisés par l’opérateur et la qualité du résultat
dépendra beaucoup de l’expérience et des connaissances de l’opérateur. L’obtention des
résultats acceptables est très coûteuse en temps (plusieurs jours et parfois une semaine), et
l’obtention de solutions qualifiées d’optimales par abus de langage est presque impossible avec
cette démarche manuelle.
La démarche que nous proposons vise à remplacer la démarche par essais-erreurs actuelle. Dans
un premier temps, l’approche métier est formalisée mathématiquement et traduite en un modèle
d’ajustement du trafic, auquel est associé un problème d’optimisation sous contrainte. Nous
montrons ensuite que les méthodes d’optimisation classiques ne sont pas adaptées au problème
considéré et proposons une démarche fondée sur l’analyse de sensibilité.
En pratique, les opérateurs n’agissent pas sur le trafic train par train, mais à travers des actions
globales qui préservent la régularité des horaires et des profils de vitesse des trains. Cela peut
se traduire par des variables d’ajustement macroscopiques, à partir desquelles les fichiers
d’entrée du simulateur sont modifiés, conduisant au modèle d’ajustement schématisé sur la
Figure 11.
Critère(s) d’optimisation
- Tensions aux
- Topologie du réseau
pantographes des
Contraintes
𝑋1 trains à chaque Pk
- Horaires des trains
Variables
Esméralda
𝑋2 - Les échauffements
… des sous-stations à
… NG
chaque instant
𝑋𝑝
…
Entrées de simulation
Sorties de simulation
f
59
Figure 11: Le modèle d’ajustement étudié
Les actions d’ajustement du trafic sont modélisées par des variables d’ajustement, représentées
par le vecteur 𝑋 = (𝑋1 , … , 𝑋𝑝 ), où 𝑝 est le nombre de variables. Par exemple, l’action qui
consiste à espacer les départs de train se modélise par une variable « incrément de l’intervalle
de temps entre deux départs successifs ». L’action de ralentissement se modélise par une
variable « réduction de la vitesse limite entre deux points de la ligne ». En l’état actuel de nos
travaux, les variables d’ajustement considérées sont continues, mais elles seront de type discret
dès que l’on envisagera le cas de la suppression de certains trains.
les missions des trains (horaire de départ, ligne, voie, point de départ)
les marches des trains (consignes de vitesse)
Les sorties du modèle d’ajustement sont directement les sorties du simulateur. Il s’agit de sorties
multivariées (tensions au pantographe de chaque train, puissances de chaque sous-stations,
échauffements des différents câbles…) et dynamiques (séries temporelles ou spatiales). Le
modèle d’ajustement comporte des contraintes sur ces sorties, et c’est le respect simultané de
toutes ces contraintes qui définit l’ensemble des variables d’ajustement admissibles
(réalisables).
Par ailleurs, le modèle d’ajustement comporte des critères de performance, calculés en post-
traitement à partir des sorties du simulateur (densité de trafic, consommation des sous-stations
…).
60
2.2.4.2. Inadéquation des méthodes d’optimisation classiques
Le modèle d’ajustement est complexe, en sens qu’il repose sur un simulateur ferroviaire dont
le comportement est non linéaire, de par la nature des circuits et composants simulés. Ce
simulateur comporte un nombre élevé de variables, des sorties dynamiques et présente un coût
calculatoire élevé (typiquement une dizaine de minutes pour la simulation de deux heures de
trafic sur un réseau régional). Par exemple, supposons un trafic comportant 200 trains, alimenté
par un réseau comportant 10 sous-stations. Le nombre des variables d’entrée du simulateur est
supérieur à 1000. Le nombre des sorties est également important, avec des séries temporelles
de dimensions élevées. Une heure de trafic simulé correspond à environ 5000 pas de temps, et
il faut vérifier à chaque pas de temps que les contraintes opérationnelles sont vérifiées. Ces
contraintes portent sur les trains (tensions aux pantographes en fonction de la position), les
sous-stations (puissances et échauffements en fonction du temps) et les câbles (échauffements
en fonction du temps).
Compte tenu des caractéristiques du problème d’ajustement du trafic, il n’est pas envisageable
de faire une optimisation directe. Pour cela, nous avons choisi d’utiliser l’analyse de sensibilité
afin de quantifier l’influence des différentes variables d’ajustement, en particulier sur le respect
des contraintes sur la sortie. Dans la suite de cette section, nous justifions le choix de cette
démarche après avoir passé en revue les principales méthodes d’optimisation proposées par la
littérature.
61
Limites par rapport au modèle
Catégories Conclusion
d’ajustement du trafic
Les méthodes d’optimisation
Modèle contraint Pas adapté
sans contraintes
Les méthodes d’optimisation
Limité aux variables discrètes Pas adapté
discrète
Les méthodes d’optimisation Modèle boite noire et
Pas adapté
avec contraintes sorties dynamiques
Les méthodes déterministes
Non linéarités du modèle Pas adapté
ou exactes
Un grand nombre d’itérations + la
Les méta-heuristiques Difficile
présence de contraintes
On distingue une deuxième catégorie fondée sur des méthodes d’approximation (méthodes de
plans d’expériences (MPE), surface de réponses,…) qui servent à réduire le modèle afin de
travailler sur un méta-modèle équivalent plus rapide d’exécution [87]. Ces méthodes ne sont
pas applicables dans notre travail, compte tenu du grand nombre de sorties dynamiques
soumises à des contraintes.
Dans la section suivante, nous allons montrer comment l’analyse de sensibilité peut aider à la
résolution de problèmes d’optimisation, en particulier pour le problème qui nous concerne ici.
62
L’analyse de sensibilité a ainsi été utilisée pour faire de la réduction de modèles à des fins
d’optimisation [90] dans différents domaines : domaine médical [91], ingénierie [92],
écosystème [93],… Elle est particulièrement adaptée dans les cas suivants : modèle de type
« boite noire » ; code de calcul long ou coûteux ; nombreux paramètres continus ou discrets ;
multiples variables de sortie dynamiques….
Face à notre problème d’optimisation, nous avons proposé une méthodologie en deux parties :
la première partie (analyse de sensibilité) consiste à explorer l’espace de solutions admissibles
et identifier les ajustements importants dans le processus de réorganisation du trafic. Puis la
deuxième partie (post traitement et optimisation) sert à rechercher les solutions meilleures. Cela
vient du fait que les sorties de modèle d’ajustement (tensions à la caténaire) qui sont soumises
à des contraintes sont différentes du critère d’optimisation (densité du trafic).
Ainsi, pour résoudre la première partie du problème (déterminer l’espace des entrées
admissibles et les ajustements importants), nous avons choisi de faire varier les entrées afin
d’observer la variation des sorties. Cette phase d’analyse de sensibilité permet d’analyser le
modèle d’ajustement du trafic, en étudiant l’impact de la variabilité des variables d’entrée sur
la variabilité des sorties. On détermine ainsi les variables d’ajustement importantes, ce qui
permet ensuite de réduire la dimension de problème en ne conservant que ces variables.
Deuxièmement, l’analyse de sensibilité permet de réduire l’espace de recherche du problème
d’optimisation, en se limitant à l’ensemble de solutions réalisables, c’est-à-dire pour lesquelles
les sorties du modèle respectent toutes les contraintes physiques.
Une fois l’espace de recherche admissible défini, et les variables d’ajustement importantes
identifiées, il est facile de rechercher les solutions qui répondent aux critères d’optimisation.
La démarche proposée comporte quatre étapes principales, qui sont (Figure 12) :
63
II. Analyse de sensibilité : calcul de la sensibilité du modèle à chaque variable
d’ajustement à partir d’un échantillonnage de l’espace des variables d’ajustement ;
filtrage de l’échantillon pour obtenir l’ensemble des solutions réalisables
III. Post traitement et optimisation : recherche des solutions les plus performantes dans
l’espace de solutions réalisables, selon les critères définis en I (par exemple, chercher le
trafic le plus dense). Choix par l’opérateur de la solution qui lui parait la meilleure.
IV. Réduction de l’espace de recherche : nouvelle campagne de simulations au sein d’un
espace de recherche réduit à l’entourage de la solution retenue en phase III afin de la
raffiner. Pour cela, définition d’un nouveau paramétrage avec moins de variables
d’ajustement (les actions non influentes sont mises à zéro).
64
2.3. Synthèse
Le transport ferroviaire est en expansion continue afin d’assurer une mobilité accessible à tout
le monde. En revanche, ce système est susceptible de beaucoup d’incidents. Le problème de la
réorganisation du trafic est ainsi un processus important dans le système ferroviaire. Les
incidents étudiés dans notre travail sont des incidents sur les infrastructures électriques. Nous
traitons la réorganisation du trafic en cas de diminution de la capacité électrique nécessaire pour
faire circuler un trafic prévu.
La démarche actuelle utilisée pour agir pendant ce genre d’incident est empirique, coûteuse en
temps et ne produit pas des solutions optimales. Le besoin d’un outil d’optimisation et d’aide
à la prise de décision pour ajuster le trafic est nécessaire. L’analyse de sensibilité utilisée dans
notre démarche permettra d’obtenir une planification préalable afin d’agir de manière efficace.
Le chapitre 3 présentera un état de l’art d’un nombre de méthodes d’analyse de sensibilité
globales, en particulier celles qui sont adaptés au modèle de notre problème en termes de
critères définis (par exemple, le coût d’exécution, la prise en compte des contraintes...). Le
chapitre 4 décrira le processus d’application détaillée de l’analyse de sensibilité sur un cas
d’application simple mais représentatif des problèmes de la SNCF. Une analyse comparative
des méthodes retenues à l’issue du chapitre 3 se réalisera dans le chapitre 4, afin de mettre en
évidence celle qui sera la plus efficace dans le cas de problèmes réels. Le chapitre 5 illustrera
l’approche proposée en détails et l’appliquera à des problèmes complexes, typiques de ceux que
la SNCF doit traiter.
65
66
Chapitre 3
3.1. Introduction
L’étude des systèmes complexes repose sur l’utilisation de modèles numériques comportant
généralement de nombreuses variables d’entrées. L’analyse de sensibilité a pour objectif
d’évaluer l’impact de ces variables d’entrée sur la sortie du modèle. De manière générale,
l’analyse de sensibilité explore les relations entre les entrées et les sorties d’un système. Elle
met en évidence comment les variations des entrées impactent les variations des sorties, dans
le but de comprendre le processus modélisé et de trier les variables d’entrée selon leur influence.
L’analyse de sensibilité peut également être utilisée pour construire des méta-modèles à des
fins d’optimisation.
Dans notre travail, l’objectif de l’analyse de sensibilité est de mesurer l’impact des différentes
variables d’entrée sur la sortie du modèle d’ajustement. Il s’agit plus précisément de classer les
entrées en deux catégories (sensibles/peu sensibles). L’analyse de sensibilité peut également
fournir des informations quantitatives (indices quantifiant l’influence de chaque variable), et/ou
qualitatives (sens d’influence) sur les variables d’entrées.
67
𝑝 variables d’ajustements sortie
(entrées du modèle) dynamique 𝑚 variables
𝑋 = 𝑋1 , … , 𝑋𝑖 , … , 𝑋𝑝 f 𝑌 = (𝑌1 , … , 𝑌𝑡 , … 𝑌𝑚 )
Exemple : 𝑌𝑡 représente
l’échauffement d’une sous-
station à l’instant t
La Figure 13 rappelle la forme du modèle d’ajustement du trafic et précise les notations qui
seront utilisées dans la suite de ce travail. Le vecteur 𝑋 = (𝑋1 , … , 𝑋𝑖 , … , 𝑋𝑝 ) regroupe les 𝑝
variables d’ajustement, entrées du modèle. Le vecteur 𝑌 = (𝑌1 , … , 𝑌𝑡 , … 𝑌𝑚 ) représente une
sortie dynamique : il s’agit de l’ensemble des valeurs qu’une certaine grandeur physique 𝑌
prend aux différents pas de temps (ou en différentes positions pour les trains). Par exemple, 𝑌
peut représenter la tension au pantographe d’un train le long de son parcours (Figure 14) ou
l’échauffement d’une sous-station à chaque instant 𝑡. Dans le cas où 𝑌 ne contient qu’une seule
variable, 𝑌 est considérée comme une variable scalaire.
Figure 14: Exemple d'une sortie du modèle: Tension (V) en fonction de 𝒑𝒌 (km) pour un train donné
Dans ce chapitre nous recherchons une méthode d’analyse de sensibilité adaptée au modèle
d’ajustement du trafic étudié. Comme nous venons de le souligner, celui-ci se caractérise par
des sorties dynamiques. Notons également que les entrées du modèle d’ajustement sont
indépendantes.
68
Les approches conventionnelles de l’analyse de sensibilité ont été développées initialement
pour des grandeurs de sortie scalaires [94]. Ces approches peuvent être appliquées au cas des
sorties dynamiques et fournir des informations sur l’évolution de l’influence des variables
d’entrée au cours du temps. Dans cette approche, on considère qu’une variable dynamique est
un ensemble de variables scalaires 𝑌1 ; 𝑌2 ; … ; 𝑌𝑚 , et l’analyse de sensibilité consiste en 𝑚
analyses de sensibilité successives sur 𝑌1 ; 𝑌2 ; … ; 𝑌𝑚 . Elle permet par conséquent d’observer
l’évolution de l’influence des facteurs d’entrée au cours du temps.
Cette approche est réaliste si 𝑚 est petit, mais dans notre cas, 𝑚 est grand (des milliers de pas
de temps) et le nombre d’indices de sensibilité n’est pas gérable. Par ailleurs, il y a une forte
redondance d’information entre les valeurs d’une grandeur d’un pas de temps à l’autre. Il faut
donc considérer des méthodes globales qui analysent l’ensemble de la série chronologique
correspondant à une variable dynamique.
Il existe différentes méthodes d’analyse de sensibilité [88]. Toutes ont pour but d’étudier
l’impact des entrées sur les sorties du modèle, mais elles utilisent différentes caractéristiques
des entrées et des sorties pour calculer cet impact. Dans ce chapitre, nous nous intéressons aux
méthodes dites globales, et plus particulièrement à celles qui sont indépendantes de la forme du
modèle (modèle en boite noire). Nous présentons les différents indices de sensibilité, ainsi que
leur méthode d’estimation pour les modèles non linéaires à entrées indépendantes et à sortie
dynamique.
Nous étudierons trois catégories d’analyse de sensibilité globale. La première catégorie, fondée
sur « la décomposition de la variance », étudie l’influence des entrées sur la variance de la
sortie. La deuxième catégorie, fondée sur la notion de distance entre distributions statistiques,
étudie aussi l’influence des entrées sur la distribution de la sortie mais avec une caractérisation
plus globale que la première. La troisième catégorie, appelée « analyse de sensibilité
régionale », complète les deux précédentes en se focalisant sur l’influence des entrées par
rapport au fait que les sorties respectent ou non les contraintes opérationnelles (par exemple, le
niveau des tensions est-il suffisant ?).
Ces trois méthodes seront exposées et détaillées en déterminant les points forts et les points
faibles de chaque méthode. Nous déterminerons ainsi la méthode la plus appropriée en fonction
de ce qui nous intéresse. En fin de chapitre, nous contextualisons les méthodes présentées par
rapport à notre cas d’application.
69
3.2. Analyse de sensibilité [95]
Les méthodes d’analyse de sensibilité (AS) permettent de déterminer quelles sont les variables
d’entrée d’un modèle qui contribuent le plus à une quantité d’intérêt calculée à l’aide de ce
modèle. (Figure 15). Autrement dit, elles étudient comment les variations des entrées se
répercutent sur celle de la sortie, en attribuant à chaque variable d’entrée sa contribution à la
variation de la sortie. L’analyse de sensibilité peut aider à valider et simplifier le modèle. Cette
approche a été utilisée dans de nombreux domaines tels que les modèles financiers, l’analyse
de risque, les modèles environnementaux, la chimie, l’ingénierie nucléaire et la médecine [96],
[97] , [98] , [99], [100], [101], [102].
Analyse de sensibilité
X1 S1
S2
Variables d’entrées Sorties du
Structure S3 S4
X2 du modèle
modèle
du modèle/
X3
équations 𝑺𝒊 = coefficient entre 0 et 1
Figure 15: Principe de la répartition de la variation de la sortie d'un système entre différentes sources de variation
Nous pouvons résumer les différents objectifs de l’analyse de sensibilité comme suit :
a) Améliorer la compréhension des relations entre les entrées et les sorties d’un système.
b) Identifier et hiérarchiser les entrées les plus influentes sur une ou plusieurs sorties.
c) Trouver des régions dans l'espace des entrées pour lesquelles la sortie du modèle répond
à un certain critère de performance ou satisfait un certain nombre de contraintes.
d) Calibrer des variables d’entrée du modèle par rapport à certaines informations
disponibles (observations réelles de la sortie, contraintes) en se concentrant sur les
paramètres sensibles.
e) Simplifier le modèle (réduction de la dimension) en donnant ultérieurement une valeur
(fixe) aux entrées qui n’ont pas d’effet ou très peu d’effet sur la sortie.
f) Aider à la prise de décision en identifiant les variables décisionnelles les plus
importantes pour avoir le résultat final souhaité.
Des revues des méthodes d’analyse de sensibilité ont été réalisées ( [103], [104], [105]). Elles
distinguent généralement deux catégories de méthodes. La première catégorie est l’analyse de
70
sensibilité locale. Elle étudie l’effet d’une petite perturbation autour de valeurs nominales et
utilise souvent les dérivées partielles7 du code de calcul (petite variation autour d’un point). La
seconde est l’analyse de sensibilité globale, qui a pour but de mesurer l’effet des variations des
entrées sur la totalité de leur plage de variation.
Ce sont des méthodes inspirées du calcul différentiel [99]. Elles mesurent la sensibilité des
variations de la sortie du modèle en ne faisant varier qu’une seule variable d’entrée alors que
les autres sont fixées à leurs valeurs nominales. En supposant que la sortie est une variable
unique 𝑌 (sortie scalaire), le modèle peut s’écrire sous la forme suivante, où 𝑝 est le nombre
de variables d’entrée.
𝑓: ℝ𝑝 → ℝ
𝑋 → 𝑌 = 𝑓(𝑋)
L’analyse de sensibilité locale étudie comment de petites perturbations autour d’une valeur de
référence des entrées se répercutent sur la valeur de la sortie (Figure 16). La variation de la
réponse est considérée par rapport à la variation d’un seul facteur d’entrée à la fois.
𝑌
Variation de 𝑌 autour de 𝑥0
𝑥0 𝑋𝑖
La méthode d’analyse de sensibilité locale la plus classique est l’approche One factor At a Time
(OAT), qui consiste à calculer ou estimer les indices de sensibilité définis (𝑆𝑖 ) par les dérivées
partielles [106] :
7
On ne pourrait jamais calculer les dérivées partielles de code de calcul dans notre application
71
𝜕𝑓
𝑆𝑖 = |
𝜕𝑋𝑖 𝑥=𝑥
0
Exprimant l’effet sur la valeur de la variable 𝑌 de perturber les valeurs des variables 𝑋𝑖 autour
d’un point de fonctionnement 𝑥0 .
La Figure 17 montre un exemple dans lequel la sortie est sensible aux variations du paramètre
au point A, alors qu’elle ne l’est pas au point B. Avec l’analyse de sensibilité locale on pourra
détecter les zones de l’espace d’entrée où la variation de la sortie du modèle est importante ou
faible. Un nombre des recherches ont utilisé l’analyse de sensibilité en énergie des bâtiments
[107], et en hydrologie [108], [109], [110] .
Le grand avantage de cette méthode est que tout changement observé peut être attribué au
changement de l’un des facteurs et à chaque pas de temps. Par contre, dans le cas d’un modèle
ayant une sortie dynamique, ce calcul d’analyse de sensibilité devient coûteux en temps. En
effet, notre modèle contient plusieurs variables d’entrée continues (variables d’ajustement) et
un grand nombre de variables de sorties (m est de l’ordre de 1000, donc il faut faire 1000 analyse
et que chaque simulation prends 10 minutes), ce qui rend cette méthode impossible en pratique.
Le principal problème est que l’analyse de sensibilité locale ne permet pas de réaliser une
mesure de sensibilité globale sur un espace de variation des entrées. La sensibilité locale donne
une information valable uniquement autour du point nominal où elle est calculée et ne réalise
aucune exploration du reste de l’espace des variables d’entrée (indice par point du domaine
d’entrée).
72
3.2.2. Analyse de sensibilité globale
Les méthodes d’analyse de sensibilité globale (GSA) [111] se caractérisent par la prise en
compte de la totalité de l’espace des variables d’entrée et ont pour objectif de mesurer leur
influence en analysant la variabilité de la sortie du modèle dans toute la plage de variation de
variables (Figure 18). Les méthodes globales permettent de considérer les plages de variation
des paramètres (dans l’intégralité de domaine de variation), en attribuant à chaque variable
d’entrée sa contribution à la variabilité de la sortie [112]. Nous nous intéressons dans ce chapitre
aux méthodes qui sont indépendantes de la nature du modèle (linéaire, non linéaire, monotone,
non monotone, continu, discontinu,…). Après une époque marquée par des méthodes d’analyse
de sensibilité locales inspirées du calcul différentiel [113], les méthodes globales font appel aux
statistiques [114].
𝑥𝑚𝑖𝑛 𝑥𝑚𝑎𝑥 𝑋𝑖
Les principaux aspects pratiques qu’apporte l’analyse de sensibilité globale sont [115]:
I. Priorisation des facteurs (Factor Prioritization : FP) : le but est d’identifier les facteurs
d’entrée les plus influents et de les classer selon leur influence sur la sortie.
II. Fixation de facteurs (Factor Fixing : FF) : le but est d’identifier les variables d’entrée
qui peuvent être fixées à leur valeur nominale, car elles ont une influence insignifiante
sur la variation de la sortie. Cela permet de réduire la dimension du problème.
III. Diminution de la variance (Variance Cutting : VC) : le but est de réduire la variation de
la sortie à un niveau prédéterminé en fixant le moins de variables d’entrées possible
(pour plus de détails voir [116]).
IV. Cartographie de l’effet des facteurs (Factor Mapping : FM) : le but est d’étudier quelles
valeurs des variables d’entrées conduisent à des réalisations du modèle dans une plage
73
donnée de la sortie. Dans notre étude, par exemple, nous avons besoin d’identifier
l’ensemble des variables d’ajustement qui aboutissent à une sortie qui respecte les
contraintes opérationnelles, en particulier sur la tension de la caténaire.
Les méthodes d’analyse de sensibilité globale diffèrent les unes des autres par la façon dont
elles définissent et mesurent la sensibilité. Cependant, leur implémentation numérique
comprend toujours les trois mêmes étapes de base : (1) échantillonnage de l’espace de
variabilité des facteurs d’entrée, (2) évaluation du modèle et (3) post-traitement des échantillons
entrée-sortie pour calculer les indices de sensibilité.
3.2.3. Échantillonnage
Les méthodes d’analyse de sensibilité globale sont des méthodes fondées sur un échantillonnage
des variables d’entrée du modèle. Lors de la phase d’échantillonnage, 𝑁 réalisations (ou tirages)
des 𝑝 variables d’entrée du modèle, sont générées :
74
proposées afin d’améliorer la convergence du calcul des indices : la méthode d’échantillonnage
stratifié [118], la méthode hyper cube latin (LHS) [119] et la méthode de Quasi-Monte Carlo
[120]. L’enjeu est d’obtenir un bon compromis entre des indices de sensibilité précis et des
calculs pas trop coûteux. Pour cela, il faut arriver à couvrir le mieux possible l’espace des
entrées, en évitant les points trop proches les uns des autres (clusters), ou les zones
insuffisamment couvertes (gap).
L’échantillon est réparti aléatoirement dans un intervalle défini selon une certaine
distribution. Un échantillon aléatoire peut contenir des clusters et gaps. Cependant un
nombre important des points est nécessaire pour obtenir une précision satisfaisante des
statistiques associées au comportement global.
C. Echantillonnage par hyper cube latin (Latin hypercube sampling LHS) [119] :
Cette technique consiste à répartir uniformément les points de l’échantillon sur toute
l’étendue du domaine. Pour cela l’intervalle de chaque 𝑋𝑖 est découpé simultanément en 𝑁
segments de probabilité égale puis une valeur est tirée aléatoirement dans chacun de ceux-
ci. Les 𝑁 valeurs ainsi obtenues pour 𝑋1 sont combinées d’une manière aléatoire aux 𝑁
valeurs obtenues pour 𝑋2 et forment ainsi une matrice de taille 𝑁 × 2. De même, les valeurs
obtenues pour 𝑋3 sont accolées à cette matrice et ainsi de suite jusqu’à la 𝑝è𝑚𝑒 variable.
Les 𝑁 𝑝 − 𝑢𝑝𝑙𝑒𝑡𝑠 obtenus forment finalement une matrice échantillonnée par hyper cubes
latins (voir exemple Figure 19). L’inconvénient de cette méthode qu’elle montre des
clusters et gaps dans le cas où la taille de l’échantillon est trop petite pour générer un
échantillon de densité uniforme dans tout l’espace des paramètres.
75
1
𝑋1 et 𝑋2 sont indépendants
Générer un échantillon pour 𝑋1 (one-dimensional
Probabilité de 𝑋2
0.8
LHS)
0.6 Générer un échantillon pour 𝑋2 one-dimensional
LHS)
0.4 Combiner aléatoirement les deux échantillons
LHS (bidimensionnelles)
0.2 Un seul échantillon dans chaque ligne et dans
chaque colonne
L'échantillonnage est aléatoire dans chaque grille
0 0.2 0.4 0.6 0.8 1
Probabilité de 𝑋1
Figure 19: Exemple d’un échantillonnage LHS avec deux variables indépendants 𝑿𝟏 et 𝑿𝟐 pour 𝑵 = 𝟓
Les séquences Sobol appartiennent à la famille des séquences quasi-aléatoires qui sont
conçues pour générer des échantillons répartis aussi uniformément que possible sur
l’espace des paramètres multidimensionnels [122]. Les méthodes fondées sur les séquences
de Sobol permettent une convergence (tendance vers la bonne réponse) plus rapide qu’avec
LHS (voir [116]). La différence avec les autres méthodes est que les valeurs de l’échantillon
sont choisies en tenant compte des points précédemment échantillonnés et évitant ainsi
l’apparition de clusters et gaps. La Figure 20 montre un exemple d’échantillonnage de deux
dimensions avec deux méthodes : échantillonnage aléatoire et échantillonnage quasi-
aléatoire.
Gaps
Clusters
Figure 20: Figure montre la différence entre les deux méthodes : échantillonnage aléatoire (à gauche) et
échantillonnage fondée sur les séquences de Sobol (à droite)
76
Nous résumerons ici les étapes principales de cette méthode (pour plus de détails voir [123] et
[124]). Puis, pour clarifier ces étapes, nous ajoutons un petit exemple en fin de ce paragraphe.
Pour générer une séquence de Sobol (c’est-à-dire une dimension), nous choisissons un
polynôme 𝑃(𝑥) de degré 𝑑 :
D’où les coefficients 𝑎𝑖 sont 0 ou 1. Et nous choisissons des entiers impairs 𝑚𝑖 (0 < 𝑖 < 𝑁)
puis nous définissons N vecteurs direction 𝑐𝑖 :
𝑚𝑖
𝑐𝑖 = = 0. 𝑐𝑖1 𝑐𝑖2 𝑐𝑖3 …,
2𝑖
Les coefficients 𝑎𝑖 sont utilisés pour calculer chaque vecteur de direction 𝑐𝑖 comme suit :
D’où ⨁ est XOR (l’opérateur logique OU exclusif) et le dernier terme est 𝑐𝑖−𝑑 « right shifted »
par 𝑑 bits9
Etant donné que 𝑛 + 1 diffère par un seul bit de 𝑛, 𝑥𝑛+1 diffère de 𝑥𝑛 par un seul vecteur de
direction 𝑐𝑟 . 𝑥𝑛+1 donc peut être calculé en fonction de 𝑥𝑛 comme suit:
𝑥𝑛+1 = 𝑥𝑛 ⨁ 𝑐𝑟
Exemple :
8
Chaque nombre réel, dans une base 𝑏, peut être écrit sous la forme suivante :
𝑥 = 𝑎0 + 𝑎1 . 𝑏 + 𝑎2 . 𝑏2 + ⋯ + 𝑎𝑛 𝑏𝑛 + 𝑏1 𝑏 −1 + 𝑏2 𝑏−2
Les membres 𝑎𝑖 et 𝑏𝑖 sont des éléments dans {0,1, … , 𝑏 − 1}
Exemple : en choisissant la base 10, 16 peut être écrit comme suit : 16 = 1.10 + 6.100
9Binary digit, une unité de mesure en informatique
77
En choisissant le polynôme 𝑥 3 + 𝑥 + 1 de degré 3, avec les coefficients 𝑎1 = 0, 𝑎2 = 1,
𝑚𝑖
𝑎3 = 1. Soient 𝑚1 = 1, 𝑚2 = 3, 𝑚3 = 7 avec 𝑐𝑖 = on obtient : 𝑐1 = 0.1, 𝑐2 = 0.11,
2𝑖
𝑐3 = 0.111.
En calculant les vecteurs de direction, la séquence peut être générée. Les deux premiers points
de cette séquence sont calculés en partant de conditions initiales 𝑥0 = 0 𝑒𝑡 𝑛 = 0 :
Dans notre calcul, nous utilisons cette méthode pour générer une matrice de points (de séquence
multidimensionnel) de dimension(𝑁, 𝑝), puis nous multiplions chaque point par le terme (borne
supérieure de l’intervalle de variation de 𝑋𝑖 – borne inférieur de l’intervalle de variation de 𝑋𝑖 )
et nous additionnons la valeur obtenue avec la borne inférieure de l’intervalle de variation de 𝑋𝑖 .
En analyse de sensibilité globale, dans le cadre général d’un modèle 𝑌 = 𝑓(𝑋) scalaire non
linéaire et non monotone, lorsque le modèle 𝑓 se présente sous la forme d’une boîte noire, on
définit des indices de sensibilité à partir d’une décomposition de la variance de 𝑌 [125]. La
méthode la plus utilisée est la méthode de Sobol, initialement proposée en 1993 [126], puis
adaptée en 1994 [127]. Une version récente de la méthode de Sobol a été présentée en 2002
dans [128]. Nous utilisons la formule de Sobol proposée dans la version récente parce qu’elle
permet de calculer l’influence à partir d’un nombre d’échantillons plus réduit (𝑁(𝑘 + 2)) par
rapport à la formule initiale de Sobol (𝑁(2𝑘 + 2)) [129].
La méthode de Sobol est une méthode d’analyse d’influence reposant sur une décomposition
de la variance. Cette approche a été développée pour mener l’analyse de sensibilité de modèles
de type boite noire rapides d’exécution et ayant un nombre de paramètres d’entrée restreint. En
78
effet, elle nécessite de balayer de façon aléatoire toute la gamme de variation des facteurs
d’entrée pour un calcul précis des indices. Elle s’appuie sur la décomposition de la variance de
𝑌 (sortie du modèle) en variances conditionnelles. De nombreux auteurs ont utilisé Sobol dans
différents domaines [130], [131], [132], [133] et [134].
Les indices de Sobol ont d’abord été introduits dans le cas d’une sortie 𝑌 scalaire. Ces indices
sont des grandeurs scalaires comprises entre 0 et 1 qui quantifient quelle proportion de la
variance de la sortie du modèle est due à telle entrée ou tel groupe d’entrées [135]. Plus la valeur
de l’indice est proche de 1, plus cette sortie est influencée par l’entrée associée. La connaissance
des indices de Sobol permet d’ordonner les entrées suivant leur influence sur la sortie du modèle
et donc de détecter les plus influentes. Il est également possible de détecter et de caractériser
d’éventuelles interactions entre variables d’entrée.
De manière intuitive, une première manière d’estimer l’influence d’une variable d’entrée 𝑋𝑖 sur
la sortie 𝑌 est de fixer l’entrée 𝑋𝑖 à une certaine valeur 𝑥𝑖 et d’observer la variance de la sortie
dans ces conditions, c’est-à-dire 𝑉𝑎𝑟(𝑌|𝑋𝑖 = 𝑥𝑖 ), la variance conditionnelle de 𝑌 sachant que
𝑋𝑖 = 𝑥𝑖 [136]. Plus cette variance est petite, plus la variable 𝑋𝑖 est influente pour la valeur
particulière 𝑥𝑖 . Pour prendre en compte l’ensemble des valeurs possibles de 𝑋𝑖 , il faut moyenner
cette variance et considérer son espérance mathématique10 𝐸[𝑉𝑎𝑟(𝑌| 𝑋𝑖 )]. Plus la variable 𝑋𝑖
est influente vis-à-vis de la variance de 𝑌, plus cette quantité est petite. Si la variance de 𝑌 est
finie (ce qui est toujours le cas pour nous), alors d’après le théorème de la variance totale [137]:
10
Soit une variable aléatoire réelle continue 𝑋𝑖 . Soit 𝑓𝑋𝑖 la densité de probabilité de la variable aléatoire réelle
de 𝑋𝑖 . L’espérance de 𝑋𝑖 est égale à 𝔼[𝑋𝑖 ] = ∫ℝ 𝑥𝑓𝑋𝑖 (𝑥)𝑑𝑥
79
La quantité 𝑉𝑎𝑟(𝐸[𝑌/𝑋𝑖 ]) est appelé l’effet principal de 𝑋𝑖 sur 𝑌 et 𝐸[𝑉(𝑌/𝑋𝑖 )] est le résidu.
Plus la variable 𝑋𝑖 est influente, plus 𝑉𝑖 est grande. Afin d’utiliser un indicateur normalisé,
l’indice de sensibilité de 𝑌 par rapport 𝑋𝑖 , noté 𝑆𝑖 , est finalement défini par :
𝑉𝑎𝑟(𝐸[𝑌|𝑋𝑖 ]) (3)
𝑆𝑖 =
𝑉𝑎𝑟(𝑌)
𝑉𝑎𝑟(𝐸[𝑌|𝑋𝑖 ])
𝑆𝑖 =
𝑉𝑎𝑟(𝑌)
Les indices de Sobol peuvent être définis plus formellement à partir de la décomposition de
Höffding [138] dans le cadre de variables aléatoires indépendantes.
Soit 𝑓 ∈ 𝕃2 ([0,1]𝑝 ), le modèle étudié (𝑓 est déterministe11). On montre que 𝑓 admet une
décomposition en somme de fonctions élémentaires qui font intervenir un nombre croissant de
variables, sous la forme suivante :
𝑝 𝑝
Dans cette décomposition, 𝑓0 est une fonction constante. Les fonctions 𝑓𝑖 dépendent d’une seule
variable, dont elles représentent les effets principaux. Les fonctions 𝑓𝑖𝑗 dépendent de deux
variables, dont elles représentent les effets couplés. De manière générale, la décomposition
comprend des fonctions qui représentent les effets couplés de 𝑘 variables parmi 𝑝, pour 𝑘
compris entre 1 et 𝑝. Le dernier terme de la somme est la fonction 𝑓12..𝑝 .
11
Fonction qui pour le même argument renverra toujours le même résultat
80
(5)
∫ 𝑓𝑖1 ,…,𝑖𝑝 (𝑥𝑖1 , … , 𝑥𝑖𝑝 ) 𝑑𝑥𝑖𝑘 = 0 , 1 ≤ 𝑘 ≤ 𝑝,
[0,1]
(𝑖1 , … , 𝑖𝑝 ) ∈ 𝐷𝑝
- les termes de la décomposition sont deux à deux orthogonaux [139]. Autrement dit, pour
(𝑘1 , … , 𝑘𝑝 ) ≠ (𝑙1 , … , 𝑙𝑝 ), (𝑘1 , … , 𝑘𝑝 ) ∈ 𝐷𝑝 , (𝑙1 , … , 𝑙𝑝 ) ∈ 𝐷𝑝 on a :
∫[0,1] 𝑓𝑘1 ,…,𝑘𝑝 (𝑥𝑘1 , … , 𝑥𝑘𝑝 ) 𝑓𝑙1 ,…,𝑙𝑝 (𝑥𝑙1 , … , 𝑥𝑙𝑝 ) 𝑑𝑥 = 0, car au moins un des indices
𝑘1 , … , 𝑘𝑝 , 𝑙1 , … , 𝑙𝑝 n’est pas répété et l’intégrale associée à cet indice vaut 0 d’après (3).
Autres conséquences :
- 𝑓𝑖 (𝑋𝑖 ) = 𝐸(𝑌|𝑋𝑖 ) − 𝑓0
- 𝑓𝑖,𝑗 𝑋𝑖 , 𝑋𝑗 = 𝐸 𝑌|𝑋𝑖 , 𝑋𝑗 − 𝑓𝑖 (𝑋𝑖 ) − 𝑓𝑖 (𝑋𝑖 ) − 𝑓0
- …
La variance de 𝑌 est ainsi mise sous forme de somme des contributions individuelles des
différents facteurs et de leurs interactions [141] :
81
𝑉𝑖,𝑗 (𝑌) = 𝑉𝑎𝑟 𝑓𝑖,𝑗 = 𝑉𝑎𝑟[𝐸(𝑌|𝑋𝑖 , 𝑋𝑗 )] − 𝑉𝑖 (𝑌) − 𝑉𝑗 (𝑌)
Cette décomposition permet de définir tous les indices de sensibilité de Sobol [126] :
Indices d’ordre 1:
𝑉𝑎𝑟(𝑓𝑖 ) 𝑉𝑎𝑟[𝐸(𝑌|𝑋𝑖 )]
𝑆𝑖 = = (7)
𝑉𝑎𝑟(𝑌) 𝑉𝑎𝑟(𝑌)
Indices d’ordre 2 :
Ils quantifient la part de variance de 𝑌 due aux variations de 𝑋𝑖 et 𝑋𝑗 non expliquée par la
somme de leurs effets propres. Ils caractérisent donc les interactions entre 𝑋𝑖 et 𝑋𝑗 .
De la même manière, on peut définir des indices d’ordre supérieur. Un autre indice
important est l’indice de sensibilité totale.
82
Pour 𝑝 = 10, il y a un total de 253 indices, mais on se limite en général aux indices d’ordre 1.
D’un point de vue probabiliste, la moyenne générale 𝑓0 est l’espérance mathématique (la
moyenne pondérée des valeurs que peut prendre une variable) de la réponse 𝑌. Les autres
composantes orthogonales de 𝑓 s’expriment en fonction des espérances mathématiques
conditionnelles de 𝑌. Dans le cas de deux facteurs, on a :
𝑓0 = 𝐸(𝑌)
𝑓1 (𝑥1 ) = 𝐸(𝑌/𝑋1 = 𝑥1 ) − 𝑓0
𝑓2 (𝑥2 ) = 𝐸(𝑌/𝑋2 = 𝑥2 ) − 𝑓0
La variance de 𝑌 s’exprime alors comme une somme de variances, que l’on normalise pour
obtenir l’effet relatif des différents facteurs.
On définit alors trois indices de Sobol : deux d’ordre 1 et un d’ordre 2. On note que, par
construction, la somme des indices est égale à 1.
𝑉𝑎𝑟(𝐸(𝑌/𝑋1 ))
𝑆1 = effet principal de 𝑋1
𝑉𝑎𝑟(𝑌)
𝑉𝑎𝑟(𝐸(𝑌/𝑋2 ))
𝑆2 = effet principal de 𝑋2
𝑉𝑎𝑟(𝑌)
83
𝑉𝑎𝑟(𝐸(𝑌|𝑋1 ,𝑋2 ))
𝑆 1,2 = effet d’interaction entre 𝑋1 et 𝑋2
𝑉𝑎𝑟(𝑌)
1 = 𝑆1 + 𝑆2 + 𝑆1,2
Rappel :
La densité de probabilité de la loi uniforme continue est une fonction porte sur l’intervalle
[𝑎, 𝑏] :
1
𝑓(𝑥) = {𝑏 − 𝑎 𝑝𝑜𝑢𝑟 𝑎 ≤ 𝑥 ≤ 𝑏,
0 𝑠𝑖𝑛𝑜𝑛
1 2 1
𝑉𝑎𝑟(𝑋1 ) = ∫0 𝑋12 𝑑𝑥1 − 1 =
2 3
1 10 16
𝑉𝑎𝑟(𝑋2 ) = ∫ 𝑋22 𝑑𝑥2 − 36 =
8 2 3
17
𝑉𝑎𝑟(𝑌) =
3
Pour déterminer les indices de Sobol, il faut calculer les variances des espérances
mathématiques conditionnelles 𝑉𝑎𝑟(𝐸(𝑌|𝑋1 )) et 𝑉𝑎𝑟(𝐸(𝑌|𝑋2 )).
A 𝑋1 fixé, 𝐸(𝑌|𝑋1 ) = 𝑋1 + 𝐸(𝑋2 ). On fait ensuite varier 𝑋1 . La quantité 𝐸(𝑋2 ) est constante
par rapport à ces variations, donc 𝑉𝑎𝑟 𝐸(𝑌|𝑋1 ) = 𝑉𝑎𝑟(𝑋1 ).
84
De la même manière, 𝑉𝑎𝑟 𝐸(𝑌|𝑋2 ) = 𝑉𝑎𝑟(𝑋2 ).
𝑉𝑎𝑟(𝐸 𝑌|𝑋1 ) 1
𝑆1 = =
𝑉𝑎𝑟(𝑌) 17
𝑉𝑎𝑟(𝐸 𝑌|𝑋2 ) 16
𝑆2 = = .
𝑉𝑎𝑟(𝑌) 17
L’indice d’ordre 2 peut être calculé par la relation 1 = 𝑆1 + 𝑆2 + 𝑆1,2 . On obtient 𝑆1,2 = 0, ce
qui indique l’absence d’effets d’interaction entre 𝑋1 et 𝑋2 . Ce résultat est normal compte tenu
de la forme additive du modèle et de l’indépendance des variables d’entrée. L’indice 𝑆2 est
beaucoup plus grand que 𝑆 1 . Cela traduit la forte influence de 𝑋2 sur les variations de la sortie,
due au fait que l’intervalle de variation de 𝑋2 est quatre fois plus grand que celui de 𝑋1 .
Le calcul pratique des indices de Sobol nécessite la mise en œuvre d’estimateurs statistiques
des différentes variances en jeu, par simulation de type Monte Carlo. Avant de détailler la
méthode que nous avons utilisée, nous allons présenter la généralisation des indices de Sobol
au cas de sorties vectorielles, et leur application au cas des sorties dynamiques.
Les indices de Sobol ont été introduits dans le cas de variables de sortie scalaires. En général,
un modèle a plusieurs grandeurs de sortie. Il est alors naturel de définir une série d’indices de
Sobol par sortie. Cela parait tout à fait justifié quand il s’agit de grandeurs physiques différentes,
comme les tensions à la caténaire, les courants dans les câbles, les températures, … La question
devient plus délicate quand il s’agit de prendre en compte les différentes valeurs d’une grandeur
physique au cours du temps, ou en différents points de l’espace.
Dans ses travaux [143], [144] Lamboni s’intéresse à des sorties dynamiques (séries
temporelles). Il commence par définir des indices de Sobol fonctions du temps, ce qui lui permet
d’analyser l’évolution temporelle de la sensibilité d’une certaine grandeur de sortie aux
différentes variables d’entrée à partir du graphe temporel des indices de Sobol. Par la suite, il
propose un indice de sensibilité global, défini sur l’ensemble du domaine temporel étudié. Par
la suite, Gamboa et al ont repris et précisé mathématiquement ce concept d’indices généralisés
[145], [146].
85
Dans le cas d’une sortie dynamique, le modèle est de la forme 𝑌 = 𝑓(𝑋), où 𝑋 = (𝑋𝑖 )𝑖=1,𝑝 ∈
ℝ𝑝 est le vecteur des paramètres d’entrée du modèle, et 𝑌 = (𝑌𝑡 )𝑡=1,𝑚 ∈ ℝ𝑚 est le vecteur qui
contient la série temporelle de la grandeur de sortie étudiée. On s’intéresse à l’influence des 𝑋𝑖
sur la série temporelle 𝑌. La décomposition de Hoeffding peut s’écrire à chaque pas de temps
comme suit :
𝑝 (11)
𝑌𝑡 = 𝑓0,𝑡 + ∑𝑖=1 𝑓𝑖,𝑡 (𝑋𝑖 ) + ∑1≤𝑖<𝑗≤𝑝 𝑓𝑖,𝑗,𝑡 (𝑋𝑖 , 𝑋𝑗 ) + ⋯ + 𝑓1,2,….,𝑝,𝑡 (𝑋1 , 𝑋2 , … , 𝑋𝑝 )
À partir de cette forme, il est naturel de définir des séries temporelles d’indices de Sobol,
d’ordre 1 et plus :
Les indices de Sobol définis au cours du temps donnent une information locale sur l’influence
de chaque variable d’entrée à un instant donné. Pour avoir une information globale sur la durée
de l’étude, on peut s’appuyer sur la matrice de covariance12 de 𝑌, qui caractérise toutes les
interactions statistiques entre les valeurs de la sortie aux différents pas de temps. Cette matrice
est définie par :
𝑝 (12)
𝐶𝑜𝑣(𝑌) = ∑𝑖=1 𝐶𝑜𝑣(𝑓𝑖 ) + ∑1≤𝑖<𝑗≤𝑝 𝐶𝑜𝑣 𝑓𝑖,𝑗 + ⋯ + 𝐶𝑜𝑣 𝑓1,2,….,𝑝
Cette relation matricielle est projetée dans l’espace des réels par l’opérateur Trace, noté Tr :
𝑝
𝑇𝑟[𝐶𝑜𝑣(𝑌)] = ∑𝑖=1 𝑇𝑟[𝐶𝑜𝑣(𝑓𝑖 )] + ∑1≤𝑖<𝑗≤𝑝 𝑇𝑟[𝐶𝑜𝑣 𝑓𝑖,𝑗 ] + ⋯ + 𝑇𝑟[𝐶𝑜𝑣 𝑓1,2,….,𝑝 ] (13)
12
La covariance est un paramètre en statistique et théorie des probabilités qui indique dans deux variables
aléatoires la mesure dans laquelle ces deux variables aléatoires sont liées les unes aux autres.
La covariance de deux variables aléatoires indépendantes est nulle, bien que la réciproque ne soit pas toujours
vraie
86
L’opérateur trace fait la somme des termes diagonaux des matrices de covariance :
𝑇𝑟[𝐶𝑜𝑣(𝑌)] = ∑𝑚 𝑚
𝑡=1 𝐶𝑜𝑣(𝑌𝑡 , 𝑌𝑡 ) = ∑𝑡=1 𝑉𝑎𝑟(𝑌𝑡 )
𝑇𝑟[𝐶𝑜𝑣(𝑓𝑖 )] = ∑𝑚 𝑚
𝑡=1 𝐶𝑜𝑣 𝑓𝑖,𝑡 , 𝑓𝑖,𝑡 = ∑𝑡=1 𝑉𝑎𝑟 𝑓𝑖,𝑡
Si 𝑇𝑟[𝐶𝑜𝑣(𝑌)] ≠ 0, on définit alors les indices de Sobol généralisés d’ordre 1 par [147]:
𝑇𝑟[𝐶𝑜𝑣(𝑓𝑖 )] ∑𝑚
𝑡=1 𝑉𝑎𝑟 𝑓𝑖,𝑡
𝑆𝑖 (𝑌) = = ∑𝑚 (14)
𝑇𝑟[𝐶𝑜𝑣(𝑌)] 𝑡=1 𝑉𝑎𝑟(𝑌𝑡 )
Le numérateur est la somme des effets de premier ordre de 𝑋𝑖 sur la sortie du modèle aux
différents pas de temps, et le dénominateur est la somme des variances de la sortie du modèle
aux différents pas de temps. Les interactions entre les différents pas de temps n’interviennent
pas du fait de la projection par l’opérateur Trace13. Dans le cas où 𝑚 = 1 (pas d’effet temporel)
on retombe sur la formule classique.
On définit de la même manière les indices de sensibilité d’ordres supérieurs pour caractériser
les effets croisés (les interactions) entre les différentes variables d’entrée, et des indices de
sensibilité totale pour chacune des variables d’entrée.
Dans cette section nous décrivons la procédure numérique utilisée pour calculer l’ensemble
complet des indices du premier ordre et de l’effet total pour un modèle donné [148]. Cette
méthode estime les différentes variances qui apparaissent dans les indices de Sobol par un
algorithme de Monte Carlo. La démarche a été proposée initialement par Sobol [126], et
améliorée par Saltelli [128] en termes de temps de calcul.
Le principe du calcul numérique est le suivant. Les variances sont calculées à partir des
espérances mathématiques selon la relation générale : 𝑉𝑎𝑟(𝑌) = 𝐸(𝑌 2 ) − 𝐸(𝑌)2 , et les
13
Etant donnée une matrice carrée 𝐴 = (𝑎𝑖𝑗 )1≤𝑖,𝑗≤𝑛 , sa trace notée 𝑇𝑟(𝐴), est le scalaire somme des coefficients
de sa diagonale principale : 𝑇𝑟(𝐴) = ∑𝑛𝑖=1 𝑎𝑖𝑖
87
1
espérances mathématiques sont approximées par l’estimateur de moyenne 𝐸(𝑌) ≈ ∑𝑁
𝑖=1 𝑦𝑖 , 𝑁
88
3) Calculer la sortie du modèle pour chaque jeu de variables d’entrée des matrices
d’échantillons 𝐴, 𝐵 et 𝐶𝑖 . On obtient ainsi trois vecteurs colonnes de dimension 𝑁, contenant
les sorties du modèle :
4) Calculer les estimateurs des espérances mathématiques. Les termes du dénominateur sont
calculés de manière classique.
1 (𝐴)
𝐸(𝑌) ≅ ∑𝑁
𝑗=1 𝑦 𝑗
𝑁
1(𝐴) 2
𝐸(𝑌 2 ) ≅ ∑𝑁
𝑗=1[𝑦 𝑗 ]
𝑁
Les espérances mathématiques conditionnelles qui figurent au numérateur sont un peu plus
délicates à traiter. Saltelli propose de les estimer en considérant les matrices des sorties 𝑌𝐴 et 𝑌𝐶𝑖 ,
où 𝑌𝐶𝑖 correspond aux sorties du modèle obtenues en ré-échantillonnant toutes les variables
d’entrée sauf 𝑋𝑖 . Les estimateurs proposés sont :
1 (𝐴) (𝐶𝑖)
𝐸[𝐸(𝑌|𝑋𝑖 )] = 𝐸(𝑌) ≅ ∑𝑁
𝑗=1(𝑦 𝑗 + 𝑦 𝑗 )
2𝑁
1
(𝐴) (𝐶𝑖)
𝐸[𝐸(𝑌|𝑋𝑖 )2 ] ≅ ∑𝑁
𝑗=1 𝑦 𝑗 . 𝑦 𝑗
𝑁
5) Les indices d’interaction de second ordre sont estimés suivant le même principe :
𝑉𝑎𝑟[𝐸(𝑌 |𝑋𝑖 , 𝑋𝑗 )]
𝑆𝑖,𝑗 = − 𝑆𝑖 − 𝑆𝑗
𝑉𝑎𝑟(𝑌)
2 2
Avec 𝑉𝑎𝑟[𝐸 𝑌|𝑋𝑖 , 𝑋𝑗 ] = 𝐸 [𝐸 𝑌|𝑋𝑖 , 𝑋𝑗 ] − 𝐸[𝐸 𝑌|𝑋𝑖 , 𝑋𝑗 ]
2 1
(𝐴) (𝐶𝑖,𝑗)
𝐸 [𝐸 𝑌|𝑋𝑖 , 𝑋𝑗 ] ≅ ∑𝑁
𝑗=1 𝑦 𝑗 . 𝑦 𝑗
𝑁
89
1 1 (𝐴) (𝐶𝑖,𝑗)
𝐸[𝐸 𝑌|𝑋𝑖 , 𝑋𝑗 ] ≅ ∑𝑁
𝑗=1 (𝑦 𝑗 + 𝑦 𝑗 )
𝑁 2
(𝐶𝑖,𝑗)
Où 𝑦 𝑗 correspond aux sorties du modèle obtenues en ré-échantillonnant toutes les variables
d’entrée sauf 𝑋𝑖 et 𝑋𝑗 .
6) Un point intéressant est qu’il est facile d’estimer les indices d’effet total. En effet, par
construction des indices, on a la relation :
1 = 𝑆𝑇𝑖 + 𝑆~𝑖
Où 𝑆~𝑖 représentent l’indice de sensibilité d’ordre 𝑝 − 1 d’interaction entre tous les paramètres
d’entrée, à l’exclusion de 𝑋𝑖 . Donc :
𝑆𝑇𝑖 = 1 − 𝑆~𝑖
𝑉𝑎𝑟[𝐸 𝑌|𝑋~𝑖 ]
Par ailleurs : 𝑆~𝑖 =
𝑉𝑎𝑟(𝑌)
1(𝐵) (𝐶𝑖)
𝐸[𝐸(𝑌|𝑋~𝑖 )2 ] ≅ ∑𝑁
𝑗=1 𝑦 𝑗 . 𝑦 𝑗
𝑁
1 (𝐵) 1(𝐶𝑖)
𝐸[𝐸(𝑌|𝑋~𝑖 )] ≅ ∑𝑁
𝑗=1 (𝑦 𝑗 + 𝑦 𝑗 )
𝑁 2
Pour les indices d’ordre 1, le coût reste raisonnable : 𝑁 calculs du modèle pour la matrice 𝐴,
𝑝 × 𝑁 calculs du modèle pour la matrice 𝐶𝑖 . Pour obtenir les indices d’effet total, il suffit de
rajouter le calcul des entrées pour la matrice 𝐵. Le coût total est alors de 𝑁 × (𝑝 + 2)
évaluations du modèle.
90
Une autre technique pour estimer les indices fondés sur la décomposition de la variance est la
méthode FAST. Tandis que cette méthode apporte des avantages en termes de calcul par rapport
au Sobol, elle reste non suffisante pour être adaptée à notre problème (la sortie dynamique, les
contraintes sur les sorties,…). Pour cette raison, elle n’a pas été implémentée dans notre travail.
3.3.5. Estimation des indices de Sobol généralisés par la méthode Monte Carlo
Les indices généralisés sont estimés exactement sur le même principe que les indices classiques.
Dans notre cas, la sortie dynamique qui nous intéresse correspond à une série temporelle ou
spatiale. Le modèle est de la forme 𝑌 = 𝑓(𝑋), où 𝑋 = (𝑋𝑖 )𝑖=1,𝑝 ∈ ℝ𝑝 est le vecteur des
paramètres d’entrée du modèle, et 𝑌 = (𝑌𝑡 )𝑡=1,𝑚 ∈ ℝ𝑚 est le vecteur qui contient la série
temporelle de la grandeur de sortie étudiée.
∑𝑚
𝑡=1 𝑉𝑎𝑟[𝐸(𝑌𝑡 |𝑋𝑖 )]
𝑆𝑖 (𝑌) =
∑𝑚
𝑡=1 𝑉𝑎𝑟(𝑌𝑡 )
De même que pour les indices classiques, l’estimation nécessite deux matrices
d’échantillonnage des entrées, notées 𝐴 et 𝐵, et à partir desquelles on construit les matrices 𝐶𝑖 .
Les sorties échantillonnées sont maintenant des matrices de dimension (𝑁, 𝑚). Sous forme
développée 𝑓(𝐴) s’écrit :
Les lignes correspondent à une évaluation du modèle pour un jeu de paramètres d’entrée, alors
que les colonnes correspondent à l’ensemble des valeurs de la sortie à un instant donné.
L’estimation des indices de Sobol généralisés nécessitent l’estimation des variances de la sortie
aux différents instants 𝑡 : 𝑉𝑎𝑟[𝐸(𝑌𝑡 |𝑋𝑖 )] et 𝑉𝑎𝑟(𝑌𝑡 ). Pour cela, il suffit d’appliquer à chaque
instant les estimateurs définis dans le cas des indices simples dans le paragraphe 2.3.4.
91
(𝐴) (𝐶𝑖) 2
𝑁 (𝐴) (𝐶𝑖) 1 𝑦 𝑡,𝑗 + 𝑦 𝑡,𝑗
∑𝑚
𝑡=1 [∑𝑗=1 𝑦 𝑡,𝑗 . 𝑦 𝑡,𝑗 − (∑𝑁
𝑗=1 ) ] (15)
𝑁 2
𝑆𝑖 =
(𝐴) 2 (𝐶𝑖) 2 (𝐴) (𝐶𝑖) 2
(𝑦 𝑡,𝑗 ) + (𝑦 𝑡,𝑗 ) 1 𝑦 𝑡,𝑗 + 𝑦𝑡,𝑗
𝑚 𝑁
∑𝑡=1 [∑𝑗=1 𝑁
− (∑𝑗=1 ) ]
2 𝑁 2
3.3.6. Caractéristiques
La méthode d’analyse de sensibilité proposée par Sobol permet de calculer tous les indices de
sensibilité, y compris les indices d’interactions et les indices d’effet total des variables
d’entrées. Mais ces indices de sensibilité sont fondés sur la variance des sorties (moment
d’ordre 2). Ils partent de l’hypothèse implicite que cette variance est suffisante pour caractériser
complétement les évolutions de la sortie, ce qui n’est généralement pas suffisant.
Le principal inconvénient des indices de Sobol est leur coût en termes de temps de calcul d’une
part et de stockage des informations d’autre part. En effet, elle nécessite un grand nombre des
échantillons pour obtenir un calcul précis (cf chapitre 4).
3.4.1. Introduction
L’analyse de sensibilité repose sur la comparaison des variations de la sortie dans deux
situations : d’une part quand toutes les variables d’entrées sont libres, et d’autre part quand une
variable d’entrée – celle dont on veut évaluer l’influence – est figée. Il s’agit donc de comparer
les distributions statistiques de 𝑌 et 𝑌/𝑋𝑖 , pour les différentes entrées 𝑋𝑖 . La méthode de Sobol
repose sur la comparaison des variances, ce qui suppose que cette grandeur est suffisante pour
caractériser les distributions de la sortie. En général, ce n’est pas le cas et l’utilisation de ce seul
indicateur conduit à une perte d’information [149] (sauf pour les distributions gaussiennes).
Pour pallier cette limitation, des méthodes fondées sur l’ensemble de la distribution de sortie
sont apparues récemment. Ces méthodes sont appelées « moment-independent methods » car
elles considèrent la totalité de la distribution et pas seulement sa variance. Elles sont de ce fait
plus générales. Elles sont fondées sur la notion de distance entre distributions et comparent soit
les distributions cumulées (CDF), soit les densités de probabilité (PDF) [150].
92
Dans [151], les auteurs proposent une méthode fondée sur la densité pour une sortie
scalaire.Dans [150], les auteurs généralisent cette approche pour une sortie dynamique en
utilisant la densité de probabilité jointe (joint PDF) de la sortie dynamique. Leur approche est
impossible à mettre en œuvre dans le cas d’une sortie dynamique de dimension élevée, parce
que la formule utilisée peut subir la malédiction de la dimensionnalité14 pour calculer une
intégration de dimension élevé (intégrale multiple) et puisqu’il est difficile d’estimer la PDF
jointe de sorties de dimension élevée.
Dans [152] les auteurs ont proposé une méthode fondée sur les distributions cumulées et sur le
test de Kolmogorov Smirnov [153] pour calculer la distance entre la distribution de 𝑌 et celle
de 𝑌/𝑋𝑖. Mais cette méthode n’est valable que pour les modèles à sortie scalaire.
Dans la suite de cette section, nous présentons une méthode fondée sur une distance particulière,
la « distance-énergie », qui peut être appliquée dans le cas où la sortie est scalaire ou
dynamique. De plus, cette méthode est compatible avec les sorties dynamiques de grande
dimension (grand nombre de pas de temps).
La distance-énergie est une distance définie entre deux distributions de probabilité et qui peut
être utilisée pour tester si deux échantillons sont identiquement distribués. Cette distance est
analogue à l’énergie potentielle entre des objets dans un espace gravitationnel [154].
Soit 𝑋 et 𝑌 des vecteurs aléatoires indépendants dans ℝ𝑁 . La distance-énergie entre ces deux
vecteurs est définie par la formule (16) :
ℰ(𝑋, 𝑌) = 2Ε ∥ 𝑋 − 𝑌 ∥ −Ε ∥ 𝑋 − 𝑋 ′ ∥ −Ε ∥ 𝑌 − 𝑌 ′ ∥ (16)
14
La malédiction de la dimension (curse of dimensionality) est une terme inventé par Richard Bellman en 1961
pour désigner divers phénomènes qui ont lieu lorsque l’on cherche à analyser ou organiser des données dans des
espaces de grande dimension alors qu’ils n’ont pas lieu dans des espaces de dimension moindre [204].
15
Le terme « distance-énergie » provient de la traduction littérale du terme anglais « energy distance » utilisé
dans la littérature.
16
Deux variables aléatoires ou plus sont dites iid si elles sont mutuellement indépendantes et si chaque variable
aléatoire a la même distribution de probabilité que les autres.
93
Une propriété capitale de la distance-énergie est que ℰ(𝑋, 𝑌) = 0 si et seulement si 𝑋 et 𝑌 sont
distribués identiquement [155], c’est-à-dire que ce sont des échantillons qui proviennent de la
même distribution de probabilité. Ainsi, la distance-énergie peut être utilisée pour tester
l’égalité de deux distributions.
Il a été montré que la distance-énergie peut s’exprimer à partir des fonctions caractéristiques
des distributions17 [156]. Elle contient toutes les informations de la distribution des vecteurs
aléatoires. Un autre avantage de la distance-énergie est qu’elle est indépendante de la forme de
la distribution, et qu’elle peut donc caractériser de manière précise tout type de distribution
(uniforme, normale, …).
Sur un plan pratique, la distance-énergie entre deux échantillons s’exprime simplement à partir
de moyennes arithmétiques. Les échantillons n’ont pas nécessairement le même effectif.
𝑛1 𝑛2
1
𝐴= ∑ ∑ ∥ 𝑥𝑖 − 𝑦𝑗 ∥
𝑛1 𝑛2
𝑖=1 𝑗=1
𝑛1 𝑛1
1
𝐵 = 2 ∑ ∑ ∥ 𝑥𝑖 − 𝑥𝑗 ∥
𝑛1 (18)
𝑖=1 𝑗=1
𝑛2 𝑛2
1
𝐶 = 2 ∑ ∑ ∥ 𝑦𝑖 − 𝑦𝑗 ∥
𝑛2
𝑖=1 𝑗=1
La distance entre 𝑥𝑖 et 𝑦𝑗 est calculée à partir la norme euclidienne entre vecteurs (ou L2-
norme).
17
La fonction caractéristique d’une distribution est la transformée de Fourier de sa densité de probabilité.
94
2Ε ∥ 𝑋 − 𝑌 ∥ −Ε ∥ 𝑋 − 𝑋 ′ ∥ −Ε ∥ 𝑌 − 𝑌 ′ ∥
ℰ̅(𝑋, 𝑌) =
2Ε ∥ 𝑋 − 𝑌 ∥
Dans la sous-section suivante, la distance-énergie normalisée est utilisée pour définir l’indice
de sensibilité globale dynamique.
On note 𝑌/𝑋𝑖 la sortie dynamique conditionnelle lorsqu’une variable d’entrée 𝑋𝑖 est fixée à une
certaine valeur. Le principe de l’analyse de sensibilité est de comparer les distributions 𝑌
et 𝑌|𝑋𝑖 , afin de mesurer l’effet qu’a le fait de fixer 𝑋𝑖 à une certaine valeur. Pour cela, on
exprime la distance-énergie entre les deux vecteurs 𝑌 et Y/𝑋𝑖 comme suit [157]:
Sachant que 𝑋𝑖 est une variable aléatoire de densité 𝑓𝑋𝑖 (𝑥𝑖 ), l’effet moyen de 𝑋𝑖 sur la sortie
dynamique est décrit par l’espérance mathématique de 𝑑(𝑋𝑖 ) comme suit :
𝑆𝑖 = Ε𝑋𝑖 𝑑(𝑋𝑖 )
De même l’indice de sensibilité globale dynamique pour tout groupe de variables d’entrée
(𝑋𝑖1 , 𝑋𝑖2 , … , 𝑋𝑖𝑝 ) peut également être défini comme suit [157](effet d’interactions):
95
𝑆𝑖1 ,𝑖2 ,…,𝑖𝑝 = Ε𝑋𝑖1 ,𝑋𝑖2 ,…,𝑋𝑖𝑝 (𝑑 (𝑋𝑖1 , 𝑋𝑖2 , … , 𝑋𝑖𝑝 ))
= ∫ ℰ(𝑌, 𝑌/(𝑋𝑖1 , 𝑋𝑖2 , … , 𝑋𝑖𝑝 ))𝑓𝑋𝑖1 ,𝑋𝑖2 ,…,𝑋𝑖𝑝 (𝑥𝑖1 , 𝑥𝑖2 , … , 𝑥𝑖𝑝 ) 𝑑𝑥𝑖1 𝑑𝑥𝑖2 … 𝑑𝑥𝑖𝑝
ℝ′
Nous présentons maintenant l’algorithme utilisé pour estimer l’indice de sensibilité 𝑆𝑖 à partir
d’un seul échantillon d’entrées-sorties [157].
96
Pour atteindre un équilibre entre le nombre de sous-intervalles et le nombre d’échantillons dans
chaque sous-intervalle, il est recommandé de choisir un nombre des sous-intervalles 𝐿 = √𝑁
où 𝑁 est la taille de la matrice d’échantillons [158].
Considérons un modèle à deux variables d’entrée 𝑋1 et 𝑋2 qui suivent chacune une loi uniforme
sur l’intervalle [0,15]. Nous allons voir quelles sont les étapes pour calculer la sensibilité du
modèle par rapport à 𝑋1 .
Pour simplifier l’exposé, on choisit un échantillon de taille réduite 𝑁 = 100. Les valeurs de 𝑋1
sont partitionnées en 10 sous-intervalles (𝐿 = √𝑁 = 10) listés ci-dessous.
𝐴1 = [0 , 1.5]
⋮
𝐴9 = [12 , 13.5]
𝐴10 = [13.5 , 15]
Étapes I et II : échantillonnage dans le plan (𝑋1 , 𝑋2 ) et partition des échantillons suivant les
intervalles 𝐴1 à 𝐴10 . La Figure 21 montre le résultat de cette phase.
97
Étape III :
N sorties
dynamiques
2 2
∥ 𝑌𝑖 − 𝑌𝑗 ∥= √(𝑦1,𝑖 − 𝑦1,𝑗 )2 + 𝑦2,𝑖 − 𝑦2,𝑗 + ⋯ + 𝑦𝑚,𝑖 − 𝑦𝑚,𝑗
Étape V :
La dernière étape consiste à calculer la distance moyenne. Pour cela, on fait une somme
pondérée de toutes les distances 𝑑(𝑌, 𝑌|𝑋1 ∈ 𝐴𝑙 ) calculées à l’étape IV. Le coefficient de
pondération affecté à chaque distance est la probabilité 𝑝(𝑋1 ∈ 𝐴𝑙 ), obtenue simplement en
98
divisant l’effectif du sous-ensemble 𝑋1 ∈ 𝐴𝑙 par l’effectif total 𝑁. On obtient ainsi l’indice de
sensibilité de 𝑋1 .
3.4.5. Caractéristiques
Les indices de sensibilité proposés dans cette partie ont l’intérêt de considérer la distribution de
probabilité dans son ensemble. Ils sont donc porteurs de plus d’information que les indices
fondés sur la seule variance. Ces indices peuvent être facilement estimés dans le cas des sorties
dynamiques de grande dimension. Par ailleurs, le calcul de l’ensemble des indices de sensibilité
ne nécessite qu’un seul échantillon d’entrées-sorties, alors qu’il en faut 𝑝 + 1 pour les indices
de Sobol. Cet avantage se cumule avec une convergence plus rapide des indices, nécessitant
une taille d’échantillon plus petite pour les méthodes fondées sur la variance (voir chapitre 4).
L’analyse de sensibilité régionale (RSA) est une méthode d’analyse de sensibilité globale
fondée sur du Monte Carlo Filtering MCF [159] et qui répond aux questions suivantes : quelle
variable ou groupe de variables permettent d’obtenir des sorties du modèle dans une région
donnée de l’espace de sortie ? Comment le changement d’une variable d’entrée du modèle
conduit la sortie à une bonne réalisation (solution acceptable) ou à une mauvaise réalisation
(solution non acceptable) selon des critères définis ? Contrairement aux autres méthodes, le but
de cette méthode est de mesurer l’influence des entrées sur la conduite du modèle dans la région
désirée en prenant en compte les contraintes.
L’analyse de sensibilité régionale met l’accent sur la sensibilité du modèle dans la région défini
par le critère d’acceptabilité de la sortie plutôt que sur l’ensemble du domaine exploré [160].
Autrement dit, elle appartient à la famille des méthodes visant à identifier des régions dans
l’espace d’entrée correspondant à un ou plusieurs critères appliqués à la sortie. Ces méthodes
peuvent être utilisées pour faire de la cartographie (Factor Mapping) [161]. Par conséquent,
dans une analyse de sensibilité régionale, les paramètres d’entrée qui sont les plus responsables
des variations de sortie selon les critères d’acceptabilité (contraintes sur les sorties) sont
identifiés.
99
3.5.1. Principe de la méthode
L’analyse de sensibilité régionale a d’abord été développée et appliquée dans les années 80
dans le domaine des études en sciences de l’environnement [162]. Elle est fondée sur la partition
d’un échantillon de l’espace de variables d’entrée en deux groupes : 1- le sous-ensemble A
(groupe admissible) contient les échantillons qui conduisent à de bonnes réalisations de sortie
de modèle (solutions acceptables, qui respectent les critères ou les contraintes) ; 2- le sous-
ensemble 𝑁𝐴 (groupe non admissible) contient les échantillons qui conduisent à des mauvaises
réalisations de sortie du modèle (solutions non acceptables, qui ne respectent pas les contraintes
ou les critères), comme le montre la Figure 23.
Modèle
Figure 23: Partition de l’échantillon en un groupe satisfaisant un certain critère d’acceptabilité de la solution (A) et un
groupe ne le satisfaisant pas (NA)
Suivant ce principe, les valeurs aléatoires prises par chaque variable d’entrée 𝑋𝑖 peuvent être
divisées en deux sous-groupes : le sous-groupe des valeurs aléatoires qui conduisent à des
solutions acceptables, noté 𝑋𝑖 /𝐴, et le sous-groupe des valeurs aléatoires qui conduisent à des
solutions non acceptables, noté 𝑋𝑖 /𝑁𝐴.
Le but est ensuite de caractériser la distance entre les distributions de ces deux sous-groupes,
soit par des méthodes graphiques (par exemple, comparaison des distributions cumulées,
comme le montre la Figure 24, soit par des méthodes statistiques telles que le test de
Kolmogorov-Smirnov [163].
100
Figure 24: Fonctions de répartition des sous-groupes 𝑿𝒊 /𝑨 et 𝑿𝒊 /𝑵𝑨 pour la variable 𝑿𝒊
18
La distribution cumulée d’une variable aléatoire réelle 𝑋𝑖 est l’application 𝐹 de ℝ dans [0,1] donnée par
𝐹𝑋𝑖 (𝑥) = 𝑃(𝑋𝑖 ≤ 𝑥). On parle également de fonction de répartition.
101
La plage de variation des entrées du modèle qui conduit statistiquement à une réalisation
acceptable du modèle peut également être déterminée.
0 0 Xi
Xi
Dans notre travail, nous utilisons cette méthode pour quantifier la distance maximale (𝑑) entre
les deux courbes de distributions cumulatives de sous-groupes 𝑋𝑖 /𝐴 et 𝑋𝑖 /𝑁𝐴 [166].
3.5.2.1. Principe
Notant que :
- L’hypothèse nulle notée H0 est l’hypothèse que l’on désire contrôler. Elle consiste à
dire qu’il n’existe pas de différence entre les paramètres comparés.
19
La fonction de répartition (cumulative distribution function en anglais) d’une variable aléatoire réelle caractérise
la loi de probabilité de cette variable définie par 𝐹𝑋 , qui à tout réel x associe 𝐹𝑋 (𝑥) = ℙ(𝑋 ≤ 𝑥) où ℙ représente
la probabilité que la variable aléatoire réelle 𝑋 prenne une valeur inférieure ou égale à 𝑥
102
- L’hypothèse alternative notée H1 est la négation de H0, elle est équivalente à dire « H0
est fausse ». La décision de rejeter H0 signifie que H1 est réalisée ou H1 est vraie.
La question posée est la suivante : « A quel niveau de signification 𝛼, la valeur calculée de 𝑑𝑚,𝑛 ,
determine-t-elle le rejet de 𝐻0 ? » [167]. Un niveau bas implique une différence significative
entre les deux échantillons, tandis qu’un niveau élevé supporte H0.
Théorème :
Avec les hypothèses données ci-dessus et pour toute valeur de 𝛼 > 0, on a sous « 𝐻0 : 𝐹 =
𝐺»:
∞
𝑛𝑚
ℙ (√ 𝑑 ≤ 𝛼) = 1 + 2 ∑(−1)𝑘 exp(−2𝑘 2 𝛼 2 )
𝑛 + 𝑚 𝑚,𝑛
𝑘=1
𝑚𝑛
La 𝑝 − 𝑣𝑎𝑙𝑢𝑒 = 1 − 𝐾 (𝑑𝑚,𝑛 √ ) 𝑜ù 𝐾 = 1 + 2 ∑∞ 𝑘 2 2
𝑘=1(−1) exp(−2𝑘 𝛼 ), est la
𝑚+𝑛
probabilité, sous H0, d’obtenir une statistique aussi grande que la valeur observée 𝑑𝑚,𝑛 sur
l’échantillon.
- Exemple 1 : si nous avons trouvé qu’on a 20 chances sur 100 de trouver du fait du
hasard, une valeur supérieure à 𝑑𝑚,𝑛 pour 𝑛 et 𝑚, nous concluons que l’écart 𝑑𝑚,𝑛 n’est
pas significatif.
- exemple 2 : si nous avons trouvé qu’on a 93 chances sur 100 d’observer du fait du
hasard, une valeur supérieure à 𝑑𝑚,𝑛 , nous concluons dans ce cas que l’écart 𝑑𝑚,𝑛 est
significatif.
3.5.2.2. Interprétation
Nous utilisons le test Kolmogorov-Smirnov à deux échantillons [169] pour quantifier l’écart
statistique entre les distributions des groupes 𝐴 et 𝑁𝐴 pour une variable d’entrée donnée 𝑋𝑖 . Ce
test est basé sur la distance d-stat entre les fonctions de répartition 𝐹𝑋𝑖 |𝐴 et 𝐹𝑋𝑖 |𝑁𝐴 , définie par
(20).
Pour calculer p-value, il faut choisir le niveau de signification 𝛼, qui correspond à la probabilité
de rejeter l’hypothèse 𝐻0 quand elle est vraie (c’est-à-dire de reconnaitre un facteur comme
important quand il ne l’est pas). Donc l’importance de chaque variable d’entrée est inversement
liée à ce niveau de signification.
Dans [170], les auteurs ont suggéré d’utiliser les trois classes de sensibilité suivantes pour
classer l’importance des variables d’entrée, en fonction du niveau de signification :
20
En anglais p-value pour probability value
104
3.5.3. Implémentation
1. La première étape consiste à échantillonner l’espace des entrées, c’est-à-dire générer une
matrice de 𝑁 lignes et 𝑝 colonnes. Le nombre d’échantillon 𝑁 doit être assez grand pour
obtenir une analyse statistique significative.
2. Calculer la sortie pour chaque ligne de la matrice d’échantillons
3. Classer les sorties entre : sorties acceptables et sorties inacceptables selon un ou plusieurs
critères
4. Effectuer le test Kolmogorov-Smirnov pour chaque facteur indépendamment.
𝑚𝑛
𝑝_𝑣𝑎𝑙𝑢𝑒 = 1 − 𝐾 (𝑑𝑚,𝑛 √ ) (22)
𝑚+𝑛
𝑜ù 𝐾 = 1 + 2 ∑∞ 𝑘 2 2
𝑘=1(−1) exp(−2𝑘 𝛼 ),
L’analyse de sensibilité régionale met l’accent sur la sensibilité régionale d’un modèle par
rapport à un critère sur les sorties du modèle qui définit si une réalisation est acceptable ou pas.
Cette méthode est simple à mettre en œuvre et offre des informations qualitatives sur l’influence
des grandeurs d’entrée. Pourtant, ses interprétations qualitatives ignorent les interactions entre
les variables d’entrées. Cette méthode peut s’appliquer à n’importe quel type de sortie du
modèle. Dans notre étude, cette méthode va nous permettre d’analyser l’influence des actions
d’ajustement du trafic par rapport aux contraintes opérationnelles, à commencer par les
contraintes sur la tension à la caténaire.
Après avoir détaillé le principe des trois méthodes (indices de Sobol généralisés, distance-
énergie, analyse de sensibilité régionale), nous présentons dans ce paragraphe l’application de
ces méthodes à notre modèle d’ajustement. La Figure 26 présente une synthèse du processus.
105
Définition de 𝑝 variables d’ajustements :
𝑋𝑖 peut etre une réduction de vitesse ou une incrémentation de l’intervalle de temps entre deux
départs consécutifs
Scénario
𝑋 = (𝑋1 , 𝑋2 , … , 𝑋𝑝 ) d’ajustement
Ajuster 𝑥2,1 ⋯
𝑥1,1 𝑥𝑝,1
𝑥1,2 𝑥2,2 ⋯ 𝑥𝑝,2
𝑊=
⋮ ⋮ ⋱ ⋮
𝑥1,𝑁 𝑥2,𝑁 ⋯ 𝑥𝑝,𝑁
Ajuster les entrées de simulateur selon le scénario
d’ajustement puis lancer la simulation (N fois)
Les entrées du simulateur sont ajustées à partir des variables d’ajustement avant d’exécuter la
simulation. Les variables d’ajustement sont les variables dont on cherche à étudier l’influence
sur les sorties. Nous présenterons dans le chapitre 4 les différentes actions d’ajustements, et
nous montrerons comment elles interviennent dans les entrées du simulateur.
Les sorties de 𝑁 simulations sont : Une matrice (𝑁, 𝑚) de tensions pour chaque train
(𝑁𝑏𝑡𝑟𝑎𝑖𝑛𝑠 × 𝑚𝑎𝑡(𝑁 , 𝑚)) ; une matrice (𝑁, 𝑚) d’échauffement des sous-stations (pour les
106
sous-stations considérées dans l’étude) ; une matrice (𝑁, 𝑚) d’échauffement de câbles (pour
les secteurs des lignes considérées importantes) ; et une matrice (𝑁, 𝑚) des puissances des sous-
stations (considérées dans l’étude).
Ces sorties sont utilisées de manière différente pour effectuer le calcul d’analyse de sensibilité
selon chaque méthode présentée dans ce chapitre. Les deux méthodes « indices de Sobol
généralisés » et « distance-énergie » nécessitent de sauvegarder toutes les sorties à chaque
itération 𝑖 jusqu’à 𝑁, afin d’étudier ses variances ou ses distributions dans la phase d’analyse.
Par contre la méthode de sensibilité régionale vérifie les contraintes opérationnelles sur les
sorties à chaque itération, et détermine si la simulation associée est acceptable ou non, sans
nécessiter de sauvegarder toutes ces sorties. Les contraintes sur les sorties sont calculées dans
le post traitement de la méthode et non pas dans le simulateur.
3.7. Conclusion
L’analyse de sensibilité est le processus consistant à faire varier les paramètres d’entrée d’un
modèle et à observer les variations des sorties qui en résultent. Elle est utilisée pour explorer
comment les variations de sortie du modèle peuvent être qualitativement et quantitativement
attribués aux différentes variations d’entrées. Les informations obtenues de l’analyse de
sensibilité sont intéressantes pour guider et soutenir les gestionnaires au cours du processus
décisionnel.
Dans ce chapitre, nous avons détaillé trois méthodes d’analyse de sensibilité globale appliquées
aux modèles complexes à sortie dynamique et à entrées indépendantes : la méthode d’analyse
de sensibilité fondée sur la décomposition de la variance ; la méthode d’analyse de sensibilité
fondée sur la distance entre les distributions de la sortie ; et la méthode d’analyse de sensibilité
régionale.
Toutes les méthodes étudient l’impact des entrées sur la sortie mais chacune utilise des
informations différentes pour calculer l’impact :
107
La méthode RSA mesure l’influence des entrées sur la performance de la sortie (sur la
conduite du modèle à une région désirée)
Les deux premières méthodes ont exactement les mêmes objectifs, mais celle fondée sur la
comparaison des distributions utilise plus d’informations que celle fondée sur la comparaison
des variances.
La méthode régionale apporte une analyse sur l’influence des entrées sur la sortie en termes de
respect d’une certaine contrainte de sortie. Elle est la plus adaptée à nos besoins et nos intérêts
dans cette recherche. Elle nous permet de calculer l’influence des variables d’ajustement sur le
respect des contraintes opérationnelles (tensions aux pantographes par exemple). Elle
s’applique lorsqu’une définition qualitative du comportement « bon » ou « acceptable » d’un
modèle peut être définie, par exemple via un ensemble des contraintes, seuils,… fondées sur
les informations disponibles sur le système. Cette méthode est utile pour optimiser les
performances du modèle en contrôlant les entrées du modèle dans la région donnant de bons
résultats. Le seul inconvénient de cette méthode est qu’elle ne considère par les effets
d’interactions entre les variables sur la sortie. Les avantages et inconvénients des trois méthodes
étudiées sont récapitulés dans le Tableau 4.
Tableau 4: résumé des caractéristiques des trois méthodes d’analyse de sensibilité globale expliquées dans ce travail
D’un point de vue théorique, la méthode d’analyse de sensibilité régionale est la plus adaptée à
notre problématique. Nous verrons par la suite par expérimentation que cette méthode offre
aussi les meilleures performances en pratique. Dans le chapitre 4, nous appliquerons ces trois
méthodes sur un cas test simple. Nous allons comparer les résultats obtenus selon différents
108
critères (temps, CPU, stockage...) afin de confirmer l’intérêt que nous portons à la méthode
d’analyse de sensibilité régionale en évaluant sa pertinence avec notre modèle en termes de
ressources informatiques.
109
Chapitre 4
4.1. Introduction
Le but de ce chapitre est de comparer et discuter les trois méthodes décrites dans le chapitre
précédent : (1) méthode fondée sur l’analyse de la variance et les indices de Sobol; (2) méthode
fondée sur l’estimation de la distance entre distributions (distance-énergie); (3) méthode
d’analyse de sensibilité régionale (Kolmogorov-Smirnov-test) par rapport aux différents
critères. Cette troisième méthode est à priori la plus appropriée à nos besoins, étant donné qu’on
recherche les variables d’ajustement les plus importantes pour conduire le modèle à un bon
comportement (respect des contraintes sur la sortie).
Dans ce chapitre, nous présenterons l’étude d’un cas-test simple : il s’agit d’un réseau
comportant une ligne à deux voies, alimenté par trois sous-stations. Dans un premier temps,
nous détaillerons les contraintes opérationnelles essentielles dans le processus de réorganisation
du trafic ferroviaire. Ensuite, nous expliquerons les différentes actions d’ajustement envisagées
dans notre étude. Enfin, nous appliquerons les méthodes et commenterons les résultats.
110
4.2. Contraintes opérationnelles
Les installations ferroviaires sont soumises à des contraintes opérationnelles formalisées par
différentes normes. Dans notre étude, cela se traduit par des contraintes mathématiques sur
certaines sorties du modèle. La méthodologie que nous proposons prendre en compte ces
contraintes en définissant la notion de trafic « acceptable » ou « non acceptable » selon que les
normes sont respectées ou pas. Nous présentons dans ce paragraphe trois critères principaux et
importants dans la production ferroviaire.
Le premier critère porte sur la tension de ligne qui définit la qualité d’alimentation des trains :
les tensions ne doivent pas descendre en dessous d’un certain seuil, défini en fonction du type
d’alimentation par la norme EN 50 163. Par exemple, dans le cas du système d’alimentation
AC 25 kV en conditions normales d’alimentation et de circulation, la tension aux pantographes
doit être en permanence comprise entre 19 000 V et 29 000 V. En situation dégradée, la limite
inférieure est de 17 500 V pendant deux minutes. Pour le système d’alimentation DC 1500 V,
la tension aux pantographes doit être en permanence comprise entre 1000 V et 1800 V.
Ce respect des normes se traduit par une contrainte sur les valeurs de sortie de modèle, à savoir
sur les tensions aux pantographes de trains au long de parcours. Nous utilisons les valeurs de
tensions moyennés sur un intervalle de temps de 10 secondes (vu la complexité du modèle,
pour ignorer certains écarts de courte durée (inférieure à une seconde) qui peuvent apparaitre
dans les résultats de simulation mais ne sont pas significatifs dans notre cadre d’étude).
Un autre critère important concerne les échauffements au niveau des groupes de traction.
Conformément à la norme EN 50 329 et aux prescriptions des cahiers des charges techniques
des transformateurs, la puissance apparente d’un groupe de traction moyennée sur 1 minute
(𝑃𝑛1𝑚𝑖𝑛 ) ne doit pas excéder trois fois la puissance nominale 𝑃𝑛𝑛𝑜𝑚 ; celle moyennée sur 5
111
minutes (𝑃𝑛5𝑚𝑖𝑛 ) ne doit pas excéder deux fois la puissance nominale et celle moyennée sur 120
minutes (𝑃𝑛120𝑚𝑖𝑛 ) ne doit pas excéder deux fois 1,5 fois la puissance nominale. Ces trois
contraintes peuvent être exprimées par le système suivant :
Les échauffements calculés doivent alors être conformes à ceux définis dans les spécifications
techniques du matériel, à savoir 75°C pour l’huile et 98°C pour les parties actives (cuivre).
Charge
transformateur
(% du nominal)
200%
150%
100%
Temps
120min 180min
1min 3min
Figure 27: Indicateurs de performance - exemple de cycles de charges des groupes de traction
En cas de non-respect des normes, les échauffements excessifs diminuent la durée de vie du
matériel, voire à une destruction par explosion, ce qui cause des pertes financières très
importantes.
Les caténaires sont également le siège d’échauffements d’autant plus importants que les
courants appelés sont grands. L’élévation de la température modifie les caractéristiques
mécaniques des câbles, qui se détendent. Par conséquent, le contact électrique entre les
pantographes et les câbles sera de mauvaise qualité. Il peut alors être nécessaire d’interrompre
le trafic, voire de changer les câbles.
Ces trois contraintes opérationnelles (tension de ligne, échauffement des groupes de traction,
échauffement des lignes) se traduisent par des contraintes sur la sortie. Dans le paragraphe
suivant, nous discuterons les différentes actions d’ajustement possibles pour alléger le trafic et
obtenir des solutions réalisables, c’est-à-dire qui respectent les contraintes opérationnelles.
112
4.3. Actions d’ajustement
La réorganisation du trafic lors d’un incident consiste à choisir des actions d’ajustement du
trafic qui allège celui-ci, de façon que les contraintes opérationnelles soient respectées.
L’opérateur responsable de réorganiser le trafic se pose alors les questions suivantes. Quelles
sont les actions d’ajustement pertinentes ? Parmi celles-ci, quelles sont les plus influentes pour
produire un trafic acceptable ? A l’inverse, y-a-t-il des actions d’ajustement qui n’ont aucune
influence sur la qualité de la sortie, et dont l’application est sans bénéfice ? Ces questions sont
les questions-clés pour conduire l’analyse de sensibilité et organiser une recherche de solution
efficace.
Les actions d’ajustement portent soit sur la grille horaire des trains, soit sur les profils de vitesse
des trains. L’implantation informatique de ces actions nécessite d’intervenir au sein des fichiers
« horaires » et « marches » utilisés en entrées du simulateur ferroviaire ESMERALDA NG,
comme nous allons l’expliquer ci-dessous.
Dans le simulateur ESMERALDA NG, les horaires des trains sont définis dans le fichier
« H.dat », qui contient les heures de départ des différents trains sur les différentes lignes et voies
du réseau. Les actions d’ajustement des horaires consistent à augmenter l’intervalle de temps
entre les heures de départ des circulations successives, ce qui aboutit à une augmentation de
l’espacement entre les sillons. Notant que le changement d’ordre des trains n’est pas autorisé.
Il nous est donc nécessaire de calculer les horaires ajustés en prenant en compte la modification
de l’intervalle pour pouvoir les transmettre au simulateur.
Le principe est simple à énoncer, mais plus délicat à mettre en œuvre du fait de l’hétérogénéité
du trafic et de la multiplicité des lignes et des voies. En pratique, les circulations du fichier
horaire sont regroupées en groupes et sous-groupes, selon des caractéristiques communes. Un
groupe correspond à des circulations ayant comme critères communs: même ligne (L), même
voie (V), même type de train (TGV, TER…). Ensuite, les sous-groupes (SG) correspondent à
des points de départ identiques (même gare).
Une fois les circulations ainsi classées, on définit des actions d’ajustement des horaires sous la
forme d’incréments de l’intervalle de temps entre deux départs successifs au sein d’un même
113
groupe : l’intervalle entre les départs des trains d’un groupe donné est augmenté de « k »
minutes sous la forme suivante :
D’où ∆𝐻𝑖𝑗 l’intervalle de temps entre deux départs consécutifs d’un train i et d’un train j, 𝐼∆𝐻
est le temps ajouté (k minutes) et ∆𝐻𝑖𝑗0 représente l’intervalle de temps initial (dans le fichier
horaire initial) entre les deux départs de ces deux trains. La Figure 28 montre un exemple de
circulations organisées en trois groupes : les TER qui circulent sur la voie 1 de la ligne 1 (groupe
1), les TER qui circulent sur la voie 1 de la ligne 2 (groupe 2), et les trains de FRET qui circulent
sur la voie 2 de la ligne 2 (groupe 3), puis en sous-groupe en fonction du
𝑝𝑘 de la gare de départ. Une action d’ajustement possible d’augmenter l’intervalle de temps
entre les TER du groupe 1, au départ de la gare de CREIL.
Figure 28: exemple d'un regroupement d'un ensemble des circulations d'un trafic donné (L1 : ligne1 ; V1 :
voie1 ; TER : type de train)
0
∆𝐻12 = ∆𝐻12 + 𝐼∆𝐻 = 20 + 5 = 25 𝑚𝑖𝑛𝑢𝑡𝑒𝑠, l’intervalle de temps entre le premier train et
le deuxième train est de 25 minutes, l’heure de départ de premier train est 15h :00, donc
l’heure de deuxième train est 15h : 25.
0
∆𝐻23 = ∆𝐻23 + 𝐼∆𝐻 = 30 + 5 = 35 𝑚𝑖𝑛𝑢𝑡𝑒𝑠, l’intervalle de temps entre le deuxième train
et le troisième train est de 35 minutes, l’heure de départ de deuxième train est 15h25, donc
l’heure de troisième train est 16 :00.
Le Tableau 5 illustre ce principe sur un autre exemple : cas d’un trafic homogène (que des
TGV). La partie gauche correspond aux horaires initiaux et indique les heures de départ des
trains de type TGV circulant sur la ligne 1, voie 2. La partie droite montre les horaires ajustés
suite à l’action qui consiste à augmenter les intervalles de temps entre deux départs de 𝐼∆𝐻 =
5 𝑚𝑖𝑛𝑢𝑡𝑒𝑠. L’heure de départ du premier train n’est pas modifiée, l’heure de départ de
deuxième train est incrémentée de 5 minutes et celle de troisième train de 10 minutes.
114
Heure de Heure de
Ligne Voie pk(km) N° Train Ligne Voie pk(km) N° Train
départ départ
15 :00 :00 1 2 0 TGV1 15 :00 :00 1 2 0 TGV1
15 :20 :00 1 2 0 TGV2 15 :25 :00 1 2 0 TGV2
15 :50 :00 1 2 0 TGV3 16 :00 :00 1 2 0 TGV3
Tableau 5: Horaire initial à gauche, horaire ajusté avec une incrémentation des horaires de 5 minutes
Le Tableau 6 montre un dernier exemple, dans le cas d’un trafic hétérogène avec trois types de
trains qui circulent sur le même réseau : TGV, TER et FRET. Trois groupes de circulation ont
été définis, puis les intervalles de temps entre trains au sein de ces groupes ont été incrémentés
de 𝐼∆𝐻𝑇𝐺𝑉 = 10 𝑚𝑖𝑛 pour les TGV, 𝐼∆𝐻𝑇𝐸𝑅 = 5 𝑚𝑖𝑛 pour les TER et 𝐼∆𝐻𝐹𝑅𝐸𝑇 = 15 𝑚𝑖𝑛
pour les FRET.
Heure de Heure de
Ligne Voie 𝑝𝑘 (km) N° Train Ligne Voie 𝑝𝑘 (km) N° Train
départ départ
08 :00 :00 9 2 0 TGV1 08 :00 :00 9 2 0 TGV1
08 :10 :00 9 3 14.3 TER1 08 :30 :00 9 2 0 TGV2
08 :15 :00 9 2 8.8 FRET1 08 :50 :00 9 2 0 TGV3
08 :30 :00 9 2 0 TGV2 08 :10 :00 9 3 14.3 TER1
08 :22 :00 9 3 14.3 TER2 08 :22 :00 9 3 14.3 TER2
08 :20 :00 9 2 8.8 FRET2 08 :40 :00 9 3 14.3 TER3
08 :30 :00 9 2 8.8 FRET3 08 :58 :00 9 3 92.2 TER4
08 :40 :00 9 3 14.3 TER3 09 :20 :00 9 3 92.2 TER5
08 :50 :00 9 2 0 TGV3 08 :15 :00 9 2 8.8 FRET1
08 :58 :00 9 3 92.2 TER4 08 :20 :00 9 2 8.8 FRET2
09 :20 :00 9 3 92.2 TER5 08 :30 :00 9 2 8.8 FRET3
Tableau 6: Horaire initial d'un réseau hétérogène à gauche; les circulations sont regroupées dans le fichier horaire à
droite
115
Heure de 𝑝𝑘 N°
Ligne Voie
départ (km) Train
08 :00 :00 9 2 0 TGV1
08 :40 :00 9 2 0 TGV2
09 :10 :00 9 2 0 TGV3
08 :10 :00 9 3 14.3 TER1
08 :27 :00 9 3 14.3 TER2
08 :50 :00 9 3 14.3 TER3
08 :58 :00 9 3 92.2 TER4
09 :25 :00 9 3 92.2 TER5
08 :15 :00 9 2 8.8 FRET1
08 :35 :00 9 2 8.8 FRET2
09 :00 :00 9 2 8.8 FRET3
Le deuxième type d’action d’ajustement concerne les vitesses des trains. Il faut alors intervenir
dans le fichier « M.dat », fichier d’entrée d’ESMERALDA dans lequel les marches des trains
sont définies. Les actions d’ajustements consistent à réduire la vitesse de consigne des trains
sur des portions de réseaux où le trafic est perturbé par le défaut d’alimentation électrique.
Le Tableau 8 montre un exemple de fichier marche : la 1ère colonne indique le numéro de trains,
la 2ème donne la vitesse limite de la voie à la position indiquée dans la 3ème colonne. Enfin, la
4ème colonne indique la consigne de vitesse donnée au conducteur. La consigne VL signifie
« vitesse limite » et la consigne ME signifie « marche sur l’erre ». Les valeurs numériques
correspondent à des consignes de vitesse inférieures à la vitesse limite.
116
Numéro Vitesse limite (VL) km/h 𝑝𝑘 (position en km) consigne de vitesse (Vc)
8497 200 8.800 VL
8497 200 11.658 ME
8497 200 11.745 VL
8497 200 12.274 VL
8497 200 13.554 VL
8497 200 14.448 VL
8497 200 15.029 ME
8497 200 15.918 ME
8497 200 16.402 VL
8497 270 16.530 VL
8497 270 18.775 VL
8497 270 23.575 VL
8497 300 24.130 288
8497 300 30.719 ME
8497 300 31.931 288
8497 300 37.546 ME
8497 300 39.868 288
8497 300 51.923 ME
8497 300 52.292 288
8497 300 64.197 ME
8497 300 65.012 288
8497 300 92.298 288
Tableau 8: Une portion du fichier Marche montre la marche d’engin numéro 8497
La Figure 29 montre le profil de vitesse réalisé par un train piloté suivant la marche décrite
dans le Tableau 8. La courbe rose représente la vitesse limite le long de la voie. La courbe
marron représente la vitesse effective du train. On repère les phases d’accélération, puis de
maintien de la vitesse autour de sa valeur de consigne.
Le profil de vitesse effectivement réalisé dépend de la puissance que le réseau peut fournir au
train. Si celle-ci est réduite à cause d’une panne d’équipement électrique, alors les accélérations
seront réduites et le profil de vitesse du train sera affecté. Une action d’ajustement du trafic est
117
d’agir sur la marche des trains, en réduisant la vitesse limite sur les portions de ligne où on
constate que la vitesse des trains est perturbée par la panne d’équipement électrique.
118
Numéro Vitesse limite (VL) km/h 𝑝𝑘 (position en km) Vitesse de consigne (VC)
8497 200 8.800 VL
8497 200 11.658 ME
8497 200 11.745 VL
8497 200 12.274 VL
8497 200 13.554 VL
8497 200 14.448 VL
8497 200 15.029 ME
8497 200 15.918 ME
8497 200 16.402 VL
8497 260 16.530 VL
8497 260 18.775 VL
8497 260 23.575 VL
8497 260 24.130 260
8497 260 30.719 ME
8497 300 31.931 288
8497 300 37.546 ME
8497 300 39.868 288
8497 300 51.923 ME
8497 300 52.292 288
8497 300 64.197 ME
8497 300 65.012 288
8497 300 92.298 288
Les actions d’ajustements proposées sur les horaires et la marche des trains permettent de
respecter les habitudes des conducteurs de train (profil de vitesse aussi lisses que possible) ainsi
que les contraintes de sécurité, telles que la distance de sécurité entre trains (par exemple
environ 11 minutes entre deux TGV).
Mathématiquement, ces actions d’ajustement sont modélisées par des variables appelés
variables d’ajustements.
119
déroulement de la phase d’analyse de sensibilité et parmi celles qui sont réalisables (respect de
contraintes opérationnelles) la solution meilleure du point de vue d’un critère donné. Dans ce
cas, la solution optimale est clairement définie, c’est celle qui a le coût optimal (minimal ou
maximal). Dans le cas de recherche multicritère, nous utilisons aussi les solutions réalisables
générées pendant la phase d’analyse de sensibilité pour calculer l’ensemble de solutions Pareto
Optimales (Dans notre cas il s’agit d’une approximation). Dans ce cas, la solution optimale
cherchée est un ensemble de points correspondant aux meilleurs compromis entre les différents
objectifs [172].
Parmi les critères d’optimisation (fonction d’objectif), les plus intéressants dans notre travail
nous citons :
A. La densité du trafic (F1) : le nombre de trains pouvant circuler dans un intervalle de temps
donné. Elle est calculée selon la formule suivante :
𝑁𝑇
𝐹1 = 𝑑 =
𝑇𝑑𝑓 − 𝑇𝑑𝑝
Où 𝑑 représente la densité, 𝑁𝑇 est le nombre des trains ayant circulé et le dénominateur
représente la différence entre l’heure de départ du dernier train et l’heure de départ du
premier train.
B. L’impact (retard) sur le temps de parcours des trains (F2) : Ne pouvant définir un critère par
train, nous avons défini un critère fondé sur la notion de temps de parcours moyen de
l’ensemble des trains.
120
Nous commençons par décrire le cas d’étude, puis nous expliquons la mise en œuvre des trois
méthodes d’analyse de sensibilité présentées dans le chapitre 3. Nous comparons ensuite leurs
performances afin de dégager leurs avantages et leurs inconvénients respectifs.
Le cas-test correspond à une ligne à voie unique, longue de 80 km, alimentée en 25 kV AC par
trois sous-stations (Figure 30). La ligne est parcourue par un dix TGV ayant tous les mêmes
marches et dont les départs du 𝑝𝑘0 sont initialement espacés de 5 minutes.
Donc le modèle étudié comporte 10 missions et une marche, en tant qu’entrées de simulateur.
Chaque mission s’agit d’une dizaine de variables (heure de départ, numéro de ligne, numéro de
voie, 𝑝𝑘 début, 𝑝𝑘 fin, …). De même, la marche contient 17 portions, chaque portion comporte
un numéro, une vitesse limite, position en kilomètre (𝑝𝑘) et une consigne de vitesse (vc). Le
nombre total des variables d’entrée de simulateur est supérieur à cent.
SS SST SST
T
0 km 40 km 80 km
La Figure 31 montre les résultats de simulation pour la situation normale. La courbe du haut
représente les profils de vitesse des dix trains. Ces courbes se superposent parfaitement car les
instructions sont les mêmes pour tous les trains, et que la puissance transmissible par la ligne
est suffisante pour fournir à chaque train la puissance appelée.
La courbe du bas représente les profils de tension aux caténaires des trains et mérite qu’on s’y
attarde un peu. Cette fois, les courbes ne se superposent pas toutes, car la tension à la caténaire
d’un train à une position donnée dépend de la puissance appelée à cet instant par l’ensemble
des trains. Typiquement, la tension d’alimentation du premier TGV sera supérieure à la tension
d’alimentation des suivants. Pour comprendre la forme des courbes de tension, il faut les
corréler au profil de vitesse : les phases d’accélération (par exemple 𝑝𝑘10 et 𝑝𝑘15)
correspondent à de forts appels de puissance et se traduisent par une baisse de la tension à la
121
caténaire. Inversement, en phase de freinage (par exemple entre
𝑝𝑘 58 et 𝑝𝑘 60), une partie de l’énergie cinétique du train est renvoyée sur le réseau est la
tension remontée fortement. Le profil de tension à la caténaire d’un train dépend de ses propres
appels de puissance, mais aussi de ceux des trains voisins. La forme globale des courbes reflète
également la position des sous-stations d’alimentation, avec une remontée de la tension au
𝑝𝑘 40. Pour la situation considérée, la tension à la caténaire est toujours supérieure à 17,5 kV,
donc l’alimentation électrique du trafic est satisfaisante.
122
La vitesse est
réduite
La première étape de réorganisation du trafic est une analyse métier. Sur la base de son expertise
et des résultats de simulation, l’opérateur définit les variables d’ajustement dont il souhaite
étudier l’influence, ainsi que les critères d’acceptabilité et de performances des solutions. Il
s’agit donc d’élaborer le modèle d’ajustement du trafic, dont les entrées sont les variables
d’ajustement et les sorties sont les grandeurs physiques à partir desquelles les performances du
trafic et les contraintes sont définies.
123
𝑋5 : Réduction de vitesse entre 𝑝𝑘 55 et 𝑝𝑘 60 ; 𝑋5 𝜖 [0,20] 𝑚/𝑠)
Une action d’ajustement peut agir sur un grand nombre de variables d’entrées du
simulateur. Par exemple X1 agit sur toutes les heures de départ dans ce cas test.
2. Critère d’acceptabilité des solutions (contrainte sur la sortie):
La contrainte opérationnelle (critère d’acceptabilité) prise en compte dans cette étude porte sur
les tensions aux pantographes des trains dont la moyenne glissante sur 10𝑠 doit toujours être
comprise entre 19 𝑘𝑉 et 27,5 𝑘𝑉 .
SS SST SST
T X1
40 Km
0 Km 80 Km
X2 X3 X4 X5
Pour calculer les indices de Sobol, il faut générer deux matrices d’échantillonnage, puis les
combiner entre elles pour en former 𝑝 autres (voir chapitre 3).
124
4.5.4. Etape 3 : Simulations
La campagne de calculs consiste ensuite à calculer les 𝑁 réponses du code correspondant aux
𝑁 scénarios d’ajustement contenus dans chaque matrice d’échantillonnage. On obtient alors
autant de fichiers de sortie du simulateur que de scénarios simulés. Ces fichiers contiennent les
grandeurs d’intérêt, à savoir les tensions à la caténaire le long du parcours des trains. Cette
phase de l’analyse est la plus coûteuse en temps de calcul (quelques heures de calcul pour cet
exemple simple).
Le calcul des indices correspond à une phase de post-traitement des résultats de simulation. Il
s’agit d’estimer l’influence des variables d’entrées du modèle d’ajustement sur les sorties
dynamiques, à savoir les tensions aux caténaires des trains. Il y a autant de sorties dynamiques
que de trains, avec une série d’indices pour chaque sortie.
Dans cette étude nous nous intéressons aux indices de premier ordre déterminés à l’aide des
trois techniques retenues parce que la méthode d’analyse de sensibilité régionale ne considère
pas les effets d’interaction.
Les méthodes sont comparées sur les trois critères suivants : temps du calcul global de la
méthode (y compris le temps de calcul de simulations), vitesse de convergence du calcul des
indices et espace mémoire nécessaire pour stocker les données nécessaires au calcul des indices.
La vitesse de convergence correspond à la taille d’échantillon 𝑁 nécessaire pour obtenir une
bonne estimation statistique des indices de sensibilité (c’est-à-dire ajouter des échantillons ne
créent plus de variation significative sur les indices calculés).
Les indices de Sobol généralisés d’ordre 1 ont été calculés pour chaque train (il y a 10 trains),
et pour chaque variable d’ajustement (il y en a 5). Cela représente donc un total de 50 indices.
Les résultats sont très similaires pour les différents trains, car il s’agit de TGV ayant tous la
même marche. Nous ne présentons donc que les indices correspondant au TGV 3 dans la suite
du texte. Cette méthode ne prend pas en compte les contraintes sur les sorties, donc les sorties
de toutes les simulations ont été sauvegardées pour faire le calcul.
Les indices de Sobol ont été calculés pour une taille d’échantillon 𝑁 croissante afin d’étudier
l’influence de ce paramètre sur la qualité de l’estimation. Les résultats sont donnés dans le
Tableau 10. La capacité mémoire requise pour le stockage des informations nécessaire au
calcul des indices n’a pas permis d’aller au-delà de 𝑁 = 3000. En effet, il faut sauvegarder
les tensions à chaque 𝑝𝑘, et ce pour tous les trains, Le volume de données à conserver en
mémoire dynamique est proportionnel à la taille de l’échantillon et finit par saturer la mémoire
vive du PC utilisé (DELL Latitude 7480, CPU : Intel Core i7-7600U (2 cœurs / 4 threads / 4Mo
cache / 2.8GHz ), RAM : 16 Go).
Effectif de
𝑺𝑿 𝟏 𝑺𝑿𝟐 𝑺𝑿𝟑 𝑺𝑿𝟒 𝑺𝑿𝟓
l’échantillon (N)
500 0.99 0.016 0.021 0.03 0.012
1000 0.73 0.016 0.036 0.03 0.018
2000 0.42 0.014 0.041 0.03 0.01
3000 0.7 0.012 0.037 0.02 0.01
4000 Dépassement de capacité mémoire
126
1
0,9
0,8
0,7 X1
0,6 X2
0,5
X3
0,4
0,3 X4
0,2 X5
0,1
0
500 1000 2000 3000 N échantillons
Le calcul des indices de Sobol d’ordre 1 nécessite 𝑁(𝑝 + 1) appels au simulateur, soit 6𝑁
appels dans notre cas. Pour 𝑁 = 3000, cela représente 18 000 appels au modèle, mais ce n’est
pas suffisant pour une estimation correcte des indices. Ce grand nombre d’estimation du modèle
se traduit par un coût de calcul très important (Tableau 11). Ainsi, pour 𝑁 = 1000 il ne faut
pas moins de 15 heures pour réaliser les simulations et le calcul des indices !
Tableau 11: Temps de calcul et espace de stockage nécessaires pour exécuter Sobol
Conclusion : Pour le problème testé, la méthode des indices généralisés de Sobol ne semble pas
avoir atteint la convergence compte tenu du coût de simulation en termes de temps de calcul et
de mémoire. Au-delà d’un effectif d’échantillon de 3000, la mémoire disponible est trop petite.
De manière générale, pour les problèmes qui comportent un grand nombre de variables, le
calcul des indices de Sobol nécessite un grand nombre d’évaluations de fonctions pour obtenir
une convergence raisonnable [173]. Cela oriente l’usage de ce type de méthode pour des
modèles rapides, c’est-à-dire dont la durée d’exécution est inférieure à la minute. Pour ces
raisons (temps de calcul élevé, mémoire critique), la méthode de Sobol ne sera plus utilisée
dans la suite de cette étude.
127
4.6.2. Indices fondés sur la distance-énergie
Cette technique détermine les indices de sensibilité à partir de la distance entre la distribution
de la sortie 𝑌 quand toutes les entrées varient et la distribution de la sortie 𝑌/𝑋𝑖 quand 𝑋𝑖 est
fixée.
Le Tableau 12 montre les indices de sensibilité calculés à partir de cette méthode, pour
différentes tailles d’échantillon. Comme dans la section précédente, il s’agit des indices relatifs
au TGV 3.
Taille
𝑺𝑿𝟏 𝑺𝑿𝟐 𝑺𝑿𝟑 𝑺𝑿𝟒 𝑺𝑿𝟓
d’échantillon (𝑵)
100 0.204 0.042 0.04 0.044 0.034
500 0.206 0.024 0.024 0.021 0.017
1000 0.208 0.021 0.021 0.021 0.013
2000 0.21 0.02 0.019 0.016 0.01
3000 0.21 0.0195 0.018 0.016 0.0095
4000 0.21 0.0187 0.0172 0.0152 0.0084
Les résultats de cette méthode montrent que l’espacement (𝑋1 ) est la variable la plus influente
sur la sortie. Les valeurs de 𝑋2 , 𝑋3 𝑒𝑡 𝑋4 sont très proches pour tout 𝑁. La variable 𝑋5 est la
moins influente.
0,25
0,2
X1
0,15 X2
X3
0,1
X4
0,05
X5
0
100 500 1000 2000 3000 4000 N échantillons
128
Dans cette méthode, une seule matrice d’échantillons est nécessaire pour calculer tous les
indices. Il n’y a donc que 𝑁 appels au simulateur au lieu de 6𝑁 pour Sobol. Le temps de calcul
est réduit d’autant (voir Tableau 13, 2 heures et 30 minutes pour 1000 échantillons). Toutefois,
le temps de calcul des distances et des indices eux-mêmes (phase de post-traitement) augmente
rapidement avec le nombre de variables d’ajustement.
Tableau 13: Temps de calcul et espace de stockage nécessaires pour exécuter la méthode fondée sur la distance
La Figure 36 montre que cette méthode converge vite, avec des résultats stables à partir d’un
échantillon de 500 points. Le gain est évident par rapport à la méthode de Sobol, même si la
méthode reste coûteuse pour l’utilisation sur les cas d’étude réalistes que nous envisageons.
0,25
0,2
X1
0,15 X2
X3
0,1
X4
0,05
X5
0
100 500 1000 2000 3000 4000 N échantillons
Figure 36: Influence des variables pour 𝑵 simulations pour la méthode fondée sur la distribution
La dernière méthode utilisée, l’analyse de sensibilité régionale, se focalise sur l’influence des
variables d’ajustement par rapport au respect de la contrainte d’intervalle sur la tension à la
caténaire des trains. Cette contrainte stipule que les tensions aux pantographes de tous les trains
doivent rester entre 19 kV et 27,5 kV tout au long du trajet des trains.
129
au sein de chaque groupe. La distance maximale entre ces fonctions constitue un indicateur
statistique de l’influence de chaque variable d’entrée sur le fait de respecter ou non la contrainte.
La Figure 37 représente les graphes des fonctions 𝐹(𝑋𝑖 |𝐴) et 𝐹(𝑋𝑖 |𝐴̅) pour les cinq variables
(pour 1000 échantillons). Ces représentations montrent que c’est pour 𝑋1 que la distance entre
𝐹(𝑋𝑖 |𝐴) et 𝐹(𝑋𝑖 |𝐴̅) est la plus grande. On retrouve donc le fait que 𝑋1 est la variable la plus
influente. A l’inverse, l’influence de 𝑋4 et 𝑋5 est négligeable. On peut remarquer que pour des
valeurs de 𝑋1 inférieures à 6 minutes, aucune solution n’est acceptable. Les graphiques illustrent
également le sens d’influence de chaque variable: Les variables 𝑋1 et 𝑋3 influent positivement
sur la sortie, c’est-à-dire que les augmenter est favorable au respect de la contrainte sur la
tension. En revanche, la variable 𝑋2 a une influence négative : réduire la vitesse sur le tronçon
40-45 km n’est pas favorable car cela provoque un rapprochement des trains sur une portion de
ligne ou l’alimentation électrique est faible.
130
Figure 37: Graphes de densités cumulées 𝑭(𝑿𝒊 |𝑨) et 𝑭 𝑿𝒊 |𝑨 𝑿𝟏 , 𝑿𝟐 , 𝑿𝟑 , 𝑿𝟒 𝒆𝒕 𝑿𝟓
Le test de Kolmogorov Smirnov à deux échantillons fournit une mesure de la différence entre
les distributions 𝐹(𝑋𝑖 |𝐴) et 𝐹 𝑋𝑖 |𝐴 . Le Tableau 14 présente les indices de sensibilité calculés
par le test de Kolmogorov-Smirnov pour différentes tailles d’échantillon. Le Tableau 15
reporte les valeurs de significativité statistique (P-values).
131
Taille
𝒅𝑿𝟏 𝒅𝑿𝟐 𝒅𝑿𝟑 𝒅𝑿𝟒 𝒅𝑿𝟓
d’échantillon (N)
100 0.74 0.28 0.25 0.16 0.14
500 0.72 0.28 0.2 0.03 0.04
1000 0.72 0.27 0.21 0.02 0.03
2000 0.73 0.27 0.2 0.02 0.02
3000 0.73 0.27 0.19 0.03 0.01
4000 0.73 0.27 0.18 0.03 0.01
Taille
𝑷𝑿𝟏 𝑷𝑿𝟐 𝑷𝑿𝟑 𝑷𝑿𝟒 𝑷𝑿𝟓
d’échantillon (N)
100 0.0 0.05 0.09 0.59 0.7
500 0.0 0.0 0.0 1.0 0.99
1000 0.0 0.0 0.0 1.0 1.0
2000 0.0 0.0 0.0 0.98 1.0
3000 0.0 0.0 0.0 0.7 1.0
4000 0.0 0.0 0.0 0.57 1.0
132
0,8
0,7
0,6
X1
0,5
X2
0,4
X3
0,3 X4
0,2 X5
0,1
0
100 500 1000 2000 3000 4000 N échantillons
Pour cette méthode, une seule matrice d’échantillonnage suffit pour calculer tous les indices.
Le nombre d’appels au simulateur est le même que pour la méthode fondée sur la distance, mais
le calcul des indices est moins coûteux, d’où un temps de calcul global plus favorable (Tableau
16). La différence de temps de calcul entre ces méthodes augmente notablement avec le nombre
de variables d’entrée.
Tableau 16: Le temps de calcul et l'espace de stockage nécessaires pour exécuter la méthode régionale
La Figure 39 montre que cette méthode converge vite, avec des résultats satisfaisants dès 500
points d’échantillonnage.
133
0,8
0,7
0,6
X1
0,5
X2
0,4
X3
0,3
X4
0,2
X5
0,1
0
100 500 1000 2000 3000 4000 N échantillons
Dans ce paragraphe, nous utilisons les résultats de simulation des 2000 scénarios d’ajustement
(échantillons), pour but de chercher des solutions optimales parmi les solutions acceptables
générées à partir de la méthode sensibilité régionale, selon les deux objectifs d’optimisation
suivants :
F1 : la densité du trafic
F2 : le temps de parcours de trains
134
La solution la
plus dense
La solution qui a le
temps de parcours
moyen le plus court
Figure 40:Un ensemble de solutions acceptables dans le plan (F1, F2) : les points rouges représentent les solutions non
dominées (approximate pareto set); les points bleus représentent les solutions réalisables dominées.
4.7. Discussion
Le Tableau 17 compare les trois méthodes étudiées sur la base de trois critères : coût de calcul,
vitesse de convergence et espace mémoire nécessaire. Par rapport à ces critères, la méthode
régionale est la meilleure.
La méthode de Sobol généralisée est coûteuse en temps de calcul (--). Elle exige une grande
taille d’échantillon 𝑁 pour atteindre la convergence, ainsi qu’un nombre d’évaluations du
modèle qui augmente avec le nombre de variables d’entrée. Cela se répercute sur le temps de
calcul et sur l’espace mémoire nécessaire au calcul des indices. Cette méthode sera impossible
à mettre en œuvre pour des cas d’étude réalistes.
La méthode fondée sur la distance entre distributions (énergie-distance) est moins coûteuse en
temps du calcul par rapport au Sobol généralisée, elle nécessite moins d’évaluations du modèle,
elle convergence plus rapide avec un coût de mémoire moindre. Toutefois, elle reste coûteuse
pour le cas d’étude complexe.
135
Critères
Temps du calcul Vitesse de Espace de stockage
convergence
Sobol généralisé -- - --
distance-énergie + ++ -
Méthode régionale ++ + ++
Tableau 17: Évaluation des méthodes selon trois critères, selon trois niveaux (-), (+), (++)
En termes d’interprétation physique, quelle que soit la méthode d’analyse de sensibilité utilisée,
les résultats sont cohérents. L’espacement entre les trains ressort toujours comme étant une
variable largement plus influente que les autres. Les réductions de vitesse, elles, sont d’autant
plus influentes qu’elles sont proches de la sous-station en panne. Ceci est normal, puisque c’est
dans la partie centrale de la ligne que l’alimentation est la plus critique. La faible influence du
paramètre réduction de vitesse des trains s’explique par le fait que cette réduction ne modifie
pas l’accélération des trains, mais la durée de la phase d’accélération. Or, ce sont les phases
d’accélération qui sont à l’origine des appels de puissance les plus forts, et donc des chutes de
tension les plus marquées. En réduisant la vitesse limite, on agit sur la durée de ces phases, mais
pas sur leur intensité.
4.8. Conclusion
Ce chapitre nous a présenté les principales étapes pour appliquer une méthode d’analyse de
sensibilité. Dans notre étude, nous avons mis en œuvre trois méthodes fondées sur des
principes différents: indices de Sobol généralisés, méthode fondée sur la distance entre
distributions et analyse de sensibilité régionale (RSA). Cette dernière méthode a la particularité
de prendre en compte des contraintes sur la sortie du modèle.
Nous avons appliqué les trois méthodes et interprété leurs résultats sur un cas test très simple,
avec une ligne à une voie et un trafic homogène. Les résultats sont cohérents en termes
d’interprétation physique. Nous avons comparé les trois méthodes selon trois critères : temps
du calcul, vitesse de convergence et espace de stockage. La comparaison de ces trois méthodes
montre que la méthode régionale est la plus appropriée à notre objectif. Elle est la plus adaptée
à notre modèle complexe en termes de coût de calcul et de stockage. Les deux méthodes « Sobol
généralisé » et « Energy distance » sont gourmandes en espace de stockage et « Sobol
généralisé » est coûteuse en nombre d’évaluations du modèle.
136
Dans le chapitre 5, nous allons considérer quatre tests ferroviaires réels. De plus, nous nous
intéresserons à l’optimisation du trafic à partir des résultats d’analyse de sensibilité.
137
Chapitre 5
5.1. Introduction
Ce chapitre vise à appliquer la méthodologie proposée dans cette étude, pour la réorganisation
du trafic ferroviaire en cas d’incident électrique, l’incident traité dans notre étude étant la perte
totale d’une sous-station d’alimentation électrique. Pour commencer, nous allons décrire le
prototype de l’outil développé en concertation avec les équipes de dimensionnement du
département Traction Electrique de l’ingénierie de SNCF Réseau (DGII-TE-CES5), à qui la
méthodologie s’adresse. Dans un deuxième temps, nous allons étudier quatre cas d’étude réels
correspondant à différentes topologies de réseau et de différents types d’alimentation et
présenter leurs résultats. En plus, pour positionner les résultats de l’outil réalisé par rapport aux
résultats d’une méthode d’optimisation classique, nous présenterons les résultats d’une méthode
d’optimisation méta-heuristique (PSO, voir Annexe 4 ) à deux des cas tests étudiés.
La mise en œuvre de la présente méthodologie et les tests réalisés ont abouti à un premier
prototype de l’outil de réorganisation, qui sera utilisé par les ingénieurs au sein de département
Traction Electrique de l’ingénierie de SNCF Réseau. Le développement de ce prototype a été
réalisé dans l’objectif d’en faire un outil industriel, sous la forme d’un exécutable (.exe en java)
autonome et offrant la meilleure généricité possible.
Dans cette phase l’outil regroupe les trains. Des critères basés sur l’itinéraire parcouru (ligne,
voie, point de départ), le matériel moteur utilisé et la catégorie de mission (TGV, TER, RER,
138
marchandise…) sont utilisés. L’utilisateur peut modifier ce regroupement proposé par l’outil
en rassemblant certain sous-groupes comme il l’entend. Puis l’utilisateur choisit les ajustements
appliqués avec un ordre de priorité et il détermine les intervalles de variation de chaque action
d’ajustement choisi [𝑚𝑖𝑛, 𝑚𝑎𝑥].
𝐴𝑐𝑡𝑖𝑜𝑛1,1 … 𝐴𝑐𝑡𝑖𝑜𝑛𝑝, 1
( ⋮ ⋮ ⋮ )
𝐴𝑐𝑡𝑖𝑜𝑛1, 𝑁 … 𝐴𝑐𝑡𝑖𝑜𝑛𝑝, 𝑁
D- Post-traitement et optimisation
L’outil recherche les meilleures solutions (grilles) dans l’espace de solutions réalisables selon
certain critère d’optimisation. Puis il détermine l’ensemble de solutions Pareto optimales à
partir des premières simulations. Puis il recherche à raffiner les solutions trouvées en
recherchant à l’entourage de solutions trouvées en lançant une nouvelle campagne en dimension
réduite (que les actions d’ajustement influentes).
139
5.3. Présentation des cas d’étude
Quatre cas tests représentatifs en termes de complexité et de topologie des besoins des équipes
de dimensionnement ont été étudiés. Ces cas sont :
Test 1 axe Paris Le Mans - Paris Tours : un trafic en multi-ligne de TGV alimenté en
AC.
Test 2 axe Paris Montparnasse - Versailles : un trafic en multi-ligne de TER, TGV,
FRET alimenté en DC.
Test 3 axe Corbeil - Malesherbes : un trafic en multi-ligne de RER alimenté en DC.
Test 4 axe Paris Nord : un trafic en multi-ligne de TER, FRET et TGV alimenté en
AC.
Les tests réalisés sont de différents types d’alimentation : deux tests en AC et deux autres en
DC. Nous avons commencé à tester l’outil avec le test axe « Paris Le Mans – Paris Tours », un
test qui reste relativement simple topologiquement: deux lignes et un trafic homogène. Mais un
trafic qui est considéré assez important avec une centaine de TGV. Ensuite nous avons testé des
cas avec différentes types de circulations (trafic hétérogène) et dense (test2). Le test 3 est plus
dense que le test 2. Le dernier test axe « Paris Nord » est le plus complexe, cette zone ayant le
trafic le plus chargé d’Europe. Les tests 3 et 4 correspondent en plus à des demandes des études
pour lesquelles l’équipe d’ingénierie souhaite avoir un aperçu des résultats fournis par la
méthode (demande métiers).
Nous notons que nous avons utilisé la même méthode d’échantillonnage « Méthode fondée sur
les séquences de Sobol » pour créer une campagne de 1000 échantillons (scénario
d’ajustements) dans les 4 tests. Nous notons également que nous avons appliqué la méthode
d’optimisation par essaims particulaires (PSO) aux Test 1 et Test 2, dont l’objectif est de
comparer les résultats de notre méthodologie et ceux de cette méthode méta-heuristique (voir
Annexe 4 ).
A- Description de la géométrie
Le cas test correspond à plusieurs lignes, alimentées en 25000 V AC, par 4 sous-stations et
parcourue par un trafic homogène (103 circulations de TGV).
140
L’incident étudié est la perte totale de la sous-station « GAULT SAINT-DENIS » située à
𝑝𝑘 = 94.749, alimentant la ligne 1 comme montre la Figure 42.
Ligne 1
Ligne 2
Figure 42: Configuration électrique du réseau axe Paris Le Mans – Paris Tours
La Figure 43 et la Figure 44 montrent les résultats de simulation de la grille initiale dans le cas
normal puis dans le cas dégradé.
Dans le cas dégradé (Figure 44), la tension caténaire chute en dessous du seuil minimal (ligne
rouge), et le profil de vitesse indique que le réseau électrique ne peut pas fournir la puissance
nécessaire à la réalisation des consignes de vitesse sur la ligne 1. Il faut ajuster le trafic.
Figure 43: La qualité d’alimentation et la vitesse des trains sur la ligne 1 en mode nominal
141
La vitesse est réduite
Figure 44: La qualité d’alimentation et la vitesse des trains sur la ligne 1 en mode dégradé
Les profils de tension et de vitesse semblent indiquer que c’est entre les
𝑝𝑘 60 et 𝑝𝑘 130 que l’alimentation des trains est la plus perturbée. Outre l’espacement entre
trains, nous avons donc proposé d’étudier l’influence d’une réduction de vitesse dans cette
région. Nous avons alors défini les actions d’ajustement suivantes :
1) 𝐴𝑐𝑡𝑖𝑜𝑛 1 : Augmentation de l’intervalle entre les départs des trains TGV sur la
ligne 1
2) 𝐴𝑐𝑡𝑖𝑜𝑛 2 : Réduction de vitesse sur la ligne 1 entre 𝑝𝑘 70 et 𝑝𝑘 90.
3) 𝐴𝑐𝑡𝑖𝑜𝑛 3 : Réduction de vitesse sur la ligne 1 entre 𝑝𝑘 90 et 𝑝𝑘 110.
4) 𝐴𝑐𝑡𝑖𝑜𝑛 4 : Réduction de vitesse sur la ligne 1 entre 𝑝𝑘 110 et 𝑝𝑘 130.
4. Regroupement automatique et reformulation d’ajustements :
142
Action d’ajustement
Groupe des circulations
H21
Groupe 1 (TGV)
Action 1 L1/V2/pkdebut = 215
(les circulations en bleu)
L2/V2-L1/V2
Groupe 3 (TGV)
Action 3 pkdebut = 180.800
(les circulations en jaune)
Tableau 18: Liste des actions d'ajustement reformulées effectuées dans le fichier horaire H.DAT (L : Ligne ; V : Voie)
Tableau 19: Liste des actions d’ajustement effectuées dans le fichier marche M.DAT
Donc après avoir reformulé les actions, nous avons obtenu 6 variables d’ajustement à effectuer
dans ce test (Figure 45) : 𝑋 = (𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 , 𝑋5 , 𝑋6 ), d’où 𝑋1 ∈ [0,15] 𝑚𝑖𝑛 associé à
𝐴𝑐𝑡𝑖𝑜𝑛1 ; 𝑋2 ∈ [0,15] 𝑚𝑖𝑛 associé à 𝐴𝑐𝑡𝑖𝑜𝑛2; (𝑋3 ∈ [0,15] 𝑚𝑖𝑛) associé à 𝐴𝑐𝑡𝑖𝑜𝑛3 ; 𝑋4 ∈
[0,20] 𝑚/𝑠 associé à 𝐴𝑐𝑡𝑖𝑜𝑛4 ; 𝑋5 ∈ [0,20] 𝑚/𝑠 associé à 𝐴𝑐𝑡𝑖𝑜𝑛5 ; 𝑋6 ∈ [0,20] 𝑚/𝑠 associé
à 𝐴𝑐𝑡𝑖𝑜𝑛6.
21
Décalage des horaires
22
Réduction de vitesse dans les marches des trains
143
Figure 45: Les différents ajustements du réseau
Les résultats de l’analyse de sensibilité reportés dans le Tableau 20 font ressortir trois actions
importantes, et trois actions peu importantes.
Tableau 20: D-stat (le degré de l’importance) et P-value (les valeurs de la significativité statistique) calculés à partir de
1000 échantillons
Nous recherchons parmi les solutions acceptables des solutions optimales par rapport aux
différents objectifs choisis par l’ingénieur. Dans le cas présent, deux objectifs
d’optimisation ont été considérés : F1 = « densité du trafic » ; F2 = « temps moyen de parcours
des trains».
144
La densité du trafic : est le nombre des trains pouvant circuler pendant un intervalle de temps
donné. Elle est calculée selon la formule suivante :
𝑁𝑇
𝐹1 = 𝑑 =
𝑇𝑑𝑓 − 𝑇𝑑𝑝
Où 𝑑 représente la densité, 𝑁𝑇 est le nombre des trains ayant circulé et le dénominateur
représente la différence entre l’heure de départ du dernier train et l’heure de départ du premier
train.
Nous nous sommes d’abord intéressés au problème mono-objectif « maximiser F1 », puis au
problème bi-objectif « maximiser F1et minimiser F2 ».
Figure 46: Le critère sur les tensions générées par la solution la plus dense est respecté
145
L’ingénieur peut se contenter des solutions réalisables trouvées dans le post traitement au cours
de l’analyse de sensibilité. Cependant, il peut exister de meilleures solutions plus raffinées. Cela
passe par une réalisation d’une nouvelle campagne des échantillons avec un nouveau
paramétrage.
Pour cela, sur la base de l’analyse de sensibilité, les variables non importantes sont figées à
zéro, et la recherche sera effectuée dans un espace de dimension inférieure, ne comportant que
les actions importantes (𝐴𝑐𝑡𝑖𝑜𝑛1, 𝐴𝑐𝑡𝑖𝑜𝑛2, 𝐴𝑐𝑡𝑖𝑜𝑛3). Une nouvelle compagne de 500
échantillons générés au voisinage de la solution optimale obtenue précédemment a été réalisée.
Figure 47: Le critère sur les tensions générées par la solution la plus dense raffinée est respecté
Cette solution est plus raffinée que la solution obtenue précédemment, elle est plus dense. Elle
contient moins d’ajustement dans le trafic. Elle ne comporte pas les actions d’ajustement sur
146
les vitesses (𝐴𝑐𝑡𝑖𝑜𝑛4, 𝐴𝑐𝑡𝑖𝑜𝑛5, 𝐴𝑐𝑡𝑖𝑜𝑛6) qui n’apportent aucun intérêt pour le plan de
réorganisation et qui se répercutent négativement sur les voyageurs.
Plus le trafic est dense, plus les trains sont ralentis. Les ingénieurs s’intéressent à avoir de
compromis entre les deux critères F1 et F2 : avoir une solution dense mais qui ne ralentit pas
beaucoup les trains. Ainsi, la Figure 48 montre l’ensemble des solutions acceptables dans le
plan (F1, F2). L’ensemble des points rouges constituent une approximation de front Pareto.
Figure 48: Un ensemble de solutions acceptables dans le plan (F1, F2) : les points rouges représentent les solutions non
dominées (approximate pareto set); les points bleus représentent les solutions réalisables dominées.
Dans cette section, nous présentons le travail réalisé en appliquant une méthode d’optimisation
méta-heuristique PSO (Particle Swarm Optimization) afin de comparer les résultats d’une méta-
heuristique et ceux de notre méthodologie.
Résultats
Nous avons appliqué cette méthode sur la même configuration électrique du réseau « Réseau
axe Paris Le Mans – Paris Tours » avec le même nombre d’échantillons exploité dans le calcul
précédent (1500 échantillons = 20 particules * 75 itérations).
147
Le scénario d’ajustement associé consiste à effectuer les actions d’ajustement
présentées dans le Tableau 23.
Action d’ajustement Valeur
Action1 14 minutes
Action2 12 minutes
Action3 14 minutes
Action4 16 km/h
Action5 40 km/h
Action6 72 km/h
La solution trouvée est obtenue avec une convergence très prématurée à l’itération n°3 (la
recherche d’une solution optimale n’évolue plus, la solution trouvée aux premières itérations
ne s’améliore pas beaucoup au fil de recherche).
Conclusion
Nous avons présenté dans cette sous-partie, un cas d’étude d’un trafic multi-ligne homogène
(TGV) alimenté en mode AC.
Nous avons appliqué notre approche, qui constitue à réaliser une phase d’analyse de sensibilité
en pré-étude afin de réduire la dimension de problème. Trois actions d’ajustement qui
concernent la réduction de vitesse ont été identifiées non influentes et ont été éliminées. A partir
de cette approche, nous avons obtenu des solutions réalisables et des solutions optimales locales
dans la phase post traitement, puis des solutions mieux raffinées après avoir appliqué une phase
d’optimisation en dimension réduite.
Nous avons ensuite appliqué une méthode d’optimisation méta-heuristique (PSO) sur le même
test et nous avons présenté les résultats. Nous avons obtenu une solution optimale locale avec
une convergence prématurée dès l’itération n°3 dont le nombre total d’itérations est 75. Avec
cette méthode, les trois actions d’ajustements sur les vitesses des trains, qui ont été identifiés
non influentes selon l’analyse de sensibilité utilisée dans notre méthodologie, ont été utilisés
même si leur application se répercute négativement sur les voyageurs.
148
Test 2 : axe Montparnasse - Versailles
A- Description de la géométrie
Le cas test correspond à plusieurs lignes, alimentées en 1500 V DC, par 100 sous-stations et
parcourue par un trafic hétérogène (plus que deux cent circulations de TGV, TER, FRET). Ce
trafic comporte aussi des circulations composées compliquées (circulations comportant
plusieurs missions par exemple : une circulation qui comporte trois missions, la première s’agit
de se déplacer sur la ligne 9, voie 3 de pk début = 0.400 jusqu’au pk fin = 32.605, puis une
deuxième mission qui s’agit de se déplacer sur la ligne 9, voie 1, pk début = 32.605 jusqu’au
pk fin = 47.800 puis une troisième mission …) ce qui rend plus difficile le processus de
réorganisation.
Paris Ligne 9
Montparnasse
Versaille
s
Figure 49: Configuration électrique du réseau axe Montparnasse-Versailles
La Figure 50 et la Figure 51 montrent les résultats de simulation dans le cas normal et dans le
cas dégradé.
149
Dans le cas dégradé (Figure 51), la tension caténaire chute en dessous du seuil minimal (ligne
rouge), et le profil de vitesse indique que le réseau électrique ne peut pas fournir la puissance
nécessaire à la réalisation des consignes de vitesse sur la ligne 9. Il faut ajuster le trafic.
Figure 50: La qualité d’alimentation et la vitesse des trains sur la ligne 9 en mode nominal
Vitesse des
trains réduite
Figure 51: La qualité d’alimentation et la vitesse des trains sur la ligne 9 en mode dégradé
Les profils de tension et de vitesse semblent indiquer que c’est entre les
𝑝𝑘 60 et 𝑝𝑘 80 que l’alimentation des trains est la plus perturbée. Outre l’espacement entre
150
trains, nous avons donc proposé d’étudier l’influence d’une réduction de vitesse dans cette
région. Nous avons alors défini les actions d’ajustement suivantes :
1) 𝐴𝑐𝑡𝑖𝑜𝑛1 : Augmentation de l’intervalle entre les départs des trains TGV, TER, FRET
sur la ligne 9.
2) 𝐴𝑐𝑡𝑖𝑜𝑛2 : Réduction de vitesse sur la ligne 9 entre 𝑝𝑘 60 et 𝑝𝑘 70.
3) 𝐴𝑐𝑡𝑖𝑜𝑛3 : Réduction de vitesse sur la ligne 9 entre 𝑝𝑘 70 et 𝑝𝑘 80.
L’outil regroupe les circulations selon leurs missions (Ligne/voie/départ/type), et affecte une
action d’ajustement pour chaque groupe comme montre le Tableau 24.
151
Action d’ajustement H Groupe des circulations
o L9/V3-L9/V1-L9/V3
o L9/V3-L13/V1
o L9/V3
(pkdebut = 400)
Action 1 Groupe 1 (TER)
o L9/V3
(pkdebut = 15100)
o L9/V3
(pkdebut = 13900)
o L9/V1-L9/V3-L9/V1-L9/V3
(pkdebut = 400)
o L9/V1
(pkdebut = 148100)
Action 2 Groupe 2 (TER)
o L9/V1-L9/V3
(pkdebut = 16600)
o L9/V1
(pkdebut = 87100)
o L9/V1
Action 3 Groupe 3 (TGV)
(pkdebut = 190900)
o L9/V2
(pkdebut = 148100)
o L9/V2
o L9/V2-L9/V4
(pkdebut = 47800)
o L9/V2
Action 4 Groupe 4 (TER) (pkdebut = 27800)
o L9/V2
(pkdebut = 211000)
o L9/V2
(pkdebut = 27900)
o L9/V2
(pkdebut = 87100)
o L9/V2
Action 5 Groupe 5 (TGV)
(pkdebut = 211000)
o L9/V2
Action 6 Groupe 6 (FRET)
(pkdebut = 211000)
o L9/V4
(pkdebut = 24000)
o L9/V4
Action 7 Groupe 7 (TER)
(pkdebut = 9942)
o L9/V4
(pkdebut = 32200)
o L13/V2-L9/V2-L9/V4
(pkdebut = 32200)
Action 8 Groupe 8 (TER)
o L13/V2-L9/V2
(pkdebut = 33500)
152
o L13/V2-L9/V2
(pkdebut = 31500)
o L12/V3-L9/V1
(pkdebut = 400)
Action 9 Groupe 9 (TER)
o L12/V3
(pkdebut = 0)
o L12/V3
Action 10 Groupe 10 (TGV)
(pkdebut = 0)
Tableau 24: Liste des actions d'ajustement reformulées effectuées dans le fichier horaire H.DAT (L : Ligne ; V : Voie)
Action 12 70-80
Tableau 25: Liste des actions d’ajustement effectuées dans le fichier marche M.DAT
Donc après avoir reformulé les actions, nous avons obtenu 12 variables d’ajustement à effectuer
pour ajuster les entrées de simulateur = (𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 , 𝑋5 , 𝑋6 , 𝑋7 , 𝑋8 , 𝑋9 , 𝑋10 , 𝑋11 , 𝑋12 ) .
Les résultats de l’analyse de sensibilité reportés dans le Tableau 26 font ressortir quatre actions
d’ajustement importantes et huit actions non importantes.
153
Action D-stat P-value signification
d’ajustement
Action1 0.07 0.48 Non importante
Action2 0.14 0.01 Importante
Action3 0.04 0.97 Non importante
Action4 0.14 0.01 Importante
Action5 0.05 0.92 Non importante
Action6 0.06 0.67 Non importante
Action7 0.07 0.51 Non importante
Action8 0.1 0.18 Non importante
Action9 0.43 0 Importante
Action10 0.06 0.79 Non importante
Action11 0.16 0 Importante
Action12 0.08 0.41 Non importante
Tableau 26: D-stat (le degré de l’importance) et P-value (les valeurs de la significativité statistique) calculés à partir de
1000 échantillons
Pour ce cas-test, à partir des résultats d’analyse de sensibilité, nous constatons que parmi les
deux ajustements sur les vitesses des trains proposés, la réduction de vitesse (𝐴𝑐𝑡𝑖𝑜𝑛11) est
influente sur les résultats. Et les trois actions (𝐴𝑐𝑡𝑖𝑜𝑛2,𝐴𝑐𝑡𝑖𝑜𝑛4, 𝐴𝑐𝑡𝑖𝑜𝑛9) qui concernent
l’espacement entre les départs de train sont aussi des actions importantes. Donc jouer sur ces
quatre actions sensibles, apporte un bénéfice pour produire des solutions acceptables qui
respectent les contraintes (le seuil de tensions, les échauffements,…).
Nous recherchons parmi les solutions acceptables générées par le déroulement de la phase
d’analyse de sensibilité des solutions optimales par rapport aux différents objectifs choisis par
l’ingénieur. Dans le cas présent, deux objectifs d’optimisation ont été considérés : F1 =
« densité du trafic » ; F2 = « échauffements des sous-stations ».
Nous nous sommes d’abord intéressés au problème mono-objectif « maximiser F1 », puis au
problème bi-objectif « maximiser F1et minimiser F2 ».
154
Solution la plus dense trouvée parmi les solutions réalisables:
Action12 34 km/h
Figure 52: Le critère sur les tensions générées par la solution la plus dense est respecté
Plus le trafic est dense, plus les sous-stations s’échauffent. Les ingénieurs s’intéressent à
avoir de compromis entre les deux critères : avoir une solution dense mais en minimisant
les échauffements des sous-stations. Ainsi, la Figure 53 montre l’ensemble des solutions
acceptables dans le plan (F1, F2). L’ensemble des points rouges constituent une
approximation de front Pareto.
155
F2 : Echauffements des sous-stations
L’ingénieur peut se contenter des solutions réalisables trouvées dans le post traitement au cours
de l’analyse de sensibilité. Cependant, il peut exister de meilleures solutions plus raffinées. Cela
passe par une réalisation d’une nouvelle campagne des échantillons avec un nouveau
paramétrage.
Pour cela, sur la base de l’analyse de sensibilité, les variables non importantes sont figées à
zéro, et la recherche sera effectuée dans un espace de dimension inférieure, ne comportant que
les actions importantes (𝐴𝑐𝑡𝑖𝑜𝑛2, 𝐴𝑐𝑡𝑖𝑜𝑛4, 𝐴𝑐𝑡𝑖𝑜𝑛9, 𝐴𝑐𝑡𝑖𝑜𝑛11). Une nouvelle compagne de
500 échantillons générés au voisinage de la solution optimale obtenue précédemment a été
réalisée.
156
Action d’ajustement Valeur
Action1 0 min
Action2 6.5 min
Action3 0 min
Action4 9.5 min
Action5 0 min
Action6 0 min
Action7 0 min
Action8 0 min
Action9 2 min
Action10 0 min
Action11 12 km/h
Action12 0 km/h
Figure 54: Le critère sur les tensions générées par la solution la plus dense raffinée est respecté
Cette solution est plus raffinée que la solution obtenue précédemment, elle est plus dense. Elle
contient moins d’ajustement dans le trafic. Sauf les quatre actions d’ajustements
(𝐴𝑐𝑡𝑖𝑜𝑛2, 𝐴𝑐𝑡𝑖𝑜𝑛4, 𝐴𝑐𝑡𝑖𝑜𝑛9, 𝐴𝑐𝑡𝑖𝑜𝑛11) qui apportent des améliorations pour le plan de
réorganisation ont été utilisées. Les autres actions non importantes n’ont été pas utilisées parce
qu’ils se répercutent négativement sur les voyageurs.
Dans cette section, nous présentons le travail réalisé en appliquant une méthode d’optimisation
méta-heuristique PSO (Particle Swarm Optimization) afin de comparer les résultats d’une méta-
heuristique et ceux de notre méthodologie.
157
Résultats
Nous avons appliqué le même test « Réseau axe Montparnasse Versailles » avec le même
nombre d’échantillons exploité dans le calcul précédent (1500 échantillons = 20 particules * 75
itérations).
La solution trouvée est obtenue avec une convergence prématurée à l’itération n°34.
Conclusion
Nous avons appliqué ce cas d’étude d’un trafic multi-ligne hétérogène (TER, TGV et FRET)
alimenté en mode DC.
Nous avons appliqué notre approche de réorganisation, qui constitue à réaliser une phase
d’analyse de sensibilité en pré-étude afin de réduire la dimension de problème. Huit actions
d’ajustement ont été identifiées non influentes et ont été éliminées. Nous avons obtenu des
158
solutions réalisables et des solutions optimales locales dans la phase post traitement, puis des
solutions mieux raffinées après avoir appliqué une phase d’optimisation.
Nous avons ensuite appliqué une méthode d’optimisation méta-heuristique (PSO) sur le même
test et nous avons présenté les résultats. Nous avons obtenu une solution optimale locale avec
une convergence prématurée dès l’itération n°34 dont le nombre total d’itérations est 75. Avec
cette méthode nous ne pouvons pas savoir si les ajustements implémentés ont un rôle ou non
dans le processus de réorganisation, et par conséquent les huit actions non influentes n’ont pas
été éliminées. Par contre, à l’aide de notre méthode ces huit actions ont été supprimées afin
d’avoir de solutions raffinées.
A- Description de la géométrie
Le cas test correspond à plusieurs lignes, alimentées en 1500 V DC, par 83 sous-stations et
parcourue par un trafic homogène (plus que 300 circulations de RER). Ce trafic comporte aussi
des circulations composées compliquées.
Ligne5
GRIAUL
T
La Figure 56 et la Figure 57 montrent les résultats de simulation dans le cas normal et dans le
cas dégradé.
Dans le cas dégradé (Figure 57), la tension caténaire chute en dessous du seuil minimal (ligne
rouge), et le profil de vitesse indique que le réseau électrique ne peut pas fournir la puissance
nécessaire à la réalisation des consignes de vitesse sur la ligne 9. Il faut ajuster le trafic.
159
Figure 56: La qualité d’alimentation et la vitesse des trains sur la ligne 5 en mode nominal
Vitesse des
trains réduite
Figure 57: La qualité d’alimentation et la vitesse des trains sur la ligne 5 en mode dégradé
Les profils de tension et de vitesse semblent indiquer que c’est entre les pk50 et pk70 que
l’alimentation des trains est la plus perturbée. Outre l’espacement entre trains, nous avons donc
proposé d’étudier l’influence d’une réduction de vitesse dans cette région. Nous avons alors
défini les actions d’ajustement suivantes :
160
1) 𝐴𝑐𝑡𝑖𝑜𝑛1 : Augmentation de l’intervalle entre les départs des trains RER sur la ligne
5.
2) 𝐴𝑐𝑡𝑖𝑜𝑛2 : Réduction de vitesse (RV1) sur la ligne 5 entre 𝑝𝑘 60 et 𝑝𝑘 70.
3) 𝐴𝑐𝑡𝑖𝑜𝑛3 : Réduction de vitesse (RV2) sur la ligne 5 entre 𝑝𝑘 70 et 𝑝𝑘 80.
L’outil regroupe les circulations de type RERD selon leurs missions (Ligne/voie/départ/type),
et affecte une action d’ajustement pour chaque groupe comme montre le Tableau 30.
Action d’ajustement H Groupe des circulations
L5/V2/pkdebut= 32368
Action 2 Groupe 2 (RERD)
-L4V2-L3V2-L1V4
L5/V2/pkdebut = 76644
Action 3 Groupe 3 (RERD)
-L3V2
L3/V1/pkdebut=21129
Action 4 Groupe 4 (RERD)
-L5V1
Action 5 Groupe 5 (RERD) L3/V1/pkdebut = 52375
Action 6 Groupe 6 (RERD) L3/V1/pkdebut=32368
L1/V3/pkdebut = 00150
Action 7 Groupe 7 (RERD)
-L3V1-L4V1-L5V1
L3/V2/pkdebut=32368
Action 8 Groupe 8 (RERD)
-L1V4
Tableau 30: Liste des actions d'ajustement reformulées effectuées dans le fichier horaire H.DAT (L : Ligne ; V : Voie)
Tableau 31: Liste des actions d’ajustement effectuées dans le fichier marche M.DAT
Donc après avoir reformulé les actions, nous avons obtenu 11 variables d’ajustement 𝑋 =
(𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 , 𝑋5 , 𝑋6 , 𝑋7 , 𝑋8 , 𝑋9 , 𝑋10 , 𝑋11 ) d’où 𝑋𝑖 est associé à 𝐴𝑐𝑡𝑖𝑜𝑛 𝑖.
161
C- Phase d’analyse de sensibilité
Les résultats de l’analyse de sensibilité reportés dans le Tableau 32 font ressortir cinq actions
d’ajustement importantes et six actions non importantes.
Tableau 32: D-stat (le degré de l’importance) et P-value (les valeurs de la significativité statistique) calculés à partir de
1000 échantillons
Pour ce cas-test, à partir des résultats d’analyse de sensibilité, nous constatons que seules trois
actions d’ajustement (𝐴𝑐𝑡𝑖𝑜𝑛1, 𝐴𝑐𝑡𝑖𝑜𝑛3, 𝐴𝑐𝑡𝑖𝑜𝑛4) qui concernent l’espacement entre les
départs de trains, et les deux actions d’ajustement (𝐴𝑐𝑡𝑖𝑜𝑛10, 𝐴𝑐𝑡𝑖𝑜𝑛11) qui concernent la
réduction de vitesse, sont importantes dans le processus de réorganisation. Jouer sur ces actions
sensibles, apporte un bénéfice pour produire des solutions acceptables qui respectent les
contraintes (le seuil de tensions, les échauffements,…).
Nous recherchons parmi les solutions acceptables générées par le déroulement de la phase
d’analyse de sensibilité des solutions optimales par rapport aux différents objectifs choisis par
l’ingénieur. Dans le cas présent, deux objectifs d’optimisation ont été considérés : F1 =
« densité du trafic » ; F2 = « échauffements des sous-stations ».
Nous nous sommes d’abord intéressés au problème mono-objectif « maximiser F1 », puis au
problème bi-objectif « maximiser F1et minimiser F2 ».
Mono-objectif maximiser F1
162
Nous Noterons que la densité nominale est égale à 26.97 trains par heure.
Figure 58: Le critère sur les tensions générées par la solution la plus dense est respecté
Réduction de paramétrage
L’ingénieur peut se contenter des solutions réalisables trouvées dans le post traitement au cours
de l’analyse de sensibilité. Cependant, il peut exister de meilleures solutions plus raffinées. Cela
passe par une réalisation d’une nouvelle campagne des échantillons avec un nouveau
paramétrage.
163
Pour cela, sur la base de l’analyse de sensibilité, les variables non importantes sont figées à
zéro, et la recherche sera effectuée dans un espace de dimension inférieure, ne comportant que
les actions importantes (𝐴𝑐𝑡𝑖𝑜𝑛1, 𝐴𝑐𝑡𝑖𝑜𝑛3, 𝐴𝑐𝑡𝑖𝑜𝑛4, 𝐴𝑐𝑡𝑖𝑜𝑛10, 𝐴𝑐𝑡𝑖𝑜𝑛11). Une nouvelle
compagne de 500 échantillons générés au voisinage de la solution optimale obtenue
précédemment a été réalisée.
Figure 59: Le critère sur les tensions générées par la solution la plus dense raffinée est respecté
164
Cette solution est plus raffinée que la solution obtenue précédemment, elle est plus dense. Elle
contient moins d’ajustement dans le trafic. Toutes les actions d’ajustements qui ont été
identifiées comme « non importante » dans la phase d’analyse ont été éliminées.
Plus le trafic est dense, plus les sous-stations s’échauffent. Les ingénieurs s’intéressent à avoir
de compromis entre les deux critères : avoir une solution dense mais en minimisant les
échauffements des sous-stations. Ainsi, la Figure 60 montre l’ensemble des solutions
acceptables dans le plan (F1, F2). L’ensemble des points rouges constituent une approximation
de front Pareto.
Figure 60: Un ensemble de solutions acceptables dans le plan (F1, F2) : les points rouges représentent les solutions non
dominées (approximate pareto set); les points bleus représentent les solutions réalisables dominées.
A- Description de la géométrie
Le cas test correspond à plusieurs lignes, alimentées en 25000 V AC, par 83 sous-stations et
parcourue par un trafic hétérogène (TGV, FRET, TER). Ce trafic est dense et encombré, d’où
la grille horaire contient plus que 3000 trains dont 408 trains circulent sur la ligne 1.
165
Ligne 1
La Figure 62 et la Figure 63 montrent les résultats de simulation dans le cas normal et dans le
cas dégradé.
Dans le cas dégradé (Figure 63), la tension caténaire chute fortement en dessous du seuil
minimal (ligne rouge) sur la ligne 1. Il faut ajuster le trafic.
Figure 62: La qualité d’alimentation et la vitesse des trains sur la ligne 1 en mode nominal
166
Figure 63: La qualité d’alimentation et la vitesse des trains sur la ligne 1 en mode dégradé
Dans ce cas test, nous avons choisi d’augmenter l’intervalle de départ entre les trains, sans
faire de réduction de vitesse (besoins métiers). Nous définissons donc les actions
d’ajustement suivantes:
1) 𝐴𝑐𝑡𝑖𝑜𝑛 1 : Augmentation de l’intervalle de départ entre les trains TER sur la ligne
1.
2) 𝐴𝑐𝑡𝑖𝑜𝑛 2 : Augmentation de l’intervalle de départ entre les trains FRET sur la ligne
1.
3) 𝐴𝑐𝑡𝑖𝑜𝑛 3 : Augmentation de l’intervalle de départ entre les trains TGV sur la ligne
1.
2. Regroupement automatique et reformulation d’ajustements :
167
Action d’ajustement H Groupe des circulations
Groupe 2 (FRET)
6 sous-groupes, chaque sous-groupe ayant un
Action 2 L1/V2
pk début différent
Sous-groupe1:
Action 6 Groupe 6 (TGV) L1/V1/pkdebut = 0
Sous-groupe2 :
L1/V1/pkdebut = 14592
Tableau 35: Liste des actions d'ajustement reformulées effectuées dans le fichier horaire H.DAT (L : Ligne ; V : Voie)
Les résultats d’analyse classifient les six actions d’ajustement entre action « Importante » et
action « Non importante » comme les montre le Tableau 36.
Tableau 36: D-stat (le degré de l’importance) et P-value (les valeurs de significativité) calculés à partir de 1000
échantillons
A partir des résultats d’analyse de sensibilité, nous constatons que sauf deux actions
d’ajustement (𝐴𝑐𝑡𝑖𝑜𝑛1 et 𝐴𝑐𝑡𝑖𝑜𝑛4) sont importantes dans le processus de réorganisation dans
168
ce test cas. Jouer sur ces actions sensibles apporte un bénéfice pour produire des solutions
acceptables qui respectent les contraintes (le seuil de tensions, les échauffements,…). Tandis
que jouer sur les autres actions qui sont non sensibles n’apporte pas des améliorations pour le
processus. Cependant leur application se répercute négativement sur les voyageurs.
D- Post-traitement et optimisation
Nous recherchons parmi les solutions acceptables générées par le déroulement de la phase
d’analyse de sensibilité des solutions optimales par rapport aux différents objectifs choisis par
l’ingénieur. Dans le cas présent, deux objectifs d’optimisation ont été considérés : F1 =
« densité du trafic » ; F2 = « temps moyen de parcours des trains».
Nous nous sommes d’abord intéressés au problème mono-objectif « maximiser F1 », puis au
problème bi-objectif « maximiser F1et minimiser F2 ».
Figure 64: Le critère sur les tensions générées par la solution la plus dense est respecté
169
Réduction de paramétrage et amélioration de solutions
L’ingénieur peut se contenter des solutions réalisables trouvées dans le post traitement au cours
de l’analyse de sensibilité. Cependant, il peut exister de solutions meilleures plus raffinées. Cela
passe par une réalisation d’une nouvelle campagne d’échantillonnage avec un nouveau
paramétrage.
Pour cela, sur la base de l’analyse de sensibilité, les variables non importantes sont figées à
zéro, et la recherche sera effectuée dans un espace de dimension inférieure, ne comportant que
les actions importantes (𝐴𝑐𝑡𝑖𝑜𝑛1, 𝐴𝑐𝑡𝑖𝑜𝑛4). Une nouvelle compagne de 500 échantillons
générés au voisinage de la solution optimale obtenue précédemment a été réalisée.
Figure 65: Le critère sur les tensions générées par la solution la plus dense raffinée est respecté
170
Cette solution est plus raffinée que la solution obtenue précédemment, elle est plus dense. Elle
contient moins d’ajustement dans le trafic. Les ajustements qui ne servent à rien et qui se
répercutent négativement au plan de réorganisation ont été éliminés.
Plus le trafic est dense, plus les trains sont ralentis. Les ingénieurs s’intéressent à avoir de
compromis entre les deux critères : avoir une solution dense mais qui ralentit pas beaucoup les
trains. Ainsi, la Figure 66 montre l’ensemble des solutions acceptables dans le plan (F1, F2).
L’ensemble des points rouges constituent une approximation de front Pareto.
Figure 66: Un ensemble de solutions acceptables dans le plan (F1, F2) : les points rouges représentent les solutions non
dominées (approximate pareto set); les points bleus représentent les solutions réalisables dominées.
5.4. Conclusion
Dans ce chapitre, nous avons détaillé la démarche proposée pour réorganiser le trafic pendant
un incident sur un équipement d’alimentation de lignes électrifiés.
La méthode proposée a été appliquée à quatre cas tests basés sur des données réelles et couvrant
différentes topologies. Les résultats obtenus montrent l’efficacité de notre méthodologie pour
déterminer une nouvelle grille de trafic dans le cas de la perte totale d’une sous-station
d’alimentation électrique.
Suivant les résultats de cas tests, nous n’avons pas obtenu des règles générales pour la
réorganisation, chaque cas nécessitant d’agir différemment de par la diversité de ceux-ci. Ce
qui justifie le développement d’un outil qui va être applicable pour chaque nouveau problème.
171
Les quatre cas tests étudiés sont de différents type d’alimentation (AC et DC). Le premier test
« axe Paris Le Mans- Paris Tours », est le plus simple parmi ces quatre tests, il s’agit d’un
réseau en AC comportant deux lignes et un trafic homogène de TGV. Six actions d’ajustement
ont été reformulées pour ce cas-test, à l’aide des résultats d’analyse de sensibilité, nous avons
supprimé trois qui sont considérées non importantes. Dans le deuxième test « axe
Montparnasse-Versailles », nous avons étudié un trafic hétérogène (TER, FRET, TGV)
circulant sur plusieurs lignes (5 lignes) en DC. Le troisième test « axe Corbeil-Malesherbes »,
qui s’agit d’un trafic de RER alimenté en DC est plus dense que les deux premiers tests. Le
dernier test étudié « axe Paris Nord » est le plus complexe, d’où le trafic alimenté en AC est
considéré le plus dense en Europe.
Les résultats de ces tests montrent que la phase d’analyse de sensibilité joue un rôle important
dans le processus en réduisant la dimension du problème et découvrant l’espace de solutions
réalisables. A l’aide de la méthode d’analyse de sensibilité régionale, les ajustements qui ne
servent à rien, et qui à l’opposé provoquent de perte parce que leur mise en place coûte cher
sans apporter des améliorations pour la réorganisation du trafic peuvent être identifiés et
éliminés. Prenons l’exemple d’une action d’ajustement qui consiste à réduire la vitesse de trains
de voyageurs sur une portion de ligne, mais l’analyse montre que cette action ne présente
aucune amélioration sur le plan de réorganisation. Mettre en place cette action, cela peut être
traduit par ralentir les trains et impacter négativement les voyageurs. Un autre exemple sur une
action d’ajustement qui consiste à supprimer certaines circulations. Les résultats d’analyse de
sensibilité montrent que cette action ne joue aucun rôle dans le processus de réorganisation. Par
contre, la mise en place de cette action se répercute négativement sur les voyageurs et
l’entreprise. Donc, en conclusion, savoir l’influence des actions d’ajustement est une tâche
importante dans le plan de réorganisation.
Dans la phase d’optimisation, l’outil recherche les solutions réalisables, puis il lance une
nouvelle campagne de simulations à l’entourage de la solution meilleure trouvée parmi ces
solutions réalisables, afin de rechercher une solution raffinée en utilisant que les actions
d’ajustement importantes. Pour les quatre cas étudiés, la méthode a trouvé un ensemble de
solutions meilleures que le premier ensemble déterminé, vis-à-vis du critère d’optimisation.
L’utilisateur peut choisir une de ces solutions, celle qui lui parait la convenable dans une
situation donnée.
172
Nous avons appliqué la méthode méta-heuristique (PSO) à deux cas tests (Test1 et Test 2). Les
résultats de PSO montrent que la méthode converge vite et la solution reste bloquée. A partir
d’une méthode d’optimisation, l’influence des ajustements est inconnue, ce qui ne permet pas
de supprimer les ajustements qui n’ont aucun profit dans la réorganisation. A l’aide de notre
méthodologie, l’intégration de l’analyse de sensibilité guide la recherche de la solution afin de
se concentrer sur les dimensions de l’espace de décision les plus prometteuses. Elle permet
d’éliminer les ajustements qui n’ont pas impact, ce qui permet ainsi d’améliorer la qualité de la
recherche.
173
Conclusions et Perspectives
Conclusions
Au cours de cette thèse, nous avons proposé une méthodologie de réorganisation du trafic
ferroviaire en cas d’incident sur une infrastructure électrique. Elle permet de répondre à la
problématique d’une capacité électrique réduite du réseau empêchant la réalisation d’un trafic
nominal, nécessitant donc une réorganisation de celui-ci.
L’objectif du travail est de rechercher un nouveau trafic avec un grand nombre de trains qui
circulent en respectant les contraintes opérationnelles. Le système étudié constitue un problème
de grandes dimensions. Son étude implique un code de simulation informatique complexe,
coûteux en temps de calcul et comportant un grand nombre de variables. Nous avons proposé
une procédure de réorganisation adaptée à ces caractéristiques. Elle comprend deux phases
principales : une phase d’analyse de sensibilité et une phase d’optimisation.
Dans le chapitre 1 de la thèse nous nous sommes attachés à mieux définir les besoins inhérents
à notre projet, et notamment à positionner notre problème au regard de la bibliographie
disponible sur le sujet spécifique de la réorganisation du trafic. L’étude bibliographique nous a
révélé que plusieurs techniques ont été appliquées pour aborder la gestion des incidents pendant
une faible perturbation (impact limité aux grilles horaires) ou pendant une forte perturbation
(impact sur les grilles horaires et sur les plannings des matériels et des équipages). Toutefois,
les études impliquant des incident sur les infrastructures ne considèrent pas les causes physiques
des réductions de capacité d’une ligne, mais seulement la réduction de la capacité, supposée
connue. Dans notre cas, le problème à traiter est celui de la réorganisation du trafic en cas
d’incident électrique (panne d’une sous-station) qui conduit à une diminution de la capacité
électrique du réseau. La réduction de capacité de transport provoquée par la perte de
l’infrastructure électrique n’est pas une donnée du problème, mais sera de fait le résultat de
l’optimisation. Les méthodes de la littérature se sont donc révélées inadaptées, nécessitant le
développement d’une nouvelle méthode.
174
Par la suite, dans le chapitre 2, nous avons présenté le modèle numérique du réseau électrique
ferroviaire. C’est un modèle contraint, de coût calculatoire élevé, avec un grand nombre de
variables et des sorties de grande dimension. Sur la base de cette présentation, nous avons
conclu que notre problème ne rentre dans aucune de méthodes d’optimisation classiques. A cet
égard, nous avons choisi d’utiliser l’analyse de sensibilité.
Dans le chapitre 3, nous avons présenté en détails trois méthodes d’analyse de sensibilité et
sélectionné celle étant la plus adaptée à notre problème:
Après avoir étudié théoriquement ces trois méthodes, nous avons conclu que la méthode
d’analyse de sensibilité régionale est la plus adaptée à notre problématique, étant donné qu’elle
apporte une analyse sur l’influence des entrées sur la sortie après avoir considéré les contraintes.
Dans le chapitre 4, nous avons comparé ces trois méthodes d’un point de vue pratique afin de
confirmer l’intérêt d’utiliser l’analyse de sensibilité régionale. Nous avons appliqué notre
méthodologie à un test simple pour clarifier les différentes étapes de la démarche, en utilisant
les trois méthodes d’analyse de sensibilité présentées dans le chapitre 3. Les résultats
confirment l’intérêt de la méthode d’analyse de sensibilité régionale. Elle est la plus adaptée à
notre modèle complexe, elle est la moins coûteuse en termes de coût de calcul et de stockage.
175
Dans le chapitre 5, nous avons étudiés quatre tests réels de différents types d’alimentation
électrique (AC et DC) et de différentes topologies. Ces tests comportent un trafic dense et
multi-ligne. Les résultats de ces tests montrent l’efficacité de notre prototype et l’importance
de l’analyse de sensibilité dans l’amélioration de la qualité de solutions. En conclusion générale,
les résultats montrent que nous ne pouvons pas tirer des règles et procédures générales, qui
pourraient être conformes en cas d’incident sur une infrastructure électrique. Pour chaque cas-
test, il faut agir différemment, ce qui justifie la nécessité d’un outil d’analyse et d’aide à la
décision, qui peut être applicable pour chaque nouveau problème.
Perspectives
Les travaux présentés dans notre projet ont abouti à un premier prototype de l’outil de
réorganisation du trafic en cas d’incident sur un équipement d’alimentation de lignes
électrifiées. Les perspectives identifiées concernant quatre objectifs importants dans le cadre de
la gestion opérationnelle et de l’optimisation des opérations ferroviaires, au sein de l’ingénierie
de SNCF Réseau (DGII-TE-CES5).
Premièrement, les résultats de la méthode que nous avons proposée dans le cadre de cette thèse
ont suscité un fort intérêt des équipes de l’ingénierie. Nous envisageons donc de donner une
suite immédiate à nos travaux par une phase d’industrialisation du prototype développé. Des
fonctionnalités supplémentaires seront ajoutées et l’ergonomie améliorée avant de livrer l’outil
aux équipes de CES5 pour leurs études.
Nous proposons également d’étendre l’analyse de sensibilité proposée par notre méthode à
d’autres problèmes rencontrés par l’ingénierie. Celle-ci peut en effet être appliquée pour étudier
la sensibilité d’une infrastructure aux aléas de trafic. On pourrait alors évaluer la robustesse des
infrastructures contre les aléas en déterminant les points faibles de l’infrastructure.
Enfin, il serait possible d’aller plus loin vers la création d’outils permettant de déterminer
automatiquement quelle est l’infrastructure la plus robuste (vis-à-vis des aléas de circulation)
pour répondre à une grille de circulation donnée (c’est-à-dire inverser le problème par rapport
à la thématique de nos travaux).
176
177
Bibliographie
[1] «Chiffres clés du transport - Edition 2019,» Publié le 24/04/2019. [En ligne].
Available: https://www.statistiques.developpement-durable.gouv.fr/chiffres-cles-du-
transport-edition-2019. [Accès le 21 7 2019].
[2] Wikipedia, «Histoire des chemins de fer,» 9 aout 2018. [En ligne]. Available:
https://fr.wikipedia.org/wiki/Histoire_des_chemins_de_fer. [Accès le 21 10 2018].
[3] S. Bill, «Historique du chemin de fer,» 17 aout 2018. [En ligne]. Available:
http://billsergeconseil.com/historique-4/. [Accès le 21 10 2018].
[4] C. Raynard , F. Vielliard et D. Auverlot, «Le train à grande vitesse dans le monde,»
chez Perspectives d'avenir, Centre d'analyse stratégique, Octobre 2011.
[8] C. Morvant, Le processus de répartition des capacités sur le réseau ferré francais:
quelle place pour le fret ?, Université Parris-Est, 2015.
[11] Direction de la capacité et des sillons, Normes de tracé horaire sur les lignes nationales
pour le SA 2019, Document interne SNCF Réseau, 2018.
178
[12] J. DAMAS, N. DE SAINT-PULGENT, B. GAZEAU, V. LUCAS, Y. PUTALLAZ, Y.
RAMETTE et A. THAUVETTE, A la reconquête de la robustesse des services
ferroviaires, Document interne SNCF, 7 juillet 2017.
[13] Direction Grandes Lignes;, Gestion opérationnelle des trafics voyageurs, Document
interne SNCF, 1999.
[16] L. Abrahamsson, «Railway power supply models and methods for ling-term
investment analysis,» Sweden, 2008.
[19] «Siemens Rail Technology - Integrated Mobility Solutions,» [En ligne]. Available:
https://www.siemens.com/us/en/home/company/topic-areas/intelligent-
transportation.html. [Accès le 13 02 2019].
[21] «OpenPowerNet - Simulation software for railway power supply systems,» [En ligne].
Available: http://www.openpowernet.de/. [Accès le 14 02 2019].
179
[22] «OpenTrack Railway Technology,» [En ligne]. Available:
http://www.opentrack.ch/opentrack/opentrack_e/opentrack_e.html. [Accès le 14 02
2019].
180
[31] A. D'Adriano, M. Pranzo et I. A. Hansen, «Conflict Resolution and train speed
coordination for solving real-time timetable perturbations,» IEEE Transactions on
intelligent transportation systems, vol. 8, n° %12, pp. 208-222, June 2007.
[33] A. D'Adriano et M. Pranzo, «AN Advanced Real-time train dispatching system for
minimizing the propagation of delays in a Dispatching Area Under Severe
Disturbances,» Netorks and spatial economics, vol. 9, n° %11, pp. 63-84, 2009.
[36] W. Rei, M. Gendreau et P. Soriano, «Local branching cuts for the 0-1 Integer L-
Shaped Algorithm,» Department of Computer Science and Operations Research of the
Université de Montréal, 2007.
[37] Z. He, «Research on improved greedy algorithm for train rescheduling,» chez 2011
seventh international conference on computational intelligence and security, Hainan,
China, 2011.
[38] M. Schachtebeck et A. Schobel, «To wait or Not wait - And who goes first ? delay
management with priority decisions,» Transportation science, vol. 44, n° %13, pp.
307-321, August 2010.
181
[40] J. Krasemann, «Greedy algorithm for railway traffic re-scheduling during disturbances:
A swedish case,» IET intelligent transport systems, vol. 4, n° %14, pp. 375-386, 2010.
[41] J. T. Krasemann, «Design of an effective algorithm for fast response to the re-
scheduling of railway traffic during disturbances,» Transportation Research Part C,
vol. 20, pp. 62-78, 2012.
[44] S. Dundar et I. Sahin, «Train re-scheduling with genetic algorithms and artificial
neural networks for single-track railways,» Transportation Research Part C, vol. 27,
pp. 1-15, 2013.
[48] P. Wang, L. Ma, R. Goverde et Q. Wang, «Rescheduling Trains using petri nets and
heuristic search,» IEEE Transactions on intelligent transportation systems, vol. 17,
n° %13, 2016.
182
[49] T. Dollevoet, D. Huisman, M. Schmidt et A. Schobel, «Delay Management with
rerouting of passengers,» Transportation science, vol. 46, n° %11, pp. 74-89, February
2012.
[52] A. Scobel, «Capacity constraints in delay management,» Public Transport, vol. 1, pp.
135-154, 2009.
[53] S. kanai, K. Shiina, S. Harada et N. Tomii, «An optimal delay management algorithm
from passengers' viewpoints considering the whole railway network,» Journal of Rail
Transport Planning and Management, vol. 1, pp. 25-37, 2011.
[56] F. Donzella, M. del Cacho Estil-les et C. Bersani, «Train scheduling and rescheduling
model based on customer satisfaction. Application to Genoa railway network,» chez
13th annual conference on system of systems engineering (SOSE), Paris, 2018.
[57] Y.-H. Min, M.-J. Park, S.-P. Hong et S.-H. Hong, «An appraisal of a column-
generation-based algorithm for centralized train-conflict resolution on a metropolitan
railway network,» Transportation Research Part B, vol. 45, pp. 409-429, 2011.
183
[58] R. Acuna-Agost, P. Michelon, D. Feillet et S. Gueye, «SAPI: Statistical Analysis of
propagation of incidents. A new approach for resceduling trains after disruptions,»
European journal of operational research, vol. 215, pp. 227-243, 2011.
[63] Y. Qin, L. Wang, H. Lian, X. Meng, X. Li, F. Shi et L. Jia, «Fuzzy optimization model
based tolerance approach to timetable rescheduling for high speed railway in china,»
chez 2011 IEEE international conference on fuzzy systems, Taipei, Taiwan, 2011.
184
[67] G. Caimi, M. Fuchsberger, M. Laumanns et M. Luthi, «A model predictive control
approach for discrete-time rescheduling in complex central railway station areas,»
Computers and Operations Research, vol. 39, pp. 2578-2593, 2012.
[69] L. Chen, C. Roberts, F. Schmid et E. Stewart, «Modeling and solving real-time train
rescheduling problems in railway bottleneck sections,» IEEE Transactions on
intelligent transportation systems, vol. 16, n° %14, August 2015.
[70] J. Tornquist et J. A. Persson, «Train Traffic Deviation Handling Using Tabu Search
and Simulated Annealing,» chez Proceedings of the 38th Hawaii International
Conference on system Sciences, 2005.
[71] J. Eaton et S. Yang, «Dynamic railway junction rescheduling using population based
ant colony optimisation,» 2014 14th UK Workshop on Computational Intelligence
(UKCI), pp. 1-8, 2014.
[72] J. Eaton , S. Yang et M. Gongora, «Ant colony optimization for simulated dynamic
multi-objective railway junction rescheduling,» IEEE Transactions on Intelligent
Transportation systems, vol. 99, pp. 1-13, 2017.
185
[76] F. Corman, A. D'Adriano, D. Pacciarelli et M. Pranzo, «A tabu search algorithm for
rerouting trains during rail operations,» Transportation research part B, vol. 44,
n° %11, pp. 175-192, 2010.
[81] X. Li, B. Shou et D. Ralescu, «Train rescheduling with stochastic recovery time: A
new Track-Backup approach,» IEEE Transactions on systems, man, and cybernetics:
systems, vol. 44, n° %19, pp. 1216-1233, 2014.
186
[85] s. Binder, J. Chen et M. Bierlaire, «Generation and evaluation of passenger-oriented
railway disposition timetables,» chez 14th Swiss Transport research conference,
Monte verita / Ascona, 2014.
[88] J. Jacques, «Pratique de l'analyse de sensibilité: comment évaluer l'impact des entrées
aléatoires sur la sortie d'un modèle mathématiques,» PUB.IRMA, vol. 71, n° %13,
2011.
187
[94] O. Garcia-Cabrejo et A. Valocchi, «Global Sensitivity analysis for multivariate output
using polynomial chaos expansion,» Reliability engineering and system safety, vol.
126, pp. 25-36, 2014.
188
[104] B. Iooss, «Revue sur l'analyse de sensibilité globale de modèles numériques,» Journal
de la société francaise de statistique , vol. 152, n° %11, 2011.
[106] T. Turanyi, «Sensitivity analysis of complex kinetic systems. Tools and applications,»
Journal of mathematical chemistry, n° %15, pp. 203-248, 1990.
[112] B. Iooss, «Revue sur l'analyse de sensibilité globale de modèles numériques,» Journal
de la société française de statistique, vol. 152, n° %11, 2011.
[113] J. Morio, «Global and local sensitivity analysis methods for a physical system,»
European journal of physics, vol. 32, n° %16, October 2011.
189
[114] M. Petelet, «Analyse de sensibilité globale de modèles thermomécaniques de
simulation numérique du soudage,» Université de Bourgogne, 2007.
[117] H. Yang, «Quasi Random sampling for operations management,» Seoul journal of
business, vol. 12, n° %11, June 2006.
[120] D. L. Ishaan, S. Deian et H. G. Jared, «Low discrepancy sequences for Monte Carlo
simulations on reconfigurable platforms,» The cooper union for the advancement of
Science and Art, New York.
[122] S. Burhenne, D. Jacob et G. Henze, «Sampling based on sobol' sequences for monte
carlo techniques applied to building simulations,» chez 12th conference of
international building performance simulation association, Sydney, 2011.
190
[124] P. Bratley et B. L. Fox, «Algorithm 659: Implementing Sobol's quasirandom sequence
generator,» ACM Transactions on mathematical software (TOMS), vol. 14, n° %11,
pp. 88-100, 1988.
[128] A. Saltelli, «Making best use of model evaluations to compute sensitivity indices,»
Computer Physics Communications, vol. 145, n° %12, pp. 280-297, 2002.
[130] L. Gilquin, Echantillonnages Monte Carlo et quasi-Monte Carlo pour l'estimation des
indices de Sobol. Application à un modèle transport-urbanisme, Ecole des Mines de
Saint Etienne, 2016.
[131] H. Wan, J. Xia, L. Zhang, D. She, Y. Xiao et L. Zou, «Sensitivity and Interaction
Analysis based on Sobol' Method and its application in a distributed Flood Forecasting
Model,» Water (Switzerland), pp. 2924-2951, 2015.
191
[134] M. Matieyendou, Analyse de sensibilité pour les modèles dynamiques utilisés en
agronomie et environnement, AgroParisTech: Mathématiques, 2009.
[139] L. Gilquin, «Echantillonnages Monte Carlo et quasi-Monte Carlo pour l'estimation des
indices de Sobol': application à un modèle transport-urbanisme,» Analyse numérique,
Université Grenoble Alpes, 2016.
[140] I. M. Sobol, «Global sensitivity indices for nonlinear mathematical models and their
Monte Carlo estimates,» Mathematics and Computers in simulation 55, pp. 271-280,
2001.
192
[144] M. Lamboni, H. Monod et D. Makowski, «Multivariate sensitivity analysis to measure
global contribution of input factors in dynamic models,» Reliability Engineering &
System Safety, vol. 96, n° %14, pp. 450-459, avril 2011.
[148] I. Dimov et R. Georgieva, «Monte Carlo algorithms for evaluating Sobol sensitivity
indices,» Mathematics and computers in simulation, vol. 81, pp. 506-514, 2010.
[150] C. Lijie, R. Bo et L. Ze, «Importance measures of basic variable under multiple failure
modes and their solutions,» chez IEEE Chinese guidance, navigation and control
conference, Nanjing, China, 2016.
[152] F. Pianosi et T. Wagener, «A simple and efficient method for global sensitivity
analysis based on cumulative distribution functions,» Environmental modelling &
Software, pp. 1-11, 2015.
193
[154] M. Rizzo et G. Székely, «Energy distance,» Wiley Interdisciplinary reviews:
Computational statistics, vol. 8, pp. 27-38, 2016.
[159] Z. Wu, X. Yang et X. Sun, «Application of monte carlo filtering method in regional
sensitivity analysis of AASHTOware Pavement ME design,» Journal of traffic and
transportation engineering, vol. 4, n° %12, pp. 185-197, 2017.
194
[164] M. Ratto, A. Pagano et P. Young, «Factor Mapping and metamodelling,» JRC
scientific and technical repports, 2007.
[166] N. Smirnov et N. Smirnov, «On the estimation of the discrepancy between empirical
curves of distribution for two independent samples,» Bul math de l'univ de Moscou,
1939.
[173] S. Kucherenko et S. Song, «Different numerical estimators for main effect global
sensitivity indices,» London.
195
[174] R. Cukier, C. Fortuin, K. Shuler, A. Petschek et J. Schaibly, «Study of the sensitivity
of coupled reaction systems to uncertainties in rate coefficients,» Journal of chemical
physics, vol. 59, pp. 3873-3878, 1973.
[181] A. Saltelli et R. Bolado, «An alternative way to compute fourier amplitude sensitivity
test (fast),» Computational Statistics Data Analysis, n° %126, pp. 445-460, 1998.
[182] S. Tarantola, D. Gatelli et T. A. Mara, «Random balance designs for the estimation of
first-order sensitivity inidces,» Reliability Engineering and System Safety, pp. 717-727,
2006.
[183] T. A. Mara., «Extension of the rbd-fast method to the computation of global sensitivity
indices,» Reliability Engineering and system safety, pp. 1274-1281, 2009.
196
[184] S. Nanty, «Quantification des incertitudes et analyse de sensibilité pour codes de calcul
à entrées fonctionnelles et dépendantes,» Statistiques, 17 Novembre 2015.
[186] E. Volkova, B. IOOS et F. Van Dorpe, «Global sensitivity analysis for a numerical
model of radionuclide migration from the RRC "Kurchatov Institute" radwaste diposal
site,» Stoch Environ Res Risk Assess, pp. 17-31, 2008.
[187] A. Marrel, B. IOOSS, F. Van Dorpe et E. Volkova, «An efficient methodology for
modeling complex computer codes with Gaussian processes,» Computational Statistics
and Data Analysis, pp. 4731-4744, 2008.
[193] G. Blatman et B. Sudret, Adaptive sparse polynomial chaos expansion based on least
angle regression, 2010.
197
[194] N. El Mocayd, «La décomposition en polynomes du chaos pour l'amélioration de
l'assimilation de données ensembliste en hydraulique fluviale,» Institut national
polytechnique de Toulouse , 2017.
[195] M. Baudin et J.-M. Martinez, «Introduction to polynomials chaos with NISP,» 2013.
198
[204] «Fléau de la dimension,» 29 mars 2019. [En ligne]. Available:
https://fr.wikipedia.org/wiki/Fl%C3%A9au_de_la_dimension. [Accès le 05 06 2019].
199
Annexes
Annexe 1
FAST
La méthode FAST (acronyme de Fourier Amplitude Sensitivity Test) a été introduite par Cukier
[174] pour la première fois dans les années 70’s. La méthode a été initialement développée pour
étudier la cinétique des réactions chimiques. Elle consiste à décomposer la variance du modèle
en variances partielles par l’utilisation de la transformée de Fourier [175].
𝑌 = 𝑓(𝑋1, … , 𝑋𝑝)
Où 𝑌 est un scalaire et 𝑋 = (𝑋1, … , 𝑋𝑝) suit une loi uniforme sur [0,1]𝑝 .
Plus clairement, cette méthode est fondée sur la sélection de 𝑁 points de conception
(échantillon) sur une courbe de remplissage d’espace d’entrée p-dimensionnel, construit de
manière à explorer chaque facteur avec une fréquence (entière) différente 𝑤1 , … , 𝑤𝑝 . Un
algorithme assez complexe est utilisé pour définir les fréquences de manière à ce qu’elles soient
exemptes d’interférences jusqu’à un ordre donné M (M = 6 est généralement considéré comme
suffisant). Le modèle de calcul est exécuté à chaque point de conception (échantillon) et le
spectre de Fourier est calculé sur la sortie du modèle à des fréquences
spécifiques(𝑤𝑖 , 2𝑤𝑖 … , 𝑀𝑤𝑖 ) pour estimer l’indice de sensibilité du facteur 𝑋𝑖 .
200
A cet effet, les points de conception (c’est-à-dire les valeurs de facteur ou les échantillons) sont
échantillonnées à partir d’une courbe périodique avec une fréquence différente de 𝑤𝑖 attribué à
chaque facteur comme suit :
Où Xi est un facteur d’entrée, 𝑔𝑖 sont des fonctions de transformation à déterminer, sont choisis
selon le pdf (probability distribution function) de Xi, permettant un recouvrement uniforme de
[0,1]𝑝 , 𝑤1 , … , 𝑤𝑝 ∈ ℕ∗𝑝 est un ensemble de fréquences entières linéairement indépendantes
[177] et où 𝑠𝑗 est la variable paramétrique variant en [−𝜋, 𝜋]qui est échantillonnée sur sa plage
de variation en utilisant N points [178]. La Figure 67 représente l’allure de la courbe
𝑔1 (sin(𝑤1 𝑠)) pour w1 = 11.
La variance d’un facteur est obtenue à partir des coefficients de Fourier [179]. FAST exploite
la relation de Parseval pour décomposer la variance d’une réponse du modèle dans l’espace des
fréquences.
1 𝜋
𝑓0 = 𝐸[𝑌] = ∫ 𝑓 𝑋(𝑠) 𝑑𝑠.
2𝜋 −𝜋
1 𝜋 2
𝑉= ∫ 𝑓 𝑋(𝑠) 𝑑𝑠 − 𝑓02
2𝜋 −𝜋
201
En appliquant la formule de Parseval [180] on obtient
𝑉 ≃ ∑∞ 2 2 2 2
𝑗=−∞ 𝐴𝑗 + 𝐵𝑗 − (𝐴0 + 𝐵0 )
≃ 2 ∑(𝐴𝑗2 + 𝐵𝑗2 )
𝑗=1
1 𝜋
𝐴𝑗 = ∫ 𝑓 𝑋(𝑠) cos(𝑗𝑠) 𝑑𝑠,
2𝜋 −𝜋
1 𝜋
𝐵𝑗 = ∫ 𝑓 𝑋(𝑠) sin(𝑗𝑠) 𝑑𝑠.
2𝜋 −𝜋
La part de la variance due à une variable 𝑋𝑖 est la somme des carrés des coefficients de Fourier
𝐴𝑗 et 𝐵𝑗 attribués à la fréquence 𝑤𝑖 relative à 𝑋𝑖 et à ses harmoniques est définie par :
𝑉𝑖 = 2 ∑(𝐴2𝑝𝑤𝑖 + 𝐵𝑝𝑤𝑖
2
)
𝑝=1
2 2
∑∞
𝑝=1(𝐴𝑝𝑤𝑖 + 𝐵𝑝𝑤𝑖 )
𝑆𝑖 =
∑∞ 2 2
𝑗=1(𝐴𝑗 + 𝐵𝑗 )
La méthode FAST ne permet pas de calculer les indices de sensibilité totaux. Pour cela les
auteurs de [181] ont introduit la méthode Extended FAST, qui est une extension de cette
méthode aux indices de sensibilité totaux. En évaluant la part de variance due à toutes les
variables sauf 𝑋𝑖 comme la somme des carrés des coefficients de Fourier 𝐴𝑗 et 𝐵𝑗 attribués à
toutes les fréquences 𝑤~𝑖 autre que 𝑤𝑖 et ses harmoniques :
𝑝=1
202
L’indice de sensibilité total est donné par :
2 2
∑∞
𝑝=1(𝐴𝑝𝑤~𝑖 + 𝐵𝑝𝑤~𝑖 )
𝑆𝑇𝑖 =1−
∑∞ 2 2
𝑗=1(𝐴𝑗 + 𝐵𝑗 )
L’estimation des indices de sensibilité nécessite de définir les fonctions 𝑔𝑖 et les fréquences 𝑤𝑖
utilisées. Une borne 𝑀 pour l’évaluation des sommes doit aussi être choisie, les sommes infinies
n’étant numériquement pas évaluables. En effet les indices de sensibilité de premier ordre et
totaux seront estimés de la façon suivante :
2 2 2 2
∑𝑀
𝑝=1(𝐴𝑝𝑤𝑖 + 𝐵𝑝𝑤𝑖 ) ∑𝑀
𝑝=1(𝐴𝑝𝑤~𝑖 + 𝐵𝑝𝑤~𝑖 )
𝑆̂𝑖 = 𝑒𝑡 ̂
𝑆𝑇𝑖 = 1 −
∑𝑀 2 2
𝑗=1(𝐴𝑗 + 𝐵𝑗 ) ∑𝑀 2 2
𝑗=1(𝐴𝑗 + 𝐵𝑗 )
Plus M est grand, mieux les indices reflètent l’effet des variables,
Plus M est grand, plus le nombre de simulations sera élevé.
Le choix de M revient à faire un compromis entre la qualité des indices et le coût de leur
estimation. Cukier et al. [174] ont déterminé de façon empirique que le meilleur compromis
pour 𝑀 était 4 ou 6, et ce quel que soit la dimension du modèle.
Les auteurs de [181]ont conclu que FAST est parfois sujette à un biais dans le choix des
fréquences. Pour contourner cette difficulté liée au choix des fréquences, Tarantola et al 2006
[182] ont hybridé Fast avec la méthode RBD (Random balanced design), ce qui a donné la
méthode RBD-FAST. La méthode RBD a ensuite été étendue par Mara (2009) [183] au calcul
des indices totaux. Aussi, Tissot et Prieur (2012) montrent que les indices calculés avec cette
méthode sont biaisés et proposent une méthode pour corriger ce biais [184].
Un des avantages de la méthode FAST est que les indices de sensibilité peuvent être calculés
indépendamment les uns les autres, à partir d’un même échantillon de simulations, ce que ne
permet pas la méthode de Sobol qui nécessite deux échantillons.
203
Annexe 2
L’idée de métamodèle est de remplacer le modèle initial par un modèle approché appelé souvent
métamodèle (ou en anglais surrogate model). Il s’agit d’un modèle approchant le modèle
numérique de départ, qui nécessite un temps de calcul nettement diminué par rapport au modèle
original. Il est utilisé pour effectuer une SA fondée sur la variance pour les modèles
informatiques consommant du temps [185]. En conséquent, certains auteurs proposent
d’approcher le code informatique, à partir d’une conception initiale d’échantillonnage de petite
taille, par une fonction mathématique souvent appelée surface de réponse ou métamodèle [186].
Dans le cas où les paramètres d’entrée et de sortie du code sont scalaires, de très nombreuses
méthodes de construction de métamodèles ont été proposées, parmi lesquelles on peut citer les
modèles de régression linéaire généralisée, de régression non-paramétrique, les modèles
additifs généralisés, les processus gaussiens [187], les réseaux de neutrons [188], les polynômes
de chaos [189]etc.
Les méthodes fondées sur l’émulation sont parmi les méthodes exclues dans notre travail, dans
l’intérêt de maintenir la même forme analytique de notre simulateur.
Nous parlerons dans ce paragraphe d’un type d’émulateur : les Polynômes de Chaos.
Les réponses calculées par le code sont approchées par un développement polynomial dont les
coefficients sont calculés à partir de la spécification puis de la réalisation d’un plan
d’expériences numériques [191].
Les coefficients sont alors obtenus par intégration multidimensionnelle à partir de la réalisation
d’un plan d’expériences. Les polynômes de chaos sont des modèles linéaires et donc leurs
coefficients peuvent également être calculés par les méthodes classiques de construction de
métamodèles comme par exemple les moindres carrés.
204
Les auteurs de [192] montrent que toute variable aléatoire possédant une variance finie peut se
décomposer en une somme de PC.
+∞
𝑌 = ∑ 𝑎𝑗 𝜓𝑗 (𝑋1 , … , 𝑋𝑝 )
𝑗=0
Avec les coefficients déterministes 𝑎𝑗 qui sont inconnus et qu’on cherche à estimer, 𝜓𝑗 des
polynômes multi variables qui dépendent de 𝑋1 , … , 𝑋𝑝 et qui résultent du produit tensoriel des
𝜓𝑗 𝑋1 , … , 𝑋𝑝 = ∏ 𝜙𝑎𝑗 (𝑋𝑘 )
𝑘
𝑘=1
A la distribution des paramètres 𝑋𝑖 est associée une famille de polynômes 𝜙𝑎𝑗 (𝑋𝑘 ) , afin de
𝑘
former une base orthogonale, assurant ainsi l’unicité de la décomposition [194]. Par exemple,
si 𝑋𝑖 suit une loi normale, les 𝜙𝑎𝑗 sont des polynômes de Hermite. Si 𝑋𝑖 suit une loi uniforme,
𝑘
Loi Polynôme
Normale Hermite
Uniforme Legendre
Beta Jacobi
Exponentielle Laguerre
Tableau 39: les différents polynômes relatifs à différents loi de distribution [195]
𝑗 𝑗
Le terme 𝑎𝑘 représente le degré des polynômes 𝜙𝑎𝑗 (𝑋𝑘 ). Le degré 𝑎𝑘 du polynôme 𝜓𝑗
𝑘
n’excède pas le degré p souhaité de telle sorte que la relation suivante soit vérifiée, pour j
donné :
205
𝑛
𝑗 𝑗
𝛼 = ∑ 𝑎𝑘 ≤ 𝑝
𝑘=1
𝑀
𝑀
𝑌 ≈ 𝑌 = ∑ 𝑎𝑗 𝜓𝑗 (𝑋1 , … , 𝑋𝑝 )
𝑗=0
n
1 2 3 4 5 6
p
1 2 3 4 5 6 7
2 3 6 10 15 21 28
3 4 10 20 35 56 84
4 5 15 35 70 126 210
5 6 21 56 126 252 462
6 7 28 84 210 462 924
Tableau 40: Nombre de termes M+1 dans le développement en PC tronqué à l'ordre n et pour p variables aléatoires
Nous distinguons deux approches pour le calcul des coefficients de polynômes de chaos l’une
est dite « intrusive » [196] et l’autre est « non intrusive ».
Nous présentons l’utilisation des polynômes de chaos uniquement en mode non intrusif, c’est-
à-dire sans modification du code de calcul. Elle considère le modèle comme une boite noire.
Parce que nous n’envisageons pas à modifier dans le code industriel de référence
(ESMERALDA NG simulateur de la SNCF).
206
le modèle comme une boite noire afin d’associer à chaque réalisation de 𝑋 sa valeur
correspondante de 𝑌(𝑋).
Pour cette approche, il existe deux méthodes de calcul, la première est dite « par régression »
fondée sur l’échantillonnage et de trouver les coefficients en minimisant l’erreur quadratique
entre le modèle exacte et l’approximation. La deuxième est « par projection » qui consiste à
projeter la solution sur la base du chaos [197]. Nous présentons uniquement la méthode « par
régression » qui est fondée sur l’échantillonnage, parce qu’un de nos buts est d’explorer
l’espace des variables d’entrée par échantillonnage [198].
Méthode de régression
(𝑖)
Avec 𝑥𝑘 représente le ième échantillon de 𝑥𝑘 .
Le vecteur de sortie 𝑌 est donné par 𝑌 = 𝑄𝐵. L’estimateur du vecteur B, noté 𝐵̂, est donné par
la méthode des moindres carrés [199]:
Par la solution du problème de minimisation de la somme des carrés des résidus, la sortie
estimée 𝑌̂ = (𝑦̂ (1) … 𝑦̂ (𝑁) )𝑇 est ainsi donnée par l’expression suivante :
𝑌̂ = 𝑄𝐵̂
Après la détermination des coefficients de PC, il est possible de réordonner les différents termes
du polynôme obtenu sous la forme suivante :
207
𝑝
Avec Γ𝑘1 ,…,𝑘𝑠 l’ensemble des multi-indices j qui correspond aux polynômes dépendant
uniquement des variables 𝑥𝑘1 , … , 𝑥𝑘𝑠 . D’où la moyenne 𝐸[𝑌] = 𝑎0 et la variance de 𝑌 est
𝑝−1
donnée par : 𝑉[𝑌] = ∑1 𝑎𝑗2 .
Donc l’estimée de l’indice de sensibilité du premier ordre 𝑆̂𝑖 est donnée par :
Où 𝑎̂𝑗 sont les coefficients estimés par (30) et l’ensemble Γ𝑖 correspond aux polynômes
𝜓𝑗 dépendant uniquement de 𝑋𝑖 .
De la même façon, l’estimation de l’indice de sensibilité 𝑆̂𝑖𝑙 dû à l’interaction entre les variables
𝑋𝑖 et 𝑋𝑙 est donnée par :
Par ailleurs, l’indice de sensibilité estimé 𝑆̂𝑇𝑖 total est écrit sous cette forme :
En général, les principales étapes suivies pour calculer les indices de sensibilité à partir de PC
sont résumés par la suite:
208
4. Construction du polynôme de chaos généralisé basé sur le groupe de variables
stochastiques
5. Calcul des coefficients du polynôme de chaos par intégration numérique ou par
régression linéaire
6. Analyse de sensibilité et statistiques effectués sur le chaos polynomial
Exemple
6!
Le nombre de coefficients à chercher : 𝑀 + 1 = = 20 𝑐𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠
3 !×3 !
209
𝑎(𝛼1,𝛼2,𝛼3)
Contribution
𝛼1 𝛼2 𝛼3
0 0 0 Moyenne
1 0 0
2 0 0 Variance apportée par la variable 1
3 0 0
0 1 0
0 2 0 Variance apportée par la variable 2
0 3 0
0 0 1
0 0 2 Variance apportée par la variable 3
0 0 3
1 1 0
Variance apportée par l’interaction entre les variables
2 1 0
1 et 2
1 2 0
1 0 1
Variance apportée par l’interaction entre les variables
2 0 1
1et 3
1 0 2
0 1 1
Variance apportée par l’interaction entre les variables
0 2 1
2 et 3
0 1 2
Variance apportée par l’interaction entre les variables
1 1 1
1, 2 et 3
Estimation des indices de sensibilité pour des modèles à sorties dynamiques par PC
210
𝑝 𝑝−1 𝑝
En supposant que les paramètres sont indépendants, 𝑌(𝑡, 𝑋) peut aussi être décomposé en PC à
chaque instant t:
+∞
Avec les coefficients déterministes 𝑎𝑗 (𝑡) qui sont inconnus, à estimer, 𝜓𝑗 des polynômes multi
variables qui dépendent de 𝑋1 , … , 𝑋𝑝 et qui résultent du produit tensoriel des polynômes
𝜓𝑗 𝑋1 , … , 𝑋𝑝 = ∏ 𝜙𝑎𝑗 (𝑋𝑘 )
𝑘
𝑘=1
Une fois la structure de PC obtenue pour la sortie du modèle, les coefficients doivent être
calculés. Comme on a déjà mentionné, il existe deux types de méthodes pour cela : intrusives
et non intrusives.
Après la détermination des coefficients de PC, il est possible de réordonner les différents termes
du polynôme obtenu sous la forme suivante pour estimer les indices de sensibilité :
211
Les fonctions de sensibilité estimées d’un ordre supérieur, reflétant l’effet des interactions,
peuvent être obtenues de la même manière :
Conclusion
Avant de parler des avantages et des inconvénients, la première cause qui nous a empêchés
d’utiliser la méthode de polynômes de chaos, est qu’elle est fondée sur l’émulation.
Le principal avantage de cette méthode est qu’elle ne base pas sur les simulations de Monte
Carlo, qui dans certaines applications, le dernier peut nécessiter un nombre élevé d’évaluations
du modèle, ce qui rend l’approche coûteuse en temps de calcul. Le polynôme de chaos peut
pallier ce problème qui le remplace par une approximation analytique. Les indices sont alors
obtenus directement à partir de l’expression des coefficients de la décomposition polynomiale.
Alors elle est considérée une alternative efficace à la simulation de Monte Carlo. En plus elle
peut être utilisé pour des modèles de type boite noire car elle ne nécessite pas la connaissance
de la structure du modèle. Malgré ses avantages, le chaos de polynomial ne peut gérer qu’un
nombre limité d’entrées. Il devient coûteux en calcul lorsque le nombre de variables augmente.
La cause de ce coût exponentiel par rapport à la dimension est liée à la malédiction de la
dimension : la taille de la base polynomiale complète augmente de manière exponentielle par
(𝑑𝑖𝑚+deg)!
rapport à la dimension et au degré 𝑀 + 1 = . Ce coût augmente avec l’augmentation
𝑑𝑖𝑚!𝑑𝑒𝑔!
Appliquer cette méthode dans notre travail, c’est compliqué, supposant que nous avons choisi
10 ajustements afin de réorganiser un trafic, c’est-à-dire 10 variables d’entrées, donc la
dimension est égale à 10. Dans ce cas nous avons besoin au minimum 184756 coefficients
(20 !/10 ! × 10 !) inconnus à calculer. Par conséquent, au minimum nous avons besoin
d’appeler le modèle 184756 fois.
212
Annexe 3
Dans la plupart des problèmes d’optimisation, il ne s’agit pas d’optimiser seulement un seul
critère mais plutôt d’optimiser simultanément plusieurs critères et qui sont généralement
conflictuels. La solution d’un problème d’optimisation multi-objectif consiste réellement en
trois étapes à savoir la mesure, la recherche et la décision. Contrairement à un problème mono-
objectif, la solution n’est pas unique mais constitué d’un ensemble de solutions dites de Pareto
optimales.
D F
F(D) 𝑓2
𝑥1
𝑓3
Figure 68: Exemple d'un problème d'optimisation multi-objectif (2 variables de décision et 3 fonctions objectifs)
213
Dominance de Pareto : Une solution x domine (≼) au sens de Pareto une solution 𝑧 si et
seulement si ∀ 𝑖 ∈ {1, … , 𝑛}, 𝑓𝑖 (𝑥) ≤ 𝑓𝑖 (𝑧) 𝑒𝑡 ∃ 𝑖 ∈ {1, … , 𝑛} 𝑡𝑒𝑙 𝑞𝑢𝑒 𝑓𝑖 (𝑥) < 𝑓𝑖 (𝑧) [201].
Une solution réalisable dominée par aucune autre solution réalisable est dite Pareto-optimal.
Son image dans l’espace des solutions est qualifiée de non-dominée.
Notons que dans notre travail, l’ensemble des solutions s’agit d’une approximation
(approximate pareto set), et l’image de cet ensemble dans l’espace des objectifs s’agit d’une
approximation (approximate Pareto front).
Annexe 4
Optimisation par essaims particulaires PSO
Les méta-heuristiques, sont des méthodes d’optimisation permettant d’obtenir une valeur
approchée de la solution optimale en un temps raisonnable. PSO est fondée sur les « interactions
sociales » entre des « agents » appelés « particules », dont le but est d’atteindre un objectif
donné dans un espace de recherche commun où chaque particule a une certaine capacité de
mémoriser et traiter l’information. Ces algorithmes sont inspirés du comportement de groupes
d’individus, et une particule se comporte comme un oiseau au sein d’un vol d’oiseaux
migrateurs qui cherchent le déplacement optimum pour parcourir des longues distances.
Paramétrage
214
Dans notre travail, la méthode de PSO a été appliquée avec le paramétrage dans sa version
initiale. Deux contraintes ont été ajoutées : une contrainte sur la sortie et une autre contrainte
d’intervalle sur les entrées. Notons que la méthode d’échantillonnage utilisée pour générer
l’essaim initial à l’itération n°1 est « la méthode fondée sur les séquences de Sobol ».
Pour appliquer la PSO, il faut définir un espace de recherche qui sera parcouru par les particules
et une fonction objective à optimiser. Nous nous intéressons dans ce calcul à chercher la
solution qui présente le trafic le plus dense. La taille de l’essaim choisie dans notre test est égale
à 20 particules. Le principe de l’algorithme est de déplacer ces particules afin qu’elles trouvent
l’optimum. Une particule 𝑖 de l’essaim est caractérisée à l’instant 𝑡, par (Figure 69):
Le déplacement de la particule 𝑖 entre les itérations 𝑡 et 𝑡 + 1 se fait selon les deux équations
suivantes :
215
Pour gérer les contraintes sur la sortie (par exemple respecter les contraintes sur les
tensions) :
216
Table des figures
217
Figure 26: Sens d'influence de Xi selon la position des CDFs............................................... 102
Figure 27: Application de l'analyse de sensibilité sur notre modèle ...................................... 106
Figure 28: Indicateurs de performance - exemple de cycles de charges des groupes de traction
................................................................................................................................................ 112
Figure 29: exemple d'un regroupement d'un ensemble des circulations d'un trafic donné (L1 :
ligne1 ; V1 : voie1 ; TER : type de train) ............................................................................... 114
Figure 30: Exemple d’une marche (engin numéro 8479) ...................................................... 117
Figure 31: Configuration électrique des infrastructures ......................................................... 121
Figure 32: Résultats de simulation en configuration nominale .............................................. 122
Figure 33: Mode dégradé ....................................................................................................... 123
Figure 34: Récapitulatif des actions d’ajustement ................................................................. 124
Figure 35: Indices de Sobol 𝑺𝑿𝒊 en fonction de la taille d’échantillon N ............................. 127
Figure 36: Indices fondés sur la distance en fonction de la taille d’échantillon N ......... 128
Figure 37: Influence des variables pour 𝑵 simulations pour la méthode fondée sur la
distribution ............................................................................................................................. 129
Figure 38: Graphes de densités cumulées 𝑭𝑿𝒊|𝑨 et 𝑭𝑿𝒊|𝑨 𝑿𝟏, 𝑿𝟐, 𝑿𝟑, 𝑿𝟒 𝒆𝒕 𝑿𝟓 ............. 131
Figure 39: Indices de sensibilité par rapport à 𝑿𝒊 en fonction de la taille d’échantillon ....... 133
Figure 40: Influence pour 𝑵 simulations pour la méthode régionale..................................... 134
Figure 41: L'ensemble de solutions de Pareto optimales: en bleu, les solutions réalisables, en
rouge les solutions compromis ............................................................................................... 135
Figure 42: échantillon de N scénarii d'ajustement.......................................................... 139
Figure 43: Configuration électrique du réseau axe Paris Le Mans – Paris Tours .................. 141
Figure 44: La qualité d’alimentation et la vitesse des trains sur la ligne 1 en mode nominal 141
Figure 45: La qualité d’alimentation et la vitesse des trains sur la ligne 1 en mode dégradé 142
Figure 46: Les différents ajustements du réseau .................................................................... 144
Figure 47: Le critère sur les tensions générées par la solution la plus dense est respecté ..... 145
Figure 48: Le critère sur les tensions générées par la solution la plus dense raffinée est
respecté ................................................................................................................................... 146
Figure 49: Un ensemble de solutions Pareto-optimales; les points rouges représentent les
solutions non dominées (compromis); les solutions bleues représentent les solutions
réalisables dominées. .............................................................................................................. 147
Figure 50: Configuration électrique du réseau axe Montparnasse-Versailles........................ 149
Figure 51: La qualité d’alimentation et la vitesse des trains sur la ligne 9 en mode nominal 150
Figure 52: La qualité d’alimentation et la vitesse des trains sur la ligne 9 en mode dégradé 150
218
Figure 53: Le critère sur les tensions générées par la solution la plus dense est respecté ..... 155
Figure 54: Un ensemble de solutions Pareto-optimales; les points rouges représentent les
solutions non dominées (compromis); les solutions bleues représentent les solutions
réalisables dominées. .............................................................................................................. 156
Figure 55: Le critère sur les tensions générées par la solution la plus dense raffinée est
respecté ................................................................................................................................... 157
Figure 56: Configuration électrique du réseau axe Corbeil-Malesherbes .............................. 159
Figure 57: La qualité d’alimentation et la vitesse des trains sur la ligne 5 en mode nominal 160
Figure 58: La qualité d’alimentation et la vitesse des trains sur la ligne 5 en mode dégradé 160
Figure 59: Le critère sur les tensions générées par la solution la plus dense est respecté ..... 163
Figure 60: Le critère sur les tensions générées par la solution la plus dense raffinée est
respecté ................................................................................................................................... 164
Figure 61: Un ensemble de solutions Pareto-optimales; les points rouges représentent les
solutions non dominées (compromis); les solutions bleues représentent les solutions
réalisables dominées. .............................................................................................................. 165
Figure 62: Configuration électrique du réseau axe Paris Nord .............................................. 166
Figure 63: La qualité d’alimentation et la vitesse des trains sur la ligne 1 en mode nominal 166
Figure 64: La qualité d’alimentation et la vitesse des trains sur la ligne 1 en mode dégradé 167
Figure 65: Le critère sur les tensions générées par la solution la plus dense est respecté ..... 169
Figure 66: Le critère sur les tensions générées par la solution la plus dense raffinée est
respecté ................................................................................................................................... 170
Figure 67: Un ensemble de solutions Pareto-optimales; les points rouges représentent les
solutions non dominées (compromis); les solutions bleues représentent les solutions
réalisables dominées. .............................................................................................................. 171
Figure 68 : Fonction 𝒈𝟏 pour 𝒘𝟏 = 𝟏𝟏 .............................................................................. 201
Figure 69: Exemple d'un problème d'optimisation multi-objectif (2 variables de décision et 3
fonctions objectifs) ................................................................................................................. 213
Figure 70: Déplacement d'une particule [204] ....................................................................... 214
219
Liste des tableaux
220
Tableau 21: Le scénario d'ajustement associé à la solution la plus dense.............................. 145
Tableau 22: Le scénario d'ajustement associé à la solution la plus dense.............................. 146
Tableau 23: Le scénario d'ajustement associé à la solution la plus dense.............................. 148
Tableau 24: Liste des actions d'ajustement reformulées effectuées dans le fichier horaire
H.DAT (L : Ligne ; V : Voie) ................................................................................................ 153
Tableau 25: Liste des actions d’ajustement effectuées dans le fichier marche M.DAT ........ 153
Tableau 26: D-stat (le degré de l’importance) et P-value (les valeurs de significativité)
calculés à partir de 1000 échantillons .................................................................................... 154
Tableau 27: Le scénario d'ajustement associé à la solution la plus dense.............................. 155
Tableau 28: Le scénario d'ajustement associé à la solution la plus dense.............................. 157
Tableau 29: Le scénario d'ajustement associé à la solution la plus dense.............................. 158
Tableau 30: Liste des actions d'ajustement reformulées effectuées dans le fichier horaire
H.DAT (L : Ligne ; V : Voie) ................................................................................................ 161
Tableau 31: Liste des actions d’ajustement effectuées dans le fichier marche M.DAT ........ 161
Tableau 32: D-stat (le degré de l’importance) et P-value (les valeurs de significativité)
calculés à partir de 1000 échantillons .................................................................................... 162
Tableau 33: Le scénario d'ajustement associé à la solution la plus dense.............................. 163
Tableau 34: Le scénario d'ajustement associé à la solution la plus dense.............................. 164
Tableau 35: Liste des actions d'ajustement reformulées effectuées dans le fichier horaire
H.DAT (L : Ligne ; V : Voie) ................................................................................................ 168
Tableau 36: D-stat (le degré de l’importance) et P-value (les valeurs de significativité)
calculés à partir de 1000 échantillons .................................................................................... 168
Tableau 37: Le scénario d'ajustement associé à la solution la plus dense.............................. 169
Tableau 38: Le scénario d'ajustement associé à la solution la plus dense.............................. 170
Tableau 39: les différents polynômes relatifs à différents loi de distribution [197] .............. 205
Tableau 40: Nombre de termes M+1 dans le développement en PC tronqué à l'ordre n et pour
p variables aléatoires .............................................................................................................. 206
Tableau 41: Exemple de polynômes de PC de 3 degré .......................................................... 210
221
222