Cours Arch RX

Télécharger au format docx, pdf ou txt
Télécharger au format docx, pdf ou txt
Vous êtes sur la page 1sur 47

1

Dil : cours d’architecture réseau et conception

INTRODUCTION

Du fait du grand nombre de fonctionnalités implémentées dans les réseaux, l’architecture de


ces derniers est particulièrement complexe. Pour tenter de réduire cette complexité, les
architectes réseau ont décomposé les processus à l’œuvre dans les réseaux en sept couches
protocolaires plus un support physique. Un tel découpage permet au réseau de traiter en
parallèle les fonctions attribuées aux différentes couches.

Le transport des données d’une extrémité à une autre d’un réseau nécessite un support
physique ou hertzien de communication. Pour que les données arrivent correctement au
destinataire, avec la qualité de service, ou QoS (Quality of Service), exigée, il faut en outre
une architecture logicielle chargée du contrôle des paquets dans le réseau.

Les trois grandes architectures suivantes se disputent actuellement le marché mondial des
réseaux :

 l’architecture OSI (Open Systems Interconnection), ou interconnexion de systèmes


ouverts, provenant de la normalisation de l’ISO (International Standardization
Organization) ;
 l’architecture TCP/IP utilisée dans le réseau Internet ;
 l’architecture introduite par l’UIT (Union internationale des télécommunications)
pour l’environnement ATM (Asynchronous Transfer Mode).

Une architecture de conception propriétaire fiaible est aussi utilisée pour la conception,
c’est l’architecture d’entreprise cisco ; que nous utiliserons pour la conception
hiérarchique d’un réseau.

CHAPITRE I. NORMALISATION

Il n'y a pas encore si longtemps, la liberté du choix d'un équipement informatique était très
limitée.
2
Dil : cours d’architecture réseau et conception

Cette époque voyait les fabricants de matériel garder jalousement leurs secrets techniques
forçant par-là, la dépendance des clients à leur égard.
En effet, tout était fait volontairement afin de rendre le plus incompatible possible les
marques entre elle. Une machine IBM ? Une imprimante IBM obligatoirement. Tout ceci en
réseau ? SNA obligatoirement. IBM n'était naturellement pas le seul à pratiquer de la sorte.
1.1. Standard ouvert ou fermé
Les caractéristiques d'un standard, ouvert ou fermé, n'a rien avoir avec les aspects
techniques des technologies qu'on y déploie, mais uniquement la manière dont ces
technologies sont développées.
Une technologie fermée, on dira aussi propriétaire, est conçue dans le secret. Les détails de
sa fabrication ne sont pas divulgués.
Une technologie ouverte, est au contraire développée publiquement. Tous les détails de son
implémentation sont accessibles à qui le souhaite.
Développer une technologie particulière, réussir à la conserver secrète confère un avantage
indéniable sur la concurrence. Collaborer avec ce dernier est, d'une certaine manière,
frustrant. De premier abord, l'avantage de partager une nouvelle technologie avec des
concurrents n'est pas évident.
1.2. Motivations d'une technologie propriétaire
Encore aujourd'hui, le but de chaque fabricant est de créer quelque chose d'unique afin
d'attirer les consommateurs. Naturellement, si j'ai investi du temps et de l'argent dans le
développement d'une nouvelle technologie, je ne souhaite certainement pas en faire cadeau.
Rien que de très logique vu sous cet angle. C'est une pratique commerciale courante, garante
de profits.
C'est dans cet état d'esprit que les premières générations d'équipements ont été créées et
commercialisées.
1.3. Motivations d'une technologie ouverte
Une technologie développée pour permettre une interaction avec des technologies d'autres
fabricants est dite ouverte. Dans la plupart des domaines industriels, dévoiler ou se faire
dérober des secrets de fabrication est fatal. Il en allait de même dans l'industrie de
l'informatique à ses débuts.
Aujourd'hui, les choses sont bien différentes. Si une entreprise informatique souhaite tirer
des profits d'un produit donné, elle soit livrée une partie de ses secrets de développement,
aussi paradoxal que cela puisse paraître. C'est d'ailleurs une approche qui fonctionne
tellement bien que les utilisateurs s'attendent systématiquement à ce comportement.
3
Dil : cours d’architecture réseau et conception

1.4. Un standard ouvert pour une architecture ouverte


Chaque technologie ouverte est fondée sur un standard ouvert. Un standard ouvert est
simplement un standard qui n'est pas gardé secret. Il peut avoir été développé en privé avant
d'être publié, mais le résultat est le même, il s'agit d'une technologie ouverte.
Une technologie peut aussi débuter par l'initiative d'un comité pour résoudre un problème.
Indépendamment de l'impulsion initiale, toute technologie ouverte est conforme à un
ensemble de spécifications techniques publiées dans un document public. La gestion d'un
standard est généralement confiée à une organisation neutre.
1.5. Normes ouvertes

Les normes ouvertes favorisent la concurrence et l'innovation. Elles empêchent également


qu'un seul produit d'une entreprise monopolise le marché ou puisse bénéficier d'un avantage
inique sur ses concurrents. Pour illustrer ceci, prenons l'exemple de l'achat d'un routeur sans
fil par un particulier. Il existe de nombreux appareils proposés par divers constructeurs, qui
intègrent tous des protocoles standard tels que IPv4, DHCP, 802.3 (Ethernet) et 802.11
(réseau local sans fil). Ces normes ouvertes permettent également à un client exécutant le
système d'exploitation OS X d'Apple de télécharger une page Web à partir d'un serveur Web
exécutant le système d'exploitation Linux. Cela s'explique par le fait que les deux systèmes
d'exploitation mettent en œuvre les mêmes protocoles de norme ouverte, notamment ceux
de la suite TCP/IP.

Les organismes de normalisation jouent un rôle important en assurant qu'Internet reste


ouvert, que ses spécifications et protocoles soient accessibles librement et puissent être mis
en œuvre par tous les constructeurs. Un organisme peut rédiger un ensemble de règles de A
à Z ou il peut se baser sur un protocole propriétaire. Si un protocole propriétaire est utilisé, il
implique généralement le constructeur à l'origine de sa création.

Les organismes de normalisation sont généralement des associations à but non lucratif qui
ne sont liées à aucun constructeur. Leur objectif est de développer et de promouvoir le
concept des normes ouvertes.

Voici les principaux organismes de normalisation :

 Internet Society (ISOC)

 Internet Architecture Board (IAB)

 Internet Engineering Task Force (IETF)

 IEEE (Institute of Electrical and Electronics Engineers)

 ISO (International Organization for Standardization)

1.5.1. ISOC, IAB et IETF


4
Dil : cours d’architecture réseau et conception

L'ISOC (Internet Society) est chargée de promouvoir le développement, l'évolution et


l'utilisation ouverts d'Internet dans le monde entier. L'ISOC favorise le développement
ouvert de normes et de protocoles relatifs à l'infrastructure technique d'Internet, y compris la
supervision de l'IAB (Internet Architecture Board).

L'IAB (Internet Architecture Board) s'occupe de la gestion et du développement généraux


des normes Internet. Il assure la surveillance des protocoles et des procédures d'architecture
utilisés par Internet. L'organisme se compose de 13 membres, dont le président de l'IETF
(Internet Engineering Task Force). Les membres de l'IAB agissent en qualité de personne
privée et ne représentent aucune entreprise, aucune institution ni aucune autre organisation.

La mission de l'IETF est de développer, de mettre à jour et d'assurer la maintenance


d'Internet et les technologies TCP/IP. L'une des principales responsabilités de l'IETF est de
produire des documents RFC (Request for Comments), c'est-à-dire des notes décrivant les
protocoles, les processus et les technologies d'Internet. L'IETF se compose de groupes de
travail (WG pour « working groups » en anglais) qui constituent les principales entités de
développement des spécifications et des recommandations de l'organisme. Les groupes de
travail sont constitués à des fins précises et dès que leurs objectifs sont remplis, ils sont
dissous. L'IESG (Internet Engineering Steering Group) est chargé de la gestion technique de
l'IETF et du processus des normes Internet.

L'IRTF (Internet Research Task Force) se concentre sur la recherche à long terme liée à
Internet et aux protocoles TCP/IP, aux applications, à l'architecture et aux technologies. Si
l'IETF s'intéresse surtout aux besoins à court terme en matière de normes, l'IRTF se
compose de groupes de recherche centrés sur le développement à long terme. Les groupes
de recherche actuels sont notamment l'ASRG (Anti-Spam Research Group), le CFRG
(Crypto Forum Research Group), le P2PRG (Peer-to-Peer Research Group) et le RRG
(Router Research Group).

1.5.2. IEEE

L'IEEE (Institute of Electrical and Electronics Engineers) est une association américaine
professionnelle s'adressant aux spécialistes du génie électrique et de l'électronique qui
souhaitent se consacrer à l'innovation technologique et à la création de normes. En 2012,
l'IEEE se composait de 38 sociétés, avait publié 130 journaux et parrainé plus de
1 300 conférences par an dans le monde entier. L'IEEE compte actuellement plus de
1 300 normes et projets en cours de développement.

L'organisme rassemble plus de 400 000 membres dans plus de 160 pays, dont plus de
107 000 étudiants. L'IEEE offre des opportunités de formation et de valorisation
professionnelle dans l'optique de promouvoir les compétences et les connaissances du
domaine de l'électronique.

Il s'agit d'un organisme de normalisation majeur sur le plan international. Il crée et gère des
normes affectant un grand nombre de secteurs, notamment l'électricité et l'énergie, la santé,
les télécommunications et les réseaux. Les normes 802 de l'IEEE traitent des réseaux locaux
et des réseaux métropolitains, y compris les réseaux filaires et sans fil. Comme l'illustre la
figure, chaque norme IEEE correspond à un groupe de travail chargé de créer et d'améliorer
des normes.
5
Dil : cours d’architecture réseau et conception

Les normes 802.3 et 802.11 de l'IEEE jouent un rôle de premier plan dans les réseaux
informatiques. La norme 802.3 définit le contrôle d'accès au support (MAC ou Media
Access Control) de l'Ethernet filaire. Cette technologie sert généralement aux réseaux
locaux, mais certaines de ses applications concernent également le réseau étendu (WAN).
La norme 802.11 définit un ensemble de normes relatives à la mise en œuvre des réseaux
locaux sans fil (WLAN). Elle définit la couche physique et la sous-couche de liaison de
données MAC du modèle OSI (Open Systems Interconnection) pour les communications
sans fil.

1.5.3. ISO

L'ISO, l'organisation internationale de normalisation, est le plus grand concepteur de normes


internationales pour une large gamme de produits et services. ISO n'est pas l'acronyme du
nom de l'organisation. En réalité, le terme ISO provient du mot grec « isos » qui signifie
« égal ». L'organisation internationale de normalisation a choisi le terme ISO pour affirmer
sa volonté d'égalité envers tous les pays.

Dans le domaine des réseaux, elle est surtout célèbre pour son modèle de référence OSI
(Open Systems Interconnection), publié en 1984 dans le but de développer un cadre
composé de couches pour les protocoles réseau. L'objectif initial de ce projet était non
seulement de créer un modèle de référence, mais également de servir de base à une suite de
protocoles applicables à Internet. Celle-ci a été appelée suite de protocoles OSI. Toutefois,
en raison de la popularité croissante de la suite TCP/IP développée par Robert Kahn, Vinton
Cerf et d'autres spécialistes, le choix de la suite de protocoles Internet ne s'est pas porté sur
le modèle OSI, mais sur la suite TCP/IP. La suite de protocoles OSI a tout de même été
implémentée sur des équipements de télécommunications et existe toujours dans des réseaux
de télécommunications d'ancienne génération.

Vous connaissez peut-être déjà certains produits qui font appel aux normes ISO. L'extension
de fichier ISO est attribuée à de nombreuses images de CD pour indiquer l'utilisation de la
norme ISO 9660 dans le système de fichiers. L'organisme ISO est également chargé de créer
des normes relatives aux protocoles de routage.

1.5.4. Autres organismes de normalisation

Les normes réseau font appel à plusieurs autres organismes de normalisation, dont voici les
plus courants :

 L'EIA (Electronic Industries Alliance), anciennement Electronics Industries


Association, est une alliance commerciale internationale de normalisation dont le rôle
concerne les entreprises d'électronique. L'EIA est connue pour ses normes associées
au câblage électrique, aux connecteurs et aux racks 19 pouces utilisés pour monter
l'équipement réseau.

IEEE.802.1 : Higher layer LAN protocols Working Group


IEEE. 802.2 : LLC (Logic link control)
IEEE 802.3 : Ethernet
IEEE 802.4 : Token ring en bus
IEEE 802.5 : Token ring en anneau
6
Dil : cours d’architecture réseau et conception

IEEE 802.11 : WiFi


IEEE 802.15 : Bluetooth
IEEE 802.16 : WiMax
IEEE 802.19 : Broadband Wireless Access Working Group
IEEE 802.21 : Media Independant Handover Services Working Group
IEEE 802.22 : Wireless Regional Area Network
IEEE 802.24 : Smart Grid TAG

 La TIA (Telecommunications Industry Association) est responsable du


développement des normes de communication dans un grand nombre de domaines,
incluant les équipements radio, les tours cellulaires, les dispositifs de voix sur IP
(VoIP) et les communications par satellite. Plusieurs de ses normes sont élaborées en
collaboration avec l'EIA.

 L'ITU-T (secteur de la normalisation des télécommunications de l'Union


internationale des télécommunications) figure parmi les organismes de normalisation
les plus grands et les plus anciens. L'ITU-T définit des normes de compression vidéo,
de télévision sur IP (IPTV) et de communication haut débit, telles que la ligne
d'abonné numérique (DSL). Par exemple, lorsque vous appelez un correspondant
dans un autre pays, les codes de pays de l'ITU sont utilisés pour établir la connexion.

 L'ICANN (Internet Corporation for Assigned Names and Numbers) est une
association à but non lucratif basée aux États-Unis qui coordonne l'attribution des
adresses IP, la gestion des noms de domaine utilisés par le protocole DNS et les
identificateurs de protocole ou numéros de ports utilisés par les protocoles TCP et
UDP. L'ICANN crée des politiques et assume la responsabilité totale de ces
attributions.

 L'IANA (Internet Assigned Numbers Authority) est une composante de l'ICANN


chargée de superviser et de gérer l'affectation des adresses IP, la gestion des noms de
domaine et les identificateurs de protocole pour le compte de l'ICANN.
7
Dil : cours d’architecture réseau et conception

CHAPITRE II. ARCHITECTURE D’ENTREPRISE CISCO

2.1. Introduction

Les réseaux doivent répondre aux besoins actuels des organisations et doivent pouvoir
prendre en charge les technologies émergentes dès leur adoption. Les principes et les
modèles de conception réseau peuvent aider l'ingénieur réseau à concevoir et construire un
réseau flexible, robuste et gérable.

2.2. Spécifications du réseau

Dans le domaine de la conception de réseaux, il est utile de classer les réseaux en fonction
du nombre de périphériques gérés :

 Petit réseau : fournit les services pour jusqu'à 200 périphériques.

 Réseau moyen : fournit les services de 200 à 1000 périphériques.

 Grand réseau : fournit les services au-delà de 1000 périphériques.

Les conceptions de réseaux varient selon la taille et les besoins des entreprises. Par exemple,
les besoins de l'infrastructure réseau d'une petite organisation avec peu de périphériques
seront moins complexes que ceux de l'infrastructure d'une grande organisation avec un
grand nombre de périphériques et de connexions.

Lors de la conception d'un réseau, de nombreuses variables sont à prendre en considération.


Prenons l'exemple illustré ici. L'exemple de schéma de topologie de haut niveau présenté ici
concerne un réseau de grande entreprise qui se compose d'un site de campus principal qui se
connecte à d'autres sites de tailles variables.

La conception de réseaux est un secteur en plein développement, et requiert une bonne


expérience et de solides connaissances. L'objectif de cette section est de présenter des
concepts de réseaux communément utilisés.
8
Dil : cours d’architecture réseau et conception

2.3. Principes d'ingénierie structurée

Quelle que soit la taille et quelles que soient les contraintes du réseau, un facteur important
dans la bonne mise en place ou conception de réseaux et de suivre les principes d'ingénierie
structurée. Ces principes sont les suivants :

 Hiérarchie : le modèle de réseau hiérarchique est un outil de haut niveau utile à la


conception d'une infrastructure réseau fiable. Il décompose le problème complexe
que pose la conception du réseau en plus petits éléments, plus gérables.

 Modularité : en décomposant les fonctions du réseau en modules, la conception du


réseau est plus simple. Cisco a identifié plusieurs modules, dont le campus
d'entreprise, le bloc de services, le data center et la périphérie Internet.

 Résilience : le réseau doit rester disponible et utilisable dans des conditions aussi
bien normales qu'anormales. Les conditions normales sont celles dans lesquelles le
trafic et le flux réseau sont normaux et comprennent les événements prévus, par
exemple les périodes de maintenance. Les conditions anormales se produisent lors de
pannes de matériel ou de logiciel, lors de l'apparition de trafic imprévu, d'événements
de DoS, intentionnels ou non, ou encore tout autre événement non prévu.

 Flexibilité : la capacité à modifier des parties du réseau, à ajouter de nouveaux


services ou à augmenter sa capacité sans avoir à passer par une mise à jour complexe
(par exemple le remplacement de matériel).
9
Dil : cours d’architecture réseau et conception

Afin de répondre à ces objectifs de conception fondamentaux, le réseau doit être créé sur
une architecture réseau hiérarchique qui offre suffisamment de flexibilité et de possibilités
de croissance.

2.4. Hiérarchie du réseau

Dans le domaine des réseaux, la conception hiérarchique divise le réseau en couches


distinctes. Chaque couche, ou niveau, de la hiérarchie offre des fonctions spécifiques qui
définissent son rôle dans le réseau. Ceci permet au concepteur et à l'architecte du réseau de
sélectionner le matériel et les logiciels réseau adaptés, ainsi que les fonctionnalités
nécessaires aux rôles de cette couche réseau. Les modèles hiérarchiques appliquent à la fois
les conceptions LAN et WAN.

Une conception de réseau typique de LAN hiérarchique comprend les trois couches
suivantes :

 Couche d'accès : permet aux groupes de travail et aux utilisateurs d'accéder au


réseau.

 Couche de distribution : fournit la connectivité basée sur les stratégies et contrôle la


limite entre les couches d'accès et cœur.

 Couche cœur de réseau : assure le transport rapide entre commutateurs de


distribution dans le campus d'entreprise.

De par la division des réseaux linéaires non hiérarchiques en sections plus petites et plus
faciles à gérer, le trafic local reste véritablement local. Seul le trafic destiné aux autres
réseaux est déplacé vers une couche supérieure.

Les périphériques de la couche 2 d'un réseau plat ne permettent pas vraiment de contrôler la
diffusion ou de filtrer le trafic indésirable. À mesure que des périphériques et des
applications sont ajoutés au réseau plat, le temps de réponse se dégrade, au point que le
réseau devient inutilisable.

Remarque : il n'y a pas de règles absolues pour la manière dont le réseau de campus est
conçu physiquement. Bien que la plupart des réseaux de campus soient construits selon trois
étages de commutateurs, il ne s'agit pas d'une règle stricte. Dans un plus petit campus, le
réseau peut comporter deux étages de commutateurs dans lesquels les éléments de cœur et
de distribution sont regroupés en un seul commutateur physique. Il s'agit là d'une conception
en cœur de réseau regroupé.
10
Dil : cours d’architecture réseau et conception

1. Couche d'accès

Dans un environnement de LAN, la couche d'accès permet aux périphériques finaux


d'accéder au réseau. Dans un environnement de WAN, elle offre aux travailleurs ou aux
sites distants l'accès au réseau d'entreprise via les connexions WAN.
11
Dil : cours d’architecture réseau et conception

Comme illustré, la couche d'accès d'un petit réseau professionnel comprend généralement
les commutateurs et les points d'accès de la couche 2, permettant la connexion entre stations
de travail et serveurs.

La couche d'accès a plusieurs fonctions, dont les suivantes :

 Commutation de couche 2

 Disponibilité élevée

 Sécurité des ports

 Classification et notation de la qualité de services et limites de confiance

 Inspection du protocole de résolution d'adresses ARP

 Listes de contrôle d'accès virtuel (VACL)

 Spanning Tree

 POE (Power Over Ethernet) et VLAN auxiliaires pour voix sur IP

2. Couche de distribution

La couche de distribution regroupe les données reçues à partir des commutateurs de la


couche d'accès, avant leur transmission vers la couche cœur de réseau, en vue du routage
vers leur destination finale. Dans la figure, la couche de distribution est la limite entre les
domaines de couche 2 et le réseau routé de la couche 3.
12
Dil : cours d’architecture réseau et conception

Le périphérique de couche de distribution est le principal point d'attention dans les armoires
de répartition. Un routeur ou un commutateur multicouche est utilisé pour segmenter les
groupes de travail et isoler les problèmes réseau dans l'environnement de campus.

Un commutateur de couche de distribution peut fournir des services en amont pour de


nombreux commutateurs de couche d'accès.

La couche de distribution peut offrir :

 L'agrégation des liaisons LAN ou WAN

 La sécurité basée sur des stratégies sous forme de listes de contrôle d'accès et de
filtrage

 Les services de routage entre LAN et VLAN, et entre domaines de routage, par
exemple EIGRP vers OSPF

 La redondance et l'équilibrage de la charge

 Une limite pour l'agrégation et le résumé des routes configurées sur les interfaces
vers la couche cœur de réseau

 La diffusion de contrôle du domaine, car les routeurs et les commutateurs


multicouches ne transmettent pas les diffusions. Point de démarcation entre domaines
de diffusion

3. Couche cœur de réseau

La couche cœur de réseau est aussi appelée réseau fédérateur. Elle se compose de
périphériques réseau à grande vitesse, par exemple les Cisco Catalyst 6500 ou 6800. Ils sont
13
Dil : cours d’architecture réseau et conception

conçus pour transmettre les paquets le plus rapidement possible et pour connecter entre eux
plusieurs composants du campus, par exemple les modules de distribution, les modules de
service, le data center et la périphérie WAN.

Comme présenté dans la figure, la couche cœur de réseau est cruciale pour la connexion
entre périphériques de la couche de distribution, par exemple, l'interconnexion entre le bloc
de distribution vers le WAN et la périphérie Internet. Le cœur doit être extrêmement
disponible et redondant. La couche cœur de réseau regroupe le trafic provenant de tous les
périphériques de la couche de distribution. Elle doit donc être capable d'effectuer la
transmission rapide d'importantes quantités de données.

Éléments à prendre en considération au niveau du cœur :

 Commutation haute vitesse (transport rapide)

 Fiabilité et tolérance aux pannes

 Mise à l'échelle avec un équipement plus rapide, et non en rajoutant des éléments

 Pas de manipulation de paquets gourmande en ressources processeur provoquée par


la sécurité, l'inspection, la classification de qualité de service (QS) ou tout autre
processus

2.5. Conception avec cœur de réseau regroupé à deux niveaux

La conception hiérarchique à trois couches optimise les performances, la disponibilité du


réseau et la capacité d'extension du réseau.

Toutefois, de nombreux réseaux de petites entreprises ne grandissent pas de façon


significative. Ainsi, la conception hiérarchique à deux niveaux dans laquelle les couches
14
Dil : cours d’architecture réseau et conception

cœur de réseau et de distribution sont regroupées en une seule couche s'avère souvent plus
pratique. On parle de cœur de réseau regroupé lorsque les fonctions de couche de
distribution et de couche cœur de réseau sont mises en œuvre sur un seul périphérique. Le
principal motif d'utilisation de la conception avec cœur regroupé est de réduire les coûts du
réseau tout en conservant la plupart des avantages du modèle hiérarchique à trois couches.

Le modèle de réseau hiérarchique offre une architecture modulaire qui permet plus de
flexibilité et simplifie la mise en œuvre du réseau et la résolution des problèmes.

2.6. Conception modulaire

Alors que la conception de réseau hiérarchique fonctionne bien dans l'infrastructure de


campus, les réseaux ont dépassé ces frontières. Comme présenté dans l'illustration, les
réseaux deviennent de plus en plus sophistiqués et complexes, certains exigeant des
connexions à des data centers dédiés se trouvant souvent à l'extérieur. Les sites de filiales
exigent une connectivité au réseau fédérateur du campus et les employés souhaitent pouvoir
travailler de chez eux ou depuis d'autres endroits. À mesure que la complexité des réseaux
augmentait pour faire face à ces besoins, la conception réseau a dû être modifiée pour
adopter une approche plus modulaire.

La conception réseau modulaire décompose le réseau en différents modules, chacun de ces


modules occupant une place particulière ou répondant à un besoin spécifique dans le réseau.
Les modules représentent des zones possédant une connectivité physique ou logique
différente. Ils indiquent où ont lieu les différentes fonctions au sein du réseau. L'approche
modulaire présente plusieurs avantages :

 Les échecs se produisant dans un module peuvent être isolés du reste du réseau, ce
qui permet de détecter de façon plus simple les problèmes et ainsi offrir une plus
grande disponibilité du système.

 Les modifications ou les mises à jour du réseau, ou l'introduction de nouveaux


services peuvent se faire de façon contrôlée et maîtrisée, avec plus de flexibilité dans
l'exploitation et la maintenance du réseau de campus.

 Lorsqu'un module n'a plus la capacité suffisante ou bien ne dispose pas d'une
nouvelle fonction ou d'un nouveau service, il peut être mis à jour ou remplacé par un
autre module qui joue le même rôle structurel dans la hiérarchie générale.

 La sécurité peut être mise en place module par module, ce qui offre un contrôle de
sécurité renforcé.

L'utilisation de modules offre plus de flexibilité et simplifie la mise en œuvre et la


résolution des problèmes.
15
Dil : cours d’architecture réseau et conception

2.7. Modules d'architecture d'entreprise

L'approche modulaire de la conception décompose encore la hiérarchie à trois couches, en


spécifiant des blocs ou des zones de modules. Ces modules sont connectés via le cœur du
réseau.

Les modules de réseau de base sont :

 Distribution d'accès : aussi appelé bloc de distribution, c'est l'élément le plus


courant et le composant de base d'une conception de campus. (Figure 1).

 Services : le module de services permet d'identifier des services tels que les
contrôleurs sans fil LWAPP centralisés, les services de communications unifiées, les
passerelles de stratégie, etc..

 Data center : aussi appelé batterie de serveurs. Ce bloc est responsable de la gestion
et de la mise à jour de nombreux systèmes de données vitaux pour le fonctionnement
moderne des entreprises. Employés, partenaires et clients s'appuient sur les données
et ressources du data center pour créer, collaborer et interagir efficacement.

 Périphérie d'entreprise : comprend la périphérie Internet et la périphérie WAN. Ces


blocs offrent la connectivité pour les services vocaux, vidéo et de données à
l'extérieur de l'entreprise.
16
Dil : cours d’architecture réseau et conception

2.8. Modèle d'architecture d'entreprise Cisco

Afin de répondre à ce besoin de modularité dans la conception des réseaux, Cisco a


développé le modèle Architecture d'entreprise Cisco. Ce modèle offre tous les avantages de
la conception de réseau hiérarchique sur l'infrastructure du campus et simplifie la
conception de réseaux plus grands et plus évolutifs.

Le modèle Architecture d'entreprise Cisco décompose le réseau d'entreprise en zones


fonctionnelles appelées modules. La modularité intégrée à l'architecture offre plus de
flexibilité et simplifie la mise en œuvre et la résolution des problèmes.

Comme présenté dans l'illustration, les modules suivants sont les principaux éléments de
l'architecture d'entreprise Cisco :

 Campus d'entreprise

 Périphérie d'entreprise

 Périphérie du fournisseur de services

D'autres modules sont connectés à la périphérie du fournisseur de services :

 Data center d'entreprise

 Agence d'entreprise

 Télétravailleur d'entreprise
17
Dil : cours d’architecture réseau et conception

1. Campus d'entreprise Cisco

Un réseau de campus est un bâtiment ou un groupe de bâtiments connectés à un réseau


d'entreprise constitué de plusieurs LAN. Il est généralement limité à une zone géographique
spécifique, mais peut s'étendre sur plusieurs bâtiments voisins, par exemple un complexe
industriel ou un parc commercial. Les bureaux régionaux, les petits bureaux, les bureaux à
domicile et les travailleurs mobiles peuvent avoir besoin de se connecter au campus central
pour obtenir des données ou des informations.

Le module de campus d'entreprise décrit les méthodes recommandées pour la création d'un
réseau évolutif, tout en répondant aux besoins d'un fonctionnement d'entreprise de style
campus. Cette architecture est modulaire et peut être facilement étendue pour inclure des
bâtiments ou des étages de campus supplémentaires, à mesure que l'entreprise se développe.

Le module de campus d'entreprise se compose des quatre sous-modules suivants :

 Accès au bâtiment

 Distribution du bâtiment

 Cœur de réseau du campus

 Data center

Ensemble, ces sous-modules :


18
Dil : cours d’architecture réseau et conception

 Assurent la haute disponibilité grâce à la résilience de la conception réseau


hiérarchique.

 Intègrent les communications IP, la mobilité et la sécurité avancée.

 Utilisent le trafic en multidiffusion et la qualité de service pour optimiser le trafic


réseau.

 Offrent plus de sécurité et de souplesse grâce au gestionnaire d'accès, aux VLAN et


aux VPN IPSec.

L'architecture de module du campus d'entreprise assure la haute disponibilité de l'entreprise


via la conception multicouche résiliente, les fonctions matérielles et logicielles redondantes
et les procédures automatiques de reconfiguration des chemins réseau en cas de panne. La
sécurité intégrée protège des vers, des virus et des autres attaques du réseau et en réduit
l'impact, même au niveau des ports des commutateurs.

Le module centralisé de data center à haute capacité peut fournir les ressources du serveur
interne aux utilisateurs. Le module de data center prend aussi en charge les services de
gestion du réseau pour l'entreprise, ce qui comprend la surveillance, la journalisation, la
résolution des problèmes et d'autres fonctions courantes de gestion de bout en bout. Le sous-
module de data center contient en général les serveurs de messagerie interne et les serveurs
généraux qui fournissent les applications, l'impression, le courrier électronique et les
services DNS aux utilisateurs internes.

2. Périphérie d'entreprise Cisco

Le module de périphérie d'entreprise fournit la connectivité aux services de voix, de vidéo et


de données à l'extérieur de l'entreprise. Ce module fait office de lien entre le module de
campus d'entreprise et les autres modules.

Le module de périphérie d'entreprise se compose des sous-modules suivants :

 Réseaux et serveurs de commerce électronique : ce sous-module de commerce


électronique permet aux entreprises de prendre en charge les applications de
commerce électronique via Internet. Il utilise les conceptions à haute disponibilité du
module du data center. Les périphériques qui se trouvent dans le sous-module de
commerce électronique sont les suivants : serveurs Web, serveurs d'applications et
serveurs de base de données, pare-feu et routeurs de pare-feu et système de
protection contre les intrusions.

 Connectivité Internet et zone démilitarisée : le sous-module de connectivité


Internet permet aux utilisateurs internes d'accéder en toute sécurité aux serveurs
publics, à la messagerie électronique et aux DNS. La connectivité à un ou plusieurs
FAI est également fournie. Les composants de ce sous-module sont le pare-feu et les
routeurs de pare-feu, les routeurs de périphérie Internet, les serveurs FTP et HTTP,
les serveurs relais SMTP et les serveurs DNS.
19
Dil : cours d’architecture réseau et conception

 Accès à distance et réseau privé virtuel : le sous-module de VPN et d'accès à


distance offre des services de fin d'accès distant, comme l'authentification des
utilisateurs et des sites distants. Les composants de ce sous-module sont les pare-feu,
les concentrateurs d'accès commuté, les appareils de sécurité adaptatifs Cisco et les
appareils du système de prévention contre les intrusions.

 WAN : le sous-module WAN utilise différentes technologies WAN pour router le


trafic entre les sites distants et le central téléphonique (CO). Les liaisons WAN
d'entreprise comprennent des technologies telles que commutation MPLS, Metro
Ethernet, lignes louées, Synchronous Optical Network (SONET) et Synchronous
Digital Hierarchy (SDH), PPP, Frame Relay, ATM, câble, DSL et sans fil.

3. Périphérie du fournisseur de services

Les entreprises utilisent des fournisseurs de services pour assurer le lien avec les autres
sites. Comme illustré à la Figure 1, le module périphérie des fournisseurs de service peut
comprendre :

 Fournisseurs de services Internet

 Des services WAN tels que Frame Relay, ATM, réseau métropolitain

 Services Internet de réseau téléphonique public commuté (RTPC)

La Périphérie du fournisseur de services fournit la connectivité entre le module de campus


d'entreprise et les modules de data center d'entreprise distant, de filiale et de télétravail.

Le module Périphérie du fournisseur de services :

 Couvre de larges zones géographiques sans être onéreux.

 Assure la convergence des services vocaux, vidéo et données sur un seul réseau de
communication IP.

 Prend en charge la qualité de service et les accords de niveau de service.

 Assure la sécurité à l'aide de VPN (IPsec / MPLS) sur les WAN de couche 2 et 3.

Lors de l'acquisition de services Internet auprès d'un FAI, la redondance et le basculement


doivent être pris en compte. Les connexions redondantes à seul FAI peuvent comprendre :

 À résidence unique : une seule connexion à un FAI

 À double résidence : deux ou plusieurs connexions à un seul FAI

Il est aussi possible de configurer la redondance avec plusieurs FAI, Parmi les options de
connexion à plusieurs FAI :

 À résidences multiples : connexions à deux FAI ou plus


20
Dil : cours d’architecture réseau et conception

 À doubles résidences multiples : plusieurs connexions à deux FAI ou plus

4. Zone fonctionnelle distante

La zone fonctionnelle distante est chargée des options de connectivité à distance, et


comprend plusieurs modules :

Agence d'entreprise
21
Dil : cours d’architecture réseau et conception

Le module de filiale d'entreprise comprend les filiales distantes qui permettent aux
employés de travailler depuis l'extérieur du campus. Ces emplacements sont normalement
chargés de fournir la sécurité, la téléphonie et les options de mobilité aux employés, ainsi
que la connectivité générale au réseau du campus et aux différents composants qui se
trouvent sur le campus de l'entreprise. Le module filiale d'entreprise permet aux entreprises
d'étendre aux filiales les applications et services utilisés au siège, par exemple la sécurité,
Cisco Unified Communications et les performances d'applications avancées. Le
périphérique de périphérie qui relie le site distant au central téléphonique (CO) varie en
fonction des besoins et de la taille du site. Les grands sites distants peuvent utiliser des
commutateurs Cisco Catalyst haut de gamme, alors que les sites plus restreints peuvent
utiliser un routeur ISR G2. Ces sites distants s'appuient sur la Périphérie du fournisseur de
services pour obtenir les services et les applications du site principal. Dans la figure, le
module filiale d'entreprise se connecte principalement au site du campus d'entreprise via une
liaison WAN. Or, il dispose également d'une liaison Internet, comme solution de secours.
La liaison Internet utilise une technologie VPN IPsec site à site pour chiffrer les données de
l'entreprise.

Télétravailleur d'entreprise

Le module télétravailleur d'entreprise fournit la connexion aux travailleurs qui effectuent


des opérations depuis des sites dispersés, par exemple depuis leur domicile, leur chambre
d'hôtel ou encore le site du client. Ce module télétravailleurs recommande que les
utilisateurs mobiles se connectent à Internet via un fournisseur d'accès local, par exemple
via le câble ou l'ADSL. Les services VPN peuvent alors assurer la sécurité des
communications entre le télétravailleur et le campus central. Les services de réseau intégrés
basés sur la sécurité et l'identité permettent à l'entreprise d'étendre les stratégies de sécurité
du campus au télétravailleur. Les employés peuvent se connecter de façon sûre au réseau via
le VPN et accéder aux applications et services autorisés sur une seule plateforme.

Data center d'entreprise

Le data center d'entreprise a exactement les mêmes fonctions qu'un data center de campus,
mais il se trouve sur un site distant. Cela offre une couche de sécurité supplémentaire étant
donné que le data center externe peut fournir des services de récupération après sinistre et la
continuité de fonctionnement à l'entreprise. Les commutateurs haut de gamme comme le
Cisco Nexus utilisent des services WAN rapides comme le Metro Ethernet (MetroE) pour
connecter le campus d'entreprise au data center d'entreprise distant. Les data centers
redondants assurent la sauvegarde grâce à la réplication synchrone et asynchrone des
données et des applications. De plus, le réseau et les périphériques assurent l'équilibrage de
la charge du serveur et des applications afin d'optimiser les performances. Cette solution
permet à l'entreprise de mettre son réseau à l'échelle voulue sans modifications majeures de
son infrastructure.
22
Dil : cours d’architecture réseau et conception

CHAPITRE III. ADRESSAGE IPv4 (FLSM ET VLSM), IPv6 ET CALCUL DES


BANDES PASSANTES

L'adressage est l'une des fonctions principales des protocoles de couche réseau. Il permet de
mettre en œuvre la transmission de données entre des hôtes situés sur un même réseau ou
sur des réseaux différents. La version 4 (IPv4) et la version 6 (IPv6) du protocole IP
fournissent un adressage hiérarchique pour les paquets qui transportent les données.
L'élaboration, la mise en œuvre et la gestion d'un modèle d'adressage IP garantissent un
fonctionnement optimal des réseaux.

3.1. Partie réseau et partie hôte d'une adresse IPv4


Comprendre la notation binaire est important pour déterminer si deux hôtes sont sur le
même réseau. Rappelez-vous qu'une adresse IP est une adresse hiérarchique qui se compose
de deux parties : une partie réseau et une partie hôte. Lorsque vous déterminez la partie
réseau et la partie hôte, il est nécessaire d'examiner non pas la valeur décimale, mais le flux
de 32 bits. Dans le flux de 32 bits, une partie des bits constitue la partie réseau et une autre
partie des bits compose la partie hôte.
Les hôtes savent-ils quelle partie du flux de 32 bits représente la partie réseau et quelle
partie correspond à la partie hôte ? Le masque de sous-réseau permet de le savoir.

3.2. Préfixes réseau


La longueur de préfixe est une autre façon d'exprimer le masque de sous-réseau. La
23
Dil : cours d’architecture réseau et conception

longueur de préfixe correspond au nombre de bits définis sur 1 dans le masque de sous-
réseau. Elle est notée au moyen de la « notation de barre oblique », à savoir un « / » suivi du
nombre de bits définis sur 1. Par exemple, si le masque de sous-réseau est 255.255.255.0, il
existe 24 bits définis sur 1 dans la version binaire du masque de sous-réseau. La longueur du
préfixe est donc de 24 bits, soit /24. Le préfixe et le masque de sous-réseau constituent des
moyens distincts de représenter la même chose : la partie réseau d'une adresse.
24
Dil : cours d’architecture réseau et conception

3.3. Réseau, hôte et adresses de diffusion IPv4


Il existe trois sortes d'adresse comprises dans la plage d'adresses de chaque réseau IPv4 :
 Adresse réseau

 Adresses d'hôte

 Adresse de diffusion
1. Adresse réseau
L'adresse réseau est généralement utilisée pour faire référence à un réseau. Le masque de
sous-réseau ou la longueur du préfixe peuvent aussi être utilisés pour décrire une adresse
réseau. Par exemple, le réseau illustré à la Figure 1 peut être appelé le réseau 10.1.1.0, le
réseau 10.1.1.0 255.255.255.0 ou le réseau 10.1.1.0/24. Tous les hôtes du réseau 10.1.1.0/24
auront la même partie réseau.
2. Adresse de l'hôte
Chaque périphérique final nécessite une adresse unique pour communiquer sur le réseau.
Avec les adresses IPv4, les valeurs comprises entre l'adresse réseau et l'adresse de diffusion
peuvent être attribuées aux périphériques finaux d'un réseau.
3. Adresse de diffusion
L'adresse de diffusion IPv4 est une adresse spécifique, attribuée à chaque réseau. Elle
permet de transmettre des données à l'ensemble des hôtes d'un réseau. Pour envoyer les
données à tous les hôtes d'un réseau en une seule fois, un hôte peut envoyer un paquet
adressé à l'adresse de diffusion du réseau : chaque hôte du réseau qui recevra ce paquet en
traitera le contenu.

4.4. Première et dernière adresses d'hôte


Pour s'assurer que tous les hôtes d'un réseau disposent d'une adresse IP unique provenant de
cette plage réseau, il est important d'identifier la première adresse d'hôte et la dernière
adresse d'hôte. Les hôtes d'un réseau se voient attribuer des adresses IP comprises dans cette
plage.
1. Première adresse d'hôte
Comme le montre la Figure 1, la partie hôte de la première adresse d'hôte ne contient que
des bits 0 à l'exception d'un bit 1 en tant que bit de poids faible ou bit le plus à droite. Cette
adresse est toujours supérieure de 1 à l'adresse réseau. Dans cet exemple, la première
adresse d'hôte du réseau 10.1.1.0/24 est 10.1.1.1. De nombreux schémas d'adressage
utilisent la première adresse d'hôte pour le routeur ou la passerelle par défaut.
2. Dernière adresse d'hôte
La partie hôte de la dernière adresse d'hôte ne contient que des bits 1 à l'exception d'un bit 0
25
Dil : cours d’architecture réseau et conception

en tant que bit de poids faible ou bit le plus à droite. Cette adresse est toujours inférieure de
un à l'adresse de diffusion. Comme le montre la Figure 2, la dernière adresse d'hôte du
réseau 10.1.1.0/24 est 10.1.1.254.
Dans un réseau IPv4, les hôtes peuvent communiquer de trois façons :
 Monodiffusion : processus consistant à envoyer un paquet d'un hôte à un autre hôte
spécifique.
 Diffusion : processus consistant à envoyer un paquet d'un hôte à tous les hôtes du
réseau.
 Multidiffusion : processus consistant à envoyer un paquet d'un hôte à un groupe
d'hôtes en particulier (qui peuvent se trouver sur différents réseaux).
Ces trois types de transmission sont utilisés différemment dans les réseaux de données.
Dans les trois cas, l'adresse IPv4 de l'hôte émetteur est placée dans l'en-tête du paquet
comme adresse source.

3.4. Adresses IPv4 publiques et adresses IP privées


Bien que la majorité des adresses d'hôte IPv4 soient des adresses publiques utilisées dans les
réseaux accessibles sur Internet, d'autres blocs d'adresses sont attribués à des réseaux qui ne
nécessitent pas d'accès à Internet, ou uniquement un accès limité. Ces adresses sont appelées
des adresses privées.
1. Adresses privées
Voici ces plages d'adresses privées :
10.0.0.0 à 10.255.255.255 (10.0.0.0/8)
172.16.0.0 à 172.31.255.255 (172.16.0.0/12)
192.168.0.0 à 192.168.255.255 (192.168.0.0/16)
Les adresses privées sont définies dans le RFC 1918, « Address Allocation for Private
Internets » et sont parfois appelées adresses RFC 1918. Les blocs d'adresses d'espace privé,
comme l'illustre la figure, sont utilisés dans les réseaux privés. Les hôtes qui n'ont pas
besoin d'accéder à Internet peuvent utiliser des adresses privées. Cependant, au sein du
réseau privé, les hôtes ont toujours besoin d'adresses IP uniques dans l'espace privé.
Dans le RFC 6598, l'IANA a réservé un autre groupe d'adresses connu sous le nom d'espace
d'adressage partagé. Comme avec l'espace d'adressage privé du RFC 1918, les adresses
partagées de l'espace d'adressage ne sont pas globalement routables. Toutefois, ces adresses
sont conçues uniquement pour les réseaux de fournisseurs de services. Le bloc d'adresses
partagé est 100.64.0.0/10.
2. Adresses publiques
26
Dil : cours d’architecture réseau et conception

La grande majorité des adresses de la plage d'hôtes multidiffusion IPv4 sont des adresses
publiques. Ces adresses sont normalement attribuées à des hôtes publiquement accessibles
depuis Internet. Même dans ces blocs d'adresses IPv4, de nombreuses adresses sont
réservées à des usages particuliers.

4.6. Les adresses IPv4 réservées


Certaines adresses ne peuvent pas être attribuées à des hôtes. D'autres adresses spéciales le
peuvent, mais avec des restrictions concernant la façon dont les hôtes interagissent avec le
réseau.
1. Adresses réseau et de diffusion
Comme nous l'avons vu, dans chaque réseau, la première et la dernière adresses ne peuvent
pas être attribuées à des hôtes. Il s'agit respectivement de l'adresse réseau et de l'adresse de
diffusion.
2. Bouclage
L'adresse de bouclage IPv4 127.0.0.1 est une autre adresse réservée. Il s'agit d'une adresse
spéciale que les hôtes utilisent pour diriger le trafic vers eux-mêmes. L'adresse de bouclage
crée un moyen rapide, pour les applications et les services TCP/IP actifs sur le même
périphérique, de communiquer entre eux. En utilisant l'adresse de bouclage à la place de
l'adresse d'hôte IPv4 attribuée, deux services actifs sur le même hôte peuvent contourner les
couches les plus basses de la pile TCP/IP. Vous pouvez également envoyer une requête ping
à l'adresse de bouclage afin de tester la configuration TCP/IP de l'hôte local.
Bien que seule l'adresse 127.0.0.1 soit utilisée, les adresses de la plage 127.0.0.0-
127.255.255.255 sont réservées. Toutes les adresses de ce bloc sont envoyées en boucle sur
l'hôte local. Aucune des adresses de cette plage ne devrait jamais apparaître sur un réseau
quel qu'il soit.
3. Adresses link-local
Les adresses IPv4 du bloc d'adresses 169.254.0.0 à 169.254.255.255 (169.254.0.0/16) sont
conçues comme des adresses link-local. Elles peuvent être automatiquement attribuées à
l'hôte local par le système d'exploitation, dans les environnements où aucune configuration
IP n'est disponible. Elles peuvent être utilisées dans un réseau peer-to-peer restreint ou pour
un hôte qui ne parviendrait pas à obtenir automatiquement une adresse auprès d'un
serveur DHCP.
4. Adresses TEST-NET
Le bloc d'adresses 192.0.2.0 à 192.0.2.255 (192.0.2.0/24) est réservé à des fins
pédagogiques. Ces adresses peuvent être utilisées dans la documentation et dans des
exemples de réseau. Contrairement aux adresses expérimentales, les périphériques réseau
accepteront ces adresses dans leur configuration. Ces adresses apparaissent souvent avec des
27
Dil : cours d’architecture réseau et conception

noms de domaine exemple.com ou exemple.net dans les requêtes pour commentaires et la


documentation de fournisseur et de protocole. Les adresses de cette plage ne doivent pas
être visibles sur Internet.
5. Adresses expérimentales
Les adresses du bloc 240.0.0.0 à 255.255.255.254 sont répertoriées comme étant réservées
pour une utilisation future (RFC 3330). Actuellement, ces adresses ne peuvent être utilisées
qu'à des fins de recherche ou d'expérimentation, mais ne peuvent pas être utilisées dans un
réseau IPv4. Cependant, selon le RFC 3330, elles peuvent techniquement être converties en
adresses utilisables dans le futur.

4.7. L'ancien système d'adressage par classe


À l'origine, le RFC 1700, « Assigned Numbers », regroupait les plages monodiffusion selon
différentes tailles, appelées des adresses de classe A, B et C. Il établissait également des
adresses de classe D (multidiffusion) et de classe E (expérimentales), comme nous l'avons
déjà vu. Les classes d'adresses de monodiffusion A, B et C définissaient des réseaux de
taille spécifique et des blocs d'adresses spécifiques pour ces réseaux. Une entreprise ou une
organisation se voyait attribuer un réseau entier de bloc d'adresses de classe A, B ou C.
L'utilisation de l'espace d'adressage s'appelait adressage par classe.
1. Blocs d'adresses A
Un bloc d'adresses de classe A a été créé pour prendre en charge les réseaux de très grande
taille, comportant plus de 16 millions d'adresses d'hôte. Les adresses IPv4 de classe A
utilisaient un préfixe /8 invariable, le premier octet indiquant l'adresse réseau. Les trois
octets restants correspondaient aux adresses d'hôte. Toutes les adresses de classe A
nécessitaient que le bit de poids fort du premier octet soit un zéro. Cela implique qu'il n'y
avait que 128 réseaux de classe A disponibles, de 0.0.0.0/8 à 127.0.0.0/8. Même si les
adresses de classe A réservaient la moitié de l'espace d'adressage, elles ne pouvaient être
attribuées qu'à 120 entreprises ou organisations, en raison de leur limite de 128 réseaux.
2. Blocs d'adresses B
L'espace d'adressage de classe B a été créé pour répondre aux besoins des réseaux de taille
moyenne ou de grande taille, comportant jusqu'à 65 000 hôtes. Les adresses IP de classe B
utilisaient les deux premiers octets pour indiquer l'adresse réseau. Les deux octets suivants
correspondaient aux adresses d'hôte. Comme avec la classe A, l'espace d'adressage pour les
classes d'adresses restantes devait être réservé. Pour les adresses de classe B, les deux bits
de poids fort du premier octet étaient 10. Cela limitait le bloc d'adresses de classe B de
128.0.0.0/16 à 191.255.0.0/16. La classe B attribuait les adresses plus efficacement que la
classe A, car elle répartissait de manière équitable 25 % de l'espace d'adressage IPv4 total
sur environ 16 000 réseaux.
3. Blocs d'adresses C
28
Dil : cours d’architecture réseau et conception

L'espace d'adressage de la classe C était le plus disponible des anciennes classes d'adresses.
Cet espace d'adressage était réservé aux réseaux de petite taille, comportant 254 hôtes au
maximum. Les blocs d'adresses de classe C utilisaient le préfixe /24. Ainsi, un réseau de
classe C ne pouvait utiliser que le dernier octet pour les adresses d'hôte, les trois premiers
octets correspondant à l'adresse réseau. Les blocs d'adresses de classe C réservaient l'espace
d'adressage à l'aide d'une valeur fixe de 110 pour les trois bits de poids fort du premier octet.
Cela limitait le bloc d'adresses de classe C de 192.0.0.0/24 à 223.255.255.0/24. Bien qu'il
occupait seulement 12,5 % de l'espace d'adressage IPv4, il pouvait attribuer des adresses à
2 millions de réseaux.
4. Limites de l'adressage par classe
Les besoins de certaines entreprises ou organisations sont couverts par ces trois classes.
L'attribution par classe des adresses IP gaspillait souvent de nombreuses adresses, ce qui
épuisait la disponibilité des adresses IPv4. Par exemple, une entreprise avec un réseau de
260 hôtes devait se voir attribuer une adresse de classe B avec plus de 65 000 adresses.
5. Adressage sans classe
Le système utilisé aujourd'hui porte le nom d'adressage sans classe. Son nom formel est le
routage CIDR (Classless Inter-Domain Routing, routage interdomaine sans classe).
L'attribution par classe d'adresses IPv4 était inefficace, car elle permettait uniquement
l'utilisation de longueurs de préfixe /8, /16 ou /24, chacune d'un espace d'adresses distinct.
En 1993, l'IETF a créé un nouvel ensemble de normes permettant aux fournisseurs de
services d'attribuer des adresses IPv4 sur n'importe quelle limite binaire (longueur de
préfixe) au lieu d'utiliser uniquement les classes A, B ou C.
L'IETF savait que le CIDR était uniquement une solution temporaire et qu'un nouveau
protocole IP devait être développé pour s'adapter à la croissance rapide du nombre
d'utilisateurs d'Internet. En 1994, l'IETF a commencé à chercher un successeur à l'IPv4, à
savoir le futur protocole IPv6.
29
Dil : cours d’architecture réseau et conception

L'attribution des adresses IP


Pour que les hôtes réseau (par exemple les serveurs Web) des entreprises ou des
organisations soient accessibles depuis Internet, les organisations et entreprises en question
doivent disposer d'un bloc d'adresses publiques. N'oubliez pas que les adresses publiques
doivent être uniques et que l'utilisation des adresses publiques est régulée et dépend de
chaque organisation. Cela vaut pour les adresses IPv4 et IPv6.
1. IANA et RIR
L'IANA (Internet Assigned Numbers Authority, http://www.iana.org) gère l'attribution des
adresses IPv4 et IPv6. Jusque dans le milieu des années 1990, l'ensemble de l'espace
d'adressage IPv4 était géré directement par l'IANA. À cette époque, la gestion de l'espace
d'adressage IPv4 restant était répartie entre différents autres registres, selon le type
d'utilisation ou la zone géographique. Ces sociétés d'enregistrement s'appellent des registres
Internet régionaux, comme présenté dans la figure.
Voici les principaux registres :
 AfriNIC (African Network Information Centre) - Région Afrique
http://www.afrinic.net
 APNIC (Asia Pacific Network Information Centre) - Région Asie/Pacifique
http://www.apnic.net
 ARIN (American Registry for Internet Numbers) - Région Amérique du Nord
http://www.arin.net
 LACNIC (Regional Latin-American and Caribbean IP Address Registry) - Amérique
du Sud et certaines îles des Caraïbes http://www.lacnic.net
 RIPE NCC (Réseaux IP européens) - Europe, Moyen Orient, Asie centrale
http://www.ripe.net

3.5. Les formules de calcul des sous-réseaux


1. Calculer les sous-réseaux
Utilisez la formule suivante pour calculer le nombre de sous-réseaux :
2^n (où n = le nombre de bits empruntés)
Comme l'illustre la Figure 1, pour l'exemple de 192.168.1.0/25, le calcul est le suivant :
2^1 = 2 sous-réseaux
2. Calculer les hôtes
Utilisez la formule suivante pour calculer le nombre d'hôtes par sous-réseau :
2^n (où n = le nombre de bits restants dans le champ d'hôte)
30
Dil : cours d’architecture réseau et conception

Comme l'illustre la Figure 2, pour l'exemple de 192.168.1.0/25, le calcul est le suivant :


2^7 = 128
Étant donné que les hôtes ne peuvent pas utiliser l'adresse réseau ni l'adresse de diffusion
d'un sous-réseau, 2 de ces adresses ne peuvent pas être attribuées à des hôtes. Cela signifie
que chaque sous-réseau dispose de 126 adresses d'hôte valides (128 - 2).

Donc, dans cet exemple, l'emprunt de 1 bit d'hôte du réseau permet la création de 2 sous-
réseaux dont chacun peut prendre en charge un total de 126 hôtes.

3. Masquage de sous-réseau de longueur variable (VLSM)


Dans les exemples précédents de segmentation, vous constatez que le même masque de
sous-réseau a été appliqué à tous les sous-réseaux. Cela signifie que chaque sous-réseau
possède le même nombre d'adresses d'hôte disponibles.
Comme le montre la Figure 1, la méthode classique de segmentation crée des sous-réseaux
de même taille. Chaque sous-réseau d'un schéma classique utilise le même masque de sous-
réseau. Comme le montre la Figure 2, la méthode VLSM permet de diviser un espace réseau
en parties inégales. Avec la méthode VLSM, le masque de sous-réseau varie selon le
nombre de bits empruntés pour le sous-réseau, d'où la partie « variable » de cette méthode.
La création de sous-réseaux VLSM est similaire à la création de sous-réseaux classique car
des bits sont empruntés pour créer des sous-réseaux. Les formules de calcul du nombre
d'hôtes par sous-réseau et du nombre de sous-réseaux créés s'appliquent également. La
différence réside dans le fait que la segmentation nécessite plus d'une opération. Avec le
VLSM, le réseau est divisé en sous-réseaux qui sont eux-mêmes divisés en sous-réseaux. Ce
processus peut être répété plusieurs fois de manière à créer des sous-réseaux de différentes
tailles.
31
Dil : cours d’architecture réseau et conception

3.6. VLSM de base


Pour mieux comprendre le processus VLSM, revenez à l'exemple précédent.
Dans celui-ci (Figure 1), le réseau 192.168.20.0/24 a été divisé en huit sous-réseaux de taille
égale et sept de ces sous-réseaux ont été attribués. Quatre sous-réseaux ont été utilisés pour
les réseaux locaux et trois pour les connexions de réseau étendu entre les routeurs.
Souvenez-vous que l'espace d'adressage inutilisé appartenait aux sous-réseaux des
connexions de réseau étendu, car ces sous-réseaux nécessitaient seulement deux adresses
utilisables : une pour chaque interface de routeur. La méthode VLSM peut être employée
pour éviter cette perte. Elle permet de créer des sous-réseaux plus petits pour les connexions
de réseau étendu.
Souvenez-vous que lorsque le nombre d'adresses d'hôte nécessaires est connu, la formule
2^n - 2 (où n représente le nombre de bits d'hôte restant) peut être appliquée. Pour obtenir
deux adresses utilisables, 2 bits d'hôte doivent rester dans la partie hôte.
2^2 - 2 = 2
32
Dil : cours d’architecture réseau et conception

Étant donné que l'espace d'adresses 192.168.20.224/27 comporte 5 bits d'hôte, 3 bits
peuvent être empruntés, ce qui laisse 2 bits dans la partie hôte.
Jusque-là, les calculs sont exactement les mêmes que pour la méthode classique. Il faut
emprunter des bits et déterminer les plages des sous-réseaux.
Comme l'illustre la Figure 2, ce schéma de segmentation VLSM réduit le nombre d'adresses
par sous-réseau jusqu'à la taille appropriée pour les réseaux étendus. Le fait de segmenter le
sous-réseau 7 pour les réseaux étendus permet de conserver les sous-réseaux 4, 5, et 6 pour
les futurs réseaux, mais également plusieurs autres sous-réseaux disponibles pour les
réseaux étendus.
33
Dil : cours d’architecture réseau et conception

1. Diagramme VLSM
Pour planifier des adresses, vous pouvez également faire appel à divers outils. Parmi ces
derniers, le diagramme VLSM permet d'identifier les blocs d'adresses qui sont disponibles et
ceux qui sont déjà attribués. Ce diagramme permet de ne pas attribuer des adresses déjà
attribuées. Le tableau de VLSM peut être utilisé pour planifier l'attribution des adresses de
l'exemple précédent.
2. Observation des sous-réseaux /27
Comme le montre la Figure 1, lorsque nous avons utilisé la méthode classique de
segmentation, les sept premiers blocs d'adresses étaient attribués aux réseaux locaux et aux
réseaux étendus. Souvenez-vous que ce schéma a entraîné la création de 8 sous-réseaux
proposant chacun 30 adresses utilisables (/27). Même si ce schéma fonctionnait pour les
segments de réseau local, de nombreuses adresses étaient gaspillées dans les segments de
réseau étendu.
Lors de la conception du schéma d'adressage sur un nouveau réseau, les blocs d'adresses
peuvent être attribués à l'aide d'une méthode qui réduit les pertes et maintient la contiguïté
des blocs d'adresses inutilisées.
3. Attribution des blocs d'adresses VLSM
Comme l'illustre la Figure 2, afin d'utiliser plus efficacement l'espace d'adressage, des sous-
réseaux /30 sont créés pour les liaisons de réseau étendu. Pour conserver ensemble les blocs
d'adresses inutilisées, le dernier sous-réseau /27 a à nouveau été subdivisé pour créer des
sous-réseaux /30. Les 3 premiers sous-réseaux ont été affectés aux liaisons de réseau étendu.
 Plage d'adresses d'hôte .224 /30 de 225 à 226 : liaison de réseau étendu entre R1 et
R2
 Plage d'adresses d'hôte .228 /30 de 229 à 230 : liaison de réseau étendu entre R2 et
R3
 Plage d'adresses d'hôte .232 /30 de 233 à 234 : liaison de réseau étendu entre R3 et
R4
 Plage d'adresses d'hôte .236 /30 de 237 à 238 : disponible

 Plage d'adresses d'hôte .240 /30 de 241 à 242 : disponible

 Plage d'adresses d'hôte .244 /30 de 245 à 246 : disponible

 Plage d'adresses d'hôte .248 /30 de 249 à 250 : disponible

 Plage d'adresses d'hôte .252 /30 de 253 à 254 : disponible


Cette conception du schéma d'adressage laisse 3 sous-réseaux /27 et 5 sous-réseaux /30
inutilisés.
34
Dil : cours d’architecture réseau et conception

4.11.
Ce qui rend IPv6 nécessaire
L'IPv6 est conçu pour être le successeur de l'IPv4. L'IPv6 possède un plus grand espace
d'adressage (128 bits) pour un total de 340 undécillions d'adresses disponibles (ce qui
correspond au nombre 340 suivi de 36 zéros). Toutefois, l'IPv6 apporte bien plus que des
adresses plus longues. Lorsque l'IETF a commencé à développer un successeur à l'IPv4,
l'organisme a utilisé cette opportunité pour corriger les limites de l'IPv4 et améliorer ce
protocole. Par exemple, l'ICMPv6 (Internet Control Message Protocol version 6) inclut la
configuration automatique et la résolution d'adresse, fonctions non présentes dans le
35
Dil : cours d’architecture réseau et conception

protocole ICMP pour l'IPv4 (ICMPv4). L'ICMPv4 et l'ICMPv6 seront étudiés plus loin dans
ce chapitre.
1. La nécessité du protocole IPv6
Le manque d'espace d'adressage IPv4 a été le facteur le plus important pour passer à l'IPv6.
Comme l'Afrique, l'Asie et d'autres parties du monde sont de plus en plus connectées à
Internet, il n'y a pas suffisamment d'adresses IPv4 pour prendre en charge cette croissance.
Le lundi 31 janvier 2011, l'IANA a attribué les deux derniers blocs d'adresses IPv4 /8 aux
organismes d'enregistrement Internet locaux (RIR). Les différentes prévisions indiquent que
les cinq RIR auront épuisé les adresses IPv4 entre 2015 et 2020. À ce stade, les
adresses IPv4 restantes ont été attribuées aux FAI.
L'IPv4 fournit théoriquement 4,3 milliards d'adresses au maximum. Les adresses privées
RFC 1918, en association avec la fonction NAT, ont été utilisées pour limiter le manque
d'espace d'adressage IPv4. La fonction NAT comporte des restrictions gênant fortement les
communications peer-to-peer.

3. La coexistence des protocoles IPv4 et IPv6


La transition vers l'IPv6 n'aura pas lieu à une date fixe. À l'avenir, l'IPv4 et l'IPv6 devront
coexister. La transition vers l'IPv6 durera probablement plusieurs années. L'IETF a créé
divers protocoles et outils pour aider les administrateurs réseau à migrer leurs réseaux vers
l'IPv6. Les techniques de migration peuvent être classées en trois catégories :
 Double pile – comme illustré à la Figure 1, la double pile permet à l'IPv4 et à l'IPv6
de coexister sur le même réseau. Les périphériques double pile exécutent les piles de
protocoles IPv4 et IPv6 simultanément.
 Tunneling – comme illustré à la Figure 2, le tunneling est une méthode de transport
des paquets IPv6 via un réseau IPv4. Les paquets IPv6 sont encapsulés dans des
paquets IPv4, de la même manière que d'autres types de données.
 Traduction – comme illustré à la Figure 3, les périphériques IPv6 peuvent utiliser la
traduction d'adresses réseau 64 (NAT64) pour communiquer avec les
périphériques IPv4 à l'aide d'une technique de traduction similaire à la NAT pour
l'IPv4. Un paquet IPv6 est traduit en un paquet IPv4, et inversement.

4. Représentation de l'adresse IPv6


Les adresses IPv6 ont une longueur de 128 bits et sont notées sous forme de chaînes de
valeurs hexadécimales. Tous les groupes de 4 bits sont représentés par un caractère
hexadécimal unique ; pour un total de 32 valeurs hexadécimales. Les adresses IPv6 ne sont
pas sensibles à la casse et peuvent être notées en minuscules ou en majuscules.
Format privilégié
36
Dil : cours d’architecture réseau et conception

Comme l'illustre la Figure 1, le format privilégié pour noter une adresse IPv6 est
x:x:x:x:x:x:x:x, chaque « x » comportant quatre valeurs hexadécimales. Pour faire référence
aux 8 bits d'une adresse IPv4, nous utilisons le terme « octet ». Pour les adresses IPv6,
« hextet » est le terme non officiel utilisé pour désigner un segment de 16 bits ou de quatre
valeurs hexadécimales. Chaque « x » est un hextet simple, 16 bits, ou quatre caractères
hexadécimaux.
Le format privilégié implique que l'adresse IPv6 soit écrite à l'aide de 32 caractères
hexadécimaux. Cela ne signifie pas nécessairement que c'est la solution idéale pour
représenter une adresse IPv6. Dans les pages suivantes, nous verrons deux règles permettant
de réduire le nombre de caractères requis pour représenter une adresse IPv6.

Règle n° 1 - Omettre les zéros en début de segment


a première règle permettant d'abréger la notation des adresses IPv6 est l'omission des zéros
en début de segment de 16 bits (ou d'hextet). Par exemple :
 01AB est équivalent à 1AB

 09F0 est équivalent à 9F0

 0A00 est équivalent à A00

 00AB est équivalent à AB


Cette règle s'applique uniquement aux zéros de début de segment et NON aux zéros
suivants. L'omission de ces derniers rendrait une adresse ambiguë. Par exemple, l'hextet
37
Dil : cours d’architecture réseau et conception

« ABC » pourrait être « 0ABC » ou « ABC0 ».

Règle n° 2 - Omettre les séquences composées uniquement de zéros


La deuxième règle permettant d'abréger la notation des adresses IPv6 est qu'une suite de
deux fois deux-points (::) peut remplacer toute chaîne unique et contiguë d'un ou plusieurs
segments de 16 bits (hextets) comprenant uniquement des zéros.
Une suite de deux fois deux-points (::) peut être utilisée une seule fois par adresse : sinon, il
serait possible d'aboutir sur plusieurs adresses différentes. Lorsque l'omission des zéros de
début de segment est utilisée, la notation des adresses IPv6 peut être considérablement
réduite. Il s'agit du « format compressé ».
Adresse non valide :
 2001:0DB8::ABCD::1234
Extensions possibles des adresses ambiguës compressées :
 2001:0DB8::ABCD:0000:0000:1234

 2001:0DB8::ABCD:0000:0000:0000:1234

 2001:0DB8:0000:ABCD::1234

 2001:0DB8:0000:0000:ABCD::1234

5.

Types d'adresses IPv6


Il existe trois types d'adresses IPv6 :
 Monodiffusion – une adresse de monodiffusion IPv6 identifie une interface sur un
périphérique IPv6 de façon unique. Comme le montre la figure ci-contre, une adresse
source IPv6 doit être une adresse de monodiffusion.
38
Dil : cours d’architecture réseau et conception

 Multidiffusion – une adresse de multidiffusion IPv6 est utilisée pour envoyer un seul
paquet IPv6 vers plusieurs destinations.
 Anycast – une adresse anycast IPv6 est une adresse de monodiffusion IPv6 qui peut
être attribuée à plusieurs périphériques. Un paquet envoyé à une adresse anycast est
acheminé vers le périphérique le plus proche ayant cette adresse. Les adresses
anycast sortent du cadre de ce cours.
Contrairement à l'IPv4, l'IPv6 n'a pas d'adresse de diffusion. Cependant, il existe une
adresse de multidiffusion à tous les nœuds IPv6 qui offre globalement les mêmes résultats.

6. Longueur de préfixe IPv6


Souvenez-vous que le préfixe (ou la partie réseau) d'une adresse IPv4 peut être identifié par
un masque de sous-réseau ou une longueur de préfixe en notation décimale à point (notation
de barre oblique). Par exemple, l'adresse IP 192.168.1.10 et le masque de sous-réseau en
notation décimale à point 255.255.255.0 équivalent à 192.168.1.10/24.
L'IPv6 utilise la longueur de préfixe pour représenter le préfixe de l'adresse. Le protocole
IPv6 n'utilise pas la notation décimale à point du masque de sous-réseau. La longueur de
préfixe est utilisée pour indiquer la partie réseau d'une adresse IPv6 à l'aide de la notation
adresse IPv6/longueur de préfixe.
La longueur de préfixe peut aller de 0 à 128. La longueur de préfixe IPv6 standard pour les
réseaux locaux et la plupart des autres types de réseau est /64. Celle-ci signifie que le
préfixe ou la partie réseau de l'adresse a une longueur de 64 bits, ce qui laisse 64 bits pour
l'ID d'interface (partie hôte) de l'adresse.
39
Dil : cours d’architecture réseau et conception

7. Les adresses de monodiffusion globale IPv6


Une adresse de monodiffusion IPv6 identifie une interface sur un périphérique IPv6 de
façon unique. Un paquet envoyé à une adresse de monodiffusion est reçu par l'interface
correspondant à cette adresse. Comme c'est le cas avec l'IPv4, une adresse source IPv6 doit
être une adresse de monodiffusion. L'adresse IPv6 de destination peut quant à elle être une
adresse de monodiffusion ou de multidiffusion.
Il existe six types d'adresse de monodiffusion IPv6.
8. Monodiffusion globale
Une adresse de monodiffusion globale est similaire à une adresse IPv4 publique. Ces
adresses sont uniques au monde et routables sur Internet. Les adresses de monodiffusion
globale peuvent être configurées de manière statique ou attribuées de manière dynamique. Il
existe des différences importantes entre la réception d'une adresse IPv6 dynamique par un
périphérique et le DHCP pour l'IPv4.
Link-local
Les adresses link-local sont utilisées pour communiquer avec d'autres périphériques sur la
même liaison locale. Dans le cadre de l'IPv6, le terme « link » (ou liaison) fait référence à
un sous-réseau. Les adresses link-local sont confinées à une seule liaison. Leur caractère
unique doit être confirmé uniquement sur cette liaison, car elles ne sont pas routable au-delà
de la liaison. En d'autres termes, les routeurs ne transmettent aucun paquet avec une adresse
source ou de destination link-local.
Bouclage
Une adresse de bouclage est utilisée par un hôte pour envoyer un paquet à lui-même. Cette
adresse ne peut pas être attribuée à une interface physique. Tout comme avec une adresse de
bouclage IPv4, vous pouvez envoyer une requête ping à une adresse de bouclage IPv6 pour
tester la configuration TCP/IP de l'hôte local. L'adresse de bouclage IPv6 contient
uniquement des 0, excepté le dernier bit. Elle est donc notée ::1/128, ou simplement ::1 au
format compressé.
Adresse non spécifiée
Une adresse non spécifiée est une adresse contenant uniquement des 0 et notée ::/128 ou
simplement :: au format compressé. Elle ne peut pas être attribuée à une interface et ne peut
être utilisée que comme adresse source dans un paquet IPv6. Une adresse non spécifiée est
utilisée comme adresse source lorsque le périphérique n'a pas encore d'adresse IPv6
permanente ou lorsque la source du paquet n'est pas pertinente pour la destination.
Adresse locale unique
Les adresses IPv6 locales uniques ont certains points communs avec les adresses RFC 1918
privées pour l'IPv4, mais ces deux types d'adresse diffèrent également sur certains points.
40
Dil : cours d’architecture réseau et conception

Des adresses locales uniques sont utilisées pour l'adressage local au sein d'un site ou entre
un nombre limité de sites. Ces adresses ne doivent pas être routables sur le réseau IPv6
global. Les adresses locales uniques sont comprises entre FC00::/7 et FDFF::/7.
Avec l'IPv4, les adresses privées sont associées aux fonctions NAT/PAT pour fournir une
traduction « plusieurs vers un » d'adresses privées en adresses publiques. Cette opération est
effectuée en raison du caractère restreint de l'espace d'adressage IPv4. De nombreux sites
utilisent également le caractère privé des adresses RFC 1918 pour sécuriser ou masquer leur
réseau et limiter les risques. Cependant, ce n'est pas le but premier de ces technologies et
l'IETF a toujours recommandé que les sites prennent les précautions de sécurité nécessaires
au niveau de leur routeur connecté à Internet. Bien que l'IPv6 fournisse un adressage
spécifique selon les sites, il n'est pas censé être utilisé pour masquer les périphériques IPv6
internes de l'Internet IPv6. L'IETF conseille de limiter l'accès aux périphériques en
respectant les meilleures pratiques en matière de mesures de sécurité.
Remarque : la norme IPv6 initiale définissait des adresses site-local et utilisait la plage de
préfixes FEC0::/10. Cette norme était ambiguë sur certains points et les adresses site-local
ont été désapprouvées par l'IETF au profit des adresses locales uniques.
IPv4 intégré
Le dernier type d'adresse de monodiffusion est l'adresse IPv4 intégrée. Ces adresses sont
utilisées pour faciliter la transition de l'IPv4 vers l'IPv6. Les adresses IPv4 intégrées sortent
du cadre de ce cours.
41
Dil : cours d’architecture réseau et conception

9. Les adresses de monodiffusion link-local IPv6


Une adresse link-local IPv6 permet à un périphérique de communiquer avec d'autres
périphériques IPv6 sur la même liaison et uniquement sur cette liaison (sous-réseau). Les
paquets associés à une adresse source ou de destination link-local ne peuvent pas être
acheminés au-delà de leur liaison d'origine.
Contrairement aux adresses link-local IPv4, les adresses link-local IPv6 ont une influence
importante sur divers aspects du réseau. L'adresse de monodiffusion globale n'est pas
obligatoire. Cependant, chaque interface réseau IPv6 doit avoir une adresse link-local.
Si une adresse link-local n'est pas configurée manuellement sur une interface, le
périphérique crée automatiquement sa propre adresse sans communiquer avec un
serveur DHCP. Les hôtes IPv6 créent une adresse link-local IPv6 même si aucune adresse
de monodiffusion globale IPv6 n'a été attribuée aux périphériques. Cela permet aux
périphériques IPv6 de communiquer avec d'autres périphériques IPv6 sur le même sous-
réseau. Cela inclut la communication avec la passerelle par défaut (routeur).
Les adresses link-local IPv6 se trouvent dans la plage FE80::/10. /10 Indique que les
10 premiers bits sont 1111 1110 10xx xxxx. Le premier hextet dispose d'une plage allant de
1111 1110 1000 0000 (FE80) à 1111 1110 1011 1111 (FEBF).
La Figure 1 présente un exemple de transmission à l'aide d'adresses link-local IPv6.
La Figure 2 illustre le format d'une adresse link-local IPv6.
Les adresses link-local IPv6 sont également utilisées par les protocoles de routage IPv6 pour
échanger des messages et en tant qu'adresses de saut suivant dans la table de routage IPv6.
Les adresses link-local sont décrites plus en détail dans un cours ultérieur.
Remarque : généralement, c'est l'adresse link-local du routeur et non l'adresse de
monodiffusion globale qui est utilisée comme passerelle par défaut pour les autres
périphériques sur la liaison.

10. La structure d'une adresse de monodiffusion globale IPv6


Les adresses de monodiffusion globale IPv6 sont uniques au monde et routables (Internet
IPv6). Ces adresses sont équivalentes aux adresses publiques IPv4. L'ICANN (Internet
Committee for Assigned Names and Numbers), opérateur de l'IANA (Internet Assigned
Numbers Authority), attribue des blocs d'adresses IPv6 aux cinq RIR. Actuellement, seules
des adresses de monodiffusion globale dont les premiers bits sont 001 ou 2000::/3 sont
attribuées. C'est uniquement 1/8e de l'espace d'adressage IPv6 total disponible : seule une
infime partie est exclue pour les autres types d'adresse de monodiffusion et de
multidiffusion.
Remarque : l'adresse 2001:0DB8::/32 a été réservée à des fins de documentation, par
exemple pour être utilisée dans des exemples.
42
Dil : cours d’architecture réseau et conception

La Figure 1 illustre la structure et la plage d'adresses de monodiffusion globale.


Une adresse de monodiffusion globale se compose de trois parties :
 Préfixe de routage global

 ID de sous-réseau

 ID d'interface
11. Préfixe de routage global
Le préfixe de routage global est le préfixe ou la partie réseau de l'adresse attribué(e) par le
fournisseur (par exemple un FAI) à un client ou à un site. Actuellement, les RIR attribuent
le préfixe global de routage /48 aux clients. Ces clients incluent tous les clients potentiels,
des réseaux d'entreprise aux réseaux particuliers. Cet espace d'adressage est plus que
suffisant pour la plupart des clients.
La Figure 2 illustre la structure d'une adresse de monodiffusion globale utilisant le préfixe
de routage global /48. Les préfixes /48 sont les préfixes de routage global les plus
couramment attribués et seront utilisés dans la plupart des exemples de ce cours.
Par exemple, l'adresse IPv6 2001:0DB8:ACAD::/48 a un préfixe indiquant que les
48 premiers bits (3 hextets) (2001:0DB8:ACAD) constituent le préfixe ou la partie réseau de
l'adresse. La suite de deux fois deux-points (::) avant la longueur de préfixe /48 signifie que
le reste de l'adresse contient uniquement des 0.
ID de sous-réseau
L'ID de sous-réseau est utilisé par une entreprise pour identifier les sous-réseaux au sein de
son site.
ID d'interface
L'ID d'interface IPv6 est similaire à la partie hôte d'une adresse IPv4. Le terme ID
d'interface est utilisé car un hôte unique peut avoir plusieurs interfaces, chacune dotée d'une
ou de plusieurs adresses IPv6.
Remarque : contrairement à l'adressage IPv4, avec IPv6, les adresses d'hôte contenant
uniquement des 0 ou uniquement des 1 peuvent être attribuées à un périphérique. L'adresse
contenant uniquement des 1 peut être utilisée, puisque les adresses de diffusion ne sont pas
utilisées dans IPv6. L'adresse contenant uniquement des 0 peut également être utilisée, mais
elle est réservée comme adresse anycast de routeur de sous-réseau, et elle ne doit être
attribuée qu'aux routeurs.
Un moyen simple de lire la plupart des adresses IPv6 consiste à compter le nombre
d'hextets. Comme l'illustre la Figure 3, dans une adresse de monodiffusion globale /64, les
quatre premiers hextets sont réservés à la partie réseau de l'adresse, le quatrième hextet
indiquant l'ID de sous-réseau. Les quatre hextets restants sont réservés pour l'ID d'interface
43
Dil : cours d’architecture réseau et conception

12. La génération aléatoire ou à l'aide de la méthode EUI-64


Processus de EUI-64
L'IEEE a créé l'EUI (Extended Unique Identifier), ou format EUI-64 modifié. Ce processus
utilise l'adresse MAC Ethernet 48 bits d'un client et insère 16 autres bits au milieu de
l'adresse MAC 48 bits pour créer un ID d'interface de 64 bits.
Les adresses MAC Ethernet sont généralement représentées au format hexadécimal et sont
constituées de deux parties :
 OUI (Organizationally Unique Identifier) – l'OUI est un code de fournisseur de
24 bits (6 caractères hexadécimaux) attribué par l'IEEE.
44
Dil : cours d’architecture réseau et conception

 ID de périphérique – l'identifiant de périphérique est une valeur unique de 24 bits


(6 caractères hexadécimaux) contenue dans un OUI standard.
Un ID d'interface EUI-64 est représenté au format binaire et comprend trois parties :
 Le code OUI sur 24 bits, provenant de l'adresse MAC du client, mais dont le
septième bit (universellement/localement, U/L) est inversé. Cela signifie que si le
septième bit est un 0, il devient un 1, et vice versa.
 La valeur de 16 bits FFFE intégrée (au format hexadécimal).

 L'ID de périphérique de 24 bits de l'adresse MAC du client.


Le processus EUI-64 est présenté à la Figure 1, avec l'adresse MAC gigabit ethernet
FC99:4775:CEE0 du périphérique R1.
Étape 1 : coupez l'adresse MAC au niveau de la séparation entre l'OUI et l'ID de
périphérique.
Étape 2 : insérez la valeur hexadécimale FFFE, à savoir 1111 1111 1111 1110 en binaire.
Étape 3 : convertissez les 2 premières valeurs hexadécimales de l'OUI en binaire et inversez
le bit U/L (bit 7). Dans cet exemple, le 0 du bit 7 devient un 1.
Il en résulte un ID d'interface généré à l'aide de la méthode EUI-64,
FE99:47FF:FE75:CEE0.
ID d'interface générés aléatoirement
Selon le système d'exploitation, un périphérique peut utiliser un ID d'interface généré
aléatoirement plutôt que l'adresse MAC et le processus EUI-64. À partir de la version
Windows Vista, Windows utilise un ID d'interface généré aléatoirement au lieu d'un ID créé
avec le processus EUI-64. Windows XP et les systèmes d'exploitation précédents utilisaient
la méthode EUI-64.
Il est simple de savoir si une adresse a été créée via la méthode EUI-64 : il suffit d'analyser
la valeur FFFE située dans l'ID d'interface (voir la Figure 2).
Une fois l'ID d'interface établi, via le processus EUI-64 ou par génération aléatoire, il peut
être combiné avec un préfixe IPv6 pour créer une adresse de monodiffusion globale ou une
adresse link-local :
 Adresse de monodiffusion globale – s'il utilise la SLAAC, le périphérique reçoit
son préfixe par l'intermédiaire du message d'annonce de routeur ICMPv6 et l'associe
à l'ID d'interface.
 Adresse link-local – un préfixe link-local commence par FE80::/10. Un périphérique
utilise généralement FE80::/64 comme préfixe/longueur de préfixe, suivi de l'ID
d'interface.
45
Dil : cours d’architecture réseau et conception

13. Les adresses link-local dynamiques


S'il utilise la SLAAC (SLAAC uniquement ou SLAAC avec DHCPV6), un périphérique
reçoit son préfixe et la longueur de préfixe dans un message d'annonce de routeur ICMPv6.
Puisque le préfixe de l'adresse est déterminé par le message d'annonce de routeur, le
périphérique doit fournir uniquement la partie ID d'interface de l'adresse. Comme indiqué
précédemment, l'ID d'interface peut être automatiquement généré selon le processus EUI-64
ou, selon le système d'exploitation, généré aléatoirement. En utilisant les informations du
message d'annonce de routeur et l'ID d'interface, le périphérique peut établir son adresse de
monodiffusion globale.
46

Une fois qu'une adresse de monodiffusion globale est attribuée à une interface, le
périphérique IPv6 génère automatiquement son adresse link-local. Les périphériques
IPv6 doivent avoir au minimum une adresse link-local. Notez qu'une adresse link-local
IPv6 permet à un périphérique de communiquer avec les autres périphériques IPv6
situés sur le même sous-réseau.
Les adresses link-local IPv6 servent à diverses fins :
 Un hôte utilise l'adresse link-local du routeur local en tant qu'adresse IPv6 de
passerelle par défaut.
 Les routeurs échangent des messages du protocole de routage dynamique via
des adresses link-local.
 Les tables de routage des routeurs utilisent l'adresse link-local pour identifier le
routeur de saut suivant lors du transfert des paquets IPv6.
Une adresse link-local peut être établie dynamiquement ou configurée manuellement
comme adresse link-local statique.
14. Adresse link-local affectée dynamiquement
L'adresse link-local est créée dynamiquement à l'aide du préfixe FE80::/10 et de l'ID
d'interface.
Les adresses link-local IPv6 servent à diverses fins :
 Un hôte utilise l'adresse link-local du routeur local en tant qu'adresse IPv6 de
passerelle par défaut.
 Les routeurs échangent des messages du protocole de routage dynamique via
des adresses link-local.
 Les tables de routage des routeurs utilisent l'adresse link-local pour identifier le
routeur de saut suivant lors du transfert des paquets IPv6.
Une adresse link-local peut être établie dynamiquement ou configurée manuellement
comme adresse link-local statique.

CHAPITRE IV. CONCEPTION DES RESEAUX


4.1. Notion de routage et de commutation
4.2. Planification du système d’adressage

Ir Dil : didierinyei@gmail.com:
Contact : +243 89 96 44 392
47

4.3. Débit général du réseau


4.4. Pratique de conception

Exemple d’un schéma d’interconnexion

Ir Dil : didierinyei@gmail.com:
Contact : +243 89 96 44 392

Vous aimerez peut-être aussi

pFad - Phonifier reborn

Pfad - The Proxy pFad of © 2024 Garber Painting. All rights reserved.

Note: This service is not intended for secure transactions such as banking, social media, email, or purchasing. Use at your own risk. We assume no liability whatsoever for broken pages.


Alternative Proxies:

Alternative Proxy

pFad Proxy

pFad v3 Proxy

pFad v4 Proxy