Cours Arch RX
Cours Arch RX
Cours Arch RX
INTRODUCTION
Le transport des données d’une extrémité à une autre d’un réseau nécessite un support
physique ou hertzien de communication. Pour que les données arrivent correctement au
destinataire, avec la qualité de service, ou QoS (Quality of Service), exigée, il faut en outre
une architecture logicielle chargée du contrôle des paquets dans le réseau.
Les trois grandes architectures suivantes se disputent actuellement le marché mondial des
réseaux :
Une architecture de conception propriétaire fiaible est aussi utilisée pour la conception,
c’est l’architecture d’entreprise cisco ; que nous utiliserons pour la conception
hiérarchique d’un réseau.
CHAPITRE I. NORMALISATION
Il n'y a pas encore si longtemps, la liberté du choix d'un équipement informatique était très
limitée.
2
Dil : cours d’architecture réseau et conception
Cette époque voyait les fabricants de matériel garder jalousement leurs secrets techniques
forçant par-là, la dépendance des clients à leur égard.
En effet, tout était fait volontairement afin de rendre le plus incompatible possible les
marques entre elle. Une machine IBM ? Une imprimante IBM obligatoirement. Tout ceci en
réseau ? SNA obligatoirement. IBM n'était naturellement pas le seul à pratiquer de la sorte.
1.1. Standard ouvert ou fermé
Les caractéristiques d'un standard, ouvert ou fermé, n'a rien avoir avec les aspects
techniques des technologies qu'on y déploie, mais uniquement la manière dont ces
technologies sont développées.
Une technologie fermée, on dira aussi propriétaire, est conçue dans le secret. Les détails de
sa fabrication ne sont pas divulgués.
Une technologie ouverte, est au contraire développée publiquement. Tous les détails de son
implémentation sont accessibles à qui le souhaite.
Développer une technologie particulière, réussir à la conserver secrète confère un avantage
indéniable sur la concurrence. Collaborer avec ce dernier est, d'une certaine manière,
frustrant. De premier abord, l'avantage de partager une nouvelle technologie avec des
concurrents n'est pas évident.
1.2. Motivations d'une technologie propriétaire
Encore aujourd'hui, le but de chaque fabricant est de créer quelque chose d'unique afin
d'attirer les consommateurs. Naturellement, si j'ai investi du temps et de l'argent dans le
développement d'une nouvelle technologie, je ne souhaite certainement pas en faire cadeau.
Rien que de très logique vu sous cet angle. C'est une pratique commerciale courante, garante
de profits.
C'est dans cet état d'esprit que les premières générations d'équipements ont été créées et
commercialisées.
1.3. Motivations d'une technologie ouverte
Une technologie développée pour permettre une interaction avec des technologies d'autres
fabricants est dite ouverte. Dans la plupart des domaines industriels, dévoiler ou se faire
dérober des secrets de fabrication est fatal. Il en allait de même dans l'industrie de
l'informatique à ses débuts.
Aujourd'hui, les choses sont bien différentes. Si une entreprise informatique souhaite tirer
des profits d'un produit donné, elle soit livrée une partie de ses secrets de développement,
aussi paradoxal que cela puisse paraître. C'est d'ailleurs une approche qui fonctionne
tellement bien que les utilisateurs s'attendent systématiquement à ce comportement.
3
Dil : cours d’architecture réseau et conception
Les organismes de normalisation sont généralement des associations à but non lucratif qui
ne sont liées à aucun constructeur. Leur objectif est de développer et de promouvoir le
concept des normes ouvertes.
L'IRTF (Internet Research Task Force) se concentre sur la recherche à long terme liée à
Internet et aux protocoles TCP/IP, aux applications, à l'architecture et aux technologies. Si
l'IETF s'intéresse surtout aux besoins à court terme en matière de normes, l'IRTF se
compose de groupes de recherche centrés sur le développement à long terme. Les groupes
de recherche actuels sont notamment l'ASRG (Anti-Spam Research Group), le CFRG
(Crypto Forum Research Group), le P2PRG (Peer-to-Peer Research Group) et le RRG
(Router Research Group).
1.5.2. IEEE
L'IEEE (Institute of Electrical and Electronics Engineers) est une association américaine
professionnelle s'adressant aux spécialistes du génie électrique et de l'électronique qui
souhaitent se consacrer à l'innovation technologique et à la création de normes. En 2012,
l'IEEE se composait de 38 sociétés, avait publié 130 journaux et parrainé plus de
1 300 conférences par an dans le monde entier. L'IEEE compte actuellement plus de
1 300 normes et projets en cours de développement.
L'organisme rassemble plus de 400 000 membres dans plus de 160 pays, dont plus de
107 000 étudiants. L'IEEE offre des opportunités de formation et de valorisation
professionnelle dans l'optique de promouvoir les compétences et les connaissances du
domaine de l'électronique.
Il s'agit d'un organisme de normalisation majeur sur le plan international. Il crée et gère des
normes affectant un grand nombre de secteurs, notamment l'électricité et l'énergie, la santé,
les télécommunications et les réseaux. Les normes 802 de l'IEEE traitent des réseaux locaux
et des réseaux métropolitains, y compris les réseaux filaires et sans fil. Comme l'illustre la
figure, chaque norme IEEE correspond à un groupe de travail chargé de créer et d'améliorer
des normes.
5
Dil : cours d’architecture réseau et conception
Les normes 802.3 et 802.11 de l'IEEE jouent un rôle de premier plan dans les réseaux
informatiques. La norme 802.3 définit le contrôle d'accès au support (MAC ou Media
Access Control) de l'Ethernet filaire. Cette technologie sert généralement aux réseaux
locaux, mais certaines de ses applications concernent également le réseau étendu (WAN).
La norme 802.11 définit un ensemble de normes relatives à la mise en œuvre des réseaux
locaux sans fil (WLAN). Elle définit la couche physique et la sous-couche de liaison de
données MAC du modèle OSI (Open Systems Interconnection) pour les communications
sans fil.
1.5.3. ISO
Dans le domaine des réseaux, elle est surtout célèbre pour son modèle de référence OSI
(Open Systems Interconnection), publié en 1984 dans le but de développer un cadre
composé de couches pour les protocoles réseau. L'objectif initial de ce projet était non
seulement de créer un modèle de référence, mais également de servir de base à une suite de
protocoles applicables à Internet. Celle-ci a été appelée suite de protocoles OSI. Toutefois,
en raison de la popularité croissante de la suite TCP/IP développée par Robert Kahn, Vinton
Cerf et d'autres spécialistes, le choix de la suite de protocoles Internet ne s'est pas porté sur
le modèle OSI, mais sur la suite TCP/IP. La suite de protocoles OSI a tout de même été
implémentée sur des équipements de télécommunications et existe toujours dans des réseaux
de télécommunications d'ancienne génération.
Vous connaissez peut-être déjà certains produits qui font appel aux normes ISO. L'extension
de fichier ISO est attribuée à de nombreuses images de CD pour indiquer l'utilisation de la
norme ISO 9660 dans le système de fichiers. L'organisme ISO est également chargé de créer
des normes relatives aux protocoles de routage.
Les normes réseau font appel à plusieurs autres organismes de normalisation, dont voici les
plus courants :
L'ICANN (Internet Corporation for Assigned Names and Numbers) est une
association à but non lucratif basée aux États-Unis qui coordonne l'attribution des
adresses IP, la gestion des noms de domaine utilisés par le protocole DNS et les
identificateurs de protocole ou numéros de ports utilisés par les protocoles TCP et
UDP. L'ICANN crée des politiques et assume la responsabilité totale de ces
attributions.
2.1. Introduction
Les réseaux doivent répondre aux besoins actuels des organisations et doivent pouvoir
prendre en charge les technologies émergentes dès leur adoption. Les principes et les
modèles de conception réseau peuvent aider l'ingénieur réseau à concevoir et construire un
réseau flexible, robuste et gérable.
Dans le domaine de la conception de réseaux, il est utile de classer les réseaux en fonction
du nombre de périphériques gérés :
Les conceptions de réseaux varient selon la taille et les besoins des entreprises. Par exemple,
les besoins de l'infrastructure réseau d'une petite organisation avec peu de périphériques
seront moins complexes que ceux de l'infrastructure d'une grande organisation avec un
grand nombre de périphériques et de connexions.
Quelle que soit la taille et quelles que soient les contraintes du réseau, un facteur important
dans la bonne mise en place ou conception de réseaux et de suivre les principes d'ingénierie
structurée. Ces principes sont les suivants :
Résilience : le réseau doit rester disponible et utilisable dans des conditions aussi
bien normales qu'anormales. Les conditions normales sont celles dans lesquelles le
trafic et le flux réseau sont normaux et comprennent les événements prévus, par
exemple les périodes de maintenance. Les conditions anormales se produisent lors de
pannes de matériel ou de logiciel, lors de l'apparition de trafic imprévu, d'événements
de DoS, intentionnels ou non, ou encore tout autre événement non prévu.
Afin de répondre à ces objectifs de conception fondamentaux, le réseau doit être créé sur
une architecture réseau hiérarchique qui offre suffisamment de flexibilité et de possibilités
de croissance.
Une conception de réseau typique de LAN hiérarchique comprend les trois couches
suivantes :
De par la division des réseaux linéaires non hiérarchiques en sections plus petites et plus
faciles à gérer, le trafic local reste véritablement local. Seul le trafic destiné aux autres
réseaux est déplacé vers une couche supérieure.
Les périphériques de la couche 2 d'un réseau plat ne permettent pas vraiment de contrôler la
diffusion ou de filtrer le trafic indésirable. À mesure que des périphériques et des
applications sont ajoutés au réseau plat, le temps de réponse se dégrade, au point que le
réseau devient inutilisable.
Remarque : il n'y a pas de règles absolues pour la manière dont le réseau de campus est
conçu physiquement. Bien que la plupart des réseaux de campus soient construits selon trois
étages de commutateurs, il ne s'agit pas d'une règle stricte. Dans un plus petit campus, le
réseau peut comporter deux étages de commutateurs dans lesquels les éléments de cœur et
de distribution sont regroupés en un seul commutateur physique. Il s'agit là d'une conception
en cœur de réseau regroupé.
10
Dil : cours d’architecture réseau et conception
1. Couche d'accès
Comme illustré, la couche d'accès d'un petit réseau professionnel comprend généralement
les commutateurs et les points d'accès de la couche 2, permettant la connexion entre stations
de travail et serveurs.
Commutation de couche 2
Disponibilité élevée
Spanning Tree
2. Couche de distribution
Le périphérique de couche de distribution est le principal point d'attention dans les armoires
de répartition. Un routeur ou un commutateur multicouche est utilisé pour segmenter les
groupes de travail et isoler les problèmes réseau dans l'environnement de campus.
La sécurité basée sur des stratégies sous forme de listes de contrôle d'accès et de
filtrage
Les services de routage entre LAN et VLAN, et entre domaines de routage, par
exemple EIGRP vers OSPF
Une limite pour l'agrégation et le résumé des routes configurées sur les interfaces
vers la couche cœur de réseau
La couche cœur de réseau est aussi appelée réseau fédérateur. Elle se compose de
périphériques réseau à grande vitesse, par exemple les Cisco Catalyst 6500 ou 6800. Ils sont
13
Dil : cours d’architecture réseau et conception
conçus pour transmettre les paquets le plus rapidement possible et pour connecter entre eux
plusieurs composants du campus, par exemple les modules de distribution, les modules de
service, le data center et la périphérie WAN.
Comme présenté dans la figure, la couche cœur de réseau est cruciale pour la connexion
entre périphériques de la couche de distribution, par exemple, l'interconnexion entre le bloc
de distribution vers le WAN et la périphérie Internet. Le cœur doit être extrêmement
disponible et redondant. La couche cœur de réseau regroupe le trafic provenant de tous les
périphériques de la couche de distribution. Elle doit donc être capable d'effectuer la
transmission rapide d'importantes quantités de données.
Mise à l'échelle avec un équipement plus rapide, et non en rajoutant des éléments
cœur de réseau et de distribution sont regroupées en une seule couche s'avère souvent plus
pratique. On parle de cœur de réseau regroupé lorsque les fonctions de couche de
distribution et de couche cœur de réseau sont mises en œuvre sur un seul périphérique. Le
principal motif d'utilisation de la conception avec cœur regroupé est de réduire les coûts du
réseau tout en conservant la plupart des avantages du modèle hiérarchique à trois couches.
Le modèle de réseau hiérarchique offre une architecture modulaire qui permet plus de
flexibilité et simplifie la mise en œuvre du réseau et la résolution des problèmes.
Les échecs se produisant dans un module peuvent être isolés du reste du réseau, ce
qui permet de détecter de façon plus simple les problèmes et ainsi offrir une plus
grande disponibilité du système.
Lorsqu'un module n'a plus la capacité suffisante ou bien ne dispose pas d'une
nouvelle fonction ou d'un nouveau service, il peut être mis à jour ou remplacé par un
autre module qui joue le même rôle structurel dans la hiérarchie générale.
La sécurité peut être mise en place module par module, ce qui offre un contrôle de
sécurité renforcé.
Services : le module de services permet d'identifier des services tels que les
contrôleurs sans fil LWAPP centralisés, les services de communications unifiées, les
passerelles de stratégie, etc..
Data center : aussi appelé batterie de serveurs. Ce bloc est responsable de la gestion
et de la mise à jour de nombreux systèmes de données vitaux pour le fonctionnement
moderne des entreprises. Employés, partenaires et clients s'appuient sur les données
et ressources du data center pour créer, collaborer et interagir efficacement.
Comme présenté dans l'illustration, les modules suivants sont les principaux éléments de
l'architecture d'entreprise Cisco :
Campus d'entreprise
Périphérie d'entreprise
Agence d'entreprise
Télétravailleur d'entreprise
17
Dil : cours d’architecture réseau et conception
Le module de campus d'entreprise décrit les méthodes recommandées pour la création d'un
réseau évolutif, tout en répondant aux besoins d'un fonctionnement d'entreprise de style
campus. Cette architecture est modulaire et peut être facilement étendue pour inclure des
bâtiments ou des étages de campus supplémentaires, à mesure que l'entreprise se développe.
Accès au bâtiment
Distribution du bâtiment
Data center
Le module centralisé de data center à haute capacité peut fournir les ressources du serveur
interne aux utilisateurs. Le module de data center prend aussi en charge les services de
gestion du réseau pour l'entreprise, ce qui comprend la surveillance, la journalisation, la
résolution des problèmes et d'autres fonctions courantes de gestion de bout en bout. Le sous-
module de data center contient en général les serveurs de messagerie interne et les serveurs
généraux qui fournissent les applications, l'impression, le courrier électronique et les
services DNS aux utilisateurs internes.
Les entreprises utilisent des fournisseurs de services pour assurer le lien avec les autres
sites. Comme illustré à la Figure 1, le module périphérie des fournisseurs de service peut
comprendre :
Des services WAN tels que Frame Relay, ATM, réseau métropolitain
Assure la convergence des services vocaux, vidéo et données sur un seul réseau de
communication IP.
Assure la sécurité à l'aide de VPN (IPsec / MPLS) sur les WAN de couche 2 et 3.
Il est aussi possible de configurer la redondance avec plusieurs FAI, Parmi les options de
connexion à plusieurs FAI :
Agence d'entreprise
21
Dil : cours d’architecture réseau et conception
Le module de filiale d'entreprise comprend les filiales distantes qui permettent aux
employés de travailler depuis l'extérieur du campus. Ces emplacements sont normalement
chargés de fournir la sécurité, la téléphonie et les options de mobilité aux employés, ainsi
que la connectivité générale au réseau du campus et aux différents composants qui se
trouvent sur le campus de l'entreprise. Le module filiale d'entreprise permet aux entreprises
d'étendre aux filiales les applications et services utilisés au siège, par exemple la sécurité,
Cisco Unified Communications et les performances d'applications avancées. Le
périphérique de périphérie qui relie le site distant au central téléphonique (CO) varie en
fonction des besoins et de la taille du site. Les grands sites distants peuvent utiliser des
commutateurs Cisco Catalyst haut de gamme, alors que les sites plus restreints peuvent
utiliser un routeur ISR G2. Ces sites distants s'appuient sur la Périphérie du fournisseur de
services pour obtenir les services et les applications du site principal. Dans la figure, le
module filiale d'entreprise se connecte principalement au site du campus d'entreprise via une
liaison WAN. Or, il dispose également d'une liaison Internet, comme solution de secours.
La liaison Internet utilise une technologie VPN IPsec site à site pour chiffrer les données de
l'entreprise.
Télétravailleur d'entreprise
Le data center d'entreprise a exactement les mêmes fonctions qu'un data center de campus,
mais il se trouve sur un site distant. Cela offre une couche de sécurité supplémentaire étant
donné que le data center externe peut fournir des services de récupération après sinistre et la
continuité de fonctionnement à l'entreprise. Les commutateurs haut de gamme comme le
Cisco Nexus utilisent des services WAN rapides comme le Metro Ethernet (MetroE) pour
connecter le campus d'entreprise au data center d'entreprise distant. Les data centers
redondants assurent la sauvegarde grâce à la réplication synchrone et asynchrone des
données et des applications. De plus, le réseau et les périphériques assurent l'équilibrage de
la charge du serveur et des applications afin d'optimiser les performances. Cette solution
permet à l'entreprise de mettre son réseau à l'échelle voulue sans modifications majeures de
son infrastructure.
22
Dil : cours d’architecture réseau et conception
L'adressage est l'une des fonctions principales des protocoles de couche réseau. Il permet de
mettre en œuvre la transmission de données entre des hôtes situés sur un même réseau ou
sur des réseaux différents. La version 4 (IPv4) et la version 6 (IPv6) du protocole IP
fournissent un adressage hiérarchique pour les paquets qui transportent les données.
L'élaboration, la mise en œuvre et la gestion d'un modèle d'adressage IP garantissent un
fonctionnement optimal des réseaux.
longueur de préfixe correspond au nombre de bits définis sur 1 dans le masque de sous-
réseau. Elle est notée au moyen de la « notation de barre oblique », à savoir un « / » suivi du
nombre de bits définis sur 1. Par exemple, si le masque de sous-réseau est 255.255.255.0, il
existe 24 bits définis sur 1 dans la version binaire du masque de sous-réseau. La longueur du
préfixe est donc de 24 bits, soit /24. Le préfixe et le masque de sous-réseau constituent des
moyens distincts de représenter la même chose : la partie réseau d'une adresse.
24
Dil : cours d’architecture réseau et conception
Adresses d'hôte
Adresse de diffusion
1. Adresse réseau
L'adresse réseau est généralement utilisée pour faire référence à un réseau. Le masque de
sous-réseau ou la longueur du préfixe peuvent aussi être utilisés pour décrire une adresse
réseau. Par exemple, le réseau illustré à la Figure 1 peut être appelé le réseau 10.1.1.0, le
réseau 10.1.1.0 255.255.255.0 ou le réseau 10.1.1.0/24. Tous les hôtes du réseau 10.1.1.0/24
auront la même partie réseau.
2. Adresse de l'hôte
Chaque périphérique final nécessite une adresse unique pour communiquer sur le réseau.
Avec les adresses IPv4, les valeurs comprises entre l'adresse réseau et l'adresse de diffusion
peuvent être attribuées aux périphériques finaux d'un réseau.
3. Adresse de diffusion
L'adresse de diffusion IPv4 est une adresse spécifique, attribuée à chaque réseau. Elle
permet de transmettre des données à l'ensemble des hôtes d'un réseau. Pour envoyer les
données à tous les hôtes d'un réseau en une seule fois, un hôte peut envoyer un paquet
adressé à l'adresse de diffusion du réseau : chaque hôte du réseau qui recevra ce paquet en
traitera le contenu.
en tant que bit de poids faible ou bit le plus à droite. Cette adresse est toujours inférieure de
un à l'adresse de diffusion. Comme le montre la Figure 2, la dernière adresse d'hôte du
réseau 10.1.1.0/24 est 10.1.1.254.
Dans un réseau IPv4, les hôtes peuvent communiquer de trois façons :
Monodiffusion : processus consistant à envoyer un paquet d'un hôte à un autre hôte
spécifique.
Diffusion : processus consistant à envoyer un paquet d'un hôte à tous les hôtes du
réseau.
Multidiffusion : processus consistant à envoyer un paquet d'un hôte à un groupe
d'hôtes en particulier (qui peuvent se trouver sur différents réseaux).
Ces trois types de transmission sont utilisés différemment dans les réseaux de données.
Dans les trois cas, l'adresse IPv4 de l'hôte émetteur est placée dans l'en-tête du paquet
comme adresse source.
La grande majorité des adresses de la plage d'hôtes multidiffusion IPv4 sont des adresses
publiques. Ces adresses sont normalement attribuées à des hôtes publiquement accessibles
depuis Internet. Même dans ces blocs d'adresses IPv4, de nombreuses adresses sont
réservées à des usages particuliers.
L'espace d'adressage de la classe C était le plus disponible des anciennes classes d'adresses.
Cet espace d'adressage était réservé aux réseaux de petite taille, comportant 254 hôtes au
maximum. Les blocs d'adresses de classe C utilisaient le préfixe /24. Ainsi, un réseau de
classe C ne pouvait utiliser que le dernier octet pour les adresses d'hôte, les trois premiers
octets correspondant à l'adresse réseau. Les blocs d'adresses de classe C réservaient l'espace
d'adressage à l'aide d'une valeur fixe de 110 pour les trois bits de poids fort du premier octet.
Cela limitait le bloc d'adresses de classe C de 192.0.0.0/24 à 223.255.255.0/24. Bien qu'il
occupait seulement 12,5 % de l'espace d'adressage IPv4, il pouvait attribuer des adresses à
2 millions de réseaux.
4. Limites de l'adressage par classe
Les besoins de certaines entreprises ou organisations sont couverts par ces trois classes.
L'attribution par classe des adresses IP gaspillait souvent de nombreuses adresses, ce qui
épuisait la disponibilité des adresses IPv4. Par exemple, une entreprise avec un réseau de
260 hôtes devait se voir attribuer une adresse de classe B avec plus de 65 000 adresses.
5. Adressage sans classe
Le système utilisé aujourd'hui porte le nom d'adressage sans classe. Son nom formel est le
routage CIDR (Classless Inter-Domain Routing, routage interdomaine sans classe).
L'attribution par classe d'adresses IPv4 était inefficace, car elle permettait uniquement
l'utilisation de longueurs de préfixe /8, /16 ou /24, chacune d'un espace d'adresses distinct.
En 1993, l'IETF a créé un nouvel ensemble de normes permettant aux fournisseurs de
services d'attribuer des adresses IPv4 sur n'importe quelle limite binaire (longueur de
préfixe) au lieu d'utiliser uniquement les classes A, B ou C.
L'IETF savait que le CIDR était uniquement une solution temporaire et qu'un nouveau
protocole IP devait être développé pour s'adapter à la croissance rapide du nombre
d'utilisateurs d'Internet. En 1994, l'IETF a commencé à chercher un successeur à l'IPv4, à
savoir le futur protocole IPv6.
29
Dil : cours d’architecture réseau et conception
Donc, dans cet exemple, l'emprunt de 1 bit d'hôte du réseau permet la création de 2 sous-
réseaux dont chacun peut prendre en charge un total de 126 hôtes.
Étant donné que l'espace d'adresses 192.168.20.224/27 comporte 5 bits d'hôte, 3 bits
peuvent être empruntés, ce qui laisse 2 bits dans la partie hôte.
Jusque-là, les calculs sont exactement les mêmes que pour la méthode classique. Il faut
emprunter des bits et déterminer les plages des sous-réseaux.
Comme l'illustre la Figure 2, ce schéma de segmentation VLSM réduit le nombre d'adresses
par sous-réseau jusqu'à la taille appropriée pour les réseaux étendus. Le fait de segmenter le
sous-réseau 7 pour les réseaux étendus permet de conserver les sous-réseaux 4, 5, et 6 pour
les futurs réseaux, mais également plusieurs autres sous-réseaux disponibles pour les
réseaux étendus.
33
Dil : cours d’architecture réseau et conception
1. Diagramme VLSM
Pour planifier des adresses, vous pouvez également faire appel à divers outils. Parmi ces
derniers, le diagramme VLSM permet d'identifier les blocs d'adresses qui sont disponibles et
ceux qui sont déjà attribués. Ce diagramme permet de ne pas attribuer des adresses déjà
attribuées. Le tableau de VLSM peut être utilisé pour planifier l'attribution des adresses de
l'exemple précédent.
2. Observation des sous-réseaux /27
Comme le montre la Figure 1, lorsque nous avons utilisé la méthode classique de
segmentation, les sept premiers blocs d'adresses étaient attribués aux réseaux locaux et aux
réseaux étendus. Souvenez-vous que ce schéma a entraîné la création de 8 sous-réseaux
proposant chacun 30 adresses utilisables (/27). Même si ce schéma fonctionnait pour les
segments de réseau local, de nombreuses adresses étaient gaspillées dans les segments de
réseau étendu.
Lors de la conception du schéma d'adressage sur un nouveau réseau, les blocs d'adresses
peuvent être attribués à l'aide d'une méthode qui réduit les pertes et maintient la contiguïté
des blocs d'adresses inutilisées.
3. Attribution des blocs d'adresses VLSM
Comme l'illustre la Figure 2, afin d'utiliser plus efficacement l'espace d'adressage, des sous-
réseaux /30 sont créés pour les liaisons de réseau étendu. Pour conserver ensemble les blocs
d'adresses inutilisées, le dernier sous-réseau /27 a à nouveau été subdivisé pour créer des
sous-réseaux /30. Les 3 premiers sous-réseaux ont été affectés aux liaisons de réseau étendu.
Plage d'adresses d'hôte .224 /30 de 225 à 226 : liaison de réseau étendu entre R1 et
R2
Plage d'adresses d'hôte .228 /30 de 229 à 230 : liaison de réseau étendu entre R2 et
R3
Plage d'adresses d'hôte .232 /30 de 233 à 234 : liaison de réseau étendu entre R3 et
R4
Plage d'adresses d'hôte .236 /30 de 237 à 238 : disponible
4.11.
Ce qui rend IPv6 nécessaire
L'IPv6 est conçu pour être le successeur de l'IPv4. L'IPv6 possède un plus grand espace
d'adressage (128 bits) pour un total de 340 undécillions d'adresses disponibles (ce qui
correspond au nombre 340 suivi de 36 zéros). Toutefois, l'IPv6 apporte bien plus que des
adresses plus longues. Lorsque l'IETF a commencé à développer un successeur à l'IPv4,
l'organisme a utilisé cette opportunité pour corriger les limites de l'IPv4 et améliorer ce
protocole. Par exemple, l'ICMPv6 (Internet Control Message Protocol version 6) inclut la
configuration automatique et la résolution d'adresse, fonctions non présentes dans le
35
Dil : cours d’architecture réseau et conception
protocole ICMP pour l'IPv4 (ICMPv4). L'ICMPv4 et l'ICMPv6 seront étudiés plus loin dans
ce chapitre.
1. La nécessité du protocole IPv6
Le manque d'espace d'adressage IPv4 a été le facteur le plus important pour passer à l'IPv6.
Comme l'Afrique, l'Asie et d'autres parties du monde sont de plus en plus connectées à
Internet, il n'y a pas suffisamment d'adresses IPv4 pour prendre en charge cette croissance.
Le lundi 31 janvier 2011, l'IANA a attribué les deux derniers blocs d'adresses IPv4 /8 aux
organismes d'enregistrement Internet locaux (RIR). Les différentes prévisions indiquent que
les cinq RIR auront épuisé les adresses IPv4 entre 2015 et 2020. À ce stade, les
adresses IPv4 restantes ont été attribuées aux FAI.
L'IPv4 fournit théoriquement 4,3 milliards d'adresses au maximum. Les adresses privées
RFC 1918, en association avec la fonction NAT, ont été utilisées pour limiter le manque
d'espace d'adressage IPv4. La fonction NAT comporte des restrictions gênant fortement les
communications peer-to-peer.
Comme l'illustre la Figure 1, le format privilégié pour noter une adresse IPv6 est
x:x:x:x:x:x:x:x, chaque « x » comportant quatre valeurs hexadécimales. Pour faire référence
aux 8 bits d'une adresse IPv4, nous utilisons le terme « octet ». Pour les adresses IPv6,
« hextet » est le terme non officiel utilisé pour désigner un segment de 16 bits ou de quatre
valeurs hexadécimales. Chaque « x » est un hextet simple, 16 bits, ou quatre caractères
hexadécimaux.
Le format privilégié implique que l'adresse IPv6 soit écrite à l'aide de 32 caractères
hexadécimaux. Cela ne signifie pas nécessairement que c'est la solution idéale pour
représenter une adresse IPv6. Dans les pages suivantes, nous verrons deux règles permettant
de réduire le nombre de caractères requis pour représenter une adresse IPv6.
2001:0DB8::ABCD:0000:0000:0000:1234
2001:0DB8:0000:ABCD::1234
2001:0DB8:0000:0000:ABCD::1234
5.
Multidiffusion – une adresse de multidiffusion IPv6 est utilisée pour envoyer un seul
paquet IPv6 vers plusieurs destinations.
Anycast – une adresse anycast IPv6 est une adresse de monodiffusion IPv6 qui peut
être attribuée à plusieurs périphériques. Un paquet envoyé à une adresse anycast est
acheminé vers le périphérique le plus proche ayant cette adresse. Les adresses
anycast sortent du cadre de ce cours.
Contrairement à l'IPv4, l'IPv6 n'a pas d'adresse de diffusion. Cependant, il existe une
adresse de multidiffusion à tous les nœuds IPv6 qui offre globalement les mêmes résultats.
Des adresses locales uniques sont utilisées pour l'adressage local au sein d'un site ou entre
un nombre limité de sites. Ces adresses ne doivent pas être routables sur le réseau IPv6
global. Les adresses locales uniques sont comprises entre FC00::/7 et FDFF::/7.
Avec l'IPv4, les adresses privées sont associées aux fonctions NAT/PAT pour fournir une
traduction « plusieurs vers un » d'adresses privées en adresses publiques. Cette opération est
effectuée en raison du caractère restreint de l'espace d'adressage IPv4. De nombreux sites
utilisent également le caractère privé des adresses RFC 1918 pour sécuriser ou masquer leur
réseau et limiter les risques. Cependant, ce n'est pas le but premier de ces technologies et
l'IETF a toujours recommandé que les sites prennent les précautions de sécurité nécessaires
au niveau de leur routeur connecté à Internet. Bien que l'IPv6 fournisse un adressage
spécifique selon les sites, il n'est pas censé être utilisé pour masquer les périphériques IPv6
internes de l'Internet IPv6. L'IETF conseille de limiter l'accès aux périphériques en
respectant les meilleures pratiques en matière de mesures de sécurité.
Remarque : la norme IPv6 initiale définissait des adresses site-local et utilisait la plage de
préfixes FEC0::/10. Cette norme était ambiguë sur certains points et les adresses site-local
ont été désapprouvées par l'IETF au profit des adresses locales uniques.
IPv4 intégré
Le dernier type d'adresse de monodiffusion est l'adresse IPv4 intégrée. Ces adresses sont
utilisées pour faciliter la transition de l'IPv4 vers l'IPv6. Les adresses IPv4 intégrées sortent
du cadre de ce cours.
41
Dil : cours d’architecture réseau et conception
ID de sous-réseau
ID d'interface
11. Préfixe de routage global
Le préfixe de routage global est le préfixe ou la partie réseau de l'adresse attribué(e) par le
fournisseur (par exemple un FAI) à un client ou à un site. Actuellement, les RIR attribuent
le préfixe global de routage /48 aux clients. Ces clients incluent tous les clients potentiels,
des réseaux d'entreprise aux réseaux particuliers. Cet espace d'adressage est plus que
suffisant pour la plupart des clients.
La Figure 2 illustre la structure d'une adresse de monodiffusion globale utilisant le préfixe
de routage global /48. Les préfixes /48 sont les préfixes de routage global les plus
couramment attribués et seront utilisés dans la plupart des exemples de ce cours.
Par exemple, l'adresse IPv6 2001:0DB8:ACAD::/48 a un préfixe indiquant que les
48 premiers bits (3 hextets) (2001:0DB8:ACAD) constituent le préfixe ou la partie réseau de
l'adresse. La suite de deux fois deux-points (::) avant la longueur de préfixe /48 signifie que
le reste de l'adresse contient uniquement des 0.
ID de sous-réseau
L'ID de sous-réseau est utilisé par une entreprise pour identifier les sous-réseaux au sein de
son site.
ID d'interface
L'ID d'interface IPv6 est similaire à la partie hôte d'une adresse IPv4. Le terme ID
d'interface est utilisé car un hôte unique peut avoir plusieurs interfaces, chacune dotée d'une
ou de plusieurs adresses IPv6.
Remarque : contrairement à l'adressage IPv4, avec IPv6, les adresses d'hôte contenant
uniquement des 0 ou uniquement des 1 peuvent être attribuées à un périphérique. L'adresse
contenant uniquement des 1 peut être utilisée, puisque les adresses de diffusion ne sont pas
utilisées dans IPv6. L'adresse contenant uniquement des 0 peut également être utilisée, mais
elle est réservée comme adresse anycast de routeur de sous-réseau, et elle ne doit être
attribuée qu'aux routeurs.
Un moyen simple de lire la plupart des adresses IPv6 consiste à compter le nombre
d'hextets. Comme l'illustre la Figure 3, dans une adresse de monodiffusion globale /64, les
quatre premiers hextets sont réservés à la partie réseau de l'adresse, le quatrième hextet
indiquant l'ID de sous-réseau. Les quatre hextets restants sont réservés pour l'ID d'interface
43
Dil : cours d’architecture réseau et conception
Une fois qu'une adresse de monodiffusion globale est attribuée à une interface, le
périphérique IPv6 génère automatiquement son adresse link-local. Les périphériques
IPv6 doivent avoir au minimum une adresse link-local. Notez qu'une adresse link-local
IPv6 permet à un périphérique de communiquer avec les autres périphériques IPv6
situés sur le même sous-réseau.
Les adresses link-local IPv6 servent à diverses fins :
Un hôte utilise l'adresse link-local du routeur local en tant qu'adresse IPv6 de
passerelle par défaut.
Les routeurs échangent des messages du protocole de routage dynamique via
des adresses link-local.
Les tables de routage des routeurs utilisent l'adresse link-local pour identifier le
routeur de saut suivant lors du transfert des paquets IPv6.
Une adresse link-local peut être établie dynamiquement ou configurée manuellement
comme adresse link-local statique.
14. Adresse link-local affectée dynamiquement
L'adresse link-local est créée dynamiquement à l'aide du préfixe FE80::/10 et de l'ID
d'interface.
Les adresses link-local IPv6 servent à diverses fins :
Un hôte utilise l'adresse link-local du routeur local en tant qu'adresse IPv6 de
passerelle par défaut.
Les routeurs échangent des messages du protocole de routage dynamique via
des adresses link-local.
Les tables de routage des routeurs utilisent l'adresse link-local pour identifier le
routeur de saut suivant lors du transfert des paquets IPv6.
Une adresse link-local peut être établie dynamiquement ou configurée manuellement
comme adresse link-local statique.
Ir Dil : didierinyei@gmail.com:
Contact : +243 89 96 44 392
47
Ir Dil : didierinyei@gmail.com:
Contact : +243 89 96 44 392