CATEGORII DOCUMENTE |
Bulgara | Ceha slovaca | Croata | Engleza | Estona | Finlandeza | Franceza |
Germana | Italiana | Letona | Lituaniana | Maghiara | Olandeza | Poloneza |
Sarba | Slovena | Spaniola | Suedeza | Turca | Ucraineana |
DOCUMENTE SIMILARE |
|
Au début des années 70, chaque constructeur a développé sa propre solution réseau autour d'architecture et de protocoles privés (SNA d'IBM, DECnet de DEC, DSA de Bull, TCP/IP du DoD,) et il s'est vite avéré qu'il serait impossible d'interconnecter ces différents réseaux «propriétaires» si une norme internationale n'était pas établie. Cette norme établie par l'International Standard Organization (ISO) est la norme Open System Interconnection (OSI, interconnexion de systÈmes ouverts).
Un systÈme ouvert est un ordinateur, un terminal, un réseau, n'importe quel équipement respectant cette norme et donc apte à échanger des informations avec d'autres équipements hétérogÈnes et issus de constructeurs différents.
Le premier objectif de la norme OSI a été de définir un modÈle de toute architecture de réseau basé sur un découpage en sept couches (cf figure 3), chacune de ces couches correspondant à une fonctionnalité particuliÈre d'un réseau. Les couches 1, 2, 3 et 4 sont dites basses et les couches 5, 6 et 7 sont dites hautes. Chaque couche est constituée d'éléments matériels et logiciels et offre un service à la couche située immédiatement au-dessus d'elle en lui épargnant les détails d'implémentation nécessaires. Comme illustré dans la figure 4, chaque couche n d'une machine gÈre la communication avec la couche n d'une autre machine en suivant un protocole de niveau n qui est un ensemble de rÈgles de communication pour le service de niveau n.
|
Figure 5: Communication entre couches. |
En fait, aucune donnée n'est transférée directement d'une couche n vers une autre couche n, mais elle l'est par étapes successives. Supposons un message à transmettre de l'émetteur A vers le récepteur B. Ce message, généré par une application de la machine A va franchir les couches successives de A via les interfaces qui existent entre chaque couche pour finalement atteindre le support physique. Là, il va transiter via différents noeuds du réseau, chacun de ces noeuds traitant le message via ses couches basses. Puis, quand il arrive à destination, le message remonte les couches du récepteur B via les différentes interfaces et atteint l'application chargée de traiter le message reçu. Ce processus de communication est illustré dans la figure 5.
Nous allons maintenant détailler les caractéristiques de chacune de ces couches en précisant d'abord que les fonctions et services définis dans les couches du modÈle OSI peuvent se retrouver dans d'autres couches dans les systÈmes opérationnels disponibles sur le marché. Il se peut également qu'une fonctionnalité localisée dans une seule couche dans le modÈle OSI se retrouve répartie sur plusieurs couches. Mais cela illustre simplement la distance qui existe entre un modÈle théorique et des implantations pratiques essayant de suivre ce modÈle.
Couche
C+1 (Utilisateurs)
Services Couche
C (Fournisseurs)
RequÊtes
Un systÈme informatique multicouche est une structure formée d’un ensemble de couche oÙ chacune d’elle requiert des services de la couche immédiatement inférieure et en offre à celle supérieure.
Une couche est un ensemble de programme qui peuvent se trouver physiquement en ROM, ou en mémoire de masse (Disque).
Interface avec la couche supérieure |
Cœur de la couche mise en œuvre |
Interface avec la couche inférieure |
Dans un modÈle OSI, chaque couche est divisée en trois sous-couches.
2 modÈles logiques:
- Interface inférieure, supérieure (Public)
- Programme de mise en œuvre (Privée)
Matériel
Cette approche construit un systÈme ou chaque couche enrichit les fonctions fournies par les couches inférieures.
- Une propriété d’indépendance: toutes modifications dans la mise en œuvre sont possibles du moment que les interfaces ne seront pas modifiées.
- Une compréhension et manipulation plus facile, des fonctions se trouvant dans des couches indépendantes.
- Un fonctionnement du systÈme simple.
Couche
C+1 Couche
C Interfaces Couche
C+1 Couche
C Interfaces Protocole Protocole Noeud A Noeud B
Les nœuds d’un réseau dialoguent à trois niveaux:
- Au niveau inférieur entre les machines présentent sur le réseau
- Au niveau intermédiaire entre les systÈmes d’exploitation
- Au niveau supérieur entre les programmes d’applications.
L’établissement et la gestion des dialogues impliquent le recours à des protocoles (ensemble de rÈgles de communication trÈs précises).
Ces rÈgles concernent la gestion des flux de données et la synchronisation des processus, la gestion et la réparation des erreurs (Error Control and Recovery).
On sépare les rÈgles des protocoles en deux types:
- Celles qui s’appliquent à la syntaxe (concernent le format des données échangées).
- Celles qui définissent les procédures (indiquent les actions à effectuer dans diverses situations).
Les interfaces concernent la communication verticale et réelle à l’intérieur d’un nœud.
Les protocoles concernent la communication entre des nœuds différents.
Dans une couche, se trouvent un ou plusieurs protocoles qui forment le jeu de protocoles (protocole suite) de la couche concernée.
Par extension, on parle aussi de jeu de protocoles pour désigner les ensembles des protocoles qui touchent plusieurs couches (ex: TCP/IP, IPX-SPX (Novell), 802.3 ).
Cette gestion consiste à établir une vitesse de transfert acceptable par le destinataire, à ne pas lui transmettre plus de données qu’il ne peut stocker dans la mémoire tampon. Pour gérer ce flot, un mécanisme trÈs utilisé est : XON/XOFF.
Il existe deux catégories d’activité pour cette gestion:
- Le contrôle des erreurs (Error Checking)
- La réparation des erreurs ( Error Control)
Les données que les protocoles font transiter d’un ordinateur à l’autre se présente sous la forme de paquets appelés unité de données de protocoles ou PDU.
bits de commande |
donnés à transmettre |
bits de commande |
Structure
d’un PDU
On distingue de types de PDU:
- PDU de liaisons (Peer PDUS)
- PDU de communication (Service PDUS)
Les premiers pour les activités comme la connexion, la gestion d’erreurs ou celles des flux des PDU.
Les secondes concernent la communication des données.
On distingue trois phases:
- L’établissement de la liaison (détermination des paramÈtres: débit, taille des paquets, )
- Echange des données qui débute automatiquement lorsque la connexion est établie.
- La terminaison de liaison est effectuée par un PDU prévu à cet usage.
Le modÈle OSI consiste à coordonner les définitions des procédures de standardisation pour l’interconnections et les échanges d’informations entre ordinateurs.
Il ne se définit pas comme un protocole mais fournit la structure dans laquelle sont définis les protocoles.
Il existe deux approches fondamentales pour la relation d’autorité entre les nœuds d’un réseau:
- Approche hiérarchique (Master Slave Approach)
Pas de statut d’égalité.
Structure logique du réseau arborescente avec un maitre à la racine.
L’administration d’un réseau hiérarchique est simple.
L’organisation des communications n’est pas souple (rigide).
ex: le réseau SNA d’IBM.
- Approche égalitaire (Peer to Peer Approach)
Administration du réseau compliqué.
Grande flexibilité dans les communications. Le modÈle OSI décrit une architecture de ce type.
ex: Netware.
Dans un réseau, la communication entre deux processus situés sur des ordinateurs différents s’effectue à travers les sept couches OSI.
Médium
Départ Processus
|
Application |
Données |
|||||||||
|
Présentation Formatage des messages dans la traversée
des couches OSI |
Données |
|||||||||
|
Session |
Données Codées |
|||||||||
|
Transport |
Message |
|||||||||
|
Réseau |
Message |
|||||||||
|
Liaison |
Paquet |
|||||||||
|
Physique |
Trame ( Frame) |
|||||||||
BI |
Trame |
||||||||||
Trame
effectivement transmise
Médium Arrivée
L’interlocuteur s’appelle un systÈme terminal (End System) et une entité utilisée pour interconnecter des interlocuteurs, un systÈme intermédiaire. Un tel systÈme a par, exemple pour fonction l’acheminement (le routage) d’un message entre deux systÈmes terminaux.
Protocole
Un systÈme intermédiaire peut Être multiprotocoles, c’est à dire qu’il peut interconnecter plusieurs types de systÈmes en réseau.
SNA
SystÈme
Intermédiaire OSI TCP
/ IP DECNET
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Le modÈle OSI est crée afin de rendre cohérent les développements réseaux.
Protocoles propriétaires: SNA, DECNET
Protocoles non-propriétaires:
On peut personnaliser le protocole.
TCP/IP
ETHERNET
Certains protocoles utilisent plusieurs couches OSI, certains une seule couche et d’autres qu’une partie d’une couche.
La couche physique fournit les moyens mécaniques, électriques, fonctionnels et procéduraux nécessaires à l'activation, au maintien et à la désactivation des connexions physiques destinées à la transmission de bits entre deux entités de liaison de données.
Ici, on s'occupe donc de transmission des bits de façon brute, l'important est que l'on soit sÛr que si l'émetteur envoie un bit à 1 alors le récepteur reçoit un bit à Les normes et standards de la couche physique définissent le type de signaux émis (modulation, puissance, portée), la nature et les caractéristiques des supports (cable, fibre optique), les sens de transmission
A ce niveau les protocoles définissent les caractéristiques électriques ou optiques d’un bit à 1 et d’un bit à 0, notamment la durée et le voltage, ou l’intensité lumineuse. Ils indiquent aussi comment synchroniser la transmission des bits ainsi que le nombre et l’usage de chaque pin (broche) des connecteurs.
Au niveau de la couche physique, les entités entre lesquelles s’établit la liaison sont soit des ETTD (équipements terminaux de traitement de données) soit des ETCD (équipements terminaux de circuits de données) ( terminal et modem).
Tout d'abord une liaison entre 2 équipements A et B peut Être simplex (unidirectionnelle), dans ce cas A est toujours l'émetteur et B le récepteur. C'est ce que l'on trouve par exemple entre un banc de mesure et un ordinateur recueillant les données mesurées. La communication est half-duplex (bidirectionnelle à l'alternat) quand le rôle de A et B peut changer, la communication change de sens à tour de rôle (comme avec des talkies-walkies). Elle est full-duplex (bidirectionnelle simultanée) quand A et B peuvent émettre et recevoir en mÊme temps (comme dans le cas du téléphone).
La transmission de plusieurs bits peut s'effectuer en série ou en parallÈle. En série, les bits sont envoyés les uns derriÈre les autres de maniÈre synchrone ou asynchrone. Dans le mode synchrone l'émetteur et le récepteur se mettent d'accord sur une base de temps (un top d'horloge) qui se répÈte réguliÈrement durant tout l'échange. À chaque top d'horloge (ou k tops d'horloge k entier fixé définitivement) un bit est envoyé et le récepteur saura ainsi quand lui arrive les bits. Dans le mode asynchrone, il n'y a pas de négociation préalable mais chaque caractÈre envoyé est précédé d'un bit de start et immédiatement suivi d'un bit de stop. Ces deux bits spéciaux servent à caler l'horloge du récepteur pour qu'il échantillonne le signal qu'il reçoit afin d'y décoder les bits qu'il transmet. En parallÈle, les bits d'un mÊme caractÈre sont envoyés en mÊme temps chacun sur un fil distinct, mais cela pose des problÈmes de synchronisation et n'est utilisé que sur de courtes distances (bus par exemple).
Quel que soit le mode de transmission retenu, l'émission est toujours cadencée par une horloge dont la vitesse donne le débit de la ligne en bauds, c'est-à-dire le nombre de tops d'horloge en une seconde. Ainsi, une ligne d'un débit de 100 bauds autorise 100 émissions par seconde. Si à chaque top d'horloge un signal représentant 0 ou 1 est émis, alors dans ce cas le débit en bit/s est équivalent au débit en baud. Cependant, on peut imaginer que le signal émis puisse prendre 4 valeurs distinctes (0, 1, 2, 3) dans ce cas le signal a une valence de 2 et le débit en bit/s est double de celui en baud. D'une maniÈre générale, si le signal peut prendre 2n valeurs distinctes on dit alors que sa valence est de n, ainsi à chaque top n bits peuvent Être transmis simultanément et si le débit de la ligne est de x bauds il est en fait de n.x bit/s.
La transmission en bande de base consiste à envoyer directement les suite de bits sur le support à l'aide de signaux carrés constitués par un courant électrique pouvant prendre 2 valeurs (5 Volts ou 0 par exemple). On détaillera ci-aprÈs les différents codages des bits possibles, mais dans tous les cas l'émetteur envoie sur la ligne un signal carré du type de celui de la figure 6 pour la séquence de bits 1010 par exemple.
En considérant ce signal g(t) comme périodique (il suffit de répéter une fois sur [T..2T] le signal donné sur [0..T] pour obtenir un signal périodique sur [0..2T]) on peut le décomposer en une série de Fourier de la forme
oÙ
On dit que le signal carré est décomposé en une somme infinie d'harmoniques,
la premiÈre étant dénommée fondamentale, et cette approximation
mathématique permet de savoir quel signal électrique sera réellement reçu au
bout du cable.
Cependant, le cable sur lequel est émis le signal possÈde une bande passante qui est l'intervalle des fréquences possibles sur ce support, donc à la réception on ne retrouve pas toute la richesse du signal initial et dans la plupart des cas le signal carré sera trÈs déformé. Par exemple, le cable téléphonique a une bande passante de 300 à 3400 Hz, donc tous les signaux de fréquence inférieure à 300 ou supérieure à 3400 seront éliminées.
Dans notre exemple nous obtenons
Dans la figure 7 nous trouvons à gauche les 3 premiÈres harmoniques et on remarque que plus la fréquence augmente plus l'amplitude diminue. À droite nous avons le signal réellement perçu par le récepteur si l'on considÈre que le cable ne laisse passer que ces 3 harmoniques-ci. Dans ce cas le signal reçu reste assez proche du carré émis et le récepteur n'aura pas trop de mal à le décoder.
Sans entrer dans des détails relevant de la théorie du signal, nous indiquerons simplement que sur une ligne téléphonique dont la bande passante est de 3100Hz et pour un rapport signal/bruit de 10dB on peut atteindre une capacité de 10Kbits/s.
|
Figure 8: Différents codages en bande de base de la séquence 0110010. |
Dans la figure 8 nous trouvons quelques exemples de codage de l'information pour une transmission en bande de base.
Le code Miller : on diminue le nombre de transitions en effectuant une transition (de haut en bas ou l'inverse) au milieu de l'intervalle pour coder un 1 et en n'effectuant pas de transition pour un 0 suivi d'un Une transition est effectuée en fin d'intervalle pour un 0 suivi d'un autre 0.
Le principal problÈme de la transmission en bande de base est la dégradation du signal trÈs rapide en fonction de la distance parcourue, c'est pourquoi elle n'est utilisée qu'en réseau local (<5km). Il serait en effet trop coÛteux de prévoir des répéteurs pour régénérer réguliÈrement le signal. C'est pourquoi sur les longues distances on émet un signal sinusoÃdal qui, mÊme s'il est affaibli, sera facilement décodable par le récepteur. Ce signal sinusoÃdal est obtenu grace à un modem (modulateur-démodulateur) qui est un équipement électronique capable de prendre en entrée un signal en bande de base pour en faire un signal sinusoÃdal (modulation) et l'inverse à savoir restituer un signal carré à partir d'un signal sinusoÃdal (démodulation). Autrement dit il permet de passer de signaux numériques discrets (0 ou 1) à des signaux analogiques continus.
|
Figure 9: Modulations d'amplitude, de fréquence et de phase de la séquence de bits 0110010. |
Il existe trois types de modulation décrits dans la figure 9.
Dans les exemples donnés ci-dessus on a seulement 2 niveaux possibles à chaque fois, donc on a uniquement la possibilité de coder 2 valeurs différentes à chaque instant, dans ce cas 1 baud = 1bit/s. De maniÈre plus sophistiquée il existe des modems capables de moduler un signal suivant plusieurs niveaux, par exemple 4 fréquences différentes que le modem récepteur saura lui aussi distinguer. Dans ce cas, chaque signal envoyé code 2 bits donc 1 baud = 2bit/s. Il est mÊme possible de transmettre des signaux mÊlant les différentes modulations présentées comme dans le cas de la norme V29 qui module à la fois l'amplitude du signal sur 2 niveaux et la phase sur 8 niveaux (0,45,,315). En combinant les 2 modulations, on obtient ainsi 16 signaux différents possibles à chaque instant, permettant de transmettre simultanément 4 bits à chaque top d'horloge (1 baud = 4 bit/s).
Le multiplexage consiste à faire transiter sur une seule et mÊme ligne de liaison, dite voie haute vitesse, des communications appartenant à plusieurs paires d'équipements émetteurs et récepteurs comme représenté dans la figure 10. Chaque émetteur (resp. récepteur) est raccordé à un multiplexeur (resp. démultiplexeur) par une liaison dit voie basse vitesse.
|
Figure 10: Multiplexages d'une ligne. |
Plusieurs techniques sont possibles :
L'objectif de la couche 1 du modÈle OSI est aussi de fixer les caractéristiques des matériels utilisés pour relier physiquement les équipements d'un réseau. Nous décrivons succinctement quelques uns des supports de transmission les plus usités.
Gaines Fils
On le rencontre dans sa version 10 Base2 (ou Ethernet fin 10 Mbit/s sur 200 m maximum) ou 10 Base5 (ou Ethernet épais 10 Mbit/s sur 500 m maximum) pour la réalisation de réseaux locaux à topologie en bus. Les connexions de chaque poste sur le bus se font à l'aide de connecteur en T et la connexion du cable sur le poste se fait à l'aide de connecteur AUI pour l'Ethernet épais et BNC pour l'Ethernet fin. Il est actuellement beaucoup utilisé pour relier entre eux deux éléments actifs (hub, routeur,)
Isolant
Conducteur externe Conducteur interne Gaine extérieure plastique
Conducteur
interne (
fibre-optique)
Gaine extérieure
|
Figure 11: Réflexion interne. |
Les différents rayons lumineux issus de la source sont guidés par le fil de verre en suivant un principe de réflexion interne qui se produit au niveau de la frontiÈre entre le coeur et la gaine comme illustré dans la figure 1 Si la réflexion ne laisse subsister qu'un seul rayon, car le diamÈtre du fil est trÈs réduit, alors on parle de fibre monomode sinon, lorsqu'il existe plusieurs rayons simultanément on parle de fibre multimode. Enfin, la bande passante d'une fibre optique étant trÈs large (plusieurs MHz) il est aisé de faire du multiplexage fréquentiel pour faire transiter simultanément plusieurs communications.
Avantages:
- Pas de matériel terrestre nécessaire entre 2 stations
- Equipements directionnels pas nécessaire
- Les stations peuvent Être fixes ou mobiles
- Emetteurs radios peut coÛteux
Inconvénients:
- Nécessite une licence et du matériel homologué
- Sensible aux interférences, aux écoutes
- Bande passante trÈs faible
Batiment
A Batiment
B
Avantages:
- Large bande passante.
- Antenne peu coÛteuse.
Inconvénients:
- Nécessite une licence d’utilisation et du matériel homologué.
-Sensibles aux interférences, aux écoutes, au brouillage.
Avantages:
- Le temps de propagation et le coÛt de communication sont indépendants de - la distance entre l’émetteur et le récepteur
- Les stations terrestres peuvent Être fixes ou mobiles
- Utilisation de larges faisceaux
Inconvénients :
- Nécessite une technologie spatiale onéreuse.
Les communications laser sont réalisées grace à un étroit faisceau de lumiÈre cohérente qui est modulé pour transporté des informations sous forme d’impulsions. La bande passante du laser est beaucoup plus grande que celle des micro-ondes
Avantages:
- Pas d’autorisation nécessaire
- Résiste aux interférences, aux perturbation est au écoutes
- Pas d’équipement nécessaire entre 2 stations
Inconvénient:
- Sensible aux conditions atmosphériques
- Distance de transmission relativement faible
- Sensible aux problÈmes d’alignements
Émetteurs infrarouges
L’utilisation de LED infrarouges et de photodiodes pour l’échange de données entre stations est une technique trÈs récente des supports de transmission non limités.
Avantages:
- Une bande passante équivalente à celle d’une fibre optique
- Fabrication en grand nombre rend ces interfaces peut coÛteuses
Inconvénients:
- Les distances de transmission sont faibles
- Les conditions atmosphériques peuvent gÊner les transmissions
Type de support |
Zone de couverture |
Sensibilité aux interférences |
Micro ondes terrestres |
Faisceau directionnel |
Sensibilité moyenne |
Micro ondes satellites |
Faisceau étroit ou large |
Sensibilité moyenne |
Laser |
Faisceau directionnel |
Sensibilité faible |
Infrarouge |
Faisceau omnidirectionnel dans une zone relativement petite |
Sensibilité faible |
Radio |
Faisceau omnidirectionnel dans une zone petite ou grande |
Sensibilité trÈs élevée |
La technique de l'ADSL (Asymetric bit rate Digital Subscriber Line ou ligne numérique d'abonnés à débits asymétriques) est une technique récente qui permet d'utiliser, sur de courtes distances, les lignes téléphoniques classiques mais avec un débit trÈs supérieur à celui des normes plus classiques (V34 ou V90). Par exemple, dans sa version Lite, elle permet de connecter à Internet un particulier en utilisant simplement sa ligne téléphonique habituelle comme illustré dans la figure 12.
De maniÈre théorique, cette technologie offre un débit maximal descendant (d'Internet vers l'abonné) de 8,2 M bit/sec et un débit maximal montant (de l'abonné vers Internet) de 640 K bit/sec. Cependant, ces performances ne sont pas possibles sur une grande distance (plus de 5 km) et les solutions commerciales grand public proposées en France actuellement (fin 1999) fixent par exemple le débit entrant à 512 Kbit/sec et le débit sortant à 128 Kbit/sec.
D'un point de vue technique ADSL fonctionne en full duplex grace à un multiplexage fréquentiel, permettant de faire transiter simultanément les signaux montant et descendant accompagnés également des signaux portant la voix téléphonique.
|
Figure 13: Multiplexage fréquentiel utilisé par ADSL (échelle des fréquences non réelles). |
La figure 13 illustre ce multiplexage dans le cas oÙ les fréquences pour les voies montantes et descendantes ont été clairement séparées. Pour gagner encore en largeur de bande, et donc en débit, on peut envisager de rapprocher les deux espaces de fréquences mais il faut alors annuler les perturbations (phénomÈne d'écho) que subissent les signaux montant et descendant émis simultanément.
Les différents signaux sont transmis selon la technologie DMT (Discrete MultiTone) qui divise la totalité de la bande passante en 256 sous-canaux d'une largeur de 4,3 kHz. Ainsi, le 1ercanal est réservé à la téléphonie. Les canaux 2 à 6 servent à séparer la voix des données numériques. Le flux montant occupe les 32 canaux suivants et le flux descendant tous les canaux restant, dans le cas oÙ aucune zone de fréquence ne sépare les deux sens de communication et que l'annulation d'écho est en place. Le fait que la largeur de bande montante soit plus faible que la descendante explique le terme asymétrique dans la dénomination ADSL. De plus, certains sous-canaux sont utilisés pour la gestion de la transmission
Chacun des sous-canaux est modulé indépendamment en utilisant la technique du QAM (Quadrature amplitude modulation), qui est une méthode de modulation d'amplitude de deux porteuses en quadrature (4 niveaux d'amplitude). Avant tout transfert de données, une procédure de négociation (handshake) est mise en place pour mesurer la qualité de la transmission et l'adapter en fonction de la ligne. On appelle cette technique rate adaptative, car elle est capable de diminuer le débit si la qualité de la transmission se dégrade.
avis V.X pour V21
avis interfaces RS232 (peut s’appuyer sur les avis V21, V22, V24, ..)
Certains des protocoles s’excluent mutuellement d’autres se complÈtent les uns les autres.
Les jeux de protocoles qui définissent les LAN et les MAN concernent la couche physique et la couche liaison.
Pour les LAN:
norme 802.3 qui définit le protocole CSMA/CD ( ETHERNET).
norme 802.5: Token-Ring.
norme 802.11: Transmission hertzienne
Dans les domaines des échanges à haute vitesse:
HSSI: Higher Speed Serial Interface ( 50 Mb/s)
HPPI: Higher Performance Parallel Interface ( 800 Mb/s)
Les programmes de la couche physique se trouvent en ROM ou sur des circuits électroniques.
Au niveau de la couche physique, les systÈmes intermédiaires sont: les répéteurs utilisés pour simplifier le signal (purement passif dans le réseau).
La topologie peut Être décrite physiquement ou logiquement.
La topologie physique décrit le plan du réseau. La topologie logique décrit la circulation des informations à travers le réseau.
Inconvénient
- Chaque matériel doit disposer d’une interface entre les autres équipements du réseau,
- Le nombre de cable nécessaire
HUB
Intelligent Passif
Dans un réseau en étoile, chaque équipement est relié par une liaison point à point à un point central.
Chaque point central est appelé HUA, concentrateur, ou répéteur multi-port.
Un point central peut Être passif, actif ou intelligent.
Un HUB passif connecte simplement chaque branche d’une étoile. Tout le trafic passe par chacun des noeuds, aucun signale de régénération n’est mis en oeuvre. Chaque noeud doit séparer et rejeter les informations destinées aux autres noeuds
Un HUB actif régénÈre le signal
Un HUB intelligent, en plus de régénérer le signal réalise certaines fonctions telle que la sélection du chemin et la gestion du réseau
Inconvénient
- Si le HUB tombe en panne, panne totale du réseau
- Nombre de cable important
Avantages
- Facile à maintenir
- Peuvent Être organisés hiérarchiquement.
- Exemples de réseaux étoiles: 10 Base T, StarLan…
Exemple de réseau Bus: Ethernet
Réalise une boucle fermée en liaison point à point.
Exemple d’anneau: FDDI
Il utilise plusieurs topologies:
Arborescence étoile Ethernet
Anneau u
Les principales méthodes d’accÈs sont:
- La contention,
- le Polling,
- jeton passant.
Avec les systÈmes par contentions, les matériels réseau peuvent transmettre quand ils le veulent. Aucun arbitre n’indique le matériel quand il peuvent ou ne peuvent pas utiliser le canal. Ce systÈme est simple à concevoir et permet un accÈs équitable pour toutes les stations.
Ce systÈme présente un inconvénient majeur lorsque les stations transmettent en mÊme temps: collision
Les récents protocoles à contention ont été développé pour que les stations écoutent le canal avant de transmettre: protocole CSMA. (Carrier Sense Multiple Access).
Avec les protocoles CSMA, la détection (et la retransmission) est assuré par les couches se trouvant au dessus de la couche liaison.
2 types de détections
- CSMA/CD (Collision Detection) : écoute les cables et détecte les collisions. C’est le plus utilisé (ex: protocoles Ethernet et 80.3)
- CSMA/CA: (Collision Avoidance): AccÈs partagé dans le temps ou demande d’accÈs au cable. (ex: LocalTalk)
Avantages
- Les logiciels de contrôles de la contention sont relativement simples.
- A des niveaux de trafic bas, le débit d’information est élevé.
Inconvénients
- Méthode non satisfaisante pour des matériels tels que des automates, qui doivent Être contrôlé à travers le canal.
- La méthode par contention est une méthode probabiliste, car le temps d’accÈs au canal n’est pas prévisible.
Le Polling est une méthode d’accÈs qui désigne un matériel appelé primaire, contrôleur ou maitre comme administrateur de l’accÈs au canal.
Maitre
Ce matériel appelé maitre interroge chacun des autres matériels, et demande si ils ont des informations à transmettre.
Les matériels secondaires peuvent Être relié au maitre selon différentes configurations. La configuration la plus fréquente est la topologie étoile ou le maitre est le HUB.
Avantages
- Le Polling centralise le contrôle de l’accÈs au canal.
- L’accÈs peut Être plus rapide pour certains secondaires car des priorités peuvent Être donnée
- Quand le trafic fournit par les secondaires augmente, le débit du canal augmente aussi.
Inconvénients
- Le Polling utilise une partie de la bande passante pour émettre des messages d’avertissement et des acquittements ou pour écouter des messages
- Le temps de scrutation en Half Duplex augmente le temps d’arbitrage.
Autocommutateur Jeton
Le Jeton est un message d’autorisation qui donne le contrôle du canal à la station qui le possÈde. Les rÈgles du systÈme limite le temps pendant lequel un matériel peut avoir le contrôle du jeton.
Exemple de norme de protocole à Jeton:
- IEEE 802.5 (Token Ring) il utilise le contrôle d’accÈs à jeton passant, et une topologie Anneau
- IEEE 802.4 (Token Bus): il utilise le contrôle d’accÈs à jeton passant, et une topologie Bus
Avantages
- Méthode déterministe
- Le jeton passant offre souvent le débit possible le plus élevé dans des conditions de fortes charges.
- Certains systÈmes à jeton offrent différentes options, tel que des priorités à fixer pour les secondaires, les rÈgles de l’accÈs qui peuvent Être modifiée en cours d’exécution
Inconvénients
- Les paramÈtres logiciels de chaque matériel doivent Être modifiés chaque fois qu’un
matériel est inséré ou retiré du canal.
- Une surveillance interne, incluant la détection et la correction des erreurs est nécessaire entre tous le matériels.
La couche liaison de données fournit les moyens fonctionnels et procéduraux nécessaires à l'établissement, au maintien et à la libération des connexions de liaison de données entre entités du réseau. Elle détecte et corrige, si possible, les erreurs dues au support physique et signale à la couche réseau les erreurs irrécupérables. Elle supervise le fonctionnement de la transmission et définit la structure syntaxique des messages, la maniÈre d'enchainer les échanges selon un protocole normalisé ou non.
Une connexion de liaison de données est réalisée à l'aide d'une ou plusieurs liaisons physiques entre deux machines adjacentes dans le réseau donc sans noeuds intermédiaires entre elles.
Nous commençons par examiner les différentes techniques de détection et correction d'erreur (changement de par ou vice-versa), puis nous étudierons deux familles de protocoles de liaison de données.
Elle gÈre les trames qui se déplacent entre deux stations adjacentes. Le rôle des programmes de cette couche est:
Synchronisation du déplacement des trames.
Gestion des adresses des interlocuteurs.
Détection des trames perdues et leur retransmission.
Pour les LAN et MAN, la couche liaison comprend deux sous-couches:
MAC (Medium Access Control Sublayer) rÈgle l’accÈs au medium. (ex: passage du jeton, le contentieux)
LLC( Logicial Link Control Sublayer) commande le lien logique avec le medium.
(Sublayer = couche)
MAC LLC
|
Pour les réseaux à longue distance (WAN), on utilise le protocole HDLC ( Higher Level Data Link Control).
Le taux d'erreurs de transmission est de l'ordre de 10-5 sur une ligne téléphonique, de 10-7 à 10-8 sur un coaxial et de 10-10 à 10-12 sur une fibre optique. À ce niveau-là il ne s'agit pas d'assurer la correction globale d'un échange, mais de détecter et d'éventuellement corriger des erreurs de transmissions dans un bloc de bits acheminé par le support physique. En effet, puisque la couche 2 ne connait pas le propriétaire des paquets qu'elle manipule, elle ne peut pas se substituer aux couches de niveau supérieur.
Les techniques employées ici reposent sur l'utilisation de codes correcteurs ou codes détecteurs d'erreurs qui chacun transforme la suite de bits à envoyer en lui ajoutant de l'information à base de bits de redondance ou bits de contrôle. Le récepteur se sert de cette information ajoutée pour déterminer si une erreur s'est produite et pour la corriger si la technique employée le permet.
la parité ajoute à chaque bloc de i bits (i=7 ou 8) émis un bit de parité de telle sorte que parmi les i+1 bits émis le nombre de bits à 1 soit toujours pair (ou impair). Par exemple, pour une parité paire si le bloc initial est de 7 bits et est égal à le bloc de 8 bits émis est , pour envoyer le bloc est émis. À la réception, le décodeur calcule le nombre de bits à 1 et dans le cas d'une parité paire si ce nombre de bits est pair on suppose qu'il n'y a pas eu d'erreur. Sinon, on sait alors qu'il y a eu une erreur de transmission mais on ne sait pas la localiser et il faut alors demander la réémission du bloc. La technique de parité est simple à mettre en oeuvre cependant elle ne permet pas de détecter 2n erreurs dans le mÊme bloc de bits transmis, car dans ce cas la parité ne sera pas changée.
Les codes à redondance cyclique (CRC) ajoutent des bits qui sont des combinaisons linéaires des bits de l'information à transmettre. La suite de bits à transmettre
|
est considérée comme un polynôme : |
Par exemple est représenté par x9+x8+x6+x4+x3+x+1 . À l'émission, on calcule la division du polynôme M multiplié par xr par le polynôme générateur G de degré r. On appelle Q le polynôme quotient et R le polynôme reste de cette division, on a donc : xrM(x)=Q(x).G(x)+R(x) .
La suite de bits correspondant au polynôme R constitue le CRC qui est ajouté à l'information à transmettre, le polynôme total émis est donc E(x)=xrM(x)+R(x) Par exemple, à l'aide du polynôme générateur G(x)=x4+x+1, la suite sera transmise accompagnée du CRC car
À la réception, on divise le polynôme M' correspondant à la suite totale de bits reçus (information+CRC) par le polynôme générateur. Si le reste calculé est non nul, c'est qu'une erreur s'est produite dans la transmission. Si le reste est nul, on est à peu prÈs sÛr (99,975% avec le polynôme générateur x16+x12+x5+1 de la norme V41 du ITU-T) que la transmission s'est faite sans erreur.
Pourquoi cela fonctionne-t-il ? Il est évident que xrM(x)-R(x) est divisible par G(x), mais en arithmétique modulo 2 addition et soustraction sont équivalentes (ce sont des OU exclusifs en fait) donc on a également E(x)=xrM(x)+R(x)=G(x)Q(x) montrant que E est un polynôme multiple de G.
Si lors de la transmission des erreurs se sont produites, cela se traduit par le fait que le polynôme reçu M'(x)=E(x)+T(x), T étant le polynôme correspondant aux erreurs (T(x)=xi si le iebit a été inversé). À la réception le décodeur calcule le reste de
|
qui est en fait le reste de
puisque E est un multiple de G. Si ce résultat est non nul, c'est que T est non nul et que des erreurs se sont produites. Évidemment, le résultat est également nul si T est un multiple de G ce qui masque des erreurs, mais le choix judicieux de G permet de minimiser ces erreurs non détectées. Enfin, il faut aussi remarquer un inconvénient de cette méthode qui signale des erreurs de transmission mÊme si celles-ci ont eu lieu dans le CRC et non dans l'information à transmettre initialement. Dans ce cas il ne devrait pas Être nécessaire de retransmettre l'information, or c'est ce qui est fait puisque globalement le transfert (info+CRC) a subi des perturbations.
le code de Hamming est un code correcteur d'erreurs basé sur la notion de distance de Hamming. Soit un alphabet composé de 4 caractÈres ( ). Si une erreur se produit alors le caractÈre émis est transformé en un autre caractÈre et il n'y a pas moyen de retrouver le caractÈre original. Par contre, en ajoutant de l'information de telle sorte que les caractÈres soient trÈs différents les uns des autres cela devient possible.
Tableau 1: Codage de Hamming. |
|||||||||||||||||||||||||||||||||||
|
Par exemple, on peut coder les 4 caractÈres de la maniÈre
illustrée dans la table Ainsi si un bit (parmi les 5 émis) est erroné on sait
quand mÊme déterminer quel caractÈre a été émis, car comme on peut
le voir dans la table La modification
d'un bit ne peut pas faire passer d'un caractÈre initial à
l'autre. On a des ensembles «d'erreurs possibles» totalement disjoints. Par
contre la modification de 2 bits dans cet exemple peut amener à des
confusions et à l'impossibilité de corriger les erreurs.
Soit x et y deux caractÈres d'un alphabet et soit N la longueur du codage des mots de cet alphabet, xi et yi désignent respectivement le iebit de x et y. On peut alors définir la distance :
qui permet de compter le nombre de bits qui diffÈrent entre x et y. On définit alors la distance de Hamming par :
.
Dans l'exemple choisi ci-dessus, dH=1 dans le premier codage sur 2 bits et dH=3 dans le codage sur 5 bits. Chaque erreur sur un bit d'un caractÈre x donne un caractÈre x' tel que d(x,x')=1, donc pour pouvoir détecter et corriger une seule erreur il faut que :
et pour corriger 2 erreurs il faut que :
D'une maniÈre générale on détecte et corrige n erreurs quand la distance de Hamming est 2n+
|
Figure 14: Distance de Hamming. |
On peut voir ceci dans la figure14 oÙ sont représentés x et y (2 caractÈres parmi les plus proches de l'alphabet), xi et yi des «déformations» de x et y aprÈs une erreur et x1' et y1' des «déformations» aprÈs deux erreurs. Ainsi, quand on reçoit un caractÈre x (erroné ou non on ne peut pas le savoir à l'avance) il suffit de chercher le caractÈre :
le plus proche de x selon la distance d pour obtenir le caractÈre émis.
Un exemple de code de Hamming est donné par la technique suivante oÙ l'on veut envoyer des caractÈres codés sur 4 bits de données ABCD. Pour cela on va émettre la suite ABCP2DP1P0 dans laquelle les bits de contrôle Pi sont placés sur les bits de rang 2i et sont définis par
Les Pi sont des bits de parité définis à l'aide des bits de données de rang k tels que la décomposition de k en somme de puissances de 2 contienne 2i. Par exemple, A est un bit de donnée de rang 7=20+21+22 donc A sert au calcul de P0, P1 et P2. De mÊme, le rang de D est 3=20+21 donc il sert au calcul de P0 et P
À la réception on calcule
Le rôle d'un protocole de liaison de données est évidemment de fixer comment doivent Être réalisées les différentes taches qui incombent à la couche 2 du modÈle OSI. Deux grandes familles de telles procédures sont employées. Les procédures orientées caractÈres (BSC de chez IBM) sont assez anciennes et sont utilisées pour des communications à l'alternat sur le principe send and wait. Les procédures orientées bits (HDLC) sont prévues pour des transmissions full-duplex et à haut débits.
le protocole BSC (Binary Synchronous Communications) est basé sur la transmission de blocs de caractÈres représentés principalement en ASCII (7 bits) ou EBCDIC (8 bits de chez IBM) avec acquittement à l'alternat. Il utilise à la fois des messages d'information pour transporter les données et des messages de service pour superviser ces échanges.
|
Figure 15: Dialogue de type send and wait. |
Les erreurs sont donc détectées et corrigées par demande de répétition comme illustré dans la figure15. La gestion des échanges se fait grace à l'ensemble de caractÈres de commandes de la table2.
Tableau 2: CaractÈres de commande BSC. |
||||||||||||||||||||||||||||||
|
D'autres caractÈres spécifiques ont été ajoutés par des constructeurs mais ils ne sont pas détaillés ici.
Le rôle du caractÈre DLE est primordial car il permet d'obtenir une transmission transparente au code. En effet, si les données peuvent contenir des caractÈres de commande des confusions deviennent possibles. Pour éviter cela, tous les caractÈres de commande sont précédés de DLE lorsque l'alphabet est tel que les codes de commande sont susceptibles d'apparaitre dans les données transmises. De plus, si l'on doit transmettre dans les données le caractÈre DLE lui-mÊme, il sera alors lui-mÊme précédé de DLE de maniÈre à ce que le caractÈre qui le suit ne soit pas pris à tort pour une commande.
Les messages (données de taille quelconques) émis selon le protocole BSC sont émis sous forme de blocs de taille appropriée aux possibilités de la ligne. Ainsi un message constitué d'une en-tÊte et d'un texte de données, le tout ne constituant qu'un seul bloc sera émis de la maniÈre suivante :
SYN SYN SYN SYN SOH en-tÊte STX texte ETX BCC EOT
BCC (Block Check Character) est en fait un ensemble de caractÈres de contrôle pour détecter les erreurs de transmission. Pour l'EBCDIC et l'ASCII en mode transparent le BCC est le polynôme de la norme V4
le protocole HDLC (High level Data Link control) est un protocole orienté bit et définit un ensemble de procédures normalisées par l'ISO pour des communications, aussi bien point à point que multipoint, half ou full-duplex, mais toujours entre une machine primaire et une (ou plusieurs) machine(s) secondaires. Les différents modes sont les suivants :
- le mode ABM (Asynchronous Balanced Mode) est un mode de réponse asynchrone équilibré utilisé sur une liaison full-duplex entre 2 machines uniquement (liaison point à point) qui ont chacune le statut de primaire et de secondaire. Le secondaire peut émettre sans avoir reçu de permission du primaire.
- le mode NRM (Normal Response Mode) est utilisé sur une liaison half duplex et ici - le secondaire ne peut transmettre que sur invitation du primaire.
- le mode ARM (Asynchronous Response Mode, connu également sous le nom LAP) est utilisé sur une liaison half duplex également, mais le secondaire peut émettre sans que le primaire l'ait sollicité. Ceci peut alors provoquer des problÈmes si primaire et secondaire veulent simultanément émettre des données.
Les trames échangées ont l'allure suivante :
fanion adresse commande données contrôle
Le fanion est égal à et pour que la transparence au code soit possible, c'est-à-dire pour que la présence d'une suite de 6 bits à dans les données ne soit pas interprétée comme un fanion, l'émetteur insÈre un aprÈs chaque suite de 5 Le récepteur supprime ce supplémentaire aprÈs 5 consécutifs de maniÈre à restaurer le caractÈre réellement émis. Il existe trois types de trame distingués par les 2 premiers bits du champ de commande. Les trames d'information contiennent des données en provenance, ou à destination, des couches supérieures. Les trames de supervision assurent le contrôle d'erreur et de flux. Les trames non numérotées servent à l'initialisation de la liaison et aux problÈmes de reprise sur erreur non réglés à la couche 2. Le contrôle est assuré par la technique du polynôme générateur de la norme V4
La couche réseau assure toutes les fonctionnalités de relai et d'amélioration de services entre entité de réseau, à savoir : l'adressage, le routage, le contrôle de flux et la détection et correction d'erreurs non réglées par la couche 2.
À ce niveau là de l'architecture OSI il s'agit de faire transiter une information complÈte (un fichier par exemple) d'une machine à une autre à travers un réseau de plusieurs ordinateurs. Il existe deux grandes possibilités pour établir un protocole de niveau réseau : le mode avec connexion et le mode sans connexion déjà présentés plus haut. Le premier cas est celui adopté dans la norme X25.3 (composante de la norme X25 du CCITT, également norme ISO 8208 et quasi standard international des années 80, utilisé dans le réseau français TRANSPAC) et décrit partiellement ci-aprÈs et le second est celui du protocole IP du réseau Internet décrit dans ce document.
Le contrôle de flux consiste à gérer les paquets pour qu'ils transitent le plus rapidement possible entre l'émetteur et le récepteur. Il cherche à éviter les problÈmes de congestion du réseau qui surviennent lorsque trop de messages y circulent. On peut citer les quelques méthodes suivantes :
Dans le contrôle par crédits, seuls N paquets sont autorisés à circuler simultanément sur le réseau, donc un paquet ne peut entrer dans le réseau qu'aprÈs avoir acquis un jeton qu'il relache lorsqu'il arrive à destination. Dans la méthode isorythmique tous les jetons sont banalisés et la difficulté réside dans leur distribution correcte aux bonnes portes du réseau pour assurer un fonctionnement optimal.
Cette technique est améliorée en fixant des jetons dédiés par noeud d'entrée dans le réseau. Chaque noeud gÈre avec ses jetons une file d'attente des paquets qu'il émet. Quand un paquet arrive à destination, le récepteur renvoie à l'émetteur le jeton correspondant au paquet reçu.
Dans le cadre d'un circuit virtuel établi pour le mode avec connexion des réseaux X25 on utilise un mécanisme de fenÊtre. Les paquets de données sont numérotés modulo 8 et contiennent deux compteurs : P(S) un compteur de paquets émis et P(R) un compteur de paquets reçus. L'émetteur n'est autorisé à émettre que les paquets inclus dans la fenÊtre, c'est-à-dire les paquets dont le compteur de paquet émis est tel que
oÙ W est la taille de la fenÊtre d'émission. De son côté le récepteur renvoie à l'émetteur le compteur de paquets reçus P(R) en l'incrémentant du nombre de paquets reçus correctement et en séquence. Le gestionnaire du réseau peut trÈs bien ne pas renvoyer immédiatement les acquittements s'il désire décharger momentanément le réseau. Par exemple, si le dernier paquet P(R) reçu est égal à 1 et que la fenÊtre W=4 cela signifie que le paquet 0 a bien été reçu et que l'émetteur peut envoyer les paquets 1, 2, 3 et 4.
|
Figure 16: Contrôle de flux par fenÊtre. |
Si l'émetteur a déjà expédié les paquets 1, 2 et 3 et qu'il reçoit un compteur de paquets reçu P(R)=3 il déplace sa fenÊtre d'émission de deux positions comme illustré dans la figure16 et peut expédier les paquets suivants.
Malgré tous les efforts pour contrôler le flux d'information dans un réseau celui-ci peut se retrouver face à un problÈme de congestion. Il s'agit alors de résoudre le problÈme sans l'aggraver. En effet, les problÈmes de congestion arrivent lorsque les noeuds d'un réseau saturent leurs files d'attente et donc perdent des paquets. Si ces paquets sont réexpédiés ou si des messages de gestion de réseau se mettent à circuler en grand nombre les performances du réseau vont s'écrouler trÈs vite. On essaye d'éviter le problÈme de la congestion en autorisant un paquet à ne rester dans le réseau qu'un temps limité par un temps maximal fixé par le gestionnaire du réseau. Tout paquet est donc émis avec une date fixée par une horloge commune au réseau, si un noeud s'aperçoit que le temps de présence dans le réseau d'un paquet est dépassé il le détruit. Cela permet ainsi de détruire les paquets perdus par erreur d'adressage ou de routage, ainsi que ceux bloqués dans un noeud. Mais cette méthode basée sur une horloge est assez difficile à mettre en oeuvre et on utilise souvent une méthode plus simple consistant à mémoriser simplement dans la zone de temps un nombre décrémenté à chaque traversée de noeud. Lorsque ce nombre atteint la valeur 0 il est détruit.
Le routage des paquets dans un réseau maillé consiste à fixer par quelle ligne de sortie chaque commutateur réexpédie les paquets qu'il reçoit. Ceci se fait en fonction de la destination finale du paquet et selon une table de routage qui indique pour chaque destination finale quelles sont les voies de sortie possible.
Pour l'exemple de la figure17 on pourrait avoir la table de routage suivante :
destination finale |
voie de sortie |
D1 |
A1, A2 |
D2 |
A2 |
D3 |
A2, A3 |
D4 |
A3 |
|
Figure 17: Routage de paquets. |
D'une maniÈre générale le routage est un ensemble de processus algorithmiques devant prendre des décisions dispersés dans le temps et dans l'espace. Les différents algorithmes sont répartis sur chaque noeud du réseau et l'ensemble peut fonctionner de maniÈre centralisée ou répartie.
Le routage centralisé est géré par un noeud particulier du réseau qui reçoit des informations de chacun des noeuds du réseau et leur envoie leur table de routage. Pour fixer ces tables on prend en compte notamment le coÛt des liaisons, le coÛt de passage dans un noeud, le débit demandé, le nombre de noeuds à traverser, la sécurité de transport de certains paquets, l'occupation des mémoires des noeuds de commutation, Le plus souvent un algorithme de plus court chemin donne de bons résultats en fixant à 1 le coÛt de franchissement d'un noeud (on peut également pondérer plus fortement les noeuds qui sont les plus occupés). La mise à jour des tables de routage peut se faire de maniÈre :
- fixe : en fait il n'y a pas de mise à jour, la table de routage est fixée une fois pour toute en fonction de la topologie du réseau.
- synchrone : toutes les tables sont mises à jour au mÊme moment par le centre de contrôle qui reçoit des informations de la part de tous les noeuds à intervalles réguliers (toutes les 10 sec par exemple).
- asynchrone : les tables sont mises à jour indépendamment les unes des autres dans certaines parties du réseau, chaque noeud envoyant un compte-rendu de son état au centre de contrôle lorsqu'il observe des changements significatifs.
Mais le routage centralisé dans un réseau à grande échelle est peu performant, car un routage est d'autant meilleur qu'il réagit rapidement aux informations qui lui parviennent. De plus, si une panne survient dans l'ordinateur qui assure ce contrôle, c'est tout le réseau qui tombe en panne.
Le routage décentralisé ne possÈde pas de centre de contrôle et les rÈgles de passage d'un paquet (paquet d'appel pour établissement d'un circuit virtuel) sont :
- l'inondation : à la réception d'un paquet celui-ci est renvoyé sur toutes les lignes de sortie. Cette technique simpliste et rapide est efficace dans les réseaux à trafic faible et oÙ le temps réel est nécessaire mais elle est pénalisante en flux de données, inadaptée aux réseaux complexe et au circuit virtuel.
- la technique «hot potatoes» : un paquet reçu est renvoyé le plus tôt possible par la premiÈre ligne de sortie vide. On améliore ce principe en affectant des coefficients à chaque ligne de sortie en fonction de la destination voulue. On tient compte de l'état des noeuds voisins, sans utiliser de paquet de contrôle, mais simplement en comptabilisant le nombre de paquets reçus de chacun d'eux. Ils peuvent également envoyer de maniÈre synchrone ou asynchrone un compte-rendu de leur état, permettant ainsi de choisir la «meilleure» ligne à un instant donné. Mais ceci reste local et une panne du réseau localisée au-delà du premier noeud voisin ne pourra pas Être prise en compte.
- le routage adaptatif à la fois dans l'espace et dans le temps demande, de la part de chaque noeud, une connaissance complÈte du réseau. Les différents noeuds s'échangent donc des messages, mais si chacun envoie des messages à tous les autres le trafic va augmenter de maniÈre beaucoup trop grande. C'est pourquoi un noeud ne transmet un compte-rendu qu'à ses voisins immédiats qui doivent en tenir compte dans leur propre compte-rendu. (voir exemple)
D'une maniÈre générale, le routage doit éviter l'usage d'algorithmes adaptatifs trop complexes et limiter les dialogues de services entre les noeuds sinon l'effet obtenu sera à l'opposé de celui recherché.
Cette norme a été établie en 1976 par le CCITT pour les réseaux à commutation de paquets sur proposition de 4 pays qui l'utilisent pour leurs réseaux publics de communication : Transpac pour la France, EPSS pour la Grande-Bretagne, Datapac pour le Canada et Telenet pour les USA.
Figure 18: Niveaux du protocole X25.
Comme illustré dans la figure18, le protocole X25 contient les trois premiÈres couches du modÈle OSI et définit l'interface entre un ETTD (Équipement Terminal de Traitement de Données) et un ETCD (Équipement de Terminaison de Circuit de Données) pour la transmission de paquets. Elle fixe donc les rÈgles de fonctionnement entre un équipement informatique connecté à un réseau et le réseau lui-mÊme.
X25 définit les types de paquets et leur format est le suivant (chaque ligne correspond à un octet)
identificateur général de format |
numéro de groupe de voie logique |
numéro de voie logique |
|
identificateur général de type de paquet |
|
données |
|
X25 utilise le mode avec connexion, sachant que la connexion est réalisée à l'aide d'un circuit virtuel dont le fonctionnement se déroule comme illustré dans la figure
|
Figure 19: Vie d'un circuit virtuel. |
L'établissement du circuit virtuel se fait de bout en bout par l'envoi d'un paquet d'appel (call request). Il existe des circuits virtuels permanents (CVP) ou commutés (CVC). À un instant donné, plusieurs CVC et CVP peuvent coexister. Chaque circuit virtuel utilise une voie logique repérée par un numéro de groupe logique (entre 0 et 16) et un numéro de voie (entre 0 et 255). Ainsi, 4095 (la voie 0 est réservée) voies sont utilisables par une entrée. Pour un CVC les deux numéros sont attribués pendant la phase d'établissement de la communication, pour un CVP ils le sont lors de l'abonnement. Lorsque le paquet d'appel arrive à l'ETCD destinataire, celui-ci peut refuser la connexion en envoyant une demande de libération (clear request) ou l'accepter en envoyant un paquet de communication acceptée (call accepted). À ce moment-là le circuit virtuel est établi et les données peuvent Être échangées, celles-ci emprunteront alors toutes le mÊme chemin marqué à travers le réseau par le paquet d'appel. Pour leur part la demande et la confirmation de libération sont traitées localement et la demande peut Être traitée par n'importe lequel des deux équipements.
La couche transport assure un transfert de données transparents entre entités de session et en les déchargeant des détails d'exécution. Elle a pour rôle d'optimiser l'utilisation des services de réseau disponibles afin d'assurer au moindre coÛt les performances requises par la couche session.
C'est la premiÈre couche à résider sur les systÈmes d'extrÊmité. Elle permet aux deux applications de chaque extrémité de dialoguer directement indépendamment de la nature des sous-réseaux traversés et comme si le réseau n'existait pas. Au niveau inférieur de la couche réseau seule la phase d'établissement de la liaison logique s'effectue de bout en bout, alors que les transferts d'information se font de proche en proche.
La couche transport doit assurer, en mode connecté ou non connecté, un transfert transparent de données entre utilisateurs de service réseau en leur rendant invisible la façon dont les ressources de communication sont mises en uvre. Cette notion de transparence implique par exemple de pouvoir acheminer de bout en bout des TPDU (Transport Protocol Data Unit) dont la taille peut varier de 128 à 8192 octets. Cette taille est cependant fixe une fois que la valeur a été négociée.
Une autre façon de définir la couche transport est de la considérer garante de la qualité de service (QOS) rendue par la couche réseau. Si cette derniÈre est sans faille, alors le travail de la couche transport est minime. Dans le cas contraire elle assure la jonction entre ce que désire l'utilisateur et ce que la couche réseau met à disposition en terme de qualité. La qualité est évaluée sur certains paramÈtres avec trois types de valeurs possibles : préféré, acceptable et inacceptable qui sont choisis lors de l'établissement d'une connexion (certains paramÈtres sont cependant disponibles pour un mode sans connexion). La couche transport surveille alors ces paramÈtres pour déterminer si la couche réseau sous-jacente assure la qualité de service demandée.
Les différents paramÈtres de la qualité de service sont :
- le temps d'établissement de la connexion transport: c'est la durée qui s'écoule entre le moment oÙ une demande de connexion est émise et le moment oÙ la confirmation de cet établissement est reçu et plus ce délai est court meilleure est la qualité de service.
- la probabilité d'échec d'établissement mesure la chance (ou plutôt malchance) qu'une connexion ne puisse s'établir dans un délai maximum défini. On ne tient pas compte ici du refus de l'entité distante d'établir cette connexion, mais on considÈre plutôt les problÈmes d'engorgement de réseau.
- le débit de la liaison mesure le nombre d'octets utiles qui peuvent Être transférés en une seconde, ce débit est évalué séparément dans les deux sens.
- le temps de transit mesure le temps écoulé entre le moment oÙ l'utilisateur du service de transport envoie un message et celui oÙ l'entité de transport réceptrice le reçoit, ce temps est évalué séparément dans les deux sens.
- le taux d'erreur résiduel est le rapport entre le nombre de messages perdus ou mal transmis et le nombre total de messages émis au cours d'une période considérée. Ce nombre, en théorie nul, a une valeur faible.
- la probabilité d'incident de transfert mesure le bon fonctionnement du service transport. Lorsqu'une connexion est établie, un débit, un temps de transit, un taux résiduel d'erreurs sont négociés. La probabilité d'incident mesure la fraction de temps durant laquelle les valeurs fixées précédemment n'ont pas été respectées.
- le temps de déconnexion mesure la durée s'écoulant entre une demande de déconnexion émise et la déconnexion effective du systÈme distant.
- la probabilité d'erreur de déconnexion est le taux de demandes de déconnexion non exécutées pendant le temps maximum défini.
- la protection est définie comme la possibilité de se prémunir contre les intrusions passives (interférences sur une mÊme ligne) et actives (écoute et modification des données transmises).
- la priorité permet à l'utilisateur de privilégier certaines transmissions par rapport à d'autres.
- la résiliation est la liberté laissée à la couche transport de décider elle-mÊme de la déconnexion suite à un problÈme.
En mode non connecté, ces paramÈtres indiquent uniquement les souhaits de l'utilisateur en ce qui concerne le débit, le délai de transit, le taux d'erreur résiduel et la priorité d'une transmission. Ces paramÈtres sont utilisés par la couche transport pour fixer des options de protocoles avant d'Être soumis à la couche réseau.
Lorsqu'une connexion est demandée, tous ces paramÈtres sont transmis par l'utilisateur à la couche transport, les valeurs désirées et minimales sont spécifiées. Les différents cas de figure et étapes peuvent alors se présenter.
Si la demande semble irréaliste pour certains paramÈtres alors la demande de connexion n'est mÊme pas exécutée et un message d'erreur est renvoyé pour expliquer le problÈme.
Si la demande ne peut pas Être satisfaite complÈtement mais partiellement (par exemple avec un débit moindre mais acceptable), alors c'est cette demande avec des objectifs moindres qui est soumise.
Si l'ordinateur distant ne peut satisfaire complÈtement la demande, mais reste au-dessus du minimum requis, alors il modifie aussi le paramÈtre.
S'il ne peut pas rester au-dessus de ce minimum, il rejette la demande de connexion.
Enfin, la couche transport avertit son utilisateur de la bonne fin (ou non) de la procédure de connexion et lui transmet les paramÈtres acceptés.
Cette procédure s'appelle la négociation des options qui, une fois fixées, restent inchangées pendant toute la connexion. Pour que tous les utilisateurs ne demandent pas une qualité de service optimale, les prix pratiqués par les fournisseurs de réseaux croissent avec cette qualité de service.
Figure 20: Dialogue de niveau transport.
Les services qu’offre la couche transport en mode connecté sont rendus par les primitives données ci-dessous. Celles-ci se décomposent comme dans tout dialogue entre couches en quatre catégories comme illustré dans la figure 20.
Phase d'établissement de la connexion :
- T_CONNECT.request(adresse source, adresse distante, données_exprÈs, qos, données_utilisateur) pour demander une connexion
- T_CONNECT.indication(adresse source, adresse distante, données_exprÈs, qos, données_utilisateur) pour indiquer une connexion de transport
- T_CONNECT.response(adresse source, adresse distante, données_exprÈs, données_utilisateur) pour répondre à une demande de connexion de transport
- T_CONNECT.confirm(adresse source, adresse distante, données_exprÈs, qos, données_utilisateur) pour confirmer l'établissement d'une connexion de transport .
Phase de transfert de données :
- T_DATA.request(données_utilisateur) pour demander le transfert de données
- T_DATA.indication(données_utilisateur) pour indiquer un transfert de données
- T_EXPEDITED_DATA.request(données_utilisateur) pour demander le transfert de données exprÈs
-T_EXPEDITED_DATA.indication (données_utilisateur) pour indiquer un transfert de données exprÈs .
Phase de libération de la connexion :
- T_DISCONNECT.request(données utilisateur) pour demander une déconnexion de transport
- T_DISCONNECT.indication(raison, données_utilisateur) pour indiquer une déconnexion de transport .
La figure détaille les différents enchainements de primitives possibles. Pour chaque cas, un utilisateur est placé à gauche des lignes doubles et son homologue est à droite, la couche transport est entre les lignes et le temps s'écoule de haut en bas.
Figure 21 : Enchainement de primitives en mode connecté
Figure 22: Diagramme d'états d'une machine de service de transport.
Seules les successions de primitives décrites dans l'automate de la figure22 sont autorisés assurant ainsi qu'une machine réalisant le service de transport ne peut se trouver que dans l'un des quatre états représentés à savoir :
- veille : aucune connexion n'est établie, une demande de connexion peut Être émise ou reçue
- connexion sortante en attente : la machine a demandé une connexion et la réponse de l'autre extrémité n'est pas encore arrivée
- connexion entrante en attente : la machine a reçu une demande de connexion qu'elle n'a pas encore acceptée ou rejetée.
- transfert de données prÊt : une connexion a été établie, les transferts de données peuvent commencer
Pour ce qui est du mode non connecté seules les primitives suivantes sont disponibles.
T_UNIDATA.request(appelé, appelant, qos, données utilisateur)
T_UNIDATA.indication(appelé, appelant, qos, données utilisateur)
6.3 Le protocole de transport ISO en mode connecté (ISO 8073 ou X.224)
Les fonctions de la couche transport ISO sont établies dans le but de combler l'écart existant entre les services offerts par les couches basses et les services à offrir.
Les principales fonctions réalisées pendant l'établissement de la connexion sont les suivantes.
La sélection d'une connexion réseau appropriée.
La décision de mettre en place un multiplexage ou un éclatement.
|
Figure 23: Adressage, multiplexage et éclatement de connexions transport. |
Le multiplexage a pour but de regrouper plusieurs connexions de transport sur une mÊme connexion de réseau, ce qui va permettre de minimiser les ressources utilisées au niveau réseau, donc de diminuer les coÛts de communication. Ceci est surtout utile si l'on a de nombreuses connexions de faible débit à établir. À l'inverse, l'éclatement consiste à répartir une connexion de transport simultanément sur plusieurs connexions réseau dans le but d'accroitre le débit et la fiabilité (voir la figure23) :
- la détermination de la taille optimale des TPDU
- la mise en relation des adresses transport et réseau
- l'identification de la connexion
Lors de la phase de transfert les données exprÈs (interruptions, alarmes de petite taille) ne sont pas soumises au contrôle de flux et sont assurées d'Être délivrées avant toutes données normales émises aprÈs elle. La fragmentation-réassemblage permet, si nécessaire, de découper des TSDU (Transport Service Data Unit) afin de tenir dans un seul TPDU. Ainsi les «lettres» trop grandes sont découpées en fragments de taille fixe (sauf éventuellement le dernier), numérotés et expédiés chacun dans un paquet pour Être réassemblés à l'arrivée. La numérotation des paquets permet également de détecter les paquets perdus ou dupliqués. Les erreurs de transmission étant normalement détectées par les couches inférieures, il n'est pas toujours nécessaire de protéger chaque TPDU. Cependant, si la qualité de service réseau est médiocre, on ajoute des mécanismes de détection d'erreur par total de contrôle associé à un mécanisme de retransmission. Le contrôle de flux est fondé sur une fenÊtre coulissante de taille variable, similaire à une notion de crédit. Le destinataire impose la cadence de transfert en indiquant à l'expéditeur des crédits d'émission (numéro dans la séquence à ne pas dépasser) qu'il lui transmet dans ses acquittements.
Enfin, la libération de la connexion de transport peut Être décidée et déclenchée de maniÈre inconditionnelle par l'un quelconque des correspondants, ce qui peut provoquer des pertes de données. Cette libération est explicite quand il y a échanges d'unités de données spéciales ou implicites quand en fait c'est la connexion réseau sous-jacente qui est libérée.
Pour simplifier le choix des fonctions à mettre en oeuvre, l'ISO a défini 5 classes de protocoles chacune étant adaptée à un type de réseau particulier et choisi lors de l'établissement de la connexion. L'appelant déclare sa classe préférée et des classes de repli, l'appelé choisi parmi ces propositions ; si aucune classe ne lui convient il refuse la connexion. Succinctement, on trouve :
- la classe 0 : elle assure une connexion standard pour les réseaux de type A (établissement négociée de la connexion, libération implicite, transfert de données normales, segmentation et réassemblage des données.
- la classe 1 : pour les réseaux de type B elle ajoute à la classe 0 le transport de données exprÈs, la reprise sur erreurs signalées, la déconnexion et la reprise sur réinitialisation du réseau.
- la classe 2 : pour les réseaux de type A elle ajoute à la classe 0 le multiplexage et un contrôle de flux amélioré.
- la classe 3 : pour les réseaux de type B elle est constituée des fonctionnalités des classes 1 et 2.
- la classe 4 : pour les réseaux de type C elle correspond à la classe 3 à laquelle on ajoute la détection et la reprise d'erreurs non signalées et l'éclatement de connexions de transport.
Les couches session, présentation et application constituent les couches hautes du modÈle OSI et offrent des services orientés vers les utilisateurs alors que les couches basses sont concernées pas la communication fiable de bout en bout. Elles considÈrent que la couche transport fournit un canal fiable de communication et ajoutent des caractéristiques supplémentaires pour les applications.
La couche session fournit aux entités de la couche présentation les moyens d'organiser et synchroniser les dialogues et les échanges de données.
Une session peut par exemple Être utilisée pour la connexion à distance d'un terminal à un ordinateur ou pour le transfert d'un fichier et ceci en mode connecté.
|
Figure 24: Sessions et connexions de transport. |
Bien que trÈs similaires la session et la connexion de transport ne sont pas identiques, les trois cas de la figure24 peuvent se présenter.
- Il y a correspondance exacte entre une session et une connexion de transport.
- Plusieurs sessions successives sont établies sur une seule et mÊme connexion de transport. Par exemple, ceci peut Être utilisé dans le contexte d'une agence de voyage dans laquelle chaque employé utilise un terminal relié à un ordinateur local. Celui-ci est relié à une base de données centrale de la compagnie pour enregistrer les réservations. Chaque fois qu'un employé veut faire une réservation, une session est ouverte avec l'ordinateur central et elle est fermée lorsque la réservation est terminée. Mais il est inutile de libérer la connexion de transport sous-jacente car celle-ci sera utilisée quelques instants plus tard par un autre employé.
- Plusieurs connexions de transport successives sont nécessaires pour une seule et mÊme session. Ceci peut arriver lorsqu'une connexion de transport tombe en panne, la couche session établit alors une nouvelle connexion de transport de maniÈre à poursuivre la connexion commencée.
Par contre, il n'est pas possible de multiplexer plusieurs sessions sur une mÊme connexion de transport. Celle-ci ne transporte à tout instant qu'au plus une session.
Le transfert des données est régi par les trois phases habituelles : établissement de la session, transfert des données et libération de la session. Les primitives fournies par la couche session sont semblables à celles fournies par la couche transport à la couche session. L'ouverture d'une session nécessite la négociation de plusieurs paramÈtres entre les utilisateurs des extrémités, certains (qos et existence ou non de données exprÈs) sont identiques à ceux de la couche transport à qui ils sont passés tels quels. Un autre paramÈtre peut permettre de décider quelle extrémité aura l'initiative du dialogue dans le cas d'une session bidirectionnelle. Les différences entre transport et session vont se situer au niveau de la libération de la connexion. Dans le cas du transport, la primitive T_DISCONNECT.request provoque une libération brutale de la connexion avec perte des données en cours de transfert. Une session, elle, sera terminée par la primitive S_RELEASE.request qui opÈre une libération ordonnée de la connexion, sans perte de données, appelée terminaison négociée.
Figure 25: Libération brutale a) et ordonnée b).
Les différences entre ces deux modes de libération sont illustrées dans la figure25. Dans le premier cas, B ne peut plus recevoir le message qui est en transit à partir du moment oÙ il a émis une demande de déconnexion (voir l'automate de la figure22). Dans le deuxiÈme cas, B continue d'accepter des données aprÈs avoir émis sa demande de libération jusqu'à ce que A confirme positivement cette déconnexion. Si A veut refuser la déconnexion, il le signale par l'un des paramÈtres de S_RELEASE.response et il peut ainsi continuer d'envoyer des données, la session se prolonge comme si de rien n'était.
Les sessions peuvent autoriser le dialogue bidirectionnel ou unidirectionnel ou à l'alternat. Ce dernier cas n'est pas forcément dÛ à des limitations matérielles mais est souvent inhérent au fonctionnement des applications de plus haut niveau. Par exemple, l'accÈs à une base de données distante est établi sur ce mode. Un utilisateur envoie depuis son terminal une requÊte à un ordinateur central, puis il attend la réponse de celui-ci. Lorsque l'ordinateur central a envoyé sa réponse, l'utilisateur peut envoyer une autre requÊte. Ainsi, le mode de fonctionnement à l'alternat est naturel. Dans ce cas il s'agit alors de gérer à qui c'est le tour d'envoyer des données. Ce service est mis en oeuvre grace à un jeton de données (data token). Seule l'extrémité qui possÈde le jeton peut envoyer des données, l'autre doit rester silencieuse. La négociation initiale à l'établissement de la connexion de session fixe quelle extrémité reçoit en premier le jeton. Lorsque le possesseur du jeton a fini d'expédier ses données il peut passer le jeton à son correspondant à l'aide de la primitive S_TOKEN_GIVE.request. Si l'extrémité qui ne possÈde pas le jeton veut expédier des données il peut le demander, poliment, à l'aide de la primitive S_TOKEN_PLEASE.request. Le possesseur du jeton peut alors le lui envoyer ou lui refuser.
La synchronisation est également l'un des services de la couche session et consiste à placer les entités de session dans un état connu des deux interlocuteurs en cas d'erreur. Il ne s'agit pas ici de régler des erreurs qui seraient dues à un problÈme de transmission de données puisque la couche transport doit les régler. Mais celle-ci ne peut effectuer des reprises sur erreurs dues aux couches supérieures puisqu'elle n'en a pas connaissance. Par exemple, si lors d'un transfert de fichiers trÈs long une erreur se produit du côté du récepteur mais en dehors de la transmission proprement dite (problÈme d'accÈs à un disque par exemple), il faut que la couche session soit capable de s'en apercevoir et qu'elle évite de relancer simplement tout le transfert de fichiers. C'est pourquoi, grace à des points de synchronisation dans le flot d'échanges de données, elle reprendra les transferts au niveau du dernier point de reprise correct. Ces points consistent à découper le flot de données à transmettre en pages et évidemment, le mécanisme nécessite que l'utilisateur de la session émetteur soit capable de mémoriser suffisamment longtemps les pages envoyées pour pouvoir en réexpédier certaines si nécessaires.
La couche présentation s'occupe de la syntaxe et de la sémantique des informations transportées en se chargeant notamment de la représentation des données.
Par exemple, sur un ordinateur à base d'un processeur de la famille des 68 000 les entiers sont représentés avec les bits de poids fort à gauche et ceux de poids faible à droite. Or, c'est l'inverse sur un ordinateur basé sur un processeur de la famille du 80x86. Cette difficulté sera prise en compte par la couche présentation qui effectuera les opérations nécessaires à la communication correcte entre ces deux familles de machines. Pour ce faire l'ISO a défini une norme appelée syntaxe abstraite numéro 1 (Abstract Syntax Notation 1) permettant de définir une sorte de langage commun (une syntaxe de transfert) dans lequel toutes les applications représentent leurs données avant de les transmettre.
C'est aussi à ce niveau de la couche présentation que peuvent Être implantées des techniques de compression (code de Huffman par exemple) et de chiffrement de données (RSA, DSE, etc) non détaillées ici (voir cours correspondants de licence).
à Elle transforme les données dans un format connu de tous.
Traducteur Hello Présentation Application Session
La couche application donne au processus d'application le moyen d'accéder à l'environnement OSI et fournit tous les services directement utilisables par l'application, à savoir:
- le transfert d'informations
- l'allocation de ressources
- l'intégrité et la cohérence des données accédées
- la synchronisation des applications coopérantes
En fait, la couche application gÈre les programmes de l'utilisateur et définit des standards pour que les différents logiciels commercialisés adoptent les mÊmes principes, comme par exemple :
- Notion de fichier virtuel représenté sous forme d'arbre pour les applications de transfert de fichiers, opérations permises sur un fichier, accÈs concurrentiels,
- Découpage des fonctions d'une application de courrier électronique qui se compose d'un le contenu (en-tÊte et corps) et d'une enveloppe. Une fonctionnalité de l'application gÈre le contenu et une autre le transfert en interprétant l'enveloppe.
Les équipements d’interconnexion sont divisés en catégories basées sur le modÈle OSI:
- Les routeurs qui opÈrent au niveau de la couche physique.
- Les passerelles opÈrent au dessus de la couche réseau.
- Les ponts au niveau de la couche liaison.
Les signaux numériques ainsi que les signaux analogiques qui transportent des données numériques ne peuvent Être transmis que sur une distance limitée avant que l’atténuation ou le bruit altÈrent l’intégrité des données.
Remarques: Un amplificateur ne peut Être une bonne solution puisqu’il amplifiera le bruit et le signal qui l’accompagne. Un répéteur s’occupe de reproduire et de transmettre des signaux: c’est donc un équipement de la couche physique. Il ne fait aucune analyse ni aucune modification de la structure des données.
|
|
|
Ces fonctions:
- Capture et sauvegarde de données numériques reçues.
- Construit et retransmet le signal (le nouveau signal est une copie parfaite de l’original).
Remarques: Beaucoup de réseau limite le nombre de répéteurs entre stations émettrices et station réceptrices.
Un pont est utilisé pour connecter deux segments réseau au niveau de la couche réseau. Comme tout équipement de la couche réseau les ponts ont accÈs à l’adresse physique des stations. Ils peuvent déterminer les adresses des stations source et destinataires concernées.
Ils peuvent autoriser ou refuser l’accÈs à un segment en se basant sur les adresses physiques.
Les ponts agissent comme des filtres sur le réseau et sont couramment utilisés pour diviser en plusieurs segments un réseau trop chargé.
La fonction d’un pont est de recevoir toutes les données du segment 1, de supprimer tous les paquets adressés au nœud de la station, de retransmettre tous les autres paquets sur la bonne sortie.
Il y a deux types de pont:
- Les ponts transparents (Spanning Tree ou
- Les ponts source routing (principalement utilisés chez IBM).
Les ponts transparents n’ont pas besoin d’une programmation initiale. AprÈs leur installation sur le réseau ils apprennent la localisation des équipements du réseau en associant les adresses sources avec le segment sur lequel ils ont été reçus (création d’une table équipement/segment).
Dans un réseau source routing, la route complÈte pour atteindre le destinataire est contenue dans le paquet. Son prix est minime car il n’a pas besoin d’apprendre, mais chaque équipement du réseau doit avoir la capacité de déterminer la route appropriée.
Exemple d’algorithme source routing qui détermine le chemin vers une destination d’un type de paquet spécifique qu’on appelle: Le Discovery packet.
Les routeurs ont accÈs à toutes les informations des trois couches basses de l’OSI. Les informations de la couche 3 contiennent une donnée appelée adresse logique du réseau. Alors que les adresses physiques ne sont pas généralement choisies par l’administrateur mais par le constructeur.
L’adresse logique est choisie par l’administrateur.
Les routeurs envoient les informations au travers des réseaux en utilisant des adresses physiques logiques plutôt que physiques. Les subdivisants du réseau sont souvent appelés SUBNETWORKS ou SUBNET.
Les routeurs utilisent un ou plusieurs algorithmes de routage pour calculer le meilleur chemin dans un inter-réseau. Les chemins sont calculés en temps réel.
Exemple d’algorithme de routage dynamique:
- Ceux basés sur le nombre minimum de nœuds à traverser.
- Ceux basés sur le temps de transit.
Les routeurs utilisent plus de temps CPU que les ponts.
Remarque: Beaucoup de routeurs modernes sont appelés des B -routeurs qui peuvent Être aussi des ponts.
* : Destination Software Adresse DSA C15 adresse logique Routeur
|
|
|
|
|
Une passerelle traduit les différents protocoles, les couches transport, session, présentation et application en modifiant les messages de données.Elle se présente sous forme de boite noire dédiée ou sous forme de couches et de logiciels combinés pouvant Être intégré dans un ordinateur existant pour améliorer ses fonctionnalités.
Exemple:
SNA à
IBM Mainframe Passerelle Netware Segment Ethernet
Mise en conformité de réseau de protocoles différents.
Politica de confidentialitate | Termeni si conditii de utilizare |
Vizualizari: 792
Importanta:
Termeni si conditii de utilizare | Contact
© SCRIGROUP 2024 . All rights reserved