La Qualité de Service (QoS) : Prioriser les flux critiques dans les réseaux convergents
Dans l’ère moderne des réseaux, la simple connectivité ne suffit plus. Avec la convergence de la voix, de la vidéo et des données sur une infrastructure unique, la gestion de la bande passante est devenue un défi critique. La Qualité de Service (QoS) ne crée pas de bande passante supplémentaire ; elle permet de gérer intelligemment les ressources existantes pour garantir que les applications sensibles au temps reçoivent le traitement dont elles ont besoin pour fonctionner de manière optimale.
Pourquoi la QoS est-elle vitale ?
Sans QoS, les routeurs et commutateurs traitent le trafic selon le principe du « Best Effort » (Meilleur Effort). Dans ce mode, tous les paquets sont égaux, et en cas de congestion, le premier arrivé est le premier servi, sans distinction entre un e‑mail non urgent et un flux de téléphonie IP (VoIP). Pour les flux interactifs, cela se traduit par une expérience utilisateur médiocre, voire inutilisable.
L’objectif principal de la QoS est de fournir des garanties sur les performances réseau en agissant sur trois facteurs majeurs :
- La bande passante : S’assurer que les applications critiques disposent d’un débit minimum garanti.
- Le délai (Latence) : Réduire le temps nécessaire pour qu’un paquet traverse le réseau.
- La gigue (Jitter) : Minimiser la variation du délai entre les paquets successifs.
Comprendre les ennemis de la performance : Latence et Gigue
Pour maîtriser la QoS, il est impératif de comprendre la nature des délais subis par les paquets.
La Latence (Délai)
La latence totale est la somme de plusieurs types de délais :
- Délai de propagation : Le temps nécessaire au signal pour parcourir le média physique (limité par la vitesse de la lumière).
- Délai de sérialisation : Le temps nécessaire pour placer les bits sur l’interface de sortie. Ce délai est inversement proportionnel à la vitesse de la liaison.
- Délai de traitement : Le temps que prend le processeur du routeur pour examiner l’en-tête du paquet et déterminer sa destination.
- Délai de mise en file d’attente (Queuing) : Le temps qu’un paquet passe dans la mémoire tampon (buffer) en attendant que l’interface de sortie soit libre. C’est ici que la QoS a le plus d’impact.
La Gigue (Jitter)
La gigue est la variation du délai de bout en bout. Si le premier paquet d’un flux audio met 20 ms à arriver et le second 60 ms, la gigue est de 40 ms. Pour la voix, une gigue élevée provoque des coupures ou des sons robotiques. Les terminaux utilisent des « Jitter Buffers » pour compenser ce phénomène, mais si la gigue dépasse la capacité du buffer, les paquets sont jetés.
Classification et Marquage : L’art d’identifier le trafic
Avant d’appliquer une politique de priorité, le réseau doit savoir quel type de trafic il transporte. C’est le rôle de la classification.
Classification : Qui êtes-vous ?
La classification peut se faire de deux manières principales :
- ACL (Access Control Lists) : Utilisation des adresses IP sources/destinations ou des ports TCP/UDP (L3/L4) pour identifier les flux.
- NBAR (Network Based Application Recognition) : Une technologie Cisco avancée effectuant une inspection profonde des paquets (DPI) pour identifier des applications complexes (comme Skype ou Netflix) qui utilisent des ports dynamiques.
Marquage : Poser une étiquette
Une fois classifié, le paquet doit être « marqué » pour que les équipements suivants n’aient pas à refaire l’analyse complète.
- Couche 2 (CoS – Class of Service) : Utilise 3 bits dans l’en-tête 802.1Q (VLAN). Valeurs de 0 à 7. Limité car le marquage disparaît dès que le paquet traverse un routeur.
- Couche 3 (ToS et DSCP) : Le champ Type of Service (ToS) dans l’en-tête IPv4 a été remplacé par le Differentiated Services Code Point (DSCP).
Le DSCP utilise 6 bits, offrant 64 classes de priorité. Les valeurs standards incluent :
| Valeur DSCP | Nom | Usage typique |
|---|---|---|
| 46 | EF (Expedited Forwarding) | Voix sur IP (Faible délai, faible perte) |
| 34, 36, 38 | AF4x (Assured Forwarding) | Vidéo interactive |
| 26, 28, 30 | AF3x | Applications critiques (ERP, CRM) |
| 0 | BE (Best Effort) | Internet, E‑mail, Trafic général |
Algorithmes de Queuing : Gérer l’attente
Lorsque l’interface de sortie d’un routeur est congestionnée, les paquets sont stockés dans des files d’attente. La manière dont ces files sont vidées définit la stratégie de QoS.
FIFO (First-In, First-Out)
Le mode par défaut. Simple mais inéquitable. Un flux de données massif peut remplir le buffer et empêcher le passage de la voix. Inadapté aux réseaux modernes.
PQ (Priority Queuing)
Quatre files (High, Medium, Normal, Low). La file « High » est toujours vidée en premier. Risque : Si la file haute est saturée, les autres files ne sont jamais servies (phénomène de famine ou « starvation »).
WRR (Weighted Round Robin) et CBWFQ
Le Class-Based Weighted Fair Queuing (CBWFQ) permet de définir des classes de trafic et d’allouer à chacune un pourcentage de bande passante. Si une classe n’utilise pas sa part, elle est redistribuée, garantissant qu’aucune application n’est totalement bloquée.
LLQ (Low Latency Queuing)
C’est la méthode recommandée par Cisco pour la convergence. LLQ est essentiellement CBWFQ avec une file de priorité stricte (PQ) ajoutée. Cette file est réservée à la voix (EF). Elle est vidée immédiatement dès qu’un paquet s’y présente, mais elle est soumise à un policer pour éviter qu’elle ne monopolise toute la bande passante au détriment des autres classes.
Évitement de congestion : WRED
Quand les files d’attente sont pleines (Tail Drop), le routeur jette tous les nouveaux paquets. Pour le protocole TCP, cela provoque une « synchronisation globale » : toutes les sources TCP ralentissent en même temps, puis ré-accélèrent ensemble, créant des cycles d’utilisation inefficaces.
Le WRED (Weighted Random Early Detection) anticipe la congestion. Il commence à jeter aléatoirement des paquets de faible priorité (marqués avec des valeurs DSCP AF avec une probabilité de drop élevée) avant que le buffer ne soit plein. Cela force les sources TCP concernées à réduire leur fenêtre de congestion en douceur, évitant la saturation brutale.
Conclusion
La mise en œuvre de la QoS ne crée pas de bande passante supplémentaire, mais elle l’alloue de manière intelligente. Pour un administrateur réseau, la stratégie standard repose sur le modèle DiffServ (Differentiated Services) : classifier au plus proche de la source (Trust Boundary), marquer les flux en couche 3 (DSCP) et appliquer une gestion de type LLQ sur les goulots d’étranglement du réseau.
Bon courage pour le CCNA !