AccueilCCNALa Qualité de Service (QoS) : Prioriser les flux critiques dans les...

La Qualité de Service (QoS) : Prioriser les flux critiques dans les réseaux convergents

La Qualité de Service (QoS) : Prioriser les flux critiques dans les réseaux convergents

Dans l’ère moderne des réseaux, la simple connec­ti­vi­té ne suf­fit plus. Avec la conver­gence de la voix, de la vidéo et des don­nées sur une infra­struc­ture unique, la ges­tion de la bande pas­sante est deve­nue un défi cri­tique. La Qua­li­té de Ser­vice (QoS) ne crée pas de bande pas­sante sup­plé­men­taire ; elle per­met de gérer intel­li­gem­ment les res­sources exis­tantes pour garan­tir que les appli­ca­tions sen­sibles au temps reçoivent le trai­te­ment dont elles ont besoin pour fonc­tion­ner de manière optimale.

Pourquoi la QoS est-elle vitale ?

Sans QoS, les rou­teurs et com­mu­ta­teurs traitent le tra­fic selon le prin­cipe du « Best Effort » (Meilleur Effort). Dans ce mode, tous les paquets sont égaux, et en cas de conges­tion, le pre­mier arri­vé est le pre­mier ser­vi, sans dis­tinc­tion entre un e‑mail non urgent et un flux de télé­pho­nie IP (VoIP). Pour les flux inter­ac­tifs, cela se tra­duit par une expé­rience uti­li­sa­teur médiocre, voire inutilisable.

L’ob­jec­tif prin­ci­pal de la QoS est de four­nir des garan­ties sur les per­for­mances réseau en agis­sant sur trois fac­teurs majeurs :

  • La bande pas­sante : S’as­su­rer que les appli­ca­tions cri­tiques dis­posent d’un débit mini­mum garanti.
  • Le délai (Latence) : Réduire le temps néces­saire pour qu’un paquet tra­verse le réseau.
  • La gigue (Jit­ter) : Mini­mi­ser la varia­tion du délai entre les paquets successifs.

Comprendre les ennemis de la performance : Latence et Gigue

Pour maî­tri­ser la QoS, il est impé­ra­tif de com­prendre la nature des délais subis par les paquets.

La Latence (Délai)

La latence totale est la somme de plu­sieurs types de délais :

  • Délai de pro­pa­ga­tion : Le temps néces­saire au signal pour par­cou­rir le média phy­sique (limi­té par la vitesse de la lumière).
  • Délai de séria­li­sa­tion : Le temps néces­saire pour pla­cer les bits sur l’in­ter­face de sor­tie. Ce délai est inver­se­ment pro­por­tion­nel à la vitesse de la liaison.
  • Délai de trai­te­ment : Le temps que prend le pro­ces­seur du rou­teur pour exa­mi­ner l’en-tête du paquet et déter­mi­ner sa destination.
  • Délai de mise en file d’at­tente (Queuing) : Le temps qu’un paquet passe dans la mémoire tam­pon (buf­fer) en atten­dant que l’in­ter­face de sor­tie soit libre. C’est ici que la QoS a le plus d’impact.

La Gigue (Jitter)

La gigue est la varia­tion du délai de bout en bout. Si le pre­mier paquet d’un flux audio met 20 ms à arri­ver et le second 60 ms, la gigue est de 40 ms. Pour la voix, une gigue éle­vée pro­voque des cou­pures ou des sons robo­tiques. Les ter­mi­naux uti­lisent des « Jit­ter Buf­fers » pour com­pen­ser ce phé­no­mène, mais si la gigue dépasse la capa­ci­té du buf­fer, les paquets sont jetés.

Classification et Marquage : L’art d’identifier le trafic

Avant d’ap­pli­quer une poli­tique de prio­ri­té, le réseau doit savoir quel type de tra­fic il trans­porte. C’est le rôle de la classification.

Classification : Qui êtes-vous ?

La clas­si­fi­ca­tion peut se faire de deux manières principales :

  • ACL (Access Control Lists) : Uti­li­sa­tion des adresses IP sources/destinations ou des ports TCP/UDP (L3/L4) pour iden­ti­fier les flux.
  • NBAR (Net­work Based Appli­ca­tion Recog­ni­tion) : Une tech­no­lo­gie Cis­co avan­cée effec­tuant une ins­pec­tion pro­fonde des paquets (DPI) pour iden­ti­fier des appli­ca­tions com­plexes (comme Skype ou Net­flix) qui uti­lisent des ports dynamiques.

Marquage : Poser une étiquette

Une fois clas­si­fié, le paquet doit être « mar­qué » pour que les équi­pe­ments sui­vants n’aient pas à refaire l’a­na­lyse complète.

  • Couche 2 (CoS – Class of Ser­vice) : Uti­lise 3 bits dans l’en-tête 802.1Q (VLAN). Valeurs de 0 à 7. Limi­té car le mar­quage dis­pa­raît dès que le paquet tra­verse un routeur.
  • Couche 3 (ToS et DSCP) : Le champ Type of Ser­vice (ToS) dans l’en-tête IPv4 a été rem­pla­cé par le Dif­fe­ren­tia­ted Ser­vices Code Point (DSCP).

Le DSCP uti­lise 6 bits, offrant 64 classes de prio­ri­té. Les valeurs stan­dards incluent :

Valeur DSCP Nom Usage typique
46 EF (Expe­di­ted Forwarding) Voix sur IP (Faible délai, faible perte)
34, 36, 38 AF4x (Assu­red Forwarding) Vidéo inter­ac­tive
26, 28, 30 AF3x Appli­ca­tions cri­tiques (ERP, CRM)
0 BE (Best Effort) Inter­net, E‑mail, Tra­fic général

Algorithmes de Queuing : Gérer l’attente

Lorsque l’in­ter­face de sor­tie d’un rou­teur est conges­tion­née, les paquets sont sto­ckés dans des files d’at­tente. La manière dont ces files sont vidées défi­nit la stra­té­gie de QoS.

FIFO (First-In, First-Out)

Le mode par défaut. Simple mais inéqui­table. Un flux de don­nées mas­sif peut rem­plir le buf­fer et empê­cher le pas­sage de la voix. Inadap­té aux réseaux modernes.

PQ (Priority Queuing)

Quatre files (High, Medium, Nor­mal, Low). La file « High » est tou­jours vidée en pre­mier. Risque : Si la file haute est satu­rée, les autres files ne sont jamais ser­vies (phé­no­mène de famine ou « starvation »).

WRR (Weighted Round Robin) et CBWFQ

Le Class-Based Weigh­ted Fair Queuing (CBWFQ) per­met de défi­nir des classes de tra­fic et d’al­louer à cha­cune un pour­cen­tage de bande pas­sante. Si une classe n’u­ti­lise pas sa part, elle est redis­tri­buée, garan­tis­sant qu’au­cune appli­ca­tion n’est tota­le­ment bloquée.

LLQ (Low Latency Queuing)

C’est la méthode recom­man­dée par Cis­co pour la conver­gence. LLQ est essen­tiel­le­ment CBWFQ avec une file de prio­ri­té stricte (PQ) ajou­tée. Cette file est réser­vée à la voix (EF). Elle est vidée immé­dia­te­ment dès qu’un paquet s’y pré­sente, mais elle est sou­mise à un poli­cer pour évi­ter qu’elle ne mono­po­lise toute la bande pas­sante au détri­ment des autres classes.

Évitement de congestion : WRED

Quand les files d’at­tente sont pleines (Tail Drop), le rou­teur jette tous les nou­veaux paquets. Pour le pro­to­cole TCP, cela pro­voque une « syn­chro­ni­sa­tion glo­bale » : toutes les sources TCP ralen­tissent en même temps, puis ré-accé­lèrent ensemble, créant des cycles d’u­ti­li­sa­tion inefficaces.

Le WRED (Weigh­ted Ran­dom Ear­ly Detec­tion) anti­cipe la conges­tion. Il com­mence à jeter aléa­toi­re­ment des paquets de faible prio­ri­té (mar­qués avec des valeurs DSCP AF avec une pro­ba­bi­li­té de drop éle­vée) avant que le buf­fer ne soit plein. Cela force les sources TCP concer­nées à réduire leur fenêtre de conges­tion en dou­ceur, évi­tant la satu­ra­tion brutale.

Conclusion

La mise en œuvre de la QoS ne crée pas de bande pas­sante sup­plé­men­taire, mais elle l’al­loue de manière intel­li­gente. Pour un admi­nis­tra­teur réseau, la stra­té­gie stan­dard repose sur le modèle Diff­Serv (Dif­fe­ren­tia­ted Ser­vices) : clas­si­fier au plus proche de la source (Trust Boun­da­ry), mar­quer les flux en couche 3 (DSCP) et appli­quer une ges­tion de type LLQ sur les gou­lots d’é­tran­gle­ment du réseau.

Bon cou­rage pour le CCNA !

Article précédent

Les plus populaires