Accueil🇫🇷Chercher

Qualité de service

La qualité de service (QDS) ou quality of service (QoS) est la capacité à véhiculer dans de bonnes conditions un type de trafic donné, en termes de disponibilité, débit, délais de transmission, gigue, taux de perte de paquets…

La qualité de service est un concept de gestion qui a pour but d’optimiser les ressources d'un réseau (en management du système d'information) ou d'un processus (en logistique) et de garantir de bonnes performances aux applications critiques pour l'organisation. La qualité de service permet d’offrir aux utilisateurs des débits et des temps de réponse différenciés par applications (ou activités) suivant les protocoles mis en œuvre au niveau de la structure.

Elle permet ainsi aux fournisseurs de services (départements réseaux des entreprises, opérateurs…) de s’engager formellement auprès de leurs clients sur les caractéristiques de transport des données applicatives sur leurs infrastructures IP.

Enjeux

La qualité d'un service est une notion subjective. Selon le type de service envisagé, la qualité pourra résider dans le débit (téléchargement ou diffusion vidéo), le délai (pour les applications interactives ou la téléphonie), la disponibilité (accès à un service partagé) ou encore le taux de pertes de paquets (pertes sans influence pour de la voix ou de la vidéo, mais critiques pour le téléchargement). La qualité de service propre au domaine de la gestion de la qualité est un concept utile en urbanisation du système d'information gérant les flux immatériels et à la logistique qui gère les flux matériels. L'objet est de créer les synergies (ou flexibilités) nécessaires à l'organisation. Ceci passe par une amélioration de la standardisation des formats, et la mutualisation et ré-utilisation des ressources dans le cadre de l'intégration des flux.

La priorisation du trafic induite par la qualité de service peut aussi être considérée comme une atteinte à la neutralité du Net quand l'objectif de la qualité de service est lié à des enjeux commerciaux.

Caractéristiques

Principe de priorisation dans un réseau WAN

Dans un réseau, les informations sont transmises sous la forme de paquets, petits éléments de transmission transmis de routeur en routeur jusqu'à la destination. Tous les traitements vont donc s'opérer sur ces paquets.

La mise en place de la qualité de service nécessite en premier lieu la reconnaissance des différents services. Celle-ci peut se faire sur la base de nombreux critères :

  • La source et la destination du paquet.
  • Le protocole utilisĂ© (UDP/TCP/ICMP/etc.).
  • Les ports source et de destination dans le cas des protocoles TCP et UDP.
  • La date et l'heure.
  • La congestion des rĂ©seaux.
  • La validitĂ© du routage (gestion des pannes dans un routage en cas de routes multiples par exemple).
  • La bande passante consommĂ©e.
  • Les temps de latence.

En fonction de ces critères, différentes stratégies peuvent ensuite être appliquées pour assurer une bonne qualité de service.

Choix des routes

Lorsque plusieurs routes vers une destination sont disponibles, le choix d'une des routes peut se faire pour garantir la qualité de service. Par exemple, une route proposant un délai faible sur un débit faible sera utilisée pour les applications interactives, tandis qu'une route acceptant un meilleur débit au prix d'un délai plus long sera préférée pour les applications moins sensibles au délai (Streaming, téléchargement, etc.).

Mise en forme du trafic

Mettre en forme un trafic (Traffic shaping) signifie prendre des dispositions pour s'assurer que le trafic ne dépasse jamais certaines valeurs prédéterminées. En pratique, cette contrainte s'applique en délayant certains paquets pour forcer un certain trafic, selon divers algorithmes.

Le contrôle du trafic peut-être utile pour limiter l'engorgement et assurer une latence correcte. Par ailleurs, des limitations de débits séparément aux trafics permettent en contrepartie de leur assurer en permanence un débit minimum, ce qui peut être particulièrement intéressant pour un fournisseur d'accès par exemple, souhaitant garantir une certaine valeur du débit à ses clients.

Les deux algorithmes les plus utilisés sont :

Ordonnancement

La méthode par défaut gérant l'ordre de départ des paquets est définie selon le principe de "Premier arrivé, premier servi" ( "First In, First Out" (FIFO) ). Celle-ci n'appose aucune priorité sur les paquets, et ceux-ci sont transmis dans l'ordre où ils sont reçus. D'un point de vue technique, cette méthode est toujours utilisée par défaut sur les interfaces dont le débit est supérieur à 2 Mb/s. Sur les produits Cisco, il est possible de la configurer via la commande d'interface tx-ring-limit.

L'ordonnancement désigne l'ensemble des méthodes visant à modifier cet ordre, en remplacement de la règle précédente.

Une de ses applications les plus courantes, le priority queuing (en), consistera ainsi Ă  donner prioritĂ© Ă  certains types de trafic, de façon sommaire en ne laissant passer du trafic de faible prioritĂ© que s'il n'y a plus de trafic de forte prioritĂ©, ou de façon plus fine avec des algorithmes de Round-Robin pondĂ©rĂ©s (devenant alors du custom queuing (en)), visant Ă  faire passer des paquets des diffĂ©rentes connexions tour Ă  tour, en laissant plus de temps aux paquets prioritaires.

Une autre application, le fair queuing (en) consiste Ă  sĂ©parer nettement les connexions, et Ă  leur attribuer successivement et Ă©quitablement une possibilitĂ© de faire passer leurs paquets : cela permet de s'assurer qu'aucune application, mĂŞme très demandeuse de dĂ©bit, n'en Ă©crasera d'autres. Une version gĂ©nĂ©rale de cette application existe, le weighted queuing (en). Cette gĂ©nĂ©ralisation est effectuĂ©e en multipliant la taille du paquet concernĂ© par l'inverse du poids de la file dans laquelle il se trouve (le FQ en est un cas spĂ©cial dans le sens oĂą les files ont toutes le mĂŞme poids). Une dernière version existe, le class based queuing (en) (autrement appelĂ©e Class-Based Queuing) qui utilisera des classes configurĂ©es selon diffĂ©rents critères (prioritĂ©, interface, application d'origine, ...) en lieu et place des connexions du Fair Queuing. Chacune de ces classes se voit ainsi allouĂ©e une partie de la bande passante en fonction de leur prioritĂ© globale.

Une dernière application, appelĂ©e le Low Latency Queuing (en) concentre son action sur le trafic sensible au dĂ©lai. Il prend comme base le CBWFQ en rendant les prioritĂ©s plus strictes. Cette mĂ©thode est particulièrement adaptĂ©e Ă  l'usage de VOIP et de visiophonie.

Le matériel

La qualité de service se réalise au niveau de la couche 2 (802.1p) ou de la couche 3 (DiffServ) du modèle OSI. Elle doit donc être configurée sur les commutateurs, les routeurs ou la passerelle reliée à Internet.

Outils

Plusieurs outils existent sur le marché pour surveiller la qualité de service en ligne de certaines applications.

  • NetScout (de NetScout Systems (en)) : outil de type client-serveur de mĂ©trologie utilisĂ© pour surveiller les rĂ©seaux de grande envergure.
  • Alaloop (alaloop.com) : plate-forme de mĂ©trologie en service managĂ© qui dĂ©livre un service de mesures de QoS (QualitĂ© de service) d'infrastructures rĂ©seaux, de QoE (QualitĂ© d'expĂ©rience) d'applications critiques et d'analyses de trafic. La vision rĂ©conciliĂ©e temps rĂ©el des rĂ©seaux et des applications apporte une vision globale de contrĂ´le de la performance des systèmes d'information.
  • grenouille.com (France) : fermĂ© le . Outil gratuit (associatif) de type plate-forme collaborative, permettant Ă  l'aide d'un logiciel client de vĂ©rifier automatiquement et de façon rĂ©gulière la qualitĂ© d'une connexion Ă  Internet louĂ©e Ă  un fournisseur d'accès Ă  Internet et de partager ces statistiques avec les autres utilisateurs.

Voir aussi

Articles connexes

Liens externes

Cet article est issu de wikipedia. Text licence: CC BY-SA 4.0, Des conditions supplémentaires peuvent s’appliquer aux fichiers multimédias.