Qu'est-ce que la latence ?
Le terme latence fait référence à plusieurs types de retards généralement encourus dans le traitement des données du réseau. Une connexion réseau à faible latence connaît de petits délais, tandis qu'une connexion à haute latence connaît de longs délais.
Outre les délais de propagation, la latence peut également impliquer des délais de transmission (propriétés du support physique) et des délais de traitement (comme le passage par des serveurs proxy ou la création sauts de réseau sur Internet).
Latence et vitesse du réseau
Bien que la perception de vitesse du réseau et la performance est généralement comprise comme bande passante, la latence est l'autre élément clé. La personne moyenne est plus familière avec le concept de bande passante car c'est la métrique que les fabricants d'équipements de réseau annoncent généralement. Pourtant, la latence compte également pour l'expérience de l'utilisateur final. En termes d'argot, le mot lag fait souvent référence à des performances inférieures sur un réseau.

John Lamb / Vision numérique / Getty Images
Latence versus débit
Au DSL et les connexions Internet par câble, des latences de moins de 100 millisecondes (ms) sont typiques, et moins de 25 ms sont souvent possibles. Avec Internet par satellite connexions, d'autre part, les latences typiques peuvent être de 500 ms ou plus.
Une latence excessive crée des goulots d'étranglement qui empêchent les données de remplir le tuyau du réseau, diminuant ainsi le débit et limitant la bande passante effective maximale d'une connexion. L'impact de la latence sur le débit du réseau peut être temporaire (quelques secondes) ou persistant (constant), selon la source des retards.
Bien que la bande passante théorique maximale d'une connexion réseau soit fixée en fonction de la technologie utilisée, la la quantité de données qui circule sur le réseau (appelée débit) varie dans le temps et est affectée par des latences.
Latence des services Internet
Un service Internet évalué à 100 Mbps peut fonctionner nettement moins bien qu'un service évalué à 20 Mbps s'il fonctionne avec une latence élevée.
Le service Internet par satellite illustre la différence entre la latence et la bande passante sur les réseaux informatiques. Le satellite possède à la fois une bande passante élevée et une latence élevée. Lors du chargement d'une page Web, par exemple, la plupart des utilisateurs de satellite observent un délai notable entre le moment où ils entrent l'adresse et le moment où la page commence à se charger.
Cette latence élevée est principalement due au délai de propagation car le message de demande voyage à la vitesse de la lumière vers la station satellite distante et revient vers le réseau domestique. Cependant, une fois que les messages arrivent sur Terre, la page se charge rapidement, comme sur d'autres connexions Internet à haut débit (telles que l'Internet DSL et le câble).
Latence des logiciels et des appareils
BLÊME la latence se produit lorsque le réseau est occupé à gérer le trafic au point que d'autres demandes sont retardées car le matériel ne peut pas tout gérer à des vitesses maximales. Cela affecte également le réseau câblé, car l'ensemble du réseau fonctionne ensemble.
Une erreur ou un autre problème avec le matériel peut augmenter le temps nécessaire au matériel pour lire les données, ce qui est une autre raison de la latence. Cela peut être le cas pour le matériel réseau ou le matériel du périphérique, comme un disque dur lent qui prend du temps pour stocker ou récupérer des données.
Le logiciel exécuté sur le système peut également entraîner une latence. Certains programmes antivirus analyser toutes les données qui entrent et sortent de l'ordinateur, c'est pourquoi certains ordinateurs protégés sont plus lents que leurs homologues. Les données analysées sont souvent déchirées et numérisées avant d'être utilisables.
Mesure de la latence du réseau
Des outils réseau tels que tests de ping et traceroute mesurer la latence en déterminant le temps qu'il faut pour un réseau donné paquet pour voyager de la source à la destination et retour, appelé temps aller-retour. Le temps aller-retour est une mesure de la latence, et c'est la plus courante. Les fonctionnalités de qualité de service (QoS) des réseaux domestiques et professionnels sont conçues pour gérer la bande passante et la latence afin de fournir des performances plus cohérentes.