Definition

Latenz

Mitarbeiter: Alexander Gillis, Matthew Haughn und Ed Blair

Latenz ist ein Synonym für Verzögerung. In der Telekommunikation wird eine niedrige Latenz mit einer positiven Benutzererfahrung (UX) assoziiert, während eine hohe Latenz mit einer schlechten UX verknüpft ist.

Fortsetzung des Inhalts unten

In Computernetzwerken ist die Latenz ein Ausdruck dafür, wie viel Zeit ein Datenpaket benötigt, um von einem bestimmten Punkt zu einem anderen zu gelangen. Im Idealfall liegt die Latenz so nahe wie möglich bei Null. Die Netzwerklatenz kann gemessen werden, indem man die Hin- und Rücklaufzeit (Round Trip Time, RTT) oder Paketumlaufzeit für ein Datenpaket bestimmt, das zu einem Zielort und wieder zurück transportiert wird.

Eine hohe Netzwerklatenz kann die Ladezeiten von Webseiten drastisch erhöhen, Video- und Audioströme unterbrechen und eine Anwendung unbrauchbar machen. Je nach Anwendung kann selbst ein relativ geringer Anstieg der Latenzzeit die UX ruinieren.

Einer der Hauptgründe für eine schlechte Latenz ist die Geographie. Hochgradig verteilte IP-Netzwerke (Internet Protocol) überbrücken riesige Entfernungen und erhöhen die Übertragungszeit. Das kann eine Anwendung zum Versagen bringen. In jeder Situation, in der die Latenz zwischen Erfassung und Antwort extrem niedrig sein muss – zum Beispiel für bestimmte Aktionen beim autonomen Fahren – ist es sinnvoll, den Computer, der die Daten verarbeitet, so nah wie möglich an der Datenquelle aufzustellen. Dieses Konzept ist als Edge-Computing bekannt.

Ursachen für Latenz in der Telekommunikation

Latenz kann durch viele Dinge verursacht werden, unter anderem durch:

  • Übertragungsmedien. Die Latenz kann durch die Art der Medien beeinflusst werden, die zur Übertragung von Daten, Sprache und Video verwendet werden. Beispielsweise ist bei Paketen, die über eine T1-Leitung übertragen werden, eine geringere Latenzzeit zu erwarten als bei Paketen, die über ein Cat5-Kabel transportiert werden.
  • Paketgröße. Bei einem großen Paket dauert der Hin- und Rückversand länger als bei einem kleinen Paket.
  • Paketverlust und Jitter. Latenz kann auch durch einen hohen Prozentsatz von Paketen verursacht werden, die ihr Ziel nicht erreichen (Paketverlust), oder durch zu große Schwankungen in der Zeit, die einige Pakete benötigen, um von einem System zum anderen zu gelangen (Jitter).
  • Signalstärke. Wenn das Signal schwach ist und durch einen Repeater verstärkt werden muss, kann dies zu Latenz führen.
  • Ausbreitungsverzögerungen. Die Latenz ist höher, wnn sich jeder Gateway-Knoten Zeit nehmen muss, um den Header in einem Paket zu untersuchen und möglicherweise zu ändern – etwa durch Änderung der Hop-Zahl im Time-to-Live-Feld (TTL).
  • Andere Computer- und Speicherverzögerungen. Wenn ein Paket Verzögerungen bei Speicher- oder Festplattenzugriffen an einem Zwischengerät (beispielsweise einem Switch) unterliegt, ist die Latenz wahrscheinlich höher.
Anwendungen, die über viele öffentliche IP-Backbones laufen, haben oft mit hohen Latenzzeiten zu kämpfen.
Abbildung 1: Anwendungen, die über viele öffentliche IP-Backbones laufen, haben oft mit hohen Latenzzeiten zu kämpfen.

Latenzarten

Die Interrupt-Latenz ist die Zeitspanne, die ein Computer benötigt, um auf ein Signal zu reagieren, das dem Host-Betriebssystem (OS) mitteilt, dass es anhalten soll, bis es entscheiden kann, was es als Reaktion auf ein Ereignis tun soll.

Die Glasfaser-Latenz ist die Zeit, die das Licht benötigt, um eine bestimmte Strecke durch ein Glasfaserkabel zurückzulegen. Für jeden zurückgelegten Kilometer (km) ergibt sich je nach Lichtgeschwindigkeit natürlich eine Latenzzeit von 3,33 Mikrosekunden (μs). In Wirklichkeit beträgt die Latenzzeit pro Kilometer bei Glasfaserkabeln jedoch etwa 4,9 μs. Dies liegt daran, dass sich das Licht in einem Kabel langsamer ausbreitet. Biegungen oder andere Unvollkommenheiten im Kabel könnten die Latenzzeit erhöhen.

Die Internet-Latenz ist entfernungsabhängig. Je länger ein Paket über ein globales Weitverkehrsnetz (WAN) transportiert werden muss, desto höher ist die Latenzzeit.

Die WAN-Latenz kann ein wichtiger Faktor bei der Bestimmung der Internet-Latenzzeit sein. Ein WAN, das damit beschäftigt ist, anderen Datenverkehr zu leiten, verursacht eine Verzögerung, unabhängig davon, ob die Ressource von einem Server im lokalen Netzwerk (LAN), einem anderen Computer in diesem Netzwerk oder an einem anderen Ort im Internet angefordert wird.

Die Audiolatenz ist die Verzögerung zwischen der Tonerzeugung und dem Hören. Bei Schall wird diese Verzögerung in der Physik durch die Schallgeschwindigkeit bestimmt, die je nach dem Medium, das die Schallwelle durchläuft, leicht variiert. In dichteren Medien bewegt sich der Schall schneller: Er bewegt sich schneller durch Festkörper, weniger schnell durch Flüssigkeiten und am langsamsten durch Luft. Im Audiobereich liegt der akzeptable mittlere Latenzbereich bei etwa 8 bis 12 μs. Latenzen von 30 Millisekunden (ms) werden im Allgemeinen vom Hörer wahrgenommen.

Operative Latenz lässt sich als die Gesamtzeit von Operationen definieren, wenn diese in einem linearen Arbeitsablauf durchgeführt werden. In parallelen Workflows wird die Latenzzeit durch die langsamste Operation bestimmt, die von einem einzelnen Aufgabenbearbeiter ausgeführt wird.

Mechanische Latenz ist die Verzögerung vom Eingang in ein mechanisches System oder Gerät bis zum gewünschten Ausgang. Diese Verzögerung wird durch die auf der Newtonschen Physik basierenden Grenzen des Mechanismus bestimmt (mit Ausnahme der Quantenmechanik).

Die Computer- und Betriebssystem-Latenz ist die kombinierte Verzögerung zwischen einer Eingabe oder einem Befehl und der gewünschten Ausgabe. Zu den Faktoren, die zu einer erhöhten Computerlatenz beitragen, gehören unzureichende Datenpuffer und Diskrepanzen in der Datengeschwindigkeit zwischen dem Mikroprozessor und den Ein-/Ausgabegeräten (I/O-Geräten).

Test- und Messverfahren für die Latenz

Latenztests können von Anwendung zu Anwendung variieren. In einigen Fällen erfordert die Messung der Latenz eine spezielle und komplexe Ausrüstung oder die Kenntnis spezieller Computerbefehle und Programme. In anderen Fällen kann die Latenz mit einer Stoppuhr gemessen werden. Netzwerkmanagern stehen dafür eine Reihe von Werkzeugen zur Verfügung, darunter Traceroute, My traceroute (MTR) und Ping.

Ping-Befehle werden verwendet, um festzustellen, ob ein Host-Computer, den der Benutzer zu erreichen versucht, in Betrieb ist. Zur Auswertung der Latenzzeit sendet ein Netzwerkadministrator eine ICMP-Echoanforderung (Internet Control Message Protocol) an eine bestimmte Schnittstelle im Netzwerk und wartet auf eine Antwort.

Informationen über die Latenz können auch mit dem Traceroute-Befehl gesammelt werden. Traceroute visualisiert den Pfad, den die Pakete durch ein IP-Netzwerk nehmen, und zeichnet die Latenz zwischen den einzelnen Hosts auf der Route auf.

MTR mischt Elemente sowohl von Ping als auch von Traceroute, um sowohl die Verzögerung zwischen den Geräten auf dem Pfad als auch die Gesamttransitzeit zu verfolgen.

Zur Bewertung der mechanischen Latenz können Hochgeschwindigkeitskameras eingesetzt werden, um die winzigen Unterschiede in den Reaktionszeiten vom Eingang bis zur mechanischen Aktion zu erfassen.

Reduzierung der Latenzzeit

Die Latenz lässt durch Abstimmung, Optimierung und Aufrüstung von Computer-Hardware, Software und mechanischen Systemen verringern. Innerhalb eines Computers kann die Latenz durch Techniken wie Prefetching (Vorwegnahme der Notwendigkeit von Dateneingabe-Anforderungen) und Multithreading, oder durch den Einsatz von Parallelität über mehrere Ausführungs-Threads, entfernt oder kaschiert werden.

Weitere Schritte zur Verringerung der Latenzzeit und zur Steigerung der Leistung sind die Deinstallation unnötiger Programme, die Optimierung von Netzwerk- und Softwarekonfigurationen sowie die Aufrüstung oder Übertaktung von Hardware.

Latenz versus Durchsatz

Sowohl Durchsatz als auch Latenz werden häufig zur Messung der Netzwerkleistung und zur Verbesserung von Ladezeiten verwendet.

Latenz kann man sich als die Zeit vorstellen, die benötigt wird, um eine Aktion auszuführen, während man sich den Durchsatz als die Anzahl der Aktionen denken kann, die in einer Zeiteinheit ausgeführt werden können. Mit anderen Worten, die Latenz misst, wie schnell Daten übertragen werden müssen, während der Durchsatz angibt, wie viele Daten gesendet werden können.

Diese Definition wurde zuletzt im Oktober 2020 aktualisiert

Erfahren Sie mehr über Netzwerkhardware

ComputerWeekly.de

Close