Definition

Latenz

Was ist Latenz?

Latenz bezeichnet die Verzögerung, die bei der Datenübertragung zwischen Sender und Empfänger auftritt. In der Telekommunikation wird eine niedrige Latenz mit einer positiven Benutzererfahrung (UX) in Verbindung gebracht, während hohe Latenzzeiten oft mit einer schlechten UX assoziiert werden. Latenz kann auch generell als Synonym für Verzögerungen verwendet werden. 

In Computernetzwerken beschreibt die Latenz die Zeitspanne, die ein Datenpaket benötigt, um von einem bestimmten Punkt zu einem anderen zu gelangen. Idealerweise strebt man an, dass die Latenz möglichst nahe bei Null liegt. Die Netzwerklatenz lässt sich messen, indem man die Hin- und Rücklaufzeit (Round Trip Time, RTT) oder die Paketumlaufzeit ermittelt, die ein Datenpaket benötigt, um zu einem Zielort zu reisen und wieder zurückzukehren.

Eine hohe Netzwerklatenz kann signifikant die Ladezeiten von Webseiten verlängern, Video- und Audiostreams unterbrechen und Anwendungen unbrauchbar machen. Selbst ein kleiner Anstieg der Latenz kann je nach Anwendung das Nutzererlebnis erheblich beeinträchtigen.

Ein wesentlicher Faktor für schlechte Latenz ist die geografische Distanz. Hochgradig verteilte IP-Netzwerke (Internet Protocol) müssen große Entfernungen überbrücken, was die Übertragungszeiten erhöht und potenziell Anwendungen zum Scheitern bringen kann. In Situationen, in denen extrem niedrige Latenzen zwischen Erfassung und Antwort erforderlich sind – wie etwa bei bestimmten Funktionen im autonomen Fahren – ist es ratsam, den Computer zur Datenverarbeitung so nah wie möglich an der Datenquelle zu positionieren. Dieses Konzept wird als Edge Computing bezeichnet.

Gründe für Telekommunikationslatenz

Latenz kann durch viele Dinge verursacht werden, unter anderem durch:

  • Übertragungsmedien. Die Latenz kann durch die Art der Medien beeinflusst werden, die zur Übertragung von Daten, Sprache und Video verwendet werden. Beispielsweise ist bei Paketen, die über eine T1-Leitung übertragen werden, eine geringere Latenzzeit zu erwarten als bei Paketen, die über ein Cat5-Kabel transportiert werden.
  • Paketgröße. Bei einem großen Paket dauert der Hin- und Rückversand länger als bei einem kleinen Paket.
  • Paketverlust und Jitter. Latenz kann auch durch einen hohen Prozentsatz von Paketen verursacht werden, die ihr Ziel nicht erreichen (Paketverlust), oder durch zu große Schwankungen in der Zeit, die einige Pakete benötigen, um von einem System zum anderen zu gelangen (Jitter).
  • Signalstärke. Wenn das Signal schwach ist und durch einen Repeater verstärkt werden muss, kann dies zu Latenz führen.
  • Ausbreitungsverzögerungen. Die Latenz ist höher, wnn sich jeder Gateway-Knoten Zeit nehmen muss, um den Header in einem Paket zu untersuchen und möglicherweise zu ändern – etwa durch Änderung der Hop-Zahl im Time-to-Live-Feld (TTL).
  • Andere Computer- und Speicherverzögerungen. Wenn ein Paket Verzögerungen bei Speicher- oder Festplattenzugriffen an einem Zwischengerät (beispielsweise einem Switch) unterliegt, ist die Latenz wahrscheinlich höher.

Verschiedene Typen von Latenz

Die Interrupt-Latenz ist die Zeitspanne, die ein Computer benötigt, um auf ein Signal zu reagieren, das dem Host-Betriebssystem (OS) mitteilt, dass es anhalten soll, bis es entscheiden kann, was es als Reaktion auf ein Ereignis tun soll.

Die Glasfaser-Latenz ist die Zeit, die das Licht benötigt, um eine bestimmte Strecke durch ein Glasfaserkabel zurückzulegen. Für jeden zurückgelegten Kilometer (km) ergibt sich je nach Lichtgeschwindigkeit natürlich eine Latenzzeit von 3,33 Mikrosekunden (μs). In Wirklichkeit beträgt die Latenzzeit pro Kilometer bei Glasfaserkabeln jedoch etwa 4,9 μs. Dies liegt daran, dass sich das Licht in einem Kabel langsamer ausbreitet. Biegungen oder andere Unvollkommenheiten im Kabel könnten die Latenzzeit erhöhen.

Die Internet-Latenz ist entfernungsabhängig. Je länger ein Paket über ein globales Weitverkehrsnetz (WAN) transportiert werden muss, desto höher ist die Latenzzeit.

Die WAN-Latenz kann ein wichtiger Faktor bei der Bestimmung der Internet-Latenzzeit sein. Ein WAN, das damit beschäftigt ist, anderen Datenverkehr zu leiten, verursacht eine Verzögerung, unabhängig davon, ob die Ressource von einem Server im lokalen Netzwerk (LAN), einem anderen Computer in diesem Netzwerk oder an einem anderen Ort im Internet angefordert wird.

Die Audiolatenz ist die Verzögerung zwischen der Tonerzeugung und dem Hören. Bei Schall wird diese Verzögerung in der Physik durch die Schallgeschwindigkeit bestimmt, die je nach dem Medium, das die Schallwelle durchläuft, leicht variiert. In dichteren Medien bewegt sich der Schall schneller: Er bewegt sich schneller durch Festkörper, weniger schnell durch Flüssigkeiten und am langsamsten durch Luft. Im Audiobereich liegt der akzeptable mittlere Latenzbereich bei etwa 8 bis 12 μs. Latenzen von 30 Millisekunden (ms) werden im Allgemeinen vom Hörer wahrgenommen.

Operative Latenz lässt sich als die Gesamtzeit von Operationen definieren, wenn diese in einem linearen Arbeitsablauf durchgeführt werden. In parallelen Workflows wird die Latenzzeit durch die langsamste Operation bestimmt, die von einem einzelnen Aufgabenbearbeiter ausgeführt wird.

Mechanische Latenz ist die Verzögerung vom Eingang in ein mechanisches System oder Gerät bis zum gewünschten Ausgang. Diese Verzögerung wird durch die auf der Newtonschen Physik basierenden Grenzen des Mechanismus bestimmt (mit Ausnahme der Quantenmechanik).

Die Computer- und Betriebssystem-Latenz ist die kombinierte Verzögerung zwischen einer Eingabe oder einem Befehl und der gewünschten Ausgabe. Zu den Faktoren, die zu einer erhöhten Computerlatenz beitragen, gehören unzureichende Datenpuffer und Diskrepanzen in der Datengeschwindigkeit zwischen dem Mikroprozessor und den Ein-/Ausgabegeräten (I/O-Geräten).

So lässt sich Latenz messen und testen

Latenztests können von Anwendung zu Anwendung variieren. In einigen Fällen erfordert die Messung der Latenz eine spezielle und komplexe Ausrüstung oder die Kenntnis spezieller Computerbefehle und Programme. In anderen Fällen kann die Latenz mit einer Stoppuhr gemessen werden. Netzwerkmanagern stehen dafür eine Reihe von Werkzeugen zur Verfügung, darunter Traceroute, My traceroute (MTR) und Ping.

Ping-Befehle werden verwendet, um festzustellen, ob ein Host-Computer, den der Benutzer zu erreichen versucht, in Betrieb ist. Zur Auswertung der Latenzzeit sendet ein Netzwerkadministrator eine ICMP-Echoanforderung (Internet Control Message Protocol) an eine bestimmte Schnittstelle im Netzwerk und wartet auf eine Antwort.

Informationen über die Latenz können auch mit dem Traceroute-Befehl gesammelt werden. Traceroute visualisiert den Pfad, den die Pakete durch ein IP-Netzwerk nehmen, und zeichnet die Latenz zwischen den einzelnen Hosts auf der Route auf.

MTR mischt Elemente sowohl von Ping als auch von Traceroute, um sowohl die Verzögerung zwischen den Geräten auf dem Pfad als auch die Gesamttransitzeit zu verfolgen.

Zur Bewertung der mechanischen Latenz können Hochgeschwindigkeitskameras eingesetzt werden, um die winzigen Unterschiede in den Reaktionszeiten vom Eingang bis zur mechanischen Aktion zu erfassen.

So reduzieren Sie Latenzzeiten

Die Latenz lässt durch Abstimmung, Optimierung und Aufrüstung von Computer-Hardware, Software und mechanischen Systemen verringern. Innerhalb eines Computers kann die Latenz durch Techniken wie Prefetching (Vorwegnahme der Notwendigkeit von Dateneingabe-Anforderungen) und Multithreading, oder durch den Einsatz von Parallelität über mehrere Ausführungs-Threads, entfernt oder kaschiert werden.

Weitere Schritte zur Verringerung der Latenzzeit und zur Steigerung der Leistung sind die Deinstallation unnötiger Programme, die Optimierung von Netzwerk- und Softwarekonfigurationen sowie die Aufrüstung oder Übertaktung von Hardware.

Latenz und Durchsatz im Vergleich

Sowohl Durchsatz als auch Latenz werden häufig zur Messung der Netzwerkleistung und zur Verbesserung von Ladezeiten verwendet.

Latenz kann man sich als die Zeit vorstellen, die benötigt wird, um eine Aktion auszuführen, während man sich den Durchsatz als die Anzahl der Aktionen denken kann, die in einer Zeiteinheit ausgeführt werden können. Mit anderen Worten, die Latenz misst, wie schnell Daten übertragen werden müssen, während der Durchsatz angibt, wie viele Daten gesendet werden können.

Diese Definition wurde zuletzt im Februar 2025 aktualisiert

Erfahren Sie mehr über Netzwerkhardware