Vadim Pastuh - stock.adobe.com

SIP, WebRTC und Codecs: Standards für Videokonferenzen

Von H.323-Erbe bis KI-Codec: Welche Standards heute tragen, welche sparen und welche nur auf dem Papier glänzen. Empfehlungen, die Multi-Vendor-Setups spürbar einfacher machen.

Damit Videokonferenzen gelingen, müssen Signalisierung und Medienkapselung (Codecs) nahtlos zusammenspielen. Signalisierungsprotokolle wie SIP steuern den Aufbau, die Steuerung und den Abbau der Sitzung. Audio- und Videocodecs wie Opus, H.264, VP9 oder AV1 digitalisieren und komprimieren die Medienströme, um sie über IP-Netze zu übertragen. WebRTC ermöglicht Echtzeitkommunikation direkt im Browser.

Die Auswahl und Kombination dieser Standards beeinflusst die Bild- und Tonqualität, den Bandbreitenbedarf, die Interoperabilität, die Hardwarebeschleunigung und die Lizenzkosten.

Signalisierung: Aufbau, Steuerung, Abbau von Sitzungen

Signalisierungsprotokolle steuern den gesamten Lebenszyklus einer Videokonferenz: Sie bauen die Verbindung auf, regeln laufende Parameter (Teilnehmer, Medien, Funktionen) und lösen die Sitzung wieder auf. Dabei verhandeln sie Erreichbarkeit, Identitäten sowie Sicherheits- und Medienparameter wie Codecs, Verschlüsselung und NAT-Traversal.

  • SIP (Session Initiation Protocol): SIP ist der De-facto-Standard für das Management von Sprach- und Videositzungen mit breiter Unterstützung in aktuellen Plattformen und Endpunkten.
  • H.323: Ein älterer ITU-Standard, der in Legacy-Umgebungen noch anzutreffen ist.
  • Proprietäre Erweiterungen: Viele Anbieter ergänzen offene Standards, um Zusatzfunktionen (zum Beispiel Chat, Whiteboard oder erweiterte Netzwerkresilienz) zu integrieren.

Medienkapselung: Audio-Codecs

Verkapselungsprotokolle digitalisieren Audio, um es über IP-Netze zu übertragen. Wichtigste Vertreter:

  • Opus: Open Source und lizenzfrei. Opus ist heute am weitesten verbreitet und flexibel von Sprache bis Musik einsetzbar. Zudem ist es robust bei Paketverlust.
  • SILK: Ursprünglich von Skype entwickelt und auf Sprachqualität sowie niedrige Bitraten optimiert.
  • G.711/G.722/G.729: VoIP-Codecs, die von unkomprimiert (G.711) bis stark komprimiert (G.729) reichen und für verschiedene Bandbreitenprofile ausgelegt sind.

Medienkapselung: Video-Codecs

Für die Videoseite dominieren wenige Standards und einige Browser-Codecs:

  • H.264/AVC: Weit verbreitet im Unternehmensumfeld, wird in vielen Endpunkten und MCU-/Bridge-Lösungen unterstützt.
  • VP8/VP9: Open Source und lizenzfrei. In modernen Browsern vertreten (unter anderem Chrome, Firefox). Insbesondere VP9 ist für Webszenarien relevant.
  • Umsetzung: In der Praxis unterstützen viele Anbieter H.264 als gemeinsamen Nenner und ergänzen je nach Zielplattform weitere Codecs.

WebRTC: Echtzeit im Browser ohne Plug-in

WebRTC (Web Real-Time Communications) ermöglicht Sprach- und Videokonferenzen direkt im Browser. Vorteile:

  • Kein Client-Installationsaufwand.
  • Nativer Zugriff auf Kamera/Mikrofon.
  • Gute Interoperabilität mit Browser-Codecs (zum Beispiel Opus, VP8/VP9).
  • In der Praxis wird WebRTC oft über Gateways in Plattformen eingebunden.

Aktuelle Codec-Entwicklungen

Neuere Videocodecs zielen auf höhere Effizienz und Robustheit ab:

  • H.265/HEVC und AOMedia Video 1 (AV1): Niedrigere Bitraten bei gleicher Qualität. Integrierte skalierbare Videocodierung (SVC) hilft, Bildverluste in schlechten Netzen abzufedern.
  • KI-gestützte Ansätze: Zum Beispiel kündigte Cisco Ende 2023 für Webex einen KI-gestützten Audio-Codec an, der selbst bei hoher Paketverlust-Rate klare Sprache liefern soll. Der Audio-Codec ist seit August 2024 in der Webex App verfügbar.

Lizenzierung und Wettbewerb: Warum nicht alle alles unterstützen

Ob ein Anbieter bestimmte Standards und Codecs unterstützt, ist nicht nur eine technische, sondern auch eine wirtschaftliche Entscheidung:

  • Lizenzpflichtige Standards: Für H.264/AVC und H.265/HEVC können beispielsweise Lizenzgebühren anfallen. Das beeinflusst die Auswahl in kommerziellen Produkten.
  • Lizenzfreie Alternativen: VP8/VP9 sowie AV1 sind lizenzfrei. Dennoch zögern manche Anbieter, unter anderem wegen fehlender Kontrolle über die Weiterentwicklung oder begrenzter Hardware-Optimierung in bestimmten Ökosystemen.
  • Strategische Differenzierung: Hersteller kombinieren offene Codecs mit proprietären Features (beispielsweise eine bessere Paketverlusttoleranz oder integrierte Collaboration-Funktionen), um sich im Markt abzuheben.

Interoperabilität: Wenn unterschiedliche Codecs aufeinandertreffen

Die Signalisierung (SIP/WebRTC) handelt nur die Rahmenbedingungen aus. Die Medien-Interoperabilität entsteht erst, wenn sich die Endpunkte auf kompatible Codecs und Codec-Profile einigen. Andernfalls wird eine vermittelnde Instanz benötigt:

  • MCU (On-Premises): Es werden Decodierung, Mischung und Re-Encoding durchgeführt. Das Ergebnis ist eine maximale Kompatibilität, jedoch auch mehr Latenz und Kosten.
  • Software-Bridge/Gateway (zum Beuspiel Pexip) oder Cloud-Gateway des Anbieters: Terminiert Signalisierung und transkodiert nur an Bruchkanten.
  • SFU (ohne Transcoding): Funktioniert nur mit gemeinsamer Codec-Basis.

Der Kompromiss besteht darin, dass Transcoding die Komplexität, Latenz (Audio: circa 10 bis 30 ms, Video: circa 50 bis 150 ms) und Kosten (Lizenzen/Rechenleistung) erhöht, aber Interoperabilität herstellt. In der Praxis sollte zunächst eine Baseline mit Opus/H.264 festgelegt und Transcoding auf Ausnahmefälle begrenzt werden.

Praxistipps für IT-Teams

So sichern Sie die Qualität und Zukunftsfähigkeit Ihrer Videokonferenzen:

  • Auf Standards setzen: SIP- und WebRTC-Kompatibilität als Muss-Kriterien festlegen.
  • Codec-Baseline definieren: Für Audio Opus, für Video mindestens H.264; perspektivisch H.265/AV1 einplanen, wenn Endgeräte/Bandbreiten profitieren.
  • Browser-Szenarien prüfen: Testen Sie für Web-Konferenzen, wie VP8/VP9 und AV1 in Ihren Zielbrowsern funktionieren.
  • Lizenzmodell verstehen: Abwägen der Kosten/Nutzen lizenzpflichtiger Codecs gegenüber lizenzfreien Alternativen.
  • Interoperabilität planen: Bei Umgebungen mit mehreren Anbietern Gateways/Bridges frühzeitig berücksichtigen (Kapazität, Latenz, Redundanz).
  • Netzwerkresilienz testen: Qualität bei Paketverlust, Jitter und geringer Bandbreite messen, SVC-Fähigkeiten und Fehlerrobustheit der Plattform evaluieren.
  • Endgeräte beachten: Hardware-Beschleunigung auf Desktops, Mobilgeräten und in Meeting-Raum-Systemen verifizieren.

Fazit

Videokonferenzen funktionieren reibungslos, wenn Signalisierung (SIP/WebRTC) und Codecs (Opus, H.264 und andere) sinnvoll aufeinander abgestimmt sind. Neue Verfahren wie H.265 und AV1 sowie KI-gestützte Codecs versprechen eine bessere Qualität bei geringerer Bandbreite, setzen jedoch eine klare Lizenz- und Interoperabilitätsstrategie voraus. Wer frühzeitig Baselines definiert und Gateways einplant, reduziert Integrationsrisiken und verbessert die Nutzererfahrung nachhaltig.

Erfahren Sie mehr über Unified Communications