Alle Jahre wieder taucht ein sehr technischer Begriff in der Berichterstattung rund um Sportgroßveranstaltungen auf, der wenig Freunde hat und als Stimmungskiller Nummer 1 für das Live-Publikum gilt: Die Latenz.
Gemeint sind damit die Verzögerungen der unterschiedlichen TV-Empfangswege, die ihre Signale nicht alle parallel erhalten. In Abhängigkeit von unterschiedlichen Übertragungskanälen wie Antenne (DVB-T2), Digitalkabel oder Streaming-Diensten im Internet kommen diverse technische Faktoren ins Spiel, die für Ungleichheit beim Torjubel sorgen. Der Begriff "Liveübertragung" ist also dehnbar.
Noch bis vor kurzem galt dabei das Netz mit seinen Streaming-Diensten, Apps und Pay-per-View-Angeboten als langsamster Kanal - im Vergleich zu Satellitensignalen war von Verzögerungszeiten bis zu mehreren Minuten die Rede. Dazu seinerzeit Heise mit einem Bericht zur Fußball-WM 2014: "Wer Internet-Dienste nutzt, um am Ball zu bleiben, hat meist noch locker Zeit, das Smartphone aus der Tasche zu ziehen, die App zu starten und dann dort "live" das Tor fallen zu sehen, das die anderen schon längst bejubelt haben."
Aber: Online wächst und Fernsehen verlagert sich zunehmend ins Internet. Die Technik wird permanent weiterentwickelt und die Minimierung von Latenzen ist gerade bei uns als Streaming-Dienstleister nicht nur Tagesgeschäft, sondern Leidenschaft. Wir freuen uns dabei sehr, wenn unser Know-How in dem ein oder anderen Live-Angebot zu Sport-Großveranstaltungen erfolgreich zum Einsatz kommt.
Konkrete Beispiele und Referenzen nennen wir übrigens gerne auf Anfrage. Erste Messungen anlässlich aktueller Sport-Events im Sommer 2018 ergaben hier Latenz-Optimierungen von vormals 60 Sekunden auf 5 Sekunden im Vergleich zum Satelliten-Signal (DVB-S2).
Wir haben zur Optimierung der Latenzen im Wesentlichen auf eine Verkürzung der Segmente gesetzt. Für das HTTP-Livestreaming werden die Medieninhalte in kleine Einzelvideos von bestimmter Länge unterteilt (segmentiert). Diese Segmente werden per HTTP ausgeliefert und im Endgerät des Nutzers (Player) als ununterbrochener Stream wiedergegeben.
Die Auslieferung eines Livestreams erfolgt dabei in der Regel zusätzlich in Abhängigkeit von den aktuellen Verbindungsbedingungen beim Endbenutzer, es wird also die jeweils optimale Qualität (höchstmögliche Bitrate) bereitgestellt. Die Bildqualität der Streams passt sich den Empfangsbedingungen beim Endnutzer an. Befindet sich das Endgerät in einem WLAN, wird eine maximale Bildqualität mit höchster Qualität angeboten. Sitzen die Nutzer beispielsweise im Zug mit einer geringen Empfangsqualität, wird die Datenrate gedrosselt und die Qualität reduziert.
Die Verbreitung von HTTP-Streams mit kurzen Segmentlängen bringt aber einen massiven Anstieg der Anfragen auf die ausliefernden Server mit sich - und setzt für einen reibungslosen Ablauf eine hoch performante Plattform voraus, die uns die Kollegen von Akamai mit ihren "Media Services Live 4" zur Verfügung stellen.
Zum Thema Latenzen noch einige spannende Ressourcen unserer Technologie-Partner:
Der Weg zu extrem niedrigen Latenzzeiten: Die Bereitstellung von "better than broadcast"-Live-Streams stellt eine Reihe von technischen Herausforderungen dar, und das Erreichen extrem niedriger Latenzzeiten steht sicherlich ganz oben auf der Liste. Aber "Herausforderung" heißt nicht unmöglich. In dieser Präsentation erfahren Sie, wie Sie die neuesten Funktionen des Common Media Application Format (CMAF) mit Akamai Media Services Live nutzen können, um Live-Streams mit extrem niedriger Latenzzeit für beeindruckende Videoerlebnisse zu erstellen.