Alles anzeigenJein, eigentlich ist es nur die Bitrate. Du kannst 320p50 mit 9MBit streamen (das ist ca. die Datenrate unkomprimiert da). Und auch 1920P50 mit derselben Bitrate.
Darum gibt es die "adaptive" Bitrate, die in 2 Formaten:
1. VBR, d.h. man benutzt eine geringere Bitrate wenn das ausreicht. Ein Fast Standbild hat nur minimale Änderungen (und auf die kommt es an) und das kann mit weniger Bitrate auskommen. Das wird bei Platz- oder Kapazitätsbeschränkten Medien gemacht wie z.B. DVD/BluRay oder bei Satellitentranspondern die nur eine bestimmte Bandbreite haben und da dann 4-8 Programme reingequetscht werden. Das wird generell beim Playout bzw. Multiplex gemacht.
2. Beim Streaming läuft das etwas anders ab, hier gibt es eine Interaktion zwischen Player und Server. Der Player sagt "moment, ich krieg die Daten nicht schnell genug, mach was" und dann wird entschieden, ob gleich die Auflösung runtergeschraubt wird, oder ob der Stream stärker komprimiert wird (das ist Server-/Applikationsabhängig). Alte Säcke wie ich erinnern sich vielleicht noch an früher™, da konnte man bei Streams/Videos entweder LQ oder HQ auswählen, beides mit der gleichen Auflösung.
Im Endeffekt läuft das ganze auf eine Optimierung nach "geht gerade noch so" raus, Standard ist halt meistens das, was bei so ziemlich allen Zuschauern noch gut hinhaut.
Man sieht den Effekt Bandbreite vs. Auflösung sehr gut bei DFB-Pokalspielen über SAT. Vergleiche mal Sky (1080i25, 1080p50 hat man beim DVB-Standard nicht standardisiert, 1080p30 ist da das höchste der Gefühle) und einen ÖR-Sender (720p50). Die Bitrate ist beim ÖR (gerade beim ZDF!) erheblich höher als bei Sky. Die geringere Auflösung macht zwar theoretisch ein etwas verwascheneres Bild, aber bei Kameraschwenks ist 720p50 erheblich schöner anzuschauen.
Man kann es halt nicht allen recht machen.
Ganz so funktioniert das hier nicht. Der Player, ob nun SD oder auch Sprade hat keinen direkten Kontakt zum Transcoding-Server, kann den also auch nicht anweisen an der Kompression herum zu schrauben. Und nur der Transcoding-Server bereitet die einzelnen Auflösungen für das Livestreaming auf. Verwendet wird der Apple-Standard HLS. Wer wissen will wie das funktioniert, kann sich gerne mal die Specs dazu durchlesen -> https://developer.apple.com/documentation/http-live-streaming
Die Telekom sendet, meines Erachtens nach, MPEG-DASH. Das ist aber vergleichbar mit HLS. Soweit ich weis produziert NEP im Auftrag der Telekom / Magetan auch kein 1080p50 sondern "nur" i50". Da immer progessiv gestreamt wird, kommt da zum Schluss p25 raus, wobei das bei Magenta sehr flüssig wird. Dennoch dürfte die Bitrate hier deutlich geringer sein als bei 1080p50.
Im Grunde wird jeder Livestream von einem Transcoding-Server in die Mangel genommen, der die abgespeckten Renderings aus dem originalen Stream berechnet. Original-Stream aus dem Stadion liegt in 1080p50 vor. Daraus werden bei SD die Renderings für 720p, 540p, 360p, 270p errechnet. Der Original-Stream 1080p50 wird hier aber auch auf etwa 7Mbit Bitrate eingedampt, was schon sehr hart an der Grenze für 1080p50 ist.
Jedes Rendering wird mit einer festgelegten Bitrate komprimiert. Optimalerweise mit, um den Faktor 1,78, geringerer Bitrate als das nächste höhere Rendering. Das ganze wird dann durch einen sog. Paketizer gejagt, der daraus 2-10 Sekunden lange Videoschnipsel macht. Die werden als normale Dateien (.ts) gespeichert, in ein CDN gespeist und dort auf den Servern abgelegt, die den Usern am nächsten liegen. Also im grunde nur kopiert. Das ganze ruft der Player beim Zuschauer dann ab. Das ist ein ganz normaler Dateidownload. Reicht die Bandbreite nicht für volle Auflösung, zieht der Player, anhand der HLS Masterplaylist (.m3u8) eben die Dateien für das 720p Rendering oder geht noch weiter runter, wenn die Bandbreite noch weiter einsackt. Das ganze regelt der Player dynamisch während man den Stream anschaut.