3MPEG-Standards im Überblick und Grundspezifikationen

Wie bereits erwähnt wird beim digitalen Fernsehen ein digitales Signal gesendet und die oft analogen Signale der Quellen müssen in eine digitale Form (Analog-Digital-Wandler) umgewandelt werden.

Das analoge Videosignal, das eine Bandbreite von 5 MHz im Falle eines einheitlichen europäischen 625-Zeilen-TV-Signal mit 720 Pixeln pro Zeile benötigt, hat 414.720 (576 x 720) Pixel pro Bild (Frame). Nach der Digitalisierung würde das Schwarz-Weiß-Videosignal (mit 25 Bildern pro Sekunde) einer Rate von etwa 83 Mbps (oder etwa 250 Mbps für Farb-Videosignale) erfordern. Diese Bitraten sind zu hoch und in realen Systemen (z. B. über Satellit) fast nicht anwendbar. Glücklicherweise enthalten Videosignale sowie Audiosignale eine Menge redundanter Informationen, die über geeignete Kompressionstechniken entfernt werden können. Die Komprimierung kann die ursprüngliche Rate (basierend auf Qualität und Auflösungen) auf mehreren Mbps verringert werden.

Redundante Information darstellt (zum Beispiel) die Information, die vorausgesagt werden kann, macht eine Übertragung überflüssig, da der Empfänger (Decodierer) in der Lage ist, sie zu berechnen. Kompressionstechniken nutzen auch die Einschränkungen der menschlichen Wahrnehmung von akustischen und visuellen Informationen aus. Audiosignale enthalten einige Informationen, die durch das menschliche Ohr nicht hörbar sind, und können entfernt werden. Das Videosignal enthält eine Menge von Informationen, die sich in aufeinanderfolgenden Rahmen wiederholen, und basierend auf diesem Prinzip können geeignete Algorithmen die von dem Sender an den Empfänger übertragene Datenmenge verringern.

Für die Kompression von digitalen statischen Bildern wurde das JPEG-Format entwickelt, das die diskrete Cosinus-Transformation verwendet. Für das Bewegt-Bild gibt es die Moving Pictures Experts Group (MPEG), die mit einer Aufgabe gebildet wurde effiziente Komprimierungstechniken zu entwickeln welche die Arbeit mit Video-Clips in Computern und deren Transport zwischen Computern oder anderen Geräten unterstützen.

DVB Technologie benutzt MPEG Kompressions-Standards [2].

Der erste Standard, der von dieser Gruppe definiert wurde, war MPEG-1. Dieser Standard bietet mittlere Videoqualität bei niedrigen Bitraten konstant bis zu 1,5 Mbps für Systeme mit interaktiver Videospeicherung auf CD-ROMs. Es wurde auch sehr beliebt für die Verteilung von Videos über das Internet. MPEG-1 war jedoch nicht in der Lage, das analoge Fernsehen zu ersetzen. Basierend auf dem MPEG-1-Prinzip wurde der neue MPEG-2-Standard entwickelt. Der MPEG-2-Standard wurde von einem Bedarf an Standard-Fernsehcodierung und deren Verteilung über terrestrische, Kabel- und Satellitensysteme beeinflusst.

Der MPEG-2-Standard ist für den Rundfunk und auch für höhere Bitraten (2 Mbps und mehr) optimiert. Es ist auch für Film Speicherung z. B. auf DVD geeignet. Der MPEG-2-Standard ist kompatibel mit MPEG-1, das heißt ein MPEG-2-Decodierer kann alle MPEG-1 enkodierte Signale dekodieren [2].

Der MPEG-4-Standard ,veröffentlicht im Jahr 1998, erlaubt die Kodierung von audiovisuellen Objekten.

MPEG-4 enthält komplexere Algorithmen, die dem Benutzer Videosignale in gleicher Qualität, aber niedrigeren Bitraten als MPEG-2 zur Verfügung stellen können. MPEG-4 unterstützt eine große Auswahl von Bitraten und kann für die Verteilung mit niedriger Bitrate Internet (IP) TV sowie High-Definition-TV-Auflösungen verwendet werden. Die ITU standardisiert diesen Standard als H.264.

Der MPEG-2-Standard (wie MPEG-1) definiert drei Hauptteile:

  • MPEG-2-System (Teil 1), der angibt, wie der endgültige MPEG-2-Strom erzeugt wird,
  • MPEG-2-Video (Teil 2), der angibt, wie Video-Elementarströme kodiert werden,
  • MPEG-2-Audio (Teil 3), der angibt, wie elementare Audio- Elementarströme kodiert werden

Der MPEG-2-Video-Kodierer nimmt die unkomprimierten Videorahmen und kodiert sie, wodurch aus Rahmen mit fester Größe (Zugriffseinheiten, Abb. 3) Rahmen mit variabler Größe erzeugt werden (komprimiert). Ihre Größe hängt von der Originalbild und der Art und Komplexität jedes Rahmens ab, je nachdem ob es sich um einen I-, P- oder B-Rahmen handelt [2]:

Der MPEG-Video Kodierer erzeugt Sequenzen von I-, P-, B-Bildern in Gruppen (GOP). Jede GOP beginnt mit einem I-Bild folgt von P- und / oder B-Bildern (Abb. 4). Das Vorhandensein und die Anzahl von P- und B-Bildern in einer GOP beeinflussen die endgültige Komprimierungsrate, Kodierungsverzögerungen, die Bearbeitungsfähigkeit und Korrektur von Fehlern.

Der MPEG-1 Audio-Teil definiert drei Audio-Schichten: die Schicht I (verwendet vor allem in Philips Digital-Audio-Kassetten), Layer II (effektiver Kodierer für feste Bitraten von 32 bis 192 kbps für Kanal), Layer III (populär als MP3 Format). Der MPEG-2 Standard hat erweiterte Audiokodierung, unterstützt mehr als zwei Audiokanäle (bis zu 5.1-Mehrkanal) und kann anderen Audio-Kodierer (MPEG-2 AAC) benutzen.

Mit den neuen Ultra-High-Definition-Auflösungen (UHD, 4K und 8K als 3840x2160 und 7680x4320) tauchte auch eine erneute Nachfrage nach effizienten Video-Codecs auf. Der H.264 / MPEG-4 AVC-Codec wurden erweitert um diese Auflösungen zu unterstützen. Der entsprechende Video-Kompressions-Standard ist im Jahr 2013 als H.265 / MPEG-H entstanden. Er wird auch High Efficiency Video Coding (HEVC) genannt. Im Vergleich zu seinem Vorgänger sollte die Kompressionsrate das gleiche Niveau haben und die Videoqualität verdoppelt werden.

image
Abb. 3 - Codieren mit MPEG-2 Kodierer
image
Abb. 4 - GOP für MPEG Video Kodierer