Das Audio Definition Model (ADM) gemäß ITU-R BS.2076 definiert einen offenen Metadatenstandard für Produktion, Austausch und Archivierung von NGA-Inhalten. Die umfassende Metadatensyntax kann verschiedener Arten von Audioinhalten beschreiben, einschließlich kanal-, objekt- und szenenbasierter Darstellungen für immersive und interaktive Audioerlebnisse. Eine serielle Darstellung des Audio-Definitionsmodells (S-ADM) ist in ITU-R BS.2125 spezifiziert und definiert eine Segmentierung des ursprünglichen ADM für die Verwendung in linearen Arbeitsabläufen wie der Echtzeitproduktion für Rundfunk- und Streaming-Anwendungen. Dieser Vortrag behandelt Produktions-Workflows, die file-basiertes ADM verwenden, sowie Live-Produktions-Workflows, die auf S-ADM und SMPTE ST 2110 basieren, und demonstriert die Interoperabilität von ADM-Profilen.
Der Beitrag behandelt die Produktion von alternativen Hörfassungen für Fernsehen, Web und Kino. Die Audiodeskription als personalisiertes Hörerlebnis für Blinde und Sehbeeinträchtigte wird dabei in den Mittelpunkt gestellt. Zum besseren Verständnis werden einige Beispiele mit und ohne Audiodeskription gezeigt. Zudem wird kurz auf die Produktion einer Audiodeskription eingegangen. Abschließend werden verschiedene Optionen zur Ausspielung dargestellt, einschließlich der neuen Möglichkeiten durch Object Based Audio.
Ideen – Konzepte – Erfahrungen zur Personalisierung und Interaktion von objektbasiertem Audio
Der objektbasierte Ansatz von Next Generation Audio (NGA) bzw. Metadata Guided Audio (MGA) ist ein Paradigmenwechsel in der Audioproduktion.
Es geht dabei nicht nur darum, Klangerlebnisse dreidimensional „immersiv“ erlebbar, sondern vor allem auch interaktiv und personalisierbar machen zu können: Adaptiver Dialog zur Anpassung an Hörsituationen und individuelle Hörfähigkeiten, Mehrsprachigkeit und Audiodeskription für bessere Zugänglichkeit, Segmentierung und variable Länge zur zeitlich nicht-linearen Ausspielung.
Mehr noch als in der traditionellen OnAir-Rundfunkverbreitung kommen diese Funktionalitäten in der On-Demand Auslieferung, also im Streaming via Internet-Plattformen, zur Geltung.
Der Autor arbeitet seit bald 10 Jahren im BR an diesen Entwicklungen und hat, u.a. für das ORPHEUS-Projekts und die EBU Ideen und Konzepte kreiert und erfolgreich realisiert.
MINE-2 | Personalization in Broadcast and Streaming | R 13 | 2021-11-06 | 12:00 - 13:00
curated by Daniela Rieger, Yannik Grewe —
moderated by Yannik Grewe
Neue Möglichkeiten der Personalisierung des Audioerlebnisses mit MPEG-H Audio
Objektbasiertes Audio ist neben immersivem Audio eine entscheidende Neuerung von Next Generation Audio-Systemen. Als essenzieller Bestandteil können Audioobjekte dazu beitragen, das Hörerlebnis zu verbessern und neue Funktionalitäten zu ermöglichen. Es gibt verschiedene Formen von Interaktivität und deren Einsatz ist bei weitem nicht nur auf Barrierefreiheit begrenzt. In verschiedenen erfolgreichen Praxistests wurden unterschiedliche Möglichkeiten aufgezeigt, wie Zuschauer einen Mehrwert durch Interaktivität erleben können. In den Tests wurde Wert darauf gelegt, in den bestehenden Produktions-Workflow nicht disruptiv einzugreifen, sondern die bestehende Ketten weitestgehend beizubehalten.
Der Vortrag beschäftigt sich mit den neuartigen Möglichkeiten und präsentiert Praxisbeispiele verschiedener Produktionen.
Zukünftige TV-Plattformen erlauben mehr Interaktion für ihre Benutzer
Die nächste Generation der TV-Plattformen erlauben Benutzern direkt mit dem Service zu interagieren und Inhalte auf die persönlichen Bedürfnisse anzupassen. Auf Basis der neuesten Standards von DVB und HbbTV können auf diesem Weg Personalisierungen, wie Auswahl von gewünschten Inhalten oder Verständlichkeit der Sprache, benutzerfreundlich umgesetzt werden. Dies soll anhand von Beispielen veranschaulicht und ein Ausblick für zukünftige Gestaltungsmöglichkeiten diskutiert werden.