In Film-, Fernseh-, Streaming- oder Live-Produktionen ist die Gewährleistung einer guten Sprachverständlichkeit eine der größten Herausforderungen für professionelle Tonschaffende. Vom Fraunhofer IDMT in Oldenburg entwickelte Algorithmen analysieren die Höranstrengung in Echtzeit und geben Anpassungsempfehlungen. Darüber hinaus ermöglicht der digitale Assistent »YourSound« Nutzenden von Audiogeräten und Infotainmentsystemen, den Klang spielerisch an ihre persönlichen Vorlieben anzupassen. Zusätzlich bringt das Fraunhofer IDMT AES67 auf DSP-Hardware für Audio over IP
Unklare Dialoge in einer Fernsehserie, zu laute Hintergrundmusik in Reality-TV-Sendungen oder ein Sportinterview, das von Jubelrufen des Publikums überlagert wird, können das Medienerlebnis für die Zuschauenden beeinträchtigen. Bei der Medienproduktion werden technische Messgeräte eingesetzt, um Pegel und Lautstärke zu überprüfen. Eine objektive Messung der Sprachverständlichkeit muss noch etabliert werden.
Bild: gr8effect, Pixabay
Produktionsfachleute in den Bereichen Radio, Fernsehen und Streaming sollten mit einem Tool sicherstellen können, dass Dialoge für das Publikum stets klar verständlich sind. Daher hat das Fraunhofer IDMT-HSA in Oldenburg das »Listening Effort Meter« (LE-Meter) zur objektiven Bewertung der Sprachverständlichkeit entwickelt. Die Technologie ist als Lizenz verfügbar und wird von verschiedenen Marktteilnehmenden eingesetzt.
Die Sprachverständlichkeitsmessung wurde bereits in Postproduktionssoftware integriert und als Plug-in realisiert. Zu diesem Zweck hat sich das Fraunhofer IDMT-HSA auch mit einer führenden Streaming-Plattform zusammengetan, um die optimale Lösung für die Postproduktion auf den Markt zu bringen. Technisch basiert die Messung auf KI-Algorithmen und wurde in den letzten Jahren umfangreich evaluiert. Über die Messung der Sprachverständlichkeit hinaus sind noch weitere Funktionalitäten denkbar, wie zum Beispiel das automatische Markieren kritischer Bereiche direkt in der Timeline oder eine automatisierte Verbesserung der Sprachverständlichkeit.
YourSound: Ein virtueller Assistent, mit dem Hörende den Klang an ihre Vorlieben anpassen können
Forschende des Fraunhofer IDMT-HSA haben eine einfache und elegante Möglichkeit gefunden, Klang und Dynamik in einer Vielzahl von Anwendungen zu personalisieren. Die »YourSound«-Technologie wurde bereits in Kopfhörersoftware und ein Multimedia-System für Fahrzeuge implementiert. Die entwickelte Audiosoftware ermöglicht individuelle Klangeinstellungen, ohne dass sich Anwenderinnen und Anwender mit komplexen Sub-Menüs oder Parametern auseinandersetzen müssen. Nutzende von Audiogeräten, z. B. Multimedia-Plattformen oder Smartphones, können den Klang spielerisch an ihre persönlichen Bedürfnisse und Vorlieben anpassen.
Die Technologie setzt auf eine Präsentation von Musikbeispielen, die Anwendende über eine einfache Benutzeroberfläche nach ihren Vorlieben anpassen können. Einmal eingestellt, wirken sich die individuellen Presets positiv auf den Gesamtklang aus. Dies kann zu einem besseren Hörerlebnis führen, unabhängig von der Lautstärke. Dank der neuen Algorithmen des Fraunhofer IDMT-HSA wird der Klang von Musik und Filmen somit an die individuellen Hörvorlieben angepasst.
Audio over IP: Fraunhofer IDMT bringt AES67 auf DSP-Hardware
Mit der Kopfhörerverstärker-Demo »Minikraken« des Fraunhofer IDMT kann Mehrkanal-Audio über normale Netzwerk-Switches statt über herkömmliche Audiokabel geroutet, verteilt und aufgenommen werden. Auf kostengünstiger DSP-Hardware hat das Fraunhofer IDMT-HSA einen voll funktionsfähigen Software-Stack auf Basis des AES67-Standards entwickelt, der in verschiedenen Audioanwendungen eingesetzt werden kann. AES67 ist ein offener Interoperabilitätsstandard der Audio Engineering Society (AES) für professionelles Audio over IP (AoIP), der verschiedene proprietäre Audionetzwerksysteme (wie Dante, RAVENNA, Livewire) miteinander verbinden soll. Der DSP kann mindestens 16 Ein- und Ausgangskanäle verarbeiten. Zusätzliche Signalverarbeitung auf dem DSP kann hinzugefügt werden. Je nach Konfiguration und Netzwerkarchitektur liegt die Latenz zwischen 0,75 und 5 ms. Eine minimalistische Webanwendung und Discovery-Implementierung ermöglicht es Nutzenden, andere Geräte im Netzwerk zu finden und sich mit ihnen zu verbinden oder Konfigurationen vorzunehmen.
Quelle: Fraunhofer-Institut für Digitale Medientechnologie IDMT
Institutsteil Hör-, Sprach- und Audiotechnologie HSA
