home cinemaIn Film-, Fernseh-, Streaming- oder Live-Produktionen ist die Gewährleistung einer guten Sprachverständlichkeit eine der größten Herausforderungen für professionelle Tonschaffende. Vom Fraunhofer IDMT in Oldenburg entwickelte Algorithmen analysieren die Höranstrengung in Echtzeit und geben Anpassungsempfehlungen. Darüber hinaus ermöglicht der digitale Assistent »YourSound« Nutzenden von Audiogeräten und Infotainmentsystemen, den Klang spielerisch an ihre persönlichen Vorlieben anzupassen. Zusätzlich bringt das Fraunhofer IDMT AES67 auf DSP-Hardware für Audio over IP
Unklare Dialoge in einer Fernsehserie, zu laute Hintergrundmusik in Reality-TV-Sendungen oder ein Sportinterview, das von Jubelrufen des Publikums überlagert wird, können das Medienerlebnis für die Zuschauenden beeinträchtigen. Bei der Medienproduktion werden technische Messgeräte eingesetzt, um Pegel und Lautstärke zu überprüfen. Eine objektive Messung der Sprachverständlichkeit muss noch etabliert werden.

Bild: gr8effect, Pixabay



Produktionsfachleute in den Bereichen Radio, Fernsehen und Streaming sollten mit einem Tool sicherstellen können, dass Dialoge für das Publikum stets klar verständlich sind. Daher hat das Fraunhofer IDMT-HSA in Oldenburg das »Listening Effort Meter« (LE-Meter) zur objektiven Bewertung der Sprachverständlichkeit entwickelt. Die Technologie ist als Lizenz verfügbar und wird von verschiedenen Marktteilnehmenden eingesetzt.

Die Sprachverständlichkeitsmessung wurde bereits in Postproduktionssoftware integriert und als Plug-in realisiert. Zu diesem Zweck hat sich das Fraunhofer IDMT-HSA auch mit einer führenden Streaming-Plattform zusammengetan, um die optimale Lösung für die Postproduktion auf den Markt zu bringen. Technisch basiert die Messung auf KI-Algorithmen und wurde in den letzten Jahren umfangreich evaluiert. Über die Messung der Sprachverständlichkeit hinaus sind noch weitere Funktionalitäten denkbar, wie zum Beispiel das automatische Markieren kritischer Bereiche direkt in der Timeline oder eine automatisierte Verbesserung der Sprachverständlichkeit.

YourSound: Ein virtueller Assistent, mit dem Hörende den Klang an ihre Vorlieben anpassen können

Forschende des Fraunhofer IDMT-HSA haben eine einfache und elegante Möglichkeit gefunden, Klang und Dynamik in einer Vielzahl von Anwendungen zu personalisieren. Die »YourSound«-Technologie wurde bereits in Kopfhörersoftware und ein Multimedia-System für Fahrzeuge implementiert. Die entwickelte Audiosoftware ermöglicht individuelle Klangeinstellungen, ohne dass sich Anwenderinnen und Anwender mit komplexen Sub-Menüs oder Parametern auseinandersetzen müssen. Nutzende von Audiogeräten, z. B. Multimedia-Plattformen oder Smartphones, können den Klang spielerisch an ihre persönlichen Bedürfnisse und Vorlieben anpassen.

Die Technologie setzt auf eine Präsentation von Musikbeispielen, die Anwendende über eine einfache Benutzeroberfläche nach ihren Vorlieben anpassen können. Einmal eingestellt, wirken sich die individuellen Presets positiv auf den Gesamtklang aus. Dies kann zu einem besseren Hörerlebnis führen, unabhängig von der Lautstärke. Dank der neuen Algorithmen des Fraunhofer IDMT-HSA wird der Klang von Musik und Filmen somit an die individuellen Hörvorlieben angepasst.

Audio over IP: Fraunhofer IDMT bringt AES67 auf DSP-Hardware

Mit der Kopfhörerverstärker-Demo »Minikraken« des Fraunhofer IDMT kann Mehrkanal-Audio über normale Netzwerk-Switches statt über herkömmliche Audiokabel geroutet, verteilt und aufgenommen werden. Auf kostengünstiger DSP-Hardware hat das Fraunhofer IDMT-HSA einen voll funktionsfähigen Software-Stack auf Basis des AES67-Standards entwickelt, der in verschiedenen Audioanwendungen eingesetzt werden kann. AES67 ist ein offener Interoperabilitätsstandard der Audio Engineering Society (AES) für professionelles Audio over IP (AoIP), der verschiedene proprietäre Audionetzwerksysteme (wie Dante, RAVENNA, Livewire) miteinander verbinden soll. Der DSP kann mindestens 16 Ein- und Ausgangskanäle verarbeiten. Zusätzliche Signalverarbeitung auf dem DSP kann hinzugefügt werden. Je nach Konfiguration und Netzwerkarchitektur liegt die Latenz zwischen 0,75 und 5 ms. Eine minimalistische Webanwendung und Discovery-Implementierung ermöglicht es Nutzenden, andere Geräte im Netzwerk zu finden und sich mit ihnen zu verbinden oder Konfigurationen vorzunehmen.
Quelle: Fraunhofer-Institut für Digitale Medientechnologie IDMT
Institutsteil Hör-, Sprach- und Audiotechnologie HSA

CIV NRW e.V

CIV NRW Logo

Cochlea Implantat Verband Nordrhein-Westfalen e.V. (CIV NRW)
(Regionalverband für NRW der DCIG e.V.)
Geschäftsstelle: Alleestr. 73, 58097 Hagen
Telefon: 02331 1884601
Beratungstermine nach Vereinbarung unter: info@civ-nrw.de -

CIV NRW News online
ist die  Onlineversion der Zeitschrift des

Cochlea Implantat Verbandes NRW e.V.,
CIV NRW News - Chefredaktion:
Marion und Peter Hölterhoff
Redaktion:
Conny Vollmer, Veronika Albers und freie Autoren
Korrektorat:
Christel Kreinbihl, Rosemarie Herschbach 
Medizinische Beratung:
Prof. Dr. med. Jonas Park, Dr. Elmar Spyra
Anzeigen/ Akquise:
Michaela Hoffmann michaela-hoffmann@civ-nrw.deCIV NRW News online- ViSdP:

Peter G.A. Hölterhoff, Rosenstr 4 58642 Iserlohn
© Cochlea Implantat Verband NRW e.V.
Alle Rechte vorbehalten - Alle Angaben ohne Gewähr

Mit Aufruf der folgenden Links werden Daten an die Netzwerke übertragen und dort verarbeitet.
Facebook: https://www.facebook.com/CIV.NRWNewsInstagram:  https://www.instagram.com/civnrw/
WEB-Layout: Peter G.A. HölterhoffSie können uns unterstützen über Gooding oder eine direkte Spende hier onlineBankverbindung: Volksbank Hohenlimburg
IBAN:DE30 4506 1524 4001 2313 00,
BIC: GENODEM1HLH
Unsere Mitgliedsbeiträge und Spenden an uns sind steuerlich absetzbar. Ihre Spende kommt an – unser Verein ist offiziell im Zuwendungsregister geführt

Veranstaltungskalender

Mo Di Mi Do Fr Sa So
1
2
3
4
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31