Mit automatischer Spracherkennung sollen Hörgeschädigte demnächst leichter Zugang zu Bildung und Wissen erhalten: Das ist das Ziel der beiden IT-Unternehmen EML European Media Laboratory und VerbaVoice. Ihr Projekt „Wort für Wort“ wird vom Bundeswirtschaftsministerium im „Zentralen Innovationsprogramm Mittelstand“ (ZIM) gefördert. Die geplante Plattform überträgt die gesprochene, natürliche Sprache in Vorlesungen automatisch und in Echtzeit in Schrift. Die dahinter stehende EML-Sprachtechnologie wurde bereits erfolgreich für die automatische Untertitelung von Fernsehsendungen eingesetzt.
In Deutschland gibt es mehr als vier Millionen Hörgeschädigte. Sie haben laut einer UN-Konvention ein Recht auf barrierefreie Bildung – das gilt insbesondere für Vorlesungen und Vorträge. Bislang schreiben ausgebildete Schriftdolmetscher auf der konventionellen Computertastatur oder speziellen Steno-Systemen mit oder sprechen das Gehörte in ein Diktiersystem, das die eigentliche Verschriftung durchführt. Der so entstandene Text wird dem Nutzer auf dem PC oder über eine App auf mobile Geräte zur Verfügung gestellt. Schriftdolmetscher sind jedoch aus Kapazitäts- und Kostengründen nicht immer problemlos verfügbar, und häufig ist die manuelle Wort-für-Wort-Transkription aufgrund des hohen Sprechtempos beispielsweise in Vorlesungen schwierig.
Das Projekt „Wort für Wort“ der beiden IT-Unternehmen EML European Media Laboratory GmbH und VerbaVoice GmbH will diese Lücke schließen – mit einer integrierten Dolmetsch-Plattform, die auf Spracherkennung in Echtzeit setzt. Die Plattform ermöglicht dadurch eine hochqualitative, kontinuierliche und automatische Umwandlung von Vorlesungen in Schrift. Dabei muss sich die Spracherkennung automatisch an die jeweiligen Redner anpassen und in Echtzeit eine sehr hohe Erkennungsgenauigkeit erreichen. Das Projekt wird seit Mitte 2014 im Rahmen des „Zentralen Innovationsprogramms Mittelstand“ (ZIM) vom Bundesministerium für Wirtschaft und Energie gefördert und in diesem Jahr abgeschlossen.
„Wir sind mit den bisherigen Ergebnissen sehr zufrieden“, berichtet EML-Forschungs- und Entwicklungsleiter Dr. Siegfried Kunzmann. „Die Spracherkennung, die wir für die Plattform anpassen, haben wir schon im Herbst letzten Jahres auf den Münchner Medientagen gezeigt.“ Dort demonstrierten EML und Verbavoice die Untertitelung von Videos in Echtzeit. „Inzwischen haben wir den Prototyp des Spracherkenners nicht nur bei Vorlesungen eingesetzt, sondern auch im Labor für Live-Fernsehsendungen automatisch Untertitel in Echtzeit produziert“, sagt Kunzmann.
„Die Entwicklung der integrierten Dolmetsch-Plattform ermöglicht es uns, unserer Vision von 100 Prozent sprachlicher Barrierefreiheit in der Bildung ein weiteres Stück näher zu kommen“, freut sich VerbaVoice-Geschäftsführerin Michaela Nachtrab. „Wir können die existierenden Angebote dort ergänzen, wo es an zu hohen Kosten oder an der Komplexität bisher scheiterte. Dolmetscher können zudem unterstützt oder entlastet werden.“
Das Projekt achtet auch auf den Datenschutz: Die aufgenommenen Daten landen im Gegensatz zu vielen anderen Spracherkennungssystemen nicht auf US-Servern, sondern in VerbaVoice-Rechenzentren in Deutschland, die den strengen deutschen Datenschutzregelungen unterliegen.
Dr. Peter Saueressig
EML European Media Laboratory GmbH