Logo AvasagViele gehörlose Menschen können Informationen am besten aufnehmen, wenn sie ihnen in Gebärdensprache übermittelt werden. Bei dynamischen Inhalten wie Abfahrtszeiten an Bahnhöfen war dies bislang jedoch nicht möglich. Die TH Köln hat jetzt im Projekt AVASAG mit mehreren Partnern einen 3D-Avatar entwickelt, der Texte automatisiert in Gebärdensprache übersetzt.
„Gewöhnliche Schriftsprache ist für gehörlose Menschen wie eine Fremdsprache, da sich die Deutsche Gebärdensprache in Grammatik und Wortwahl vom gesprochenen und geschriebenen Deutsch unterscheidet. Müssen Informationen aufgenommen werden, die sich schnell ändern, sind schriftliche Angaben deshalb für viele Gehörlose nur bedingt hilfreich“, erklärt Prof. Dr. Arnulph Fuhrmann vom Institut für Medien- und Phototechnik der TH Köln. Bild: Logo Avasag © Avasag



Zwar erstellen Unternehmen oder staatliche Institutionen heute bereits Gebärdensprachvideos, um mit dieser Zielgruppe zu kommunizieren – diese sind bislang aber nur für statische Inhalte sinnvoll. „Videoproduktionen sind aufwändig und die einmal erstellten Videos nur schwer editierbar. Ändert sich der Inhalt, müssen sie manuell angepasst oder komplett neu erstellt werden. Für Reiseinformationen wie Fahrplanänderungen, Verspätungen oder Zugausfälle ist das keine Option. Wir setzen daher auf eine Lösung, die Informationen in Gebärdensprache in Echtzeit bereitstellen kann“, so Fuhrmann.

Zusammengesetzte Lichtpunkte erzeugen digitales Abbild der Bewegungen

Um den Anforderungen an eine automatisierte Übersetzung gerecht zu werden und damit die Teilhabe von Gehörlosen zu fördern, haben die sechs Projektpartner eine neuartige Animationsmethode für einen 3D-Avatar – eine virtuelle Darstellung mit menschlichen Gesichtszügen – geschaffen. Im Teilprojekt der TH Köln wurden dazu einzelne Gebärden sowie ganze Sätze einer Person mit mehreren Kameras aufgezeichnet, so dass Körper-, Finger- und Gesichtsbewegungen gleichzeitig erfasst wurden.

„Beim sogenannten Motion Capturing werden reflektierende Leuchtmarker an Körper und Kopf angebracht. Die Kameras nehmen dabei das reflektierte Licht auf. Die Lichtpunkte werden dann am Computer zusammengesetzt und es entsteht ein digitales Abbild der Bewegungen“, berichtet Fuhrmann und ergänzt: „Der Computer nimmt aber nur die Lichtpunkte auf und kann sie nicht der entsprechenden Bedeutung in der Gebärdensprache zuordnen. Das ist besonders bei Fingerbewegungen kompliziert, da die Lichtpunkte sehr dicht beieinander liegen und es schnell zu Fehlzuordnungen kommt.“

Sprachverarbeitung per Software

Um diese Herausforderung zu bewältigen, haben die Forschenden ein neues Machine Learning (ML)-Verfahren entwickelt, das die erfassten Daten so aufbereitet, dass alle Lichtpunkte korrekt zugeordnet werden können. Diese aufbereiteten Daten wurden von den Projektpartnern weiterverwendet und durch ein weiteres ML-Verfahren so verarbeitet, dass die aufgezeichneten Gebärden mit den in die Software eingegebenen Texten verknüpft werden. „Mit diesen Bausteinen ist es uns gelungen, ganze Sätze von Reiseinformationen in Gebärdensprache zu übersetzen und durch den Avatar animieren zu lassen“, erklärt Fuhrmann.

Umfrage und Ausblick

Im Anschluss nahmen 68 gehörlose Menschen an einer Online-Umfrage teil, um die Benutzer*innenfreundlichkeit des Demonstrators zu bewerten. Dabei habe sich gezeigt, dass die Interaktion mit dem Gebärdensprach-Avatar als ansprechend, authentisch, respektvoll und natürlich wahrgenommen worden sei. Die bevorzugte Nutzung der Anwendung liege auf mobilen Endgeräten. „Wir erwarten eine hohe Akzeptanz, da die Gebärdensprachler*innen die Verständlichkeit sowie das Erscheinungsbild des Avatars als positiv wahrgenommen haben. Bis die Anwendung tatsächlich in stationäre Bildschirme in Bahnhöfen, Busstationen oder Flughafenterminals sowie in Websites und Mobilität-Apps integriert wird, sollte aus unserer Sicht noch eine weitere Studie zur Verständlichkeit von Gebärdensprach-Avataren durchgeführt werden“, so Fuhrmann.

Beispiele: https://vuppetmaster.de/dev/demonstrator2/
Quelle: Technische Hochschule Köln

CIV NRW e.V

CIV NRW Logo

Cochlea Implantat Verband Nordrhein-Westfalen e.V. (CIV NRW)
(Regionalverband für NRW der DCIG e.V.)
Geschäftsstelle: Alleestr. 73, 58097 Hagen
Telefon: 02331 1884601
Beratungstermine nach Vereinbarung unter: info@civ-nrw.de -

CIV NRW News online
ist die  Onlineversion der Zeitschrift des
Cochlea Implantat Verbandes NRW e.V.,
CIV NRW News - Chefredaktion:
Marion und Peter Hölterhoff
Redaktion:
Karina Manassah, Veronika Albers und freie Autoren
Korrektorat: Christel Kreinbihl
Medizinische Beratung:
Prof. Dr. med. Jonas Park, Dr. Elmar Spyra, Peter Dieler
Anzeigen/ Akquise:
Michaela Hoffmann michaela-hoffmann@civ-nrw.de
CIV NRW News online- ViSdP:

Peter G.A. Hölterhoff, Rosenstr 4 58642 Iserlohn
© Cochlea Implantat Verband NRW e.V.
Alle Rechte vorbehalten - Alle Angaben ohne Gewähr

Mit Aufruf der folgenden Links werden Daten an die Netzwerke übertragen und dort verarbeitet.
Facebook: https://www.facebook.com/CIV.NRWNews - Twitter:    https://twitter.com/CIV_NRW - Instagram:  https://www.instagram.com/civnrw/
WEB-Layout: Peter G.A. Hölterhoff
Sie können uns unterstützen über Gooding oder eine
direkte Spende hier online
Bankverbindung: Volksbank Hohenlimburg
IBAN:DE30 4506 1524 4001 2313 00,
BIC: GENODEM1HLH

Veranstaltungskalender

Wir benutzen Cookies
Bitte beachten Sie, dass einzelne Funktionen unserer Website möglicherweise nicht funktionieren, wenn Sie die Verwendung von Cookies deaktiviert haben.