Im Forschungsprojekt „TWO!EARS“ haben Wissenschaftler in einem internationalen Konsortium ein Testsystem entwickelt, das wesentliche Aspekte des menschlichen Hörens nachahmt. Bei bisherigen Modellen des Hörens wurden vorwiegend die Schallsignale an den beiden Ohren ausgewertet.
Das im TWO!EARS-Projekt entwickelte System hingegen simuliert die viel komplexere auditive Wahrnehmung des Menschen, die ihrerseits mit dem gesamten Sinnesapparat verwoben ist. Dabei wertet es nicht nur akustische Signale aus, sondern zum Beispiel auch Informationen, die durch das Sehen oder durch Bewegung gewonnen werden, und auch bereits vorhandenes, angelerntes Wissen über die Welt. Das Testsystem wurde dabei in zwei Ausführungsarten umgesetzt: in Form einer virtuellen Umgebung und für den Einsatz in einem Roboter.
Ziel des EU-Projekts TWO!EARS unter der Leitung von Prof. Alexander Raake von der Technischen Universität Ilmenau war es, menschliches Hören maschinell nachzubilden. In drei Jahren entwickelten mehr als 30 Wissenschaftler aus sechs Ländern ein Testsystem, das Audiosignale ähnlich verarbeitet wie ein Mensch. Das betrifft nicht nur Empfindungen wie Lautstärke, Klangfarbe und räumliche Ausdehnung von Geräuschquellen, sondern auch deren momentane Bedeutung für den Zuhörer. Damit das System zum Beispiel in der Lage ist, sich in komplexen Umgebungen mit mehreren Schallquellen akustisch zu orientieren, bezogen die Forscher auch optische Informationen und die koordinative Eigenwahrnehmung in das System ein.
Professor Alexander Raake, Leiter des Fachgebiets Audiovisuelle Technik der TU Ilmenau, koordinierte das TWO!EARS-Projekt, das von der Europäischen Union mit drei Millionen Euro gefördert wurde. Seine Arbeitsgruppe befasste sich mit der Analyse der Qualität von räumlicher Schallwiedergabe durch Systeme wie der Wellenfeldsynthese, die dreidimensionale visuelle Projektionen mit dreidimensionalem Klang kombiniert. Die Erkenntnisse aus dem Projekt werden die Entwicklung der Informations- und Kommunikationstechnik stark beeinflussen. So könnten die Algorithmen zum Beispiel dazu dienen, Hörgeräte in Umgebungen mit vielen Sprechern zu verbessern. Ebenso könnten Rettungsroboter entwickelt werden, die nach einer Naturkatastrophe Opfer in einer natürlichen Umgebung orten. Beim Aufspüren von Menschen kann neben bereits gebräuchlichen Instrumenten wie Ultraschall und Infrarot auch die menschliche auditive Wahrnehmung hilfreich sein, insbesondere, wenn es um eine menschähnliche Interaktion geht. So wäre es Robotern in einer komplexen Schallsituation möglich zu erfassen, dass jemand um Hilfe ruft.
Quelle: Technische Universität Ilmenau - Fotos: TU Ilmenau