Schattenblick →INFOPOOL →NATURWISSENSCHAFTEN → TECHNIK

INFORMATIONSTECHNOLOGIE/590: Vorbild Gehirn - wie Computer hören lernen (MPG)


Max-Planck-Gesellschaft - 13. August 2009

Vorbild Gehirn - wie Computer hören lernen

Neue Software soll Spracherkennung verbessern


Sehen, Hören, Fühlen - die Wahrnehmung der zahllosen verschiedenartigen und schnell wechselnden Reize unserer Umwelt scheint uns ganz selbstverständlich. Doch was das Gehirn scheinbar so mühelos bewältigt, stellt Computer bisher oft noch vor unlösbare Aufgaben. Forscher des Leipziger Max-Planck-Instituts für Kognitions- und Neurowissenschaften und des Wellcome Trust Centre for Neuroimaging in London haben nun ein mathematisches Modell entwickelt, mit dem die maschinelle Wahrnehmung und Verarbeitung von gesprochener Sprache deutlich verbessert werden könnte. Diese oder ähnliche Algorithmen, die Mechanismen des Gehirns imitieren, könnten Computer in Zukunft helfen, die Welt wahrzunehmen. (PLoS Computational Biology, 12. August 2009)


Wie schwer es Computern fällt, mit gesprochener Sprache umzugehen, haben wahrscheinlich viele Menschen schon einmal erlebt. Starke Nerven braucht zum Beispiel, wer mit einem der Sprachautomaten kommuniziert, die von vielen Telefonhotlines eingesetzt werden. Wird nur ein wenig zu schnell oder zu langsam gesprochen, ist die Aussprache undeutlich oder gibt es ein Störgeräusch im Hintergrund, scheitert der Automat in der Regel. Grund dafür ist das sehr störungsanfällige Verfahren, mit dem Computerprogramme bisher Sprache verarbeiten. Der Computer versucht dabei vor allem, charakteristische Merkmale in den Frequenzen der Stimme zu erkennen, um Worte zu identifizieren.


Gehirn nutzt verschiedene zeitliche Ebenen zur Spracherkennung

"Das Gehirn nutzt wahrscheinlich ein anderes Verfahren", sagt Stefan Kiebel vom Leipziger Max Planck-Institut für Kognitions- und Neurowissenschaften. Der Forscher vermutet, dass dabei besonders die Analyse zeitlicher Abfolgen eine große Rolle spielt. "Viele Wahrnehmungsreize unserer Umwelt lassen sich als zeitliche Abfolgen beschreiben." So bestehen Musik und gesprochene Sprache aus hierarchisch aufeinander aufbauenden Abschnitten. Das Gehirn, so die Hypothese des Wissenschaftlers, unterteilt dabei die verschiedenen Signale von den kleinsten, schnell veränderlichen Elementen (z.B. einzelnen Sprachlauten wie "u" oder "e") bis hin zu den größeren, langsam veränderlichen Informationen (z.B. das Gesprächsthema). Die Bedeutung der Informationen auf verschiedenen zeitlichen Ebenen sei für die Verarbeitung von Wahrnehmungsreizen wahrscheinlich sehr viel größer als bisher angenommen. "Das Gehirn sucht permanent nach zeitlicher Struktur in der Umwelt, aus der es ableiten kann, was als nächstes passieren könnte", erklärt der Wissenschaftler. Auf diese Weise kann das Gehirn etwa, basierend auf den sich langsam verändernden Informationen, die nächsten Laute häufig bereits erahnen. So wird, wenn sich das Gesprächsthema z.B. um den heißen Sommer dreht, der Wortbeginn "So..." eher in "Sonne" als "Sofa" enden.

Um ihre Annahmen auf die Probe zu stellen, entwarfen die Forscher ein mathematisches Modell, das die neuronalen Abläufe bei der Sprachverarbeitung stark vereinfacht nachahmt. Neuronale Strukturen wurden dabei mit Algorithmen nachgebildet, die akustische Reize auf verschiedenen zeitlichen Ebenen verarbeiten sollten. Tatsächlich gelang es so, ein System zu entwerfen, das Sprache verarbeiten und einzelne Sprachlaute und Silben erkennen kann. Anders als bisherige Spracherkennungssysteme war es zudem in der Lage, auch schneller abgespielte Sprache zu verstehen. Das System besaß zudem die Fähigkeit des Gehirns, die nächsten Laute "vorherzusagen": Erwies sich eine Vorhersage dabei als falsch, weil die Forscher aus den bekannten Lauten eine unbekannte Silbe kombinierten, war das Modell fähig, den Fehler zu bemerken.


Modell eignet sich zur Spracherkennung

Die "Sprache", mit der das Modell getestet wurde, war vereinfacht - sie bestand aus den vier Vokalen a, e, i und o, die sich jeweils zu "Silben" aus vier Lauten zusammensetzten. "Zunächst ging es nur darum zu prüfen, ob die prinzipielle Annahme stimmt", erklärt Kiebel. Mit mehr Zeit und Mühe könne man aber auch die schwieriger voneinander abzugrenzenden Konsonanten einbeziehen und neben Lauten und Silben weitere Hierarchie-Ebenen für Wörter und Sätze einbauen. So ließe sich das Modell im Prinzip auch auf natürliche Sprachen übertragen.

"Interessant für die Neurowissenschaften ist, dass die Reaktionen des Modells dem ähnelten, was mit einem echten menschlichen Gehirn zu beobachten wäre", sagt Stefan Kiebel. Dies deutet darauf hin, dass das Modell der Forscher den tatsächlichen Abläufen im Gehirn entspricht. Zugleich liefert das Modell neue Ansätze für die Weiterentwicklung von maschineller Spracherkennung.
[pz]


Originalveröffentlichung:
Stefan J. Kiebel, Katharina von Kriegstein, Jean Daunizeau, Karl J. Friston
Recognizing sequences of sequences
PLoS Computational Biology, 12. August 2009

Weitere Informationen erhalten Sie von:
Dr. Christina Schröder
Max-Planck-Institut für Kognitions- und Neurowissenschaften, Leipzig
E-Mail: cschroeder@cbs.mpg.de


*


Quelle:
MPG - Presseinformation B / 2009 (163), 13. August 2009
Herausgeber:
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.
Referat für Presse- und Öffentlichkeitsarbeit
Hofgartenstraße 8, 80539 München
Tel.: 089/21 08-0, Fax: 089/21 08-12 76
E-Mail: presse@gv.mpg.de
Internet: www.mpg.de


veröffentlicht im Schattenblick zum 15. August 2009