Wednesday, 23. October 2013

Können Computersysteme Emotionen erkennen?

Bei der Verarbeitung von Audiosignalen steht man aufgrund der sich oftmals überlagernden Schallquellen vor großen Herausforderungen. Eine Herausforderung ist ebenfalls, Emotionen oder Gefühlszustände aus Audiosignalen herauszufiltern, damit ein Computersystem zum Beispiel rechtzeitig auf Gefahren aufmerksam machen kann.

Vom 3. bis 8. November 2013 kommen international führende Informatiker nach Schloss Dagstuhl, Leibniz-Zentrum für Informatik im nördlichen Saarland, um über verschiedene Aspekte bei der Audioanalyse zu diskutieren und neue Konzepte zu entwickeln.

 

Die Verarbeitung von Audiosignalen begann ursprünglich mit der Sprachverarbeitung, was immer noch ein wichtiges Forschungsgebiet ist. Denn wer möchte nicht mit seinem Mobiltelefon, dem Computer, dem Navi per Spracheingabe kommunizieren, anstatt mühselig die meist kleine Tastatur zu bedienen? – Bei der Sprachverarbeitung geht es hauptsächlich darum, herauszufiltern, was gesprochen wurde, wie z.B. beim Telefonieren. Wie etwas gesagt wurde, ist bisher jedoch nicht zu erkennen. Dabei bestimmt doch der Ton die Musik. Kann ein System automatisch erkennen, ob jemand gute oder schlechte Laune hat, gestresst ist oder einfach nur übermütig? Wie kann man wichtige Informationen aus einem Audiosignal herausfiltern, die über das gesprochene Wort hinausgehen? Solche nicht-textuellen Informationen können in Alltagssituationen sehr nützlich sein, sei es beim Autofahren, bei der Bedienung von Maschinen oder bei der Unterstützung hilfebedürftiger Menschen.

 

Erkennt ein System beispielsweise, dass der Autofahrer müde ist, könnte eine Empfehlung herausgegeben werden, dass der Fahrer eine Pause machen soll. Bricht bei einer Massenveranstaltung eine Panik aus, könnte ein System die Durchsage von beruhigenden Worten oder das Auflegen von beruhigender Musik bewirken. Erkennt ein System den Gemütszustand eines Menschen, kann es notfalls Hilfe anfordern.

 

Aber nicht nur die Erkennung und Verarbeitung von Emotionen und Stimmungen sollen in dem Dagstuhl-Seminar diskutiert werden, sondern auch die Klassifizierung von Geräuschen. Geräusche können hilfreich sein, um festzustellen, wo sich ein Mensch gerade befindet. Oftmals sind Geräusche jedoch eher hinderlich, wie beispielsweise bei einer Auto- oder Zugfahrt. Die Fahrtgeräusche überlagern oftmals ein Gespräch, so dass der Gesprächspartner nichts versteht. Sinnvoll wäre es, wenn Hintergrundgeräusche erkannt und unterdrückt werden können.

 

In dem Dagstuhl-Seminar kommen namhafte internationale Experten aus vielen relevanten Bereichen zusammen, um die Herausforderungen und künftige Entwicklungen im Bereich der Audiosignalanalyse zu diskutieren. Die Organisation des Dagstuhl-Seminars haben übernommen

 

·        Meinard Müller(Universität Erlangen-Nürnberg, DE)

·        Shrikanth S. Narayanan (University of Southern California, US)·       

·        Björn Schuller (TU München, DE)

 

 

Mehr Informationen zum Dagstuhl-Seminar „Computational Audio Analysis“ mit Teilnehmerliste sind zu finden unter http://www.dagstuhl.de/13451

 

pdf der Pressemitteilung