Monday, 26. November 2012

Wie Sensoren und Computer das Verhalten von Menschen erkennen und Umgebungen steuern

Dass Anwender Computerprogramme mittels Bewegungen oder gar Gesten steuern, ist bereits alltäglich. Die dafür notwendigen Sensoren sitzen in Mobiltelefonen, Tablet-Computern und modernen Spielekonsolen. Viel schwieriger ist jedoch, per Computer das Verhalten eines Menschen zu erkennen und zu deuten. Dieser Herausforderung stellen sich führende Wissenschaftler aus verschiedenen Disziplinen auf Schloss Dagstuhl, dem Leibniz-Zentrum für Informatik im nördlichen Saarland. Vom 2. bis 7. Dezember diskutieren sie mögliche Anwendungen und deren Auswirkungen auf die Gesellschaft.

 

Vor zehn Jahren galt noch eine Szene aus dem Hollywood-Spielfilm „Minority Report“ als markantes Beispiel für den Ansatz, Computerprogramme per Bewegung zu bedienen. Tom Cruise alias Super-Polizist John Anderton zieht in diesem Film einen Datenhandschuh an und winkt nichtssagende Tatort-Fotos vom Bildschirm weg. Inzwischen ist aus Science-Fiction Realität geworden.

Berührungsempfindliche Bildschirme kommen inzwischen in allen Größen vor. Menschen wischen sich durch digitale Inhalte, egal ob sie ihr Smartphone in der Hand halten oder vor dem Fernsehbildschirm sitzen. Neuartige Spielekonsolen lassen Kinder durch Computerspiele steuern, ohne dass sie einen Steuerknüppel in die Hand nehmen müssen. Eine Anzahl von vordefinierten Bewegungen, ausgeführt im richtigen Moment, reichen aus.

Dass Menschen über gezielte Bewegungen mit Computern und Software interagieren, ist beinahe schon alltäglich. Viel schwieriger ist jedoch, das Verhalten eines Menschen per Computer zu erkennen und so zu deuten, dass daraus verlässliche Befehle für so genannte intelligente Umgebungen abgeleitet werden können. Dieser Herausforderung stellen sich nun Wissenschaftler weltweit. Die führenden Wissenschaftler treffen sich dazu vom 2. bis 7. Dezember 2012 auf Schloss Dagstuhl, um die neuesten Entwicklungen zu diskutieren. „Human Activity Recognition in Smart Environments“ heißt das fünftägige Dagstuhl-Seminar, das die Forscher James Bo Begole (Samsung Research, US), James L. Crowley (INRIA, FR), Paul Lukowicz (DFKI Kaiserslautern, DE) und Albrecht Schmidt (Universität Stuttgart, DE) organisieren.

Die Forscher sehen auf dem Gebiet der sogenannten impliziten Interaktion, hervorgerufen durch die sensorgestützte Analyse des Verhaltens eines Menschen, eine Chance, die Bedienung von Computer & Co. noch weiter zu verbessern. Die Anwendungen reichen von Sport über mobile Spiele bis zum Einsatz in der medizinischen Versorgung und in der Industrie. Doch die Vision von neuen Benutzerschnittstellen lässt auch Datenschützer aufhorchen, da der Ansatz ein kontinuierliches Erfassen von Bewegungen des jeweiligen Benutzers voraussetzt. All diese Aspekte der neuen Technologie wollen die Forscher auf Schloss Dagstuhl diskutieren und dokumentieren.

 

Dazu reisen internationale Wissenschaftler an, die auf den Gebieten Jura, Psychologie, Maschinelles Lernen, Computer Vision, Mensch-Maschine-Interaktion und Künstliche Intelligenz als Experten gelten. Zu ihnen gehört auch Thad Starner, der im Auftrag des Suchmaschinenriesen Google eine Brille entwickelt, die ihrem Träger passend zur Umgebung Informationen in sein Blickfeld einblendet.

 

Weitere Informationen zu dem Dagstuhl-Seminar „Human Activity Recognition in Smart Environment” mit Teilnehmerliste sind zu finden unter  http://www.dagstuhl.de/12492