Monday, 30. May 2016

Können Computer moralische Prinzipien berücksichtigen?

Künstliche Intelligenz ist von zunehmender Bedeutung in unserer Gesellschaft. Google und andere Unternehmen entwickeln autonome, selbstgesteuerte Fahrzeuge, das Militär verwendet in zunehmendem Maße unbemannte Drohnen, die mitunter autonome Entscheidungen treffen. Und auf längere Sicht werden autonome Roboter immer mehr Bereiche unseres täglichen Lebens einnehmen, von der industriellen Produktion über die Medizin bis hin zur häuslichen Altenpflege.


Vom 30. Mai bis 3. Juni 2016 treffen sich führende Informatiker mit Wissenschaftlern unterschiedlicher Disziplinen auf Schloss Dagstuhl, dem Leibniz-Zentrum für Informatik im nördlichen Saarland, um zu diskutieren, wie man solchen Maschinen menschliche Moral beibringen kann.

 

Zwangsläufig werden autonome Systeme mit schwierigen Entscheidungen konfrontiert. Das selbstgesteuerte Auto erkennt beispielsweise, dass plötzlich ein Kind auf die Straße läuft, aber ein Ausweichmanöver birgt das Risiko eines Frontalzusammenstoßes mit einem anderen Fahrzeug. Die Drohne erkennt das offiziell vorgegebene Ziel, steht aber vor dem Risiko, Kollateralschäden zu verursachen. Ein häuslicher Pflegeroboter muss in einem medizinischen Notfall schnell reagieren. In all solchen Fällen muss das autonome System die Frage beantworten: was ist die richtige Entscheidung? Anders ausgedrückt: nicht nur Menschen können vor moralische Entscheidungen gestellt werden, sondern auch Maschinen, die über künstliche Intelligenz verfügen. Wie bringt man solchen Maschinen die Moral bei?

 

Mit dieser Frage beschäftigt sich diese Woche ein internationales interdisziplinäres Seminar auf Schloss Dagstuhl. Die Teilnehmerinnen und Teilnehmer sind Wissenschaftler aus unterschiedlichen Ländern und kommen aus verschiedensten Fachbereichen: von der Informatik und der Mathematik über die Philosophie und Gesellschaftswissenschaften bis hin zu Wirtschafts- und Rechtswissenschaften. In mehreren Arbeitsgruppen erarbeiten die Teilnehmer die Fragestellung: „Wie macht man Maschinen moralisch?“ und „wie überträgt man menschliche Kriterien der Moral auf künstliche Intelligenz?“

 

Um diese Fragen zufriedenstellend zu beantworten, bedarf es systematischer Grundlagenforschung. Auf der einen Seite müssen wir zunächst allgemeingültige moralische Kriterien entwickeln. Was ist in kritischen Fällen überhaupt die moralisch richtige Entscheidung? Auf der anderen Seite müssen wir die Frage stellen, ob solche Kriterien in Form von Computeralgorithmen umsetzbar sind, und – wenn ja – wie man Computern effektiv diese Kriterien „beibringen“ kann. Soll man zum Beispiel moralische Kriterien explizit programmieren oder eher flexibel lernende künstliche Intelligenz schaffen, die dann – ähnlich wie kleine Kinder – durch Beobachtung und durch „Feedback“ moralisches Verhalten erlernen?

 

Zu dieser Thematik gibt es noch viel wissenschaftliches und praktisches Neuland zu erschließen. Ziel des einwöchigen Seminars ist es, durch interdisziplinäre Kooperation Fortschritte zu machen.

 

Mehr zu dem Dagstuhl-Seminar über Engineering Moral Agents – from Human Morality to Artificial Morality unter http://www.dagstuhl.de/16222

 

pdf der Pressemitteilung