E-MOMA-Projekt startet

Im April 2019 startet an der Hochschule für Wirtschaft FHNW das E-MOMA-Projekt. „E“ steht für „Enhancing“ oder „Enhanced“, „MOMA“ für „Moral Machine“. Initiator ist Oliver Bendel. Wenig verfolgt wird in der Maschinenethik bisher der Ansatz, dass die Maschine selbst die Moral weiterentwickelt, etwa indem sie die Regeln adaptiert oder priorisiert, mit Hilfe von Machine Learning, speziell auch Deep Learning. Michael Anderson, Susan Leigh Anderson und Vincent Berenz haben einen NAO-Roboter mit Methoden des Machine Learning moralisch erweitert. Ein Beitrag dazu erschien kürzlich in den Proceedings of the IEEE. Im E-MOMA-Projekt soll eine eigene Implementierung entstehen, die diese Ansätze, möglichst in verbesserter Form, fortführt. Dabei können z.B. neuronale Netzwerke verwendet werden. Es bietet sich die Implementierung eines Chatbots an, aber auch die Modifizierung von Hardwarerobotern ist möglich. Letztlich geht es darum, eine moralische Maschine in die Welt zu bringen, die ihre Moral anpasst und weiterentwickelt, je nach Situation bzw. je nach eingegebenen Daten. Zugleich sollen die Chancen und Risiken einer solchen Flexibilität untersucht werden.

Die Frage der Verantwortung

Das Wissenschaftsjahr 2019 widmet sich der Künstlichen Intelligenz. In diesem Kontext führte Vision Kino ein Interview mit dem Informations- und Maschinenethiker Oliver Bendel. Zuerst wurde er danach gefragt, welche Themen im Zusammenspiel von Künstlicher Intelligenz und Ethik er aktuell für besonders wichtig hält. Er antwortete: „In der Informationsethik ist das Thema Überwachung im Augenblick sehr zentral, hier insbesondere Gesichts- und Emotionserkennung. Sehr problematisch wird es, wenn das mit der so genannten Physiognomik kombiniert wird, einer Pseudowissenschaft. Beispielsweise will man aus Gesichtsmerkmalen und -ausdrücken kriminelle Absichten ableiten.“ Später ging es dann um Fragen der Verantwortung. Nach Oliver Bendel kann ein Computer oder Roboter keine Verantwortung tragen, höchstens in einem sehr rudimentären Sinne, indem er eine Aufgabe übernimmt. Es ergibt nach ihm auch keinen Sinn, ihn in moralischer Hinsicht zur Verantwortung zu ziehen. Das Interview kann über wissenschaftsjahr-2019.visionkino.de/thematisches-unterrichtsmodul-zum-thema-kuenstliche-intelligenz/arbeitsmaterialien-zum-film/b-13-maschinen-koennen-keine-verantwortung-tragen-interview-mit-oliver-bendel/ nachgelesen werden.

Abb.: Können Roboter Verantwortung tragen?

Sollten wir Roboter köpfen?

Sollten wir Roboter köpfen oder anderweitig bestrafen? Im Moment sicherlich nicht. Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 18. Beitrag erschienen, mit dem Titel „Maschinenethik und strafrechtliche Verantwortlichkeit“. Autorin ist Dr. Monika Simmler. Aus dem Abstract: „Handlungen sind zunehmend das Resultat eines Zusammenwirkens von Mensch und (teil-)autonomer Maschine. Das Verhalten dieser Maschinen lässt sich weder dem Menschen noch der Technik selbst ohne Weiteres als Handlung zurechnen. Dieser Herausforderung für die strafrechtliche Verantwortungszuschreibung nimmt sich der vorliegende Beitrag an. Es wird festgestellt, dass Maschinen keine Strafrechtssubjekte darstellen, was allerdings nicht für alle Zeiten gelten muss. Insbesondere die Emergenz moralischer Handlungsfähigkeit von Technik könnte zu einem Wandel beitragen. Bis dahin steht jedoch die Verantwortlichkeit der Menschen im Zentrum. Sie sind gefordert, adäquate Sorgfalt walten zu lassen. Dabei kann gerade das Anliegen der Maschinenethik – die Moralimplementation – zur eigentlichen Sorgfaltspflicht werden. Die Disziplin entfaltet damit Relevanz für das Strafrecht, hängen doch maschinelle Moral, Handlungsträgerschaft und Verantwortung eng zusammen.“ Die letzten vier Beiträge erscheinen in den nächsten Wochen. Alle bisherigen sind über link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.

Abb.: Sollten wir Roboter köpfen?

CHI Workshop on Conversational Agents

„In the last five years, work on software that interacts with people via typed or spoken natural language, called chatbots, intelligent assistants, social bots, virtual companions, non-human players, and so on, increased dramatically. Chatbots burst into prominence in 2016. Then came a wave of research, more development, and some use. The time is right to assess what we have learned from endeavoring to build conversational user interfaces that simulate quasi-human partners engaged in real conversations with real people.“ (Website Conversational Agents) The CHI 2019 workshop „Conversational Agents: Acting on the Wave of Research and Development“ (Glasgow, 5 May) brings together people „who developed or studied various conversational agents, to explore themes that include what works (and hasn’t) in home, education, healthcare, and work settings, what we have learned from this about people and their activities, and social or ethical possibilities for good or risk“ (Website Conversational Agents). Oliver Bendel will present three chatbots developed between 2013 and 2018 in the discipline of machine ethics, GOODBOT, LIEBOT and BESTBOT. More information via convagents.org/.

Fig.: The BESTBOT will be presented

KI & Autonomes Fahren

„Die Digitalisierung hat längst alle Bereiche unseres Lebens durchdrungen und macht auch vor dem menschlichen Gehirn nicht Halt. Die neuen Möglichkeiten bringen Visionen von großen Entwicklungen in Wirtschaft, Forschung und natürlich auch der Hirnforschung mit sich, gleichzeitig gibt es weitreichende Diskussionen, ob alle möglich erscheinenden Entwicklungen ethisch vertretbar sind. Neuronale Netze, künstliche Intelligenz (KI), autonome Systeme – die Digitalisierung ist angewiesen auf neurowissenschaftliche Erkenntnisse. Neurowissenschaftler wiederum versprechen sich neue Wege für Forschung und Behandlung durch die rasanten Fortschritte der Digitalisierung.“ (Website GHS) Gemeinsam mit der Frankfurter Allgemeinen Zeitung veranstaltet die Gemeinnützige Hertie-Stiftung diese Reihe, die laut Eigenaussage in Übersichtsvorträgen, Podiumsdiskussionen und Gesprächen in hochkarätiger Besetzung das „Gehirn der Zukunft“ umkreist. Bei der Veranstaltung „KI & Autonomes Fahren“ am 13. Mai 2019 tragen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Dr. Corinna Bernarding (Universität des Saarlandes), Prof. Dr. Andreas Geiger (Max-Planck-Institut für intelligente Systeme) und Dr. Sebastian Söhner (Porsche AG) über automatisches und autonomes Fahren vor und diskutieren auf dem Podium miteinander. Weitere Informationen über www.ghst.de/gehirn/erforschen/veranstaltungen/#c11097.

Abb.: Welche ethischen Probleme wirft autonomes Fahren auf?

Pflegerobotik im Parlamentsfernsehen

Das öffentliche Fachgespräch zu Pflegerobotern am 20. Februar 2019 im Deutschen Bundestag zog zahlreiche Besucher an. Auch Politiker von SPD, Bündnis 90/Die Grünen und FDP waren durchgehend anwesend. Robotikerin Dr. Birgit Graf sprach über „Potenziale und Grenzen der Robotik für die Pflege – Stand der Technik und Anwendung, Herausforderungen für Forschung und Entwicklung“, Pflegewissenschaftler Prof. Dr. Manfred Hülsken-Giesler nahm eine „Einordnung und Bewertung aus Sicht der Pflegewissenschaft“ vor. „Ethisch-normative Herausforderungen der Pflegerobotik“ war der Titel des Vortrags von Prof. Dr. Oliver Bendel. Der Informations- und Maschinenethiker stellte Prototypen und Produkte vor und vor diesem Hintergrund verschiedene Überlegungen aus Sicht von Informationsethik und Maschinenethik an. Auch auf den moralisierten Nao von Michael Anderson, Susan L. Anderson und Vincent Berenz ging er ein. Das Programm kann hier nachgelesen, ein Bericht hier abgerufen werden. Das Parlamentsfernsehen strahlte die Aufzeichnung des Fachgesprächs am 22. Februar 2019 von 9.00 bis 11.45 Uhr aus.

Abb.: Kamera läuft

Die programmierte Moral

Im Februar 2019 ist „Roboter in der Gesellschaft: Technische Möglichkeiten und menschliche Verantwortung“ bei Springer erschienen, herausgegeben von Christiane Woopen und Marc Jannes. Die Beiträge stammen von Alin Albu-Schäffer („Von drehmomentgeregelten Roboterarmen zum intrinsisch nachgiebigen humanoiden Roboter“), Jochen J. Steil („Roboterlernen ohne Grenzen? Lernende Roboter und ethische Fragen“), Oliver Bendel („Die programmierte Moral“), Catrin Misselhorn („Moralische Maschinen in der Pflege? Grundlagen und eine Roadmap für ein moralisch lernfähiges Altenpflegesystem“), Hartmut Hirsch-Kreinsen („Autonome Systeme in der industriellen Arbeitswelt“) und Johannes Weyer („Autonome Technik außer Kontrolle? Möglichkeiten und Grenzen der Steuerung komplexer Systeme in der Echtzeitgesellschaft“). Norbert Lammert schreibt zu „Roboterethik. Zur Rolle der Politik“. Das Buch geht zurück auf die Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“, veranstaltet von ceres und Daimler und Benz Stiftung am 24. November 2015 in Berlin. Weitere Informationen über www.springer.com/gp/book/9783662577646#.

Abb.: Maschinelle Moral gibt es seit Jahren

Über den Einsatz von Pflegerobotern

„Noch ist nicht ausgemacht, wohin, fest aber steht: Im Zuge der Digitalisierung verschieben sich Grenzen.“ So beginnt die Einführung von Andreas Vierecke in der neuen Ausgabe der Blätter der Wohlfahrtspflege (1/2019). „Was … zunächst einmal ansteht, ist die Notwendigkeit, uns in irgendeiner Weise zu den mit der Digitalisierung unabweisbar einhergehenden Herausforderungen zu verhalten und eine Strategie für die eigene Organisation zu entwickeln.“ (BdW 1/2019) Identifiziert werden müssen die konkreten Technologien, die konkreten Anwendungsfelder und die konkreten Herausforderungen. Das Spektrum ist breit, von einfachen Warnsystemen bis hin zu komplexen Robotern. „Über ethische Aspekte des Einsatzes von Pflegerobotern … hat sich Oliver Bendel Gedanken gemacht, von denen er in diesem Heft einige mit uns teilt.“ (BdW 1/2019) Weitere Informationen über www.nomos-elibrary.de/10.5771/0340-8574-2019-1/bdw-blaetter-der-wohlfahrtspflege-jahrgang-166-2019-heft-1.

Abb.: Eine menschliche Hand wird gereicht

Podcast zur Maschinenethik

„Perspektiven“ ist eine Gesprächsreihe zu Themen der Wirtschaftsinformatik, die Perspektiven auf Forschung und Entwicklung, Studium und Lehre und Einblicke in die Praxis behandelt. Unterstützt wird sie durch den Fachbereich Wirtschaftsinformatik der Gesellschaft für Informatik. „Wirtschaftsinformatik ist eine Wissenschaft, die Informationssysteme, ihre Gestaltung und Nutzung in organisatorischen Handlungssystemen untersucht … und damit vielschichtige Bezüge zu anderen Wissenschaften aufweist: Dabei ist nicht nur an die Informatik und Betriebswirtschaftslehre zu denken, sondern auch an die Ingenieurwissenschaften, die Soziologie und die Philosophie, insbesondere die Sprachphilosophie.“ (Website Perspektiven) In den Gesprächen dieser Reihe unterhält sich Stefan Strecker mit seinen Gästen „über ihre Perspektiven auf Themenfelder und Fragestellungen der Wirtschaftsinformatik und Bezüge zu angrenzenden Wissenschaften“ (Website Perspektiven). Am 12. Februar 2019 ist der Podcast mit Oliver Bendel zur Maschinenethik erschienen. Er kann über perspektivenpodcast.podigee.io/12-maschinenethik-gesprach-mit-oliver-bendel aufgerufen werden.

Abb.: Mikrofone warten auf die Aufnahme

Kriegsroboter und Maschinenethik

Im „Handbuch Maschinenethik“, seit 2016 von Prof. Dr. Oliver Bendel herausgegeben, ist der 17. Beitrag erschienen, mit dem Titel „Autonome Waffensysteme/Kriegsroboter“. Autorin ist Prof. Dr. Catrin Misselhorn. Aus dem Abstract: „Kriegsroboter sind der kontroverseste Anwendungsbereich der Maschinenethik. Viele namhafte Vertreter der KI-Forschung und prominente Wissenschaftler fordern sogar ein Verbot letaler autonomer Waffensysteme. Dieser Beitrag setzt sich mit dem Versuch auseinander, autonome Waffensysteme im Rahmen der Maschinenethik mit einem Ethikmodul auszustatten. Die moralischen Grundprinzipien leiten sich aus dem Völkerrecht ab, welches auf der traditionellen Theorie des gerechten Kriegs beruht. Argumente zugunsten von Kriegsrobotern mit einem Ethikmodul werden ebenso behandelt wie die Kritik daran. Die drei wichtigsten Gegenargumente betreffen das Entstehen einer Verantwortungslücke, den Wert der Möglichkeit, anders zu handeln, sowie die Annahme einer Pflicht zu töten, welche der Einsatz autonomer Waffensysteme voraussetzt. Zum Schluss wird kurz auf mögliche Parallelen zum autonomen Fahren eingegangen.“ Die nächsten fünf Beiträge, u.a. von Prof. Dr. Julian Nida-Rümelin, Prof. Dr. Dr. Eric Hilgendorf und Prof. Dr. Armin Grunwald, erscheinen in den nächsten Wochen. Dann kommt die gedruckte Ausgabe auf den Markt. Alle bisherigen Beiträge sind über link.springer.com/referencework/10.1007/978-3-658-17484-2 verfügbar.

Abb.: Eine fremdartige Waffe