Kategorie: Interview
"Maschinenmoral bildet bestimmte Aspekte menschlicher Moral ab."
Oliver Bendel, Professor an der Hochschule für Wirtschaft FHNW in Windisch, im Gespräch über Maschinenmoral und die Grenzen, Risiken und Chancen künstlicher Intelligenz.
Oliver Bendel wurde 1968 in Ulm geboren. Nach dem Studium der Philosophie und Germanistik sowie der Informationswissenschaft an der Universität Konstanz und ersten beruflichen Stationen erfolgte die Promotion im Bereich der Wirtschaftsinformatik an der Universität St. Gallen. Im April 2009 wurde Oliver Bendel von der Hochschule für Wirtschaft FHNW in Windisch zum Professor ernannt. Er ist Experte in den Bereichen Wissensmanagement, Informationsethik und Maschinenethik.
kinofenster.de: Herr Dr. Bendel, worin bestehen die zentralen Unterschiede zwischen menschlicher und künstlicher Intelligenz?
Oliver Bendel: Menschliche Intelligenz kann sich ganz vielen unterschiedlichen Aufgaben widmen. Künstliche Intelligenz als Disziplin greift sich heutzutage bestimmte Aufgaben heraus und versucht diese mit der von ihr produzierten künstlichen Intelligenz zu bewältigen. Diese bildet also nur bestimmte Aspekte menschlicher oder auch tierischer Intelligenz ab. So kann ein KI-System zum Beispiel lernen, Go zu spielen, Bilder zu ordnen und zu deuten oder Emotionen zu erkennen. Wir nennen die Disziplin dieser Art schwache KI. Starke KI träumt von einem System, das alle Probleme lösen kann, die der Mensch lösen kann. Davon sind wir Lichtjahre entfernt.
kinofenster.de: Was ist der Unterschied zwischen menschlicher Moral und Maschinenmoral?
Oliver Bendel: Maschinenmoral bildet bestimmte Aspekte menschlicher Moral ab. So wie Künstliche Intelligenz als Disziplin die künstliche Intelligenz als Gegenstand hervorbringt und untersucht, so bringt die Maschinenethik die maschinelle Moral oder moralische Maschinen hervor und untersucht sie. Die maschinelle Moral simuliert die menschliche Moral. Die Diskussion, ob Maschinen wirklich intelligent sind, wirklich moralisch, wirklich sozial und so weiter, ist überflüssig. Es sind Metaphern, die man hier verwendet und die zu Termini technici werden. Maschinen sind Maschinen. Begriffe haben in den unterschiedlichen Disziplinen völlig unterschiedliche Bedeutungen. Wenn Theologen oder Philosophen über den Begriff der Autonomie im Zusammenhang mit technischen Systemen mitunter abfällig sprechen, verstehen sie nicht, dass dieser in den Ingenieurwissenschaften eine eigene Bedeutung entfaltet hat. Es geht hier unter anderem darum, automatische und autonome Maschinen voneinander abzugrenzen. Die einen folgen einem vorgegebenen Plan, die anderen nehmen ständig Informationen auf, um selbstständig Entscheidungen zu treffen. Dabei lernen sie womöglich sogar dazu.
kinofenster.de: Wie wird sich Ihrer Meinung nach unser Alltagsleben durch den zunehmenden Einsatz von KI verändern, zum Beispiel im Straßenverkehr oder in der Produktion?
Oliver Bendel: Künstliche Intelligenz kann für Automatisierung und Autonomisierung verwendet werden, beispielsweise für das autonome Fahren. Ich bin nicht sicher, ob dieses wirklich flächendeckend kommt. Und das liegt nicht zuletzt an den Grenzen der KI. Für die Digitalisierung der Produktion im Rahmen der Industrie 4.0 spielt KI ebenfalls eine Rolle. Aber die Corona-Pandemie hat gezeigt, dass wir mit Schlagwörtern wie "Flexibilisierung" und "Individualisierung" zwar gerne herumwerfen, bei der Umsetzung aber Schwierigkeiten haben. Im besten Falle hätte eine Smart Factory nach zwei, drei Tagen die dringend benötigten Schutzmasken produzieren müssen. Natürlich ist dies nicht nur eine Sache der intelligenten Produktionsteuerung – es braucht auch die Organisation von Produktionsanlagen und Rohstoffen.
kinofenster.de: Inwieweit bietet sich KI für die Lösung sozialer und ökonomischer Probleme an?
Oliver Bendel: Ich spreche ungern von der KI. Es gibt tausende unterschiedliche KI-Systeme. Wir können KI zudem zusammenarbeiten lassen mit der Maschinenethik und dem Arbeitsgebiet des Künstlichen Bewusstseins. Mit manchen KI-Systemen, etwa in der Produktion von Waren, können wir einfach auf eine spezielle Weise automatisieren. Mit anderen lassen sich Gefahren erkennen, etwa Waldbrände, und dann mit menschlicher oder maschineller Kraft abwenden. Ich denke an eine Drohne mit Bild- und Musterkennung. Wieder andere ermöglichen es, Szenarien und Prognosen zu entwickeln oder Diagnosen zu erstellen. Auf diese Weise könnten theoretisch und praktisch Wege gefunden werden, den Klimawandel aufzuhalten oder den Krebs zu besiegen.
kinofenster.de: In sozialen Berufsfeldern geht es nicht nur um optimierte Arbeitsabläufe, sondern ebenso um Empathie, Emotionen, Zuwendung. Können Maschinen lernen, auf die Gefühle von Menschen einzugehen?
Oliver Bendel: Wir bauen solche Maschinen. Wir bauen Maschinen, die zum einen Empathie und Emotionen simulieren und zum anderen Empathie und Emotionen bei Menschen erkennen, um dann wiederum mit simulierter Empathie und Emotionen darauf zu reagieren. Soziale Robotik und Maschinenethik haben in diesem Bereich in den letzten zehn Jahren erstaunliche Fortschritte gemacht. Ob man Maschinen Empathie und Emotionen simulieren lassen soll, kommt ganz auf den Kontext an. Manchmal ist das eine gute Idee, manchmal nicht. Denken Sie an einen Lehrerroboter: Wenn das Kind etwas richtig gemacht hat und die Maschine es nicht lobt, ist das vermutlich nicht zielführend.
kinofenster.de: Welche Anwendungsbereiche finden Sie problematisch?
Oliver Bendel: Ich persönlich finde den Bereich der Bewerberauswahl heikel. Ich möchte nicht, dass eine Maschine mich analysiert, und ich denke auch nicht, dass ein KI-System im Moment die besten Kandidaten auswählen würde. Und selbst wenn: Maschinelle Beurteilungen dieser Art sind an sich problematisch. Meine Daten gehören mir, erst recht, wenn sie kombiniert und analysiert werden – wenn ein KI-System darin Auffälligkeiten und Abweichungen entdecken will.
kinofenster.de: Sehen Sie weitere Gefahren?
Oliver Bendel: Es ist wichtig, jeden Fall für sich anzuschauen. Zum Beispiel kann Gesichtserkennung problematisch sein, wenn man sie zur Überwachung der Öffentlichkeit einsetzt. Sie kann diskriminierend sein, weil sie eher mit weißen Gesichtern trainiert wurde und dann Schwarze Personen unter Verdacht geraten, weil das System bestimmte Unterschiede nicht erkennt. Dennoch würde ich die Erforschung und Entwicklung von Gesichtserkennung nicht grundsätzlich verbieten. Es liegen durchaus Chancen darin, etwa für die Geschichtswissenschaft, die Personen aufspüren will, oder für die Emotionsforschung. Ich würde nur die Anwendung stark beschränken.
kinofenster.de: Für wie realistisch halten Sie das Sci-Fi-Szenario, dass die Menschheit eines Tages eine ihr überlegene KI entwickelt, die sich verselbständigt und sich schließlich gegen den Menschen richtet?
Oliver Bendel: Dieses KI-System wäre superintelligent und hypermoralisch, denn der Mensch ist die größte Bedrohung für den Planeten. Ich bin aber dagegen, ihn auszurotten, und deshalb sage ich "hypermoralisch" und nicht "moralisch". In einem aktuellen Buchbeitrag denke ich über die Möglichkeit einer Supermoral nach. Eine solche könnte auch übertrieben moralisch und so in gewisser Weise unmoralisch sein. Aber zurück zur Frage: Ich halte das nicht für sehr realistisch. Bevor ein KI-System uns umbringt, bringen wir uns selbst um.