Die Moral der Maschinen
Geschrieben am 07.01.2019 von HNF
Was macht der Staubsauger-Roboter, wenn er einem Marienkäfer begegnet? Soll er ihn verschlucken oder am Leben lassen? Gibt es eine Ethik für Automaten, Computer und ihre Programme? Danach fragt am Mittwoch, dem 9. Januar 2019, Katrin Misselhorn im HNF. Sie leitet das Institut für Philosophie der Universität Stuttgart und untersucht moralische Probleme der Künstlichen Intelligenz.
Es begann mit Isaac Asimov. Im Mai 1941 veröffentlichte der junge Autor in einem New Yorker Science-Fiction-Magazin die Erzählung Lügner!. Darin lesen wir von dem Grundsatz, der in die künstlichen Gehirne aller Roboter eingeprägt ist: Niemals darf ein Mensch durch ihre Aktionen zu Schaden kommen, selbst dann nicht, wenn ein anderer Mensch es befiehlt.
1942 führte Asimov in einer weiteren Geschichte Regeln ein, die zum Gehorsam und zur Selbsterhaltung aufriefen. Seitdem gibt es die drei Gesetze der Robotik und die erste, noch einfache Maschinenethik. Damit ist kein moralisches System gemeint, dem Techniker oder Fabrikanten folgen sollen, sondern ein Bündel von Prinzipien, das für die Maschinen gilt. Dabei nehmen wir an, dass sie Informationen aufnehmen und über Kommunikationsmittel oder mechanische Glieder auf ihre Umwelt einwirken können.
Im Jahr 2019 ist wohl kein Gerät so weit, dass es über gute und weniger gute Taten grübeln kann. Ein Putzroboter, dem ein Marienkäfer über den Weg läuft, wird nicht denken, sondern staubsaugen. Ihm fehlen sowohl die Sensoren, um Käfer und Nicht-Käfer zu unterscheiden, als auch die Computerintelligenz, die dem freundlichen Insekt vielleicht das Leben schenkt. Aber was nicht ist, kann noch werden, denn schon seit einigen Jahren beschäftigen sich Forscher und Forscherinnen mit Artificial Morality.
Zwei Pioniere der künstlichen Moral sind der Informatiker Michael Anderson und seine Frau, die Philosophin Susan Leigh Anderson. Sie arbeiten im US-Bundesstaat Connecticut. 2010 schrieben sie im Magazin Scientific American über einen Nao-Roboter, den sie für die Tätigkeit in einem Altenheim trainierten. Das geschah durch ein Verfahren der Künstlichen Intelligenz – maschinelles Lernen. Anhand konkreter Anwendungen brachten sie dem Roboter bei, die Senioren zur richtigen Uhrzeit mit Tabletten zu versorgen.
Der Nao ging dann selbsttätig los und erinnerte an die Einnahme der Medizin. Falls der Mensch sich taub stellte, wurde er nach einiger Zeit erneut erinnert oder schließlich eine Aufsichtsperson informiert. Wie der Roboter handelte, hing aber auch von der betreffenden Tablette ab. War die Medizin nicht lebenswichtig, übte er weniger Druck aus. In ihrem Artikel erwähnten die Andersons eine zweite Aufgabe für den Nao, die faire Herausgabe der TV-Fernbedienung an einen von mehreren Senioren. Heute bekäme wohl jeder einen eigenen Monitor mit Videostreaming – das ist eben der Fortschritt.
Ethische Diskussionen entwickelten sich ebenso zu autonomen Autos. Ein bekanntes philosophisches Dilemma ist das Trolley-Problem. Es läuft auf die Frage hinaus, ob ein selbstständig agierender Pkw im Notfall die kleinere oder die größere Gruppe von Fußgängern umfährt. Eine dritte Möglichkeit sei per definitionem ausgeschlossen. Das Problem ist bis heute offen. Auch die Ethik-Kommission von Bundesverkehrsminister Dobrindt gab 2017 nur verschwommene Empfehlungen ab, zum Beispiel Unfallberichte zu sammeln.
Im gleichen Jahr erhielt der australisch-amerikanische Philosoph Nicholas Evans mehr als eine halbe Million Dollar an Forschungsgeldern, um Programme für selbstfahrende Autos zu schreiben. Sie sollen die geschilderten ethischen Zwickmühlen angehen; Evans arbeitet in der Universität von Massachusetts in Lowell. In seinem Projekt geht es weniger um den Computer am Steuer und sein moralisches Verhalten. Im Mittelpunkt stehen die Algorithmen, die von denkenden Menschen für ihn entwickelt werden.
Letzten Endes ist es vermutlich Geschmackssache, ob der Roboter oder der Programmierer „entscheidet“; die nötige Hard- und Software kann nur von Informatikern und Ingenieuren kommen. Wer etwas zu den geistigen Hintergründen erfahren möchte, den laden wir ins HNF ein: Am Mittwoch, den 9. Januar, spricht dazu die Philosophieprofessorin Catrin Misselhorn von der Universität Stuttgart. Ihr Vortrag trägt den Titel „Können Maschinen moralisch sein?“ und beginnt um 19 Uhr. Der Eintritt ist frei. Bis 17 Uhr können Besucher die Dauerausstellung des HNF kostenlos besichtigen und sich u.a die neuen Bereiche zu KI und Robotik ansehen.
Neuerungen und Bedenkliches in einer Quellensammlung zur Ethik der künstlichen Intelligenz: https://sensiblochamaeleon.blogspot.com/2023/05/ai-pros-and-cons-informationsethik.html