Ein Kind läuft plötzlich vom Bürgersteig auf die Straße, direkt vor ein selbstfahrendes Auto. Ein Ausweichmanöver nach links auf die Gegenfahrbahn würde die Insassen gefährden, und rechterhand auf dem Gehweg befinden sich zahlreiche Menschen. Wohin soll das Auto in dieser Situation steuern? Wessen Schutz soll der Programmcode eines autonomen Fahrzeugs höhere Priorität einräumen?
Moralische Entscheidungen überlassen wir nur ungern einer Maschine, wie Experimente in Deutschland und den USA zeigten. Bekamen Versuchspersonen fiktive Fallgeschichten aus dem Straßenverkehr oder aus der Medizin vorgelegt, wollten sie grundsätzlich eher Mensch als Maschine entscheiden lassen. Allerdings nicht, wenn sie vorab die Information erhielten, dass das Computerprogramm in 95 Prozent der Fälle richtig urteilt, ein Arzt aber nur in 75 Prozent der Fälle: Unter diesen Umständen wollten rund drei von vier Versuchspersonen lieber das Computerprogramm entscheiden lassen.
Computer können bereits jetzt manche Gefahr besser einschätzen als der Mensch, beispielsweise wenn es darum geht, wie schnell sich ein anderes Fahrzeug nähert. „Doch welches Verhalten moralisch gesehen das Richtige ist, lässt sich nicht so einfach berechnen wie ein Bremsweg“, gibt der Psychologe Klaus Peter Kalendruschat von TÜV NORD zu bedenken. „Besonders schwierig wird es, wenn man nur die Wahl zwischen zwei Übeln hat.“
Über solche moralischen Dilemmata zerbrechen sich Philosophen schon lange den Kopf, unter anderem mit folgendem klassischen Gedankenexperiment: Ein führerloser Bahnwagon rollt auf einem Gleis auf fünf ahnungslose Personen zu. Mit einem Hebel kann man den Wagon auf ein Nebengleis umleiten, auf dem sich jedoch eine weitere Person befindet. Sollte man den Hebel betätigen und damit den einen Menschen töten, um die anderen fünf zu retten?
Ja, lautet die Position gemäß „Zweckethik“, einer Geisteshaltung, die den moralischen Wert einer Handlung an ihren Folgen misst. Nein, lautet hingegen die Position der „Pflichtethik“ in der Tradition des deutschen Philosophen Immanuel Kant. Demnach verstoßen wir gegen eine absolute moralische Pflicht, wenn wir mit unserer Handlung – hier: den Hebel umlegen – jemanden töten.
Man kann sich viele Varianten des Gedankenexperiments vorstellen, auf die man weder mit der einen noch mit der anderen Logik zu einer unumstrittenen Lösung kommt. Müsste sich, laut Pflichtethik, der Fahrer eines Wagens notfalls selbst opfern, wenn er ansonsten einen anderen Menschen überfährt? Was, wenn sein eigenes Kind mit im Auto säße?
Ein Team um den Informatikprofessor Iyad Rahwan vom Massachusetts Institute of Technology in Cambridge ließ rund eine halben Million Menschen aus mehr als 130 Ländern moralische Dilemmata im Straßenverkehr beurteilen. In westlichen Ländern neigten die meisten dazu, lieber eine als mehrere Personen zu opfern und Kinder stärker zu schützen als Ältere. Zu einem ähnlichen Ergebnis kamen Kognitionswissenschaftler von der Universität Osnabrück bei ihren 200 Versuchspersonen: Auch diese wollten die Zahl der Opfer klein halten und eher Jüngere als Ältere verschonen.
Was die Mehrheit für moralisch geboten hält, dürfte hierzulande allerdings wenig Gewicht haben. Das deutsche Grundgesetz verbietet es, Menschenleben gegeneinander aufzuwiegen. Daran orientieren sich auch die ethischen Leitlinien für das automatisierte Fahren, die ein vierzehnköpfiges Expertengremium 2017 im Auftrag der Bundesregierung verfasste. Bei unausweichlichen Unfallsituationen sei ein Urteil nach persönlichen Merkmalen wie Alter und Geschlecht „strikt untersagt“, so heißt es da. Die Richtlinien legen unter anderem fest, „Tier- oder Sachschäden in Kauf zu nehmen, wenn dadurch Personenschäden vermeidbar sind“, und sie gewähren Personen auf dem Gehsteig besonderen Schutz: „Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern.“ Nur: Das Aufrechnen von Opfern wird zwar „strikt untersagt“, doch ein Schlupfloch bleibt: „Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein.“
„Das lässt Spielraum für Interpretationen“, kommentiert Klaus Peter Kalendruschat von TÜV NORD. Ein Computer könne aber nur nach den ihm bekannten Regeln entscheiden, „er hat kein Moralempfinden und keinen gesunden Menschenverstand, an denen er sich notfalls orientieren könnte.“ Und noch eine andere Gefahr stellt sich bei unklaren Regeln: „Sie bieten ein Einfallstor für Algorithmen, die dem Leben der Insassen grundsätzlich Priorität einräumen.“ Von einem solchen „egoistischen“ Moral-Code könnten sich Hersteller einen Marktvorteil versprechen. Denn auch wenn die Mehrheit grundsätzlich befürwortet, dass autonome Fahrzeuge möglichst viele Menschen retten sollten: Fürs eigene Auto gilt das nicht. Wie Iyad Rahwan und sein Team berichten, hielten es zwar drei von vier Befragten für moralischer, wenn ein Fahrzeug seinen Insassen anstelle von zehn Fußgängern opfert. Aber dieselben Befragten räumten ein, dass sie selbst lieber ein Auto hätten, das zuallererst seine Insassen schützt.
„Wir brauchen deshalb einen Moral-Code, nach dem die Fahrzeuge kontrolliert und vorhersehbar entscheiden“, sagt Klaus Peter Kalendruschat von TÜV NORD. Zugleich dürfe der Code potenzielle Käufer nicht abschrecken. Dieser Spagat wäre kein Problem, so der Psychologe, wenn wir alle Immanuel Kants moralischen Imperativ beherzigen würden: „Handle so, dass die Maxime deines Willens jederzeit zugleich als Prinzip einer allgemeinen Gesetzgebung gelten könne.“
Über die TÜV NORD GROUP:
Als anerkannter Technologie-Dienstleister stehen wir weltweit für Sicherheit und Vertrauen. Dabei haben wir die digitale Zukunft fest im Blick. Unabhängige Ingenieure und IT-Security-Fachleute bieten exzellente Lösungen für Sicherheit, Qualität und eine hervorragende Position im Wettbewerb. In mehr als 70 Ländern stärken wir Unternehmen und Partner bei der Wahrnehmung ihrer Verantwortung für Menschen, Technologie und Umwelt.