Wen sollte man im Falle eines Unfalls retten – den Fahrer oder die Fußgänger? Bevor Autos ohne Fahrer fahren können, müssen sie darauf moralisch vorbereitet werden

Die Ethik befasst sich mit der Frage von Gut und Böse, also richtig, erwünscht, gegenüber falsch, verwerflich. Aber in vielen Fällen müssen wir uns zwischen Möglichkeiten entscheiden, die alle einen anderen Schaden anrichten. Wir treffen alle täglich viele Entscheidungen, zum Beispiel wenn wir im Auto fahren, und oft müssen wir uns mit moralischen Fragen befassen. Aber was wird ein autonomes Auto in so einem Fall machen? Die Autos, in denen wir offenbar in der nahen Zukunft fahren werden, müssen auf Verhaltensweisen programmiert werden, die menschliche moralische Entscheidungen nachahmen.

Ein Beispiel für die Problematik zeigt das „“Trolley-Problem". Stellt Euch eine Eisenbahn vor, die in Richtung von fünf Menschen fährt, die auf den Schienen stehen und nicht entweichen können und umkommen werden. Eine Möglichkeit, die du hast, ist den Zug umleiten, und auf der anderen Schiene steht nur ein Mensch, der umkommen wird. Würdest du die Eisenbahn umleiten, sodass sie einen Menschen tötet, oder wirst du nichts tun, was zum Tod von fünf Menschen führen wird? Die meisten Menschen sagen, dass sie die Eisenbahn umleiten würden.

Bei einer anderen Darstellung des Problems besteht die einzige Möglichkeit, die Eisenbahn zu stoppen, darin, einen Menschen von der Brücke zu stoßen und ihn zu opfern, um die anderen fünf zu retten. Die meisten Menschen sagen, sie würden das nicht tun. Rational gesehen gibt es keinen Unterschied zwischen den beiden Entscheidungen: Wenn du nichts tut, sterben fünf, wenn du etwas tust, stirbt nur einer. Aber es scheint, dass es schwieriger für uns ist, einen Menschen von der Brücke zu stoßen, als einen Hebel zu ziehen.

 Illustration zum moralischen Dilemma, zwischen dem Teufel und dem Engel. Quelle: Shutterstock, VectorMine
Wie soll man aus mehreren Möglichkeiten eine auswählen, wenn jede einen anderen Schaden zufügt? Illustration zum moralischen Dilemma, zwischen dem Teufel und dem Engel. Quelle: Shutterstock, VectorMine

Robotische Dilemmas

Die Ethik ist deshalb etwas Kompliziertes für uns Menschen. Was geschieht also, wenn man ein System von künstlicher Intelligenz, wie das in einem autonomen Auto, mit einem moralischen Dilemma konfrontiert?

Ein autonomes Auto, oder Roboterauto, oder selbstfahrendes Auto, ist ein Fahrzeug, das ohne menschliches Eingreifen fahren und navigieren soll. Um die Komplexität der ethischen Fragen solcher Autos zu veranschaulichen, stell dir zum Beispiel folgende Situation vor: Du fährst in einem Auto, und ringsherum sind andere Fahrzeuge. Rechts ist ein Motorradfahrer ohne Helm, vor dir ein mit schwerer Last beladener Lastwagen und links ein großer Jeep.

Plötzlich fällt ein schweres Rohr vom Lastwagen direkt in deine Richtung. Du hast drei Möglichkeiten: Du machst nichts und nimmst die Kollision mit dem Rohr in Rechnung, du drehst das Lenkrad nach links und rammst den Jeep, oder du drehst das Lenkrad nach rechts und rammst das Motorrad. Wählst du deine eigene Sicherheit und rammst das Motorrad? Möchtest du lieber niemandem Schaden zufügen und dein eigenes Leben riskieren? Oder vielleicht rammst du den Jeep und verlässt dich auf seine hohe Sicherheitsbewertung?

Wenn ein Mensch in einer so komplizierten Situation das Auto steuert, werden wir jede von den drei Reaktionen verstehen, weil wir darin ein instinktives Verhalten unter Druck sehen werden. Aber in einem autonomen Auto ist die Situation anders – jede Reaktion wird das Ergebnis dessen sein, was seine Entwickler vorprogrammiert haben.

Dieses Gedankenexperiment kann man auf andere Situationen anwenden. Wenn, zum Beispiel, auf einer Seite von dir ein Motorradfahrer mit Helm fährt, und auf der anderen einer ohne Helm. Ist es besser, wenn das Auto den beschützten Fahrer rammt, weil seine Überlebenschancen besser sind, oder den anderen Fahrer, weil er verantwortungslos war und es unfair wäre, den Fahrer mit Helm für seine Vorsicht zu bestrafen?

Illustration eines autonomen Autos, das auf der Straße fährt. Shutterstock, posteriori
Was geschieht, wenn man Systeme, die von künstlicher Intelligenz gesteuert werden, mit moralischen Problemen konfrontiert? Illustration eines autonomen Autos, das auf der Straße fährt. Shutterstock, posteriori

Wissen ist Macht

Eine der Fragen, die sich Forscher auf diesem Gebiet stellen, ist: Auf welche Informationen sollen autonome Autos ihre Entscheidungen stützen. Das sogenannte „Moral Maschine Experiment“, zum Beispiel, behandelte Fragen, die auf Eigenschaften wie Alter, Gewicht und Beruf basierten. Die Probanden – und alle, die die online-Plattform besuchen – wurden vor Dilemmata gestellt und mussten angeben, welche Entscheidung das autonome Auto am besten treffen sollte, zum Beispiel: Soll es besser einen Mann oder eine Frau töten? Eine magere oder eine vollleibige Person? Eine junge oder eine betagte?

Das Ergebnis der Studie zeigte, dass Menschen finden, dass in bestimmten Situationen das Leben eines Menschen mit bestimmten Eigenschaften bevorzugt werden sollte – zum Beispiel junge Menschen, magere oder solche mit wichtigen Berufen, wie Geschäftsführer oder Ärzte. Allerdings wird die Studie dafür kritisiert, dass die Fragestellung so konstruiert gewesen sei, dass die Teilnehmer sich entscheiden mussten und nicht die Möglichkeit hatten, sich nicht zu entscheiden, also die Entscheidung, wer verletzt würde, dem Zufall zu überlassen.

Eine andere Studie, die versuchte festzustellen, ob die Menschen es tatsächlich bevorzugen, dass die autonomen Autos ihre Entscheidungen auf Eigenschaften stützen sollen, kam zum Ergebnis, dass die meisten es vorziehen, dass autonome Autos alle Menschen, die auf der Straße sind, gleich behandelten. Das heißt, wir ziehen es vor, dass die Autos demographische Eigenschaften wie Alter und Beschäftigung nicht berücksichtigen, wenn sie eine Entscheidung fällen müssen.

Regulierung der Moral

Diese Forschungen zeigen, wie wichtig das Planen für die Entwicklung der autonomen Autos ist – nach welchen ethischen Regeln diese Autos programmiert werden sollen. Aber wir sollten uns auch überlegen, wer denn die Autorität haben soll, diese Regeln festzulegen. Sollen die ethischen Regeln des autonomen Fahrens allgemeingültig sein – also von staatlichen Gremien oder sogar von internationalen Konventionen festgelegt? Oder können sie dem Ermessen jedes einzelnen Herstellers überlassen bleiben, sodass jedes Auto seine eigenen Regeln hat und die Käufer die moralischen Regeln auswählen, die sie in ihr neues Auto einbauen möchten?

Der erste Staat, der sich mit diesen Fragen beschäftigt, ist Deutschland, wo Richtlinien für Entscheidungen in autonomen Autos formuliert wurden. Gemäß diesen Richtlinien muss das autonome System im Falle eines unvermeidbaren Unfalls die Anzahl der Opfer verringern, darf jedoch keine Entscheidung treffen, die auf persönlichen Merkmalen wie Alter, Geschlecht usw. beruht. Wahrscheinlich werden weitere Staaten ähnliche Richtlinien festlegen.

Eine andere Frage, ist: Soll das autonome Auto effiziente Entscheidungen treffen, damit der Schaden im Falle eines unvermeidlichen Unfalls so gering wie möglich sei – und wenn ja: Wären Menschen bereit, in einem Fahrzeug zu fahren, das darauf programmiert ist, ihr Leben zu opfern, um den Tod mehrerer Anderer zu verhindern?

Um dies zu prüfen, stellten die Forscher die Probanden vor ein anderes Dilemma, und zwar baten sie sie, zwischen zwei Möglichkeiten zu wählen: Das Auto kollidiert mit einer Wand und tötet den Fahrer, oder es weicht aus und überfährt eine Gruppe von Fußgängern. Das Resultat war, dass die Menschen damit einverstanden sind, dass das autonome Auto darauf programmiert sein soll, dass so wenig wie möglich Menschen getötet werden, und sie bevorzugen es, das Leben des Fahrers zu opfern und nicht das von mehreren anderen. Aber als sie gefragt wurden, ob sie bereit wären, in so einem Auto zu fahren, antworteten sie, dass sie das lieber anderen überlassen würden. Es gibt also eine Diskrepanz zwischen den bevorzugten Regeln, nach denen das Auto programmiert werden sollte, und dem persönlichen Vertrauen, das die Menschen einem so programmierten Auto geben.

Man nimmt an, dass autonome Autos die Zahl der Todesopfer bei Verkehrsunfällen erheblich verringern werden. Aber da sie für die Bewältigung komplexer Situationen vorprogrammiert sein sollen, müssen wir die ethischen Fragen, die mit der Anwendung solcher Autos verbunden sind, eingehend prüfen. Die Ethik autonomer Systeme wirft komplexe Fragen auf, die nicht nur die Produzenten, sondern auch die staatlichen Behörden und sogar uns – die in diesen Autos fahren sollen – betreffen.