Quantcast
Channel: Robotergesetze » Ethik
Viewing all articles
Browse latest Browse all 6

Die Moral von selbstfahrenden Autos

$
0
0

Alexander Hevelke und Julian Nida-Rümelin, Philosophen an der Ludwig-Maximilians-Universität München, haben sich mit Roboter-Recht und Ethik befasst, insbesondere mit autonomen Fahrzeugen. Fahrzeuge können zwar derzeit nur im Testbetrieb autonom fahren, aber in nächsten Jahren dürften sie nach und nach mehr Aufgaben von menschlichen Fahrern übernehmen. Sobald das autonome Fahrzeug kommt, stellt sich in der Tat die Frage, wie es vor einem möglichen Unfall reagiert.

By Steve Jurvetson CC BY 2.0&]

By Steve Jurvetson (originally posted to Flickr as Hands-free Driving) [CC BY 2.0], via Wikimedia Commons

Autonome Autos werden womöglich sicherer sein als Menschen hinterm Lenkrad – wir haben bekanntlich ein miserables Reaktionsvermögen. Wehe aber, wenn ein autonomes Auto einen ersten Unfall baut. Dann dürfte die Aufregung groß sein. „Ein menschlicher Fahrer würde in einer solchen Situation vermutlich in irgendeiner Form instinktiv reagieren“, schreiben die beiden Philosophen. „Klare Überlegungen, welches Vorgehen hier das moralisch am ehesten zu rechtfertigende ist, werden auf jeden Fall kaum möglich sein.“

Autos haben reichlich Zeit für Überlegungen. Überlegungen sind bei autonomen Fahrzeugen ja nichts anderes als Berechnungen – und die sind selbst in knapper Zeit möglich. Die Fahrzeuge sollten allerdings im Vorfeld „wissen“, auf welcher Basis sie bei einem Unfall Entscheidungen treffen müssen. Die Autoren schreiben: „Dafür müsste sich die Gesellschaft aber darüber klar werden, welches Vorgehen in einer solchen Situation das am ehesten zu rechtfertigende wäre.“

Und genau da liegt das Problem: Soll ein Computer zum Beispiel den Tod eines älteren Menschen vorziehen, wenn er den Tod eines Babys verhindern kann? Oder genießt der Fahrzeug-Insasse eine höhere Priorität als der Mensch auf der Straße? Die Fragen erinnern an das sogenannte Trolley-Problem, eines recht alten Problems der Moralphilosophie.

Bei diesem Gedankenspiel rast eine außer Kontrolle geratene Bahn zum Beispiel auf einen oder fünf Menschen zu, je nachdem, auf welcher Spur sie bleibt. Als Außenstehender kann man die Weiche kontrollieren. Soll man nun versuchen, die Bahn statt auf fünf Menschen nur auf einen zu lenken? Oder ist es moralisch weniger verwerflich, nichts zu tun und die fünf Menschen ihrem Schicksal zu überlassen? Immerhin hätte man nicht bewusst eingegriffen – oder ist der Nicht-Eingriff ebenfalls ein Eingriff?.

Das Problem beim autonomen Auto wäre, dass kein Mensch, sondern der Rechner diese Entscheidung im Ernstfall treffen muss – sie wird genaugenommen über die Programmierung entschieden. Dabei seien Autos, wie die beiden Philosophen betonen, keine moralischen Akteure, da sie keine Gründe für ihr Handeln haben. Die Gründe haben lediglich die Programmierer. Dies gelte auch dann, wenn die Software lernfähig sei, so die Philosophen. Schließlich entscheiden Programmierer, was die Software lernen könne.

All dies führt dazu, dass im Gegensatz zum Trolley-Problem eine Entscheidung auf Wahrscheinlichkeiten beruhen wird. Die Programmierer können vorab nicht wissen, in welche Situationen das Auto gerät und folglich wäre jede Entscheidung eine Entscheidung, die davon ausgeht, was passieren könnte – nicht was passieren wird.

Insofern sei die allgemeine Entscheidung, die Opferzahl möglichst zu minimieren, im Interesse aller Beteiligten. Alexander Hevelke und Julian Nida-Rümelin vergleichen das mit der Impfung: Es ist bekannt, dass Impfungen Nebenwirkungen haben, aber sie werden in Kauf genommen, wenn dafür die meisten Menschen vom Impfschutz profitieren.

Die Autoren schreiben ferner:

Wenn eine solche Programmierung diejenige ist, welche zu der geringsten Anzahl an Opfern führt und gleichzeitig das Risiko eines jeden einzelnen reduziert, so ist dies ein guter Grund, die Programmierung autonomer Autos darauf auszurichten. Die Frage ist allerdings, ob eine auf Verletzungsminimierung ausgelegte Programmierung so etwas auch wirklich leisten kann.

Was ist, wenn in dem einen Auto ein 20-Jähriger, im anderen ein 70-Jähriger sitzt? Würden die Autos versuchen, für beide gleichermaßen das Verletzungsrisiko zu minimieren, müsste die Software dann nicht auch das Alter berücksichtigen? Schließlich würde ein 70-Jähriger auf Verletzungen kritischer reagieren als ein 20-Jähriger?

Gelten für sichere Fahrzeuge andere Regeln als für alte Kisten? Und gelten für Verkehrssünder andere Regeln als für faire Fahrer? Falls ja, dann wären vorab bestimmte Gruppen per Programmierung besser geschützt als andere.

Zusätzlich würde ein auf Verletzungsminimierung programmiertes autonomes Fahrzeug im Falle der Unvermeidbarkeit eines Unfalles nicht stur auf das „bestgepanzerte“ Fahrzeug mit den wenigsten Insassen zuhalten. Gerade auch mögliche Aufprallwinkel, Gewichtsunterschiede zwischen den Autos etc. können eine nicht unerhebliche Rolle für die optimal verletzungsminimierende „Zielauswahl“ in Situationen spielen, in der eine Kollision nicht mehr vermieden werden kann.

Kurzum: Es ist kompliziert und es gibt keine einfache Lösungen. Die Autoren kommen daher auch zu einem ambivalenten Fazit:

Eine auf Verletzungsminimierung ausgelegte Programmierung ist nur legitim, wenn sie dieses Ziel auch erreicht. Damit hängt die moralische Legitimität dieses Ansatzes in hohen Maße davon ab, ob und inwiefern sich seine Konsequenzen zuverlässig abschätzen lassen.

Die Gesellschaft wird irgendwann die Regeln für den autonomen Straßenverkehr festlegen müssen. Es ist schon jetzt absehbar, dass das keine dankbare Aufgabe wird.

The post Die Moral von selbstfahrenden Autos appeared first on Robotergesetze.


Viewing all articles
Browse latest Browse all 6

Latest Images

Trending Articles