Natürlich ist diese Frage sehr zynisch und überspitzt – allerdings stellt sie ein moralisches Dilemma dar, mit dem sich Wissenschaftler rund um den Globus momentan befassen müssen. Autonome Autos sind nicht automatisch intelligent. Sie folgen ihrer Programmierung und die wird von Menschen gemacht. Nach welchen Maßstäben soll das Auto reagieren?

Starkes Potenzial: Fahrzeugautonomie rettet Leben

Nach Angaben des Verbandes der Automobilindustrie e. V. konnte in den letzten 20 Jahren durch Fahrassistenzsysteme die Anzahl der Verkehrstoten um 65 Prozent gesenkt werden. Diese Zahl ist nicht nur enorm beeindruckend – sie symbolisiert zudem den Prozess der Digitalen Revolution. Die zunehmende Vernetzung und die Möglichkeit, eine riesige Datenmenge zu verarbeiten, hat dazu geführt, dass immer mehr Arbeit an Maschinen abgegeben werden kann. Dies betrifft nicht nur Arbeit am Fließband, die eigenständig von Robotern durchgeführt wird, sondern auch die Arbeit, die uns das Auto beim Fahren abnehmen kann.

Es warnt uns selbständig, sobald eine Komponente defekt ist, es merkt sich, welche Musik wir gern hören und kann bestimmen, wann wir bei einem Aufprall die lebensrettenden Airbags benötigen. Diese Vernetzung innerhalb des Autos ist noch längst nicht abgeschlossen, wird jedoch von der Entwicklung des vollständig automatisierten Fahrens mittlerweile in den Schatten gestellt. Experten gehen davon aus, dass das selbständige Auto das Potenzial hat, 90 Prozent der Unfälle zu verhindern. Diese 90 Prozent gehen auf menschliches Versagen zurück oder sind nachweislich durch menschliches Verhalten mit verursacht worden. Das autonome Auto soll genau dort eingreifen. Fehler korrigieren oder gar nicht erst aufkommen lassen bedeutet allerdings eine Gradwanderung – denn ab wann greift das Auto hier die Selbstbestimmung des Menschen an?

Fahren ohne Hände am Steuer ist möglich - aber nicht zu empfehlen! Kommt es deswegen zum Unfall, wird es nämlich richtig teuer.

Wessen Leben soll vorrangig geschützt werden?

Viele Besitzer trauen ihren autonomen Autos, geben das Lenkrad gern aus der Hand und manche filmen sich dabei auch noch, um das Video anschließend über soziale Netzwerke zu teilen. Den Spaß-Faktor scheinen Tesla & Co befriedigen zu können – aber wie sieht es mit ernsten oder sogar lebensgefährlichen Situationen aus? Konstruierte Umstände können reale Gegebenheiten selten gut abbilden, allerdings müssen sich Wissenschaftler zunehmend mit der Frage auseinandersetzen, wie Gesellschaften damit umgehen müssen, wenn ein Computer ein Leben fordert. In einer aktuellen Ausgabe der Zeitschrift „Science“ veröffentlichen drei Psychologen aus den USA die Umfrageergebnisse einer Studie, in welcher Teilnehmer die Entscheidung treffen mussten, wie vollautomatisierte Autos handeln sollten.

Die Dilemmata waren schlicht aufgebaut und drehten sich vorrangig um die Frage, ob das Auto seine Insassen immer maximal schützen sollte – auch auf die Gefahr hin, in eine Gruppe von Menschen zu rasen. Die überragende Mehrzahl der Teilnehmer der Studie favorisierten eine moralische Programmierung dahingehend, dass die Menge der Verletzten so gering wie möglich gehalten werden sollte; auch wenn dafür die Insassen getötet würden: „[…] participants expressed a preference for AVs [autonomous vehicles, Anm. d. Red.] programmed to kill their passengers for the greater good“. Auch andere Studien kommen zu ähnlichen Schlüssen, was den Schluss nahelegt, dass nicht die Identität potenzieller Opfer, sondern die Anzahl einen entscheidenden Faktor für eine moralische Programmierung darstellt.

Link-Tipp:

Moralische Dilemmata wie die Frage, wessen Leben bei einem unausweichlichen Unfall besonders berücksichtigt werden soll, sind abstrakt. Eine anschauliche Darstellung der Problematik kannst du selbst unter Moralmachine durchspielen – Auswertung inklusive.


Die Würde des Menschen ist unantastbar

Ob Kind, Rentner oder Vater einer Großfamilie – in der Bundesrepublik Deutschland ist die Würde eines jeden Menschen unantastbar. Auch, wenn es Gedankenspiele gibt, dass automatisierte Autos in der Lage sein könnten, zwischen dem Leben zweier Individuen abzuwägen und das auf einer kruden Skala als „wertvoller“ eingestufte zu retten, sind diese zu verwerfen.

Trotzdem müssen gewisse Rahmen konzipiert werden, in welchen der Handlungsspielraum eines hoch- oder vollautomatisierten liegen darf. In diesem Zusammenhang hat Bundesverkehrsminister Alexander Dobrindt am 30.09.2016 die Experten der Ethik-Kommission für das autonome Fahren getroffen. Unter der Leitung des ehemaligen Bundesverfassungsrichters Udo di Fabio wird sich das Gremium mit den moralischen Grundlagen, technischen Realitäten und rechtlichen Folgen auseinandersetzen. Bereits im Vorfeld stellte Dobrindt dahingehend jedoch klar: „Sachschaden geht immer vor Personenschaden".

Der autonome SUV - entwickelt von der Bundeswehruniversität München