MISSING :: structure.inactiveTabOverlay
{"irCurrentContainer":"8547667","configName":"structure.inactiveTabOverlay"}

Ethik-Diskussion um autonome Autos
Moralisches Dilemma

Inhalt von

Eine Gruppe Kinder rennt auf die Straße, das autonom fahrende Auto kann nicht mehr bremsen, nur noch ausweichen: Links ein Laster, rechts ein Abgrund: Wie entscheidet die Software? Eine Frage, die Ethiker, Techniker und Juristen beschäftigt.

autonomes Fahren, ams022016, Aktuelles
Foto: Rinspeed

Das US-Automagazin Car and Driver hat die Diskussion um die Ethik neu befeuert, indem es das Statement eines Mercedes-Ingenieurs veröffentlichte. Christoph von Hugo, Abteilungsleiter für Aktive Sicherheit bei Daimler, sagte laut Car and Driver während des Pariser Autosalons: „Wenn Sie wissen, dass sie nur eine Person schützen können, dann tun sie das. Dann schützen Sie die Person im Auto.“ Daimler stellte daraufhin klar: Weder Programmierern noch automatisierten Systemen steht eine Abwägung über Menschenleben zu.„

Unsere Highlights

Das ist auch der aktuelle Stand in der rechtlichen Diskussion: Das Bundesverfassungsgericht hat vor einigen Jahren entschieden, dass Menschenleben nicht gegeneinander aufgewogen werden dürfen.

Forscher der Universität Toulouse, des Massachusetts Institute of Technology (MIT) und der Universität von Kalifornien haben sich mit der Frage beschäftigt, wie Menschen entscheiden würden und dazu 2.000 Probanden befragt. Dazu wurden den Befragten diverse Dilemma-Situationen vorgelegt und gefragt, wie sie entscheiden würden, wenn ein Auto nur noch in eine Menschenmenge lenken kann, den sicheren Tod der Insassen riskiert oder eine Schwangere auf dem Zebrastreifen überfährt.

Das Ergebnis war eindeutig: Die Mehrheit der Befragten entschied rational und wollte die Zahl der Opfer möglichst klein halten. Das galt auch, wenn die Annahme lautete, dass ein Familienmitglied im Auto sitzt. Kaufen würden ein solch rational entscheidendes Auto jedoch nur 19 Prozent der Befragten.

Einen anderen Blickwinkel vertritt das Unternehmen Mobileye. Das mittlweile von Intel übernommene Start-up aus Israel gilt als einer wichtigsten Industriepartner für Fahrassistenzsysteme und autonome Autos.

Mobileye will Unfälle berechnen

Fisker Orbit
Fisker
Die Studie eines autonomen Shuttleautos von Fisker.

Mobileye-Chef Amnon Shashua will der Schuldfrage bei Unfällen mit selbstfahrenden Autos mit einem mathematischen Modell zu Leibe rücken, verteidigt also einen rein rationalen Weg.

Seine Formel soll Medienberichten zufolge “sicherstellen, dass ein selbstfahrendes Fahrzeug verantwortungsbewusst handelt und keine Unfälle verursacht.„ So viel gibt auch heute schon ein Fahrlehrer seinen menschlichen Schülern mit auf den Weg.

Die Berechnungen sollen klare Verhaltensmodelle für Roboterautos ermöglichen, an die sich die Computer strikt halten, inklusive “klarer Regeln für Fehler„. Das soll bedeuten, dass ein Computergehirn in einer Notsituation nicht spontan aufgrund der aktuellen Begebenheiten entscheiden soll und kann, sondern strikt Regeln befolgt. Es geht Mobileye also hier nicht unbedingt um Unfallvermeidung sondern eher um die Vorhersage genau festgelegter Unfallszenarien.

Sepp Hochreiter, Professor an der Johannes-Keppler-Universität in Linz, setzt früher an. Er geht davon aus, dass es in Zukunft “Führerscheinprüfungen für autonome Autos„ geben wird, bei denen die Fahrzeuge auf einem Parcours diverse Situationen beherrschen müssen.

So unterschiedlich beide Sichtweisen sind, verfolgen Sie doch beide das gleiche Ziel: Der Mensch im selbstfahrenden Auto soll im Falle eines Unfalls nicht zur Rechenschaft gezogen werden, ebenso wenig der Halter des Fahrzeugs.

Kann man als potentieller Käufer, Nutzer oder Passagier die rein rationale Entscheidung eines selbstfahrenden Autos mittragen oder nicht? Wie würden Sie entscheiden?

Mit der Moral Machine des MIT können Sie das ausprobieren:

Die aktuelle Ausgabe
MOOVE 01 / 2024

Erscheinungsdatum 07.12.2023

Seiten