Dilemma: Wenn selbstfahrende Autos töten

Hab gerade einen interessanten Artikel gelesen, der einem schon zum nachdenken anrgegt.

Wie sollte das in Zukunft wirklich ablaufen? Hier mal ein paar kurze Auszüge:

Hier der Link zum ganzen Artikel: http://futurezone.at/science/dilemma-wenn-selbstfahrende-autos-toeten/160.241.518

Natürlich gibt es da viele Fragen. Viele davon lassen sich nicht abschließend beantworten. Das muss es auch nicht. Schon die Vermutung, dass wenn alle Autos autonom fahren würden, die Unfallzahlen extrem gering sein werden. Es wird immer Unfälle irgendeine Art geben. Das lässt sich nicht vermeiden. Die Statistik hat vorausgesehen, dass alle soundsoviel Jahre ein Atomkraftwerk platzt. Auch hier die Statistik Recht behalten. Das nächste Atomkraftwerk platzt mit Sicherheit. So verhält sich das auch mit den Unfällen autonom fahrende Autos.

Bei vielen Studien geht man davon aus, dass der Computer entscheiden könnte wer mehr oder weniger Schaden abbekommen würde. Die Realität sieht jedoch oft anders aus. Da kann Schaden minimiert werden. Der Insasse ist bereits durch das Fahrzeug selbst ein Stück weit geschützt. Das aber Computer Personen auf der Straße differenzieren und als möglichere Opfer klassifizieren halte ich für nicht verfolgungswürdig. Nach der Theorie wurde ein Fahrzeug im Falle eines Unfalls eher eine alte Oma schützen als ein größeres Kind, weil die Körpergröße unterschiedlich ist. Das lässt sich nicht sinnvoll rechtfertigen.

Die Erbauer aller Atomkraftwerke nehmen billigend in Kauf, dass eines ihrer Kraftwerke platzt und dadurch Menschen und Tiere tötet. Ansonsten hätte man nie in diese Richtung kommerziell Kraftwerke gebaut. Da Geld grundsätzlich wichtiger ist als Menschenleben, wird das auch weiter so laufen.

Ich finde auch nicht, dass die Autos große moralische Überlegungen (Berechnungen) anstellen sollten.

Das Auto muss seine Spur einhalten.
Das Auto muss bei erkannten Hindernissen so schnell und stark es geht bremsen.

Mehr Moral braucht es zunächst nicht. Schon das Ausweichen auf eine andere Spur kann mit Gefahren verbunden sein. Wenn man sich mit der Software soweit wohlfühlt, kann man über spontane „Ausweichvorgänge“ nachdenken, falls eine andere Spur oder z.B. ein grüner Randstreifen als frei erkannt wird. Abwägungen, ob eine Ausweichroute mehr oder weniger oder angeblich „wertlose“ oder „wertvolle“ Menschen umbringt, sollte man vermeiden.

Wenn dann wirklich 10 Menschen auf der Autobahn stehen oder ein ganzer Kindergarten ( :unamused: ), passiert eben im Worst Case das, was heute recht oft passiert: Sie werden überfahren, weil sie nicht auf die Autobahn gehören. Eigentlich sollten die Autos aber doch dank Sensorik rechtzeitig stehenbleiben.

Zu Fuss quer Verkehr kann man auf einer Autobahn oder Langstrasse nicht ausbremsen. Das Wild oder die Person wird viel zu spät erkannt. Das Resultat ist ja mit einem Fahrer vermutlich ähnlich. Das Autonome Auto hält idealerweise die Spur anstatt in den Gegenverkehr zu donnern, oder in einen Baum.

Vielleicht ist es auch gar nicht sinnvoll sich zu viele Gedanken über jede noch so unwahrscheinliche Situation zu machen. Autonomes fahren sollte als Ziel sicherer sein. Das sollte erreicht werden und gut ist. 100 % Sicherheit ist am Ende eh zu teuer.

Man stelle sich vor, Autonome Autos kommen nicht weil sie nicht 100 % sicher sein können. Es werden also weiter haufenweise Leute sterben weil die Fahrer fehlbar sind. Was ein Hohn.

Der Film iRobot hatte dieses Dilemma schon 2004…

Sirry es ging da nicht um den automatischem Staubsauger von iRobot, sondern der Film hiess „I Robot“. :slight_smile:

Frank

Nein, er hieß „I, Robot“ :wink:

Man kann diese Fragen meiner Meinung nach gerne diskutieren, während man der Entwicklung ihren Lauf lässt. Man sollte aber nicht auf die vollumfängliche und jeden zufriedenstellende Beantwortung jeglicher unwahrscheinlicher oder abstruser Gedankenexperimente warten, bis man Autos autonom fahren lässt.

In den Städten wird das Auto die nächsten 10 Jahre sicher nicht autonom fahren, da sind die Zusammenhänge viel zu komplex.
Und auf einer Autobahn haben Menschen nicht auf der Fahrbahn rumzulaufen und falls doch, dann kann der Autopilot nur versuchen den Schaden zu minimieren.
Ich finde es auch Hohn, dass man solche Beispiele heranzieht und die Rettung von Menschenleben damit unnötig herauszögert.
Im ersten Schritt kann das autonome Fahren sinnvollerweise sowieso nur auf Autobahnen zugelassen werden.

Skynet wird das schon schaukeln, keine Sorge!

Und nein, Skynet ist kein Apple Produkt!

Und dann auch noch mit Schreibfehler im Bild :mrgreen:

Dieses Dilemma ist alles andere als neu, Berthold Brecht hat es im Jasager / Neinsager aufgegriffen, wenn ich Wikipedia glauben darf basiert das auf einem japanischem Theaterstück aus dem 15. Jahrhundert

Ich denke, das wird sich von alleine auflösen, da sich auch die gesellschaftliche Moral weiterentwickelt, in welche Richtung auch immer.
Extrembeispiel : Gladiatorenkämpfe im römischen Reich im Vergleich zu Sportwettkämpfen in der heutigen Zeit.

Sollte einstellbar mit einem Button im Autopilot Menu sein.
Die Wahrheit ist nun einmal grausam.
Der Autopilot zwischen euren Ohren ist ja auch schon vor parametrisiert.

Halte das hier geschilderte Problem für allenfalls philosophisch interessant, praktische Bedeutung kann ich nicht erkennen. Wenn das System Autopilot in einer Situation über so umfassende Informationen verfügt, so dass es die genauen Auswirkungen der Entscheidung kennt, links vier Tote Rentner, rechts eine Tote Mama im Kinderwagen und geradeaus ein toter Teslapassagier, dann gehe ich davon aus, dass der Autopilot den Unfall auch hätte vermeiden können.

Das Problem ist doch eher eine unklare Situation, nicht eine, wo alle Parameter bekannt sind.

Gruß Mathie

Die Sache ist recht einfach: Geld ist immer wichtiger als Menschenleben.

Wenn also einer ein sehr teures selbstfahrendes Auto kauft dann wünscht er auch einen optimalen Schutz für sein Leben. Daher wird das selbstfahrende Auto immer die eigenen Passagiere versuchen zu schützen (natürlich innerhalb des gesetzlichen Rahmens). Die anderen haben dann eben Pech gehabt.

Ist ja heute schon so. Wer sich einen fahrenden Panzer kauft (SUV) erwartet auch einen entsprechenden Schutz. Die Familie im Kleinwagen hat da deutlich weniger Chancen.

Im Geltungsbereich des aktuellen Grundgesetzes darf man nichtmal ein Passagierflugzeug abschießen, das entführt wurde und bei dem angenommen wird, dass es zum Erzielen großen Schadens in Nuklearkraftwerke oder Hochhäuser geflogen werden soll. Nach der Lesart müsste ein autonomes Fahrzeug also so programmiert werden, dass der Schutz des Insassen höchste Priorität hat.

Abgesehen davon hege ich die Hoffnung, dass der motorisierte Individualverkehr abgeschafft ist, wenn die Rechnerleistung hoch genug ist, um Entscheidungen a la „Schülergruppe oder eigener Tod“ zu treffen. Ein System, das intelligent und schnell genug ist, um solche Entscheidungen treffen zu können, müsste die Fahrt von sich aus generell verweigern.

Wenn’s schon mal so schön lauschig und philosophisch wird, werfe ich mal den Asimov (Autor von „Foundation“, „ich der Roboter“) in den Ring.
Asimov formulierte die 3 Gesetze der Robotik so

  1. Ein Roboter darf kein menschliches Wesen wissentlich verletzen oder durch Untätigkeit gestatten, dass einem menschlichen Wesen wissentlich Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Demnach müsste ein Autonomes Auto=Roboter zunächst sich selbst beschädigen, um kein Menschenleben zu gefährden

ich hatte kürzlich ähnliche überlegungen zu dem thema und versucht eine reihenfolge oder priorität festzulegen …

ich glaube die meisten denken hier für diese fall immer aus der menschlichen fahrersicht.

nimm den menschen aus der gleichung und du hast die perfekte lösung.

die sensorik im fahrzeug wird situationen schon zu einem zeitpunkt erfasst haben und gestoppt haben wo das menschliche gehirn noch irgendwelchen abstrusen gedanken nachläuft. deswegen wird ein autonomes fzg keine schrecksekunde haben und nicht in letzter sekunde schwerwiegende entscheidungen dieser art treffen müssen.

die moralische frage bzw das dilemma gibt es daher nicht.

So ein System ist stark von der vorgegebenen Logik abhängig. Ab einer gewissen KI-Freiheit kann man die Folgen in Spezialfällen kaum abschätzen.

Ein besonderes schlaues Auto müsste in 30er Zonen ständig mut schrittgeschwindigkeit fahren oder sich präventiv selbst zerstören.

welche anwendungsfälle diskutiert ihr hier?
ein kind das zwischen parkenden autos hervorspringt? hat das auto visuell, per infrarot/wärmebildsensor schon längst gesehen.

ein auto vor dir gerät wegen eines reifenplatzers ins schleudern? durch vernetzte autos und der wesentlich schnelleren reaktion, steht deine kiste schon bevor was passiert.

es braucht keine KI, die kinder, schwangere, gruppen erkennt und abwägt wer weniger zählt. schaltet den menschen aus und gut isses.

Wenn das Auto Tempo 30 fährt ist der Bremsweg im Vergleich zur während der Reaktionszeit zurückgelegten Stecke sehr gering. Ein autonomes Auto muss nicht vom Beschleunigungspedal aufs Bremspedal wechseln und dort den Bremsdruck aufbauen bis die Bremse wirkt. Die Signalverarbeitungszeit des AP bei einem plötzlich in Fahrweg auftauchenden Hindernis dürfte vernachlässigbar sein, die Samplingfrequenz hinreichend hoch.

Bei Tempo 30 legt das Auto in einer Sekunde knapp 8,5m (s=v*t) zurück, der reine Bremsweg bei Tempo 30 und -1g Beschleunigung ist etwa 3,5m (s=v^2/2a)

Wieso sollte sich das schlaue Auto in der 30er Zone selbst zerstören? Es sollte vielleicht die Fahrertür verriegeln und nur die Passagierplätze freigeben ;->

Gruß Mathie