Die Ethik des autonomen Todes und wer da alles mitspielt

Präambel:
Dobrinth hebt eine „Ethik-Kommission“ aus der Taufe, die sich mit den Fragen des autonomen Fahrens beschäftigen soll.

Umsetzung:
Ein katholischer Geistlicher erhebt die Sprache:
katholisch.de/aktuelles/aktu … mission-an

Mercedes so:
zeit.de/mobilitaet/2016-10/a … hersteller
(und alle legen dabei die Hände auf den Schoß)

Resultat: Deutschland wird sich mit diesen regulativen Mitteln aus dem Markt der autonom fahrenden Autos abschaffen. Meine Frage an euch: Wie soll das hier weiter gehen? Gremien. Stuhlkreise. Seilschaften.

Auswandern :slight_smile:

Wie ist das eigentlich? Muss der Computer im Fall, dass er zwischen Menschenleben entscheiden muss, nicht einfach undeterministisch den Zufallsgenerator nehmen?

Was ist wenn sich jemand umbringen will??

Ist es dann nicht deutlich fairer ihn um zu fahren anstatt eine andere Person :smiley: :smiley:

Es gibt da zwei Aspekte, die man sorgsam von einander trennen sollte:

  1. aufmerksamkeits- und machtgeile Lobbyisten-Statisten, die Aktionismus machen

  2. die wirklich wichtigen ethischen Diskussionen, die zu führen sind, aber definitiv an anderen Stellen, als momentan von der erstgenannten Gruppe propagiert

Hier ein Artikel, den ich ganz spannend zu 2) finde:

[url]ZEIT ONLINE | Lesen Sie zeit.de mit Werbung oder im PUR-Abo. Sie haben die Wahl.

Die Tatsache, dass das Interview VOR dem ersten „Tesla-Autopilot-Toten“ geführt wurde, ist auch ganz interessant.

Die wirklich entscheidenden Fragen verlaufen doch an den Grenzlinien, wer die „Kontrolle“ hat. Die Kontrolle über die Programmierung der KIs, inwieweit diese offengelegt werden muss, die Ausgestaltung der KI in Hinblick auf Sicherheit (siehe Forschung OpenAI), usw.

Und da schließt sich der Kreis, denn die erstgenannte Gruppe ist GENAU die FALSCHE, um diese Diskussion zu führen bzw. zu initiieren. Diese Gruppe akzeptierte stillschweigend jahrelang viele hunderte bis tausende Diesel-NOx-Tote im Jahr und ist damit in meinen Augen DISQUALIFIZIERT, solche ethische Fragestellungen zu besprechen.

An den Fragestellungen, mit denen sie sich beschäftigen erkennt man, dass der Radius ihres Horizonts leider zu klein ist, in manchen Fällen sehr nahe null (in diesen Fällen nennt man diesen Radius dann Standpunkt). :laughing:

Grüße, Andreas

Die Diskussion halte ich für extrem wichtig und eine Ethik-Komission einen ersten Ansatz der aber zu klein gedacht sein dürfte.

Bei der Frage, nach welchen Kriterien die Software im Falle eines unvermeidbaren Unfalls entscheiden soll, muss letztlich von der ganzen Gesellschaft getragen werden.

Interessanter Weise drücken sich aber die allermeisten Menschrn (auch hier im Forum) vor der elementaren Frage nach der Wichtung eines Unfallausgangs.

Selbst wenn man z.B. das Alter der Opfer unberücksichtigt lässt (eher den alten Mann als das kleine Kind überfahren ?), wie es Dobrinth bereits vorgegeben zu haben scheint, bleiben foch Fragen dazu, ob ein Toter mehr oder weniger wiegt als 30 Verletzte, eine schwere Verletzung gegenüber wieviel leichten Verletzungrn überwiegt ? Der Unfallverursacher /direkt Beteiligter wie gegenüber eigentlich Unbeteiligten zu wichten ist ?

Aktuell entscheidet der Mensch in Panik wenig rational und macht sich anschließend (meist alleingelassen von der Gesrllschaft) Gedanken und Vorwürfe.
Autonome Systeme legen ein geplantes Verhalten aber im Vorfeld fest und können statistische Daten für Entscheidungen zu Gunsten des geringsten Schadens verwenden. Diese Statistik kann besser werden, „ungerechte“ Unfallfolgen abmildern, aber das wie und was ist eigentlich „ungerecht“,das muss die Gesellschaft entscheiden. Auf diese Werte müssen wir uns verständigen, dazu müssen wir erst mal bereit sein zu diskutieren, vorher, nicht nachher, wie wir Menschen das so gerne machen.

Insofern ist jeder Versuch, diese Diskussion zu beginnen richtig sebst wenn der 1.Schritt von Dobrinth kommt.

Es wird irgendwann den ersten Toten, den ersten sehr schwer Verletzten, das erste überfahrene Kind geben, verursacht von einem autonom fahrenden Auto, das steht außer Frage. Wenn dann die Diskussion in einem solchen emotionalen Umfeld beginnt, gute Nacht.

Genau das tun sie eben nicht! Aber du hast Recht: die Diskussion ist wichtig und notwendig. Sie beschränkt sich nicht auf das autonome Fahren sondern auch auf alle Gebiete die momentan als Industrie 4.0 diskutiert werden.

Ich kann die ganze Diskussion nicht nachvollziehen, aber vielleicht übersehe ich ja etwas Relevantes. Hier mein vereinfachter Gedankengang:

1.) Autonome Fahrzeuge sollen Unfälle verhindern, nicht verursachen.

2.) aus 1 folgt für mich zwingend: Wenn ein autonomes Fahrzeug einen Unfall verursacht, liegt eine Fehlfunktion des Fahrzeugs vor.

3.) In einer Situation in der ein gravierender Unfall verursacht durch den AP unvermeidbar bevor steht, hat der Autopilot die „Situational Awareness“ kurz SA (wie sollte man das auf deutsch nennen?) bereits verloren, sonst wäre die Situation bei korrekt funktionierendem Autopiloten nicht entstanden.

4.) Wenn der Autopilot die SA verloren hat, dann beruhen seine Entscheidungen auf einer falschen Einschätzung der Situation.

5.) Daraus wiederum resultiert für mich: Wenn der Autopilot die Entscheidung noch treffen könnte, muss er sie nicht treffen. Wenn der AP die Entscheidung treffen müsste, dann kann er sie nicht mehr sinnvoll treffen, da er die für eine sinnvolle Entscheidung notwendige SA bereits verloren hat.

Diskutieren wir hier nicht um Kaisers Bart?

Gruß Mathie

@Measureman: Ich muss Dir hier teilweise widersprechen.

Diese in dem Eröffnungspost genannten Szenarien, Entscheidung zwischen „30 alten Rollstuhlfahrern am Zebrastreifen und 5 Kindern auf dem Gehweg“ ist genau das, worüber man nicht diskutieren muss.

Wer glaubt, dass eine KI in einer komplexen Unfallsituation da auch nur entfernt irgendwas entscheiden und dann auch noch umsetzen kann, der irrt gewaltig. Wie der von mir verlinkte Artikel zeigt, liegt die Herausforderung darin, überhaupt mal alle Sonderfälle abzudecken, von komplexem Unfallgeschehen ganz zu schweigen.

Fakt ist, dass bei Verkehrsunfällen viel Zufall eine Rolle spielt.

Ich bin nicht emotional, ich wünsche mir nur, dass Leute, die offensichtlich von Ethik keine Ahnung haben sondern knallharte Interessenpolitik verfolgen, bei diesen Diskussionen nicht involviert sein sollten. Da kann nichts gutes dabei rauskommen.

In meinem Bekanntenkreis sind viele sehr skeptisch über Level 3+ Wagen, und ich kann das gut nachvollziehen. Das Thema gehört in die Hände von Leuten, die sich mit Technikfolgenabschätzung auskennen und nicht in die Hände von Leuten, die zusammen mit Kollegen in mehreren Bundestagsuntersuchungsausschüssen Rede und Antwort stehen müssen.

@Mathie

zu 2) Sehr falsch. Wenn die KIs das könnten, immer richtig reagieren (was ist richtig, wenn man nicht weiß, wie das gegenüber reagiert) wären sie Götter, weil sie die Zukunft vorhersagen könnten.

Die Natur kennt übrigens keine Schuld. Das projezieren wir Menschen auf die Natur.

Falsche annahme gleich zu beginn:
Wir haben noch keine homogen abgestimmte verkehrsumgebung, wo nur mit AP kontrollierte & vernetzte teilnehmer unterwegs sind.

Die meisten fehler werden wie gehabt vom menschlichen fahrer kommen & deswegen ist die diskussion für die jahrzehnte langen übergangsphasen umso wichtiger.

Inviato dal mio iPhone utilizzando Tapatalk

@AquaAndreas: volle Zustimmung!

Ich finde diese Ethik Diskussion in so fern überflüssig da Computer ja keine echte KI haben und daher auch keine Ethischen Endscheidungen treffen können oder müssen. Also braucht man das auch nicht zu diskutieren da es zu nichts führt. Wie schon geschrieben, in die Zukunft können die auch nicht gucken.

@AquaAndreas:
Tut mir leid, aber da muss ich nun widersprechen. Es wird in einigen Situationen sehr wohl möglich sein, mit zunehmender Erfahrung sogar immer stärker, Risiken durch die Software abzuschätzen.

Dabei geht es allein um Statistik und Wahrscheinlichkeiten, nicht um Weissagung oder 100%igem Wissen.

Den Artikel in der Zeit sehe ich dabei weder als zielführend noch als hilfreich: Offensichtlich ist Volvo nicht annähernd so weit, vollautonom zu fahren, aus dieser Situation heraus ergibt dich die Frsge nach der Entscheidung in der beschriebenen Situation ja gerade nicht.

Erst ein Auto, dass auch in außergewöhnlichen Situationen autonom fährt, muss und wird, in welcher Form auch immer (die einfachste Möglichkeit ist ein Zufallsgenerator), eine Entscheidung treffen müssen, wenn Menschenleben so oder so in Gefahr sind. Ohne diese Entscheidung gibt es kein Level 5.

Bei den bisherigen Assistenzsystem ist es deutlich einfacher. Hier hat man sich geeinigt, dass Vollbremsung und Spurhalten ausreichend ist, von höheren Systemen verlangt man dagegen, dass sie ausweichen und dann geht das Problem los…

In der Industrie treten die Probleme in der Zukunft natürlich auch auf, gab und gibt es die in der Vergangenheit auch schon, aber die Situationen sind weniger komplex, die Umstände durch Absperrungen etc. deutlich besser beeinflussbar. Der Fail-Save-Zustand oftmals einfacher bestimmbar. Außerdem redet hier nach einem Unfall nicht jeder als selbsternannter Experte mit.

@Snuups: Natürlich entscheidet letztlich der Programmierer, aber dem sollte man derart grundlegende Entscheidungen doch nun wirklich nicht alleine überlassen ?

Den Einwand verstehe ich nicht. Ich habe nie gesagt, dass Menschen oder Automaten oder KIen immer richtig reagieren, im Gegenteil, ich habe doch gerade betont, dass es Fehlfunktionen geben kann.

Gruß Mathie

Das wäre definitv eine Idealvorstellung. Jetzt picke ich mal ein sehr reales Beispiel raus (da es in meinem näheren Umfeld geschehen ist):
Fahrzeug fährt in einer Ortschaft bei freier Fahrbahn und lockerem Verkehr mit 50km/h schnurgeradeaus. Rechts parkende Autos, kaum Personen auf den Gehsteigen dahinter.
Unvermutet und auch nicht vorher ersichtlich springt ein Ball und das zugehörige Kind zwischen 2 parkenden Autos auf die Fahrbahn. Gegenverkehr.
Was hat meine Bekannte gemacht? Schreck, Lenkrad Richtung Gegenverkehr verrissen, Vollbremsung. Ergebnis: Gegenverkehr hatte noch die Chance auch auszuweichen, Kind lief dennoch gegen den Kotflügel des Fahrzeugs und wurde (Gott sei Dank) nur leicht verletzt.

Dieses Szenario der AP2.0? Ausweichen in den Gegenverkehr? In die parkenden Autos? Draufhalten und Vollbremsung?

Wie auch immer: Es lag bis zum Erkennen des Kindes kein Fehlverhalten des APs vor. Also Dein Punkt 2. ist für mich nicht (immer) richtig.
Wir müssen einen Konsens finden (und sei es zufallsgenerisch) mit solchen Events bei autonomen Fahrsituationen umzugehen. Und daraus einen rechtlichen Rahmen ableiten.

PS: Es gab danach eine Gerichtsverhandlung, bei der meine Bekannte freigesprochen wurde. Sie hatte lt. Urteil einfach keine Chance den Zusammenstoß zu verhindern.

Richard, danke für das Beispiel aus der Realität! Das Beispiel zeigt für mich, dass Erfahrungswerte zum Verhalten von Verkehrsteilnehmern ohne konkrete vorher definierte moralisch-ethisch durchdeklinierte Folgenabwägungen ein vertretbares Ergebnis liefern.

Sobald die Gefahrensituation erkannt ist, wird hart gebremst und wenn man eine Lücke siehe, die ein Ausweichen ermöglicht, weicht man aus. Erfahrung zeigt, dass der Gegenverkehr auch ausweicht, wenn er Platz hat.

Eine Abwägung „opfere“ ich lieber das Kind oder mich und die Passagiere des entgegenkommenden Autos hätte, abgesehen davon, dass sie für einen Menschen in der Kürze der Zeit nicht möglich ist, keinesfalls zu einem besseren Ergebnis geführt, oder siehst Du das anders?

Die KI hätte vielleicht schneller reagieren können als der Mensch, da durch die Vielzahl der Sensoren die Situational Awareness bei völlig unerwarteten Situationen besser sein dürfte als bei einem Menschen, wenn eine völlig unerwartete Situation eintritt und entsprechend der Fokus der Aufmerksamkeit der Fahrerin wohl nicht auf dem rechten Starßenrand liegt, wo plötzlich und unerwartet der Ball herkommt. Die Sensoren des Autos können routinemäßig 360° überwachen und die KI kann mutmaßlich schneller reagieren als der Mensch.

Für mich ist diese reale Situation und die Reaktion Deiner Bekannten sowie das Gerichtsurteil eine Bestätigung, dass die Relevanz der moralischer Abwägungen für das autonome Fahren von vielen überbewertet werden.

Gruß Mathie

Man könnte diesen Fall noch weiterdenken: sitzt im Gegenverkehr ein Mensch mit, sagen wir mal als Beispiel Glasknochenkrankheit, was wäre dann los? Riskiere ich die Gesundheit des Kindes oder des entgegenkommenden Fahrers beim Aufprall?

Ich denke, dass wir in solchen Fällen nicht mehr Personen in Gefahr bringen sollten, als ohnehin schon beteiligt sind. Es geht darum Risiken zu minimieren, je mehr Faktoren dazukommen, desto umberechenbarer wird die Situation.

Was machen wir also, wenn ein Passant, gleich ob jung oder alt, vor ein Auto springt? Ich denke, die einzige Möglichkeit wäre eine gerade Vollbremsung, sofern Gegenverkehr (auch Motor-/ und normale Radfahrer) vorhanden ist und damit kein Raum zum Ausweichen bleibt.

Heute noch, ist man als Fahrzeugführer verantwortlich für solche Situationen, wenn Leute auf die Straße „springen“ und man diese erfasst, gleich ob es sich vermeiden ließ oder nicht. Im Zukunft gibt es zwei Möglichkeiten, entweder das Auto hatte eine Fehlfunktion, dann wäre der Hersteller betroffen oder aber der Passant verhielt sich nicht verkehrsgerecht.
Das ganze Verkehrssystem würde damit transparenter, dass das menschliche Moment seitens des Fahrzeugs nicht mehr zum tragen kommt, sondern objektiv anhand der Situation klar werden wird, wessen Fehlverhalten den Unfall verursachte.

Das halte ich für einen großen Fortschritt.

Alles Gute!

nein, die Karre ist ein Mordwerkzeug, weil ein Mensch ermordet worden ist.

Vielleicht muß man sich von alten Vorstellungen verabschieden. Wenn einer auf die Gleise geht kann er auch nicht erwarten, dass der Zug ausweicht. So könnte man das auch auf Fahrbahnen mit autonomen Fahrzeugen auslegen. Bremsen ja, ausweichen nein. Dann können durch die autonomen Fahrzeuge keine unbeteiligten Menschen zu schaden kommen. Derjenige der auf die Straße läuft tut das auf sein eigenes Risiko. Daraus sollte kein Risiko für Fahrzeuge im Gegenverkehr oder unbeteiligte Personen auf dem Geh- oder Radweg entstehen.

Sonst könnte bösartige Zeitgenossen sogar Mordanschläge durchführen. Wenn man weiß, dass ein autonomes Auto immer versuchen würde auszuweichen braucht man nur im richtigen Moment auf die Straße zu laufen um Radfahrer oder andere Verkehrsteilnehmer auf der Gegenfahrbahn in Schwierigkeiten zu bringen. Diese Berechenbarkeit der autonomen Fahrzeuge ist einerseits wichtig und bietet andererseit auch Missbrauchsmöglichkeiten.

Unsinn.
Woher sollte man bzw. die KI wissen, dass ein anderer eine Krankheit hat?

Ich denke auch, dass diese Ethikdiskussion völlig unrealistische und irrelavante Entscheidungen herbeizerrt, die in der Realität gar nicht aufkommen werden.
Da wird sich im Land der Bedenkenträger wieder mal in Bedenken gesuhlt … :unamused:
Absurde Diskussion das.

Abgesehen davon wäre es z.B.klar, dass immer die „eigene“ Unversehrtheit Vorrang hat.
Wer würde denn bitte schön ein Selbstmörderauto kaufen, dass sich samt Fahrer von der Brücke stürzt um ein auf die Fahrbahn gelaufenes Kind zu retten?
Ich nicht.

Insofern stimme ich April2014 voll zu. Dies wäre die einfachste und perfekte Lösung, weil alles andere nur zu weiteren potentiellen Ethikfragen führt, bis in alle Unendlichkeit. Wo dann die Grenze ziehen? Und warum dann gerade da und nicht woanders?
Das ist gar nicht auflösbar.