Rechtliche Auswirkungen Autopilot

Mod Note: Diskussion zur rechtlichen Betrachtung des Autopilot hier ausgelagert.

Liebe Mods, bitte verschiebt das Thema doch - und ich bitte auf Knien um Verzeihung, dass ich (mal wieder) eine Diskussion ins Off-Topic geführt habe :blush:

Zum Thema: Ich versuche es mal sehr vereinfacht darzustellen, da es in der Tat keine ganz einfach Materie ist.

Sachverhalt: Fahrer und Halter F setzt sich in seinen Tesla, schaltet AP an und fährt mit 120km/h auf der A3. Dort erkennt der AP zu spät (warum auch immer) ein auf der rechten von drei Spuren fahrenden Kleinbus und touchiert diesen beim Fahrspurwechsel von der mittleren auf die rechte Fahrspur. F hätte, wenn er selbst das Fahrzeug geführt oder situationsadäquat aufmerksam eingegriffen hätte, den Unfall leicht vermeiden können. Der Kleinbus, gesteuert von O, schleudert in die Leitplanke, O wird dabei verletzt und muss ins Krankenhaus, der Kleinbus hat nur noch Schrottwert (wirtschaftlicher Totalschaden) und O verbringt mehrere Tage im Krankenhaus. Der eingeschaltete Gutachter erkennt keine Mitschuld bei O.

Haftung des F?

Zivilrechtlich ist es recht einfach:
F als Halter des Fahrzeugs, §§ 7 StVG, keine Mithaftung des O nach § 9 StVG
F als Fahrer des Fahrzeugs, § 18 StVG / § 823 BGB, Verschulden: einfache Fahrlässigkeit, § 276 BGB, kein Mitverschulden des O nach § 254 BGB
Versicherung V des F: § 115 I Nr. 1 VVG i.V.m. § 1 PflVG
Zwischenergebnis zivilrechtliche Haftung: F und V sind recht einfach als Schuldner auszumachen. Hier könnte Tesla z.B. eine Freistellung vertraglich ermöglichen.
[Fahrlässigkeit: Kein Richter würde von einem fehlerfreien System ausgehen und gewisse Überwachungspflichten bei F annehmen, die er - mind. fahrlässig - verletzt hat. Der Unfall alleine zeigt ja schon, dass es kein fehlerfreies System ist, dies hätte dem F bewusst sein müssen.]

Strafrechtliche Bewertung:
Subsumtion des § 229 StGB
F fuhr mit seinem Fahrzeug in das Fahrzeug des O. O wurde verletzt, eine Verletztung des Körpers liegt vor. Die Verletztung beruhte auf einer Handlung des O (Führen des Fahrzeugs), die Handlungs war mithin kausal für die Verletzung des O. Auch die notwendige objektive Sorgfaltspflichtverletzung ist recht ungezwungen nachzuweisen: Wie im zivilrechtlichen Teil gezeigt, ist auf mind. fahrlässiger Ebene dem F das Außerachtlassen der im Verkehr erforderlichen Sorgfalt vorzuwerfen. Ihm war i.Ü. wie allen Fahrzeugführern auch die Folgenseite bewusst, es war für ihn auch voraussehbar, dass bei einem Unfall O verletzt wird. Rechtswidrigkeit und Schuld liegen vor, damit ist eine Strafbarkeit nach § 229 StGB gegeben.
Zwischenergebnis starfrechtliche Seite: Eine Verurteilung des F nach § 229 StGB ist zumindest nicht auszuschließen.

Ich habe das jetzt absichtlich sehr verkürzt geprüft und dargestellt. In der rechtswissenschaftlichen Wirklichkeit stellen sich an der ein oder anderen Stelle noch Fragen, die Gesamtwürdigung wird aber m.E. nach ziemlich in diese Richtung gehen können, wobei ich ausdrücklich darauf hinweise, dass ich kein Verkehrs- oder Strafrechtler bin. Eine Verschiebung der endgültigen Haftung im Zivilrecht ist möglich, das wird auf vertraglicher Eben passieren können (Freistellung, Garantiehaftung, etc.). Stafrechtlich kann ein Dritter nicht die „Tat“ auf sich nehmen, erst recht keine juristische Person. Hier müsste schon bei der Zurechnung der Tathandlung angesetzt werden, d.h. es wird nicht mehr auf den Fahrzeugführer als Führer abgestellt, sondern auf das autonome Fahrzeug - damit ergibt sich u.U. eine Verschiebung, die allerdings dann ggf. Ingenieure, Programmierer, etc. treffen könnte, wenn eine persönliche Verantwortung nachzuweisen und eine „Vorverlagerung“ angenommen wird.
Zum jetztigen Zeitpunkt wird aber m.E. jeder Richter am Amts- oder Landgericht die strafrechtliche Verantwortung bei demjenigen sehen, der hinter dem Steuer saß.

[PS: Produkthaftung lasse ich mal außen vor, da dies uns als Fahrer im Zweifel nicht so sehr interessiert - hier hat Tesla den schwarzen Peter, falls etwas passiert]

Mein Punkt war eher, dass die Deutschen sicher auch noch aus anderen Gründen HERE gekauft haben.

Tesla muss ja immer Navigon und inzwischen vermutlich auch google für die Daten bzw. API Zugriffe bezahlen und haben eben selber keine Navigationsdaten.

@FrankfurterBub Nehme an, dass Du kein Strafrechtler bist oder hier bewusst stark vereinfacht hast. Wenn in der Betriebsanleitung eines in DE zugelassenen Fahrzeugs steht, dass es auf der Autobahn autonom fahren kann, ohne vom Fahrzeugführer überwacht zu werden, dann wird es sehr schwer eine Fahrlässigkeit des Fahrzeugführers zu konstruieren. Da müsste schon nachgewiesen werden, dass der FF wusste oder hätte wissen müssen, dass der Wagen abweichend von der Betriebsanleitung nicht sicher autonom fährt.

Zivilrechtlich sehe ich bei zugelassenem Level 3 oder höher und Einhaltung der Betriebsanweisungen und Verkehrsregeln auch lediglich eine verschuldensunabhängige Haftung aus dem Betriebsrisiko für den FF, wenn der AP einen Schaden verursacht.

Gruß Mathie

PS: IANAL, falls ich also Unsinn schreiben sollte, bitte ich um Aufklärung

Wir müssen uns zuerst einmal auf einen Sachverhalt einigen. Denn Mathie hat den von FrankfurterBub bereits ergänzt. Ursprünglich stand da nix von Betriebsanleitung.

Ist der Threadtitel richtig? Es geht doch um autonomes Fahren und nicht um den Autopiloten.

Danke Mods für das Verschieben. Ich wäre auch für einen anderen Titel (es geht letztlich um das autonome Fahren).

Mathie:

Beides richtig.

Nun, da bin ich nicht 100%ig bei dir. Denn allein die Betriebsanleitung wird den Fahrzeugführer nicht entlasten können - eben gerade auf der Schiene „hätte wissen müssen“ wird es eine entsprechende Fahrlässigkeitsbejahung geben. Der „gute Glaube“ (sorry, ich bin Zivilrechtler mit völlig abwegigen Rechtsgebieten, die mit der Realität des Verbrauchers eher nichts zu tun haben) wird spätestens dann nicht mehr vorliegen, wenn Unfälle mit autonomen Fahrzeugen vorliegen (und die werden es in die Tagespresse schaffen). Dann ist nämlich der Fahrlässigkeitsvorwurf einfach herzustellen: Du hättest als Fahrzeugführer die Fahrt überwachen müssen. Wenn keine Unfälle mit autonomen System passieren können, dann wäre das auch eine sehr theoretische Frage (und könnte im Ergebnis dahingestellt bleiben).

Unsinn ist es sicher nicht. Dreh- und Angelpunkt ist sowohl in der zivilrechtlichen als auch strafrechtlichen Frage die Verschuldensfrage (von verschuldensunabhängiger Haftung als Halter mal abgesehen). Und hier wird man diskutieren können, aus rechtlicher Sicht. Auch im Zivilrecht wird man mit meiner obigen Argumentation davon ausgehen können, dass mind. einfache Fahrlässigkeit vorgelegen hat - und damit ein Verschulden angenommen werden kann.

Ich bin - zugegebenermaßen - in der „alten“ Denke verhaftet. Es mag sein, dass bei vollautonomen Systemen, die dem Fahrzeugführer vollständig die Verantwortung abnehmen und dieser die Gefahren nicht mehr erkennen kann bzw. darauf vertrauen darf, dass das System alle Gefahren abwendet, ein Veschulden nicht mehr anzunehmen ist. Davon sind wir aber maximal entfernt, jedenfalls aus juristischer Sicht.

Das Ganze hat ja auch noch eine ethisch/moralische Komponente.
Ich denke mir mal folgende Situation: Nebelwand/Stau auf der Autobahn. Mein „Autopilot“ muss entscheiden.

  1. Fahr ich jetzt auf den Kleinbus links - ich überlebe im Kleinbus 5 Tote!
  2. Fahr ich auf den Smart in der Mitte - ich überlebe im Smart 2 Tote!
  3. Fahr ich auf den Laster rechts - ich überlebe sicher nicht.
  4. Fahr ich den Motoradfahrer auf dem Pannenstreifen um? Ich überlebe der Motoradfahrer tot!
    So und jetzt? Wer ist da in der Pflicht? Wer entscheidet?
    Der Programmierer des AP? Elton? Ein Algorithmus?

Ist man denn im juristischen Sinne überhaupt ab Level 3 noch „Fahrzeugführer“?
Man lenkt/steuert das Fahrzeug ja nicht mehr unmittelbar.

@

FrankfurterBub, Danke für die Erläuterungen!

Bei der Position, die der Verbraucher im deutschen Recht hat, bin ich mir ziemlich sicher, dass sich ein Verbraucher erstmal darauf verlassen darf, was bei einem zugelassenen Auto in der Betriebsanleitung steht und nicht nachforschen muss, ob die Betriebsanleitung korrekt ist, solange da nicht offensichtlich Unsinniges oder Rechtswidriges drin steht. Du siehst das anders. Das ist dann wohl unser Dissens und dann kommen wir natürlich auch zu unterschiedlichen Ergebnissen in der Beurteilung.

Die Frage wird wohl erst mit den ersten Urteilen entschieden wird und vor Gericht und auf hoher See…

Gruß Mathie

Hallo

Situation heute: Ich kaufe mir ein Auto in dem eine Bremse verbaut ist die in 35 m von 100 auf 0 verzögert. Der Hersteller wirbt mit diesen Angaben und gibt das in seinem Verkaufsprospekt an. Ist der Kunde dafür verantwortlich wenn bei 0,1% aller Bremsbetätigungen das Pedal einfach ohne Bremsdruck aufzubauen leer durchfällt?

Situation morgen: Ich kaufe mir ein Auto mit autonomen Fahrfunktionen. Der Hersteller wirbt mit diesen Angaben und gibt das in seinem Verkaufsprospekt an. Ist der Kunde dafür verantwortlich wenn die versprochene Funktion nicht erfüllt wird?

Ich sehe den Unterschied nicht.

Gruß

Bernhard

Das ist in dem von dir gewählten Beispiel einfach: das Radar sieht durch die Nebelwand und bremst rechtzeitig ab!
Zum anderen wie entscheidet den der Mensch? Entscheiden alle nach den gleichen Regeln? Wird da überhaupt noch eine ‚bewusste‘ Entscheidung getroffen? Ich bin überzeugt - das ist eine Scheindebatte. Natürlich lassen sich Unfälle nie zu 100% vermeiden - aber im Falle eines Falles gilt: wenn es etwas zu entscheiden gibt wird die Option gewählt, die am wenigsten Schaden produziert…

Die oben genannten rechtlichen und ethischen Fragen werden im Moment an vielen Stellen diskutiert, sogar bei meinen Kollegen die beruflich nichts mit dem Thema zu tun haben.
Ich finde es gut dass wir das hier tun.

  1. Habe ich denn die Chance mein Fahrzeug so einzustellen, dass es immer mein Leben schützt?
  2. Gibt es andere die je nach Fahrzeug entscheiden, was das Fahrzeug im Zweifelsfall tut?
  3. Wird das für alle Fahrzeuge gleich festgelegt?

Die Entscheidung ist ganz einfach:

  1. Der AP fährt immer so, dass er innerhalb der Sichtweite anhalten kann. Wenn Du keine Lösung für ein Dilemma hast, dann solltest Du versuchen, nicht in dieses Dilemma zu geraten :wink:

Aber selbst wenn Du meine ergänzte Nummer 5 nicht akzeptierst, kann ich die nach dem Bindestrich aufgeführten Unfallfolgen nicht nachvollziehen. Wenn der AP noch die Option hat alle vier Fahrstreifen erreichen zu können, dann ist er noch weit genug von den Fahrzeugen entfernt, um noch erheblich bremsen zu können, so dass zumindest tödliche Verletzungen vermeidbar sein sollten. Dazu kommt, dass der AP nicht weiss, wie viele Menschen in den jeweiligen Autos sitzen.

Also alles in allem habe ich den Eindruck, dass Du hier nach einer Lösung für ein nicht existentes Problem fragst.

Gruß Mathie

Es sollte ja nur ein Beispiel sein! :bulb: Man könnte sich noch beliebig viele Situationen vorstellen. Müssen wir ja gar nicht.
Einfach zu sagen „das gibt es ja gar nicht - der AP löst das vorher“ oder der „Programmierer“ wird das schon richtig machen greift auch ein wenig kurz.
ich glaube dieses Thema wird uns noch etwas länger beschäftigen! Schau ma mal!

Wenn wir auch keinen Elon Musk in Deutschland haben, so haben auf jeden Fall genügend Bedenkenträger und Juristen.

Was hier für Fälle konstruiert werden. Zur Zeit werden alle Fahrzeuge von einem recht unzuverlässigen, leicht ablenkbaren erregbaren Neuronalcomputer gefahren. Als Sensor hat er im Wesentlichen nur eine einzige mehr oder weniger gute Stereokammera und Mikrofon zur Verfügung.

Ich bin da ganz sicher dass sich diese Situation verbessern lässt.

Wie ich diese ewig gleiche, alte Leier liebe :laughing: Jeder möchte immer alles machen, aber die Verantwortung dafür nie tragen. Und wenn dann der Jurist sagt, dass das SO eben nicht geht („Wasch mir den Pelz, aber mach mich nicht nass!“), dann sind es Bedenkträger, Bremser und Konservative. :unamused:

Meinen Eingangsfall meinst du hoffentlich nicht. Denn diesem ist ja wohl ein absolut realistischer Sachverhalt zugrunde gelegt worden. Wenn du meinst, dass dies nicht der Fall ist, würde ich dich bitten, konkret den Teil zu benennen, der dir nicht behagt. Ansonsten führt das nicht weiter.

Und es ist klar, wer wofür haftet. Zivil- und strafrechtlich. Wie das bei autonomen Systemen der Fall ist, ist eben nicht bis ins letzte Detail geklärt. Wer den berühmten Lederspray-Fall des BGH kennt (BGH, Urteil vom 06.07.1990 - Az. 2 StR 549/89 = BGHSt 37, 106 ff.), kann sich ausmalen, was für eine u.U. weite strafrechtliche Komponente ins Spiel kommt.

Ich fürchte, meine Diskussion ist wenig zielführend, da diese an den üblichen Problemen krankt: Es gibt viele Experten (Ingenieure, ITler, Juristen), die aber nur „ihr“ Gebiet kennen und ansonsten maximal Basiswissen aufzeigen. Das führt dazu (und das ist nicht böse gemeint, da ich mich hier einbeziehe), dass bestimmte Aussagen jeglicher wissenschaftlicher Grundlage entbehren. Und selbst in den Gebieten, die hier betroffen sind, gibt es meist noch Menschen, die noch tiefer in der Materie sind als man selbst (bei mir: Ich bin nunmal einfach kein Strafrechtler und Produkthaftung ist nur mein Randthema).

Daher schlage ich vor, die Diskussion hier abzuschließen, auch wenn ich sie grundsätzlich sehr interessant fände. Auch die ethischen Komponenten werden sicher in Zukunft eine Rolle spielen, vielleicht nur am Rande beim Thema Autopilot, aber ganz sicher bei autonomen Systemen an sich.