Umfrage: Wie viel Unfälle tolerabel? (autonomes Fahren)

Wie sicher muss autonomes Fahren sein im Vergleich zu konventionellen Fahren?

  • Es muss absolut sichert sein!
  • Absolute Sicherheit gibt es nicht, aber es muss ca. 1000 mal sicherer sein als normales Fahren (Unfälle/Tote).
  • Etwa 100 mal sicherer.
  • 10 mal sicherer.
  • Doppelt so sicher erscheint mir eine gute Hausnummer.
  • Etwa genauso sicher! Das ist vertretbar da durch eine zügige Entwicklung zukünftig dann weniger Unfälle, Verletzte und Tote gibt.
  • Autonomes Fahren verhindert in Zukunft Unfälle drastisch. Daher ist in Einführung auch eine höhere Unfallrate tolerabel.

0 Teilnehmer

Auf dem Weg zum autonomen Fahren wird es mit Sicherheit Unfälle geben die eine moralische Diskussion entfachen. Die gibt es zwar schon, aber ich denke da sehen wir erst die Spitze eines Eisberges.
Ich denke selbst für die extremen Standpunkte (null Toleranz, autonomes Fahren darf niemals ursächlich bei einem Unfall sein und dem Fortschritt zu liebe darf es durchaus mehr Unfälle, Tote geben als mit menschlichen Fahren) gibt es Argumente.
Wie steht ihr dazu?

Es ist natürlich ein extrem komplexes Problem. Allerdings gebe ich bei der Abwägung zu bedenken, dass bereits heute kein Auto fahren dürfte, wenn man einen 100% igen Ausschluss von technischem Versagen fordern würde. Technisches Versagen ist zwar als Unfallursache, verglichen mit menschlichem Versagen sehr selten, aber durchaus existent.
Das Gleiche gilt für das autonome Fahren. Heute vertraut man halt auf den Taxi, Bus oder Lok Fahrer. Ach ja, in Dubai in der U-Bahn war es ja auch eine Maschine :wink: Ja, und die Haftung ist ja dort auch geklärt.
Es wird also nach erreichen eines bestimmten technischen Standes auch hier Lösungen geben. Allerdings weder 2020 noch im Alleingang eines einzelnen Herstellers.

Weniger Unfälle insgesamt.

Jeder Unfall der verhindert werden kann hilft.

Und eins ist für mich klar, wenn ein autonomen fahrendes Fahrzeug jemanden erwischt hätte ein Mensch es auch nicht verhindern können.

Wo ich das so schreibe, es ist für mich klar das ich autonomen Fahren nur da ein setze wo es Sinnvoll ist. Denn mir ist schon Klar das ich als Mensch noch einige Zeit lang besser im interpretieren einer Situation bin als die KI/AI.

„In etwa genauso sicher“ würde bedeuten, daß es in gewissen Fahrsituationen noch „deutlich“ mehr Unfälle als beim menschlichen Fahrer geben kann, in anderen dafür deutlich weniger. Das ist zwar für mich vielleicht akzeptabel, der breiten weniger rationalen Öffentlichkeit aber schwer zu vermitteln.

„Doppelt so sicher“ ist da ein guter Kompromiß der auch der breiteren Öffentlichkeit vermittelbar ist. Praktischerweise sind wir (Tesla) ja schon an diesem Punkt angekommen.

Es wäre auch schon ein Fortschritt, wenn das autonome Fahrzeug die schwere eines Unfalls, den auch ein menschlicher Fahrer nicht hätte verhindern können, reduzieren könnte. Aber dies wird leider nur schwer belegbar sein.

Das denke ich nicht. Ich halte es da eher mit Anaron: AP hat das Potential, Unfälle zu verhindern oder ihre Schwere zu verringern, die mit einem Menschen am Steuere fatal gewesen wären. Andererseits wird es noch sehr lange zu Unfällen kommen, an denen die Maschine »Schuld« ist.
Das Problem ist halt, dass, sobald es letal wird, keiner mehr nach der Statistik fragt. Jeder Tote ist zuviel, und wo man bei menschlichem Versagen noch geneigt ist, zu verzeihen oder wenigstens Verständnis zu zeigen, wird man der Maschine derartige Fehlleistungen immer »ankreiden« – jedes derartige Ereignis wird zu einer Grundsatzdiskussion und der Forderung nach Verboten führen.
Deswegen muss die Maschine wenigstens statistisch so eklatant viel besser sein als der Mensch, dass jeder geschehene Unfall mit Tausenden verhinderter aufgewogen werden kann.

Die Firmen einschließlich Tesla werden hoffentlich in eigenem Interesse für ultrahohen Standard sorgen. Ansonsten droht bei den ersten Unfällen speziell in USA eine Klagewelle ungeahnten Ausmaßes.

Bisherige Unfälle mit dem AP wurden entweder mutwillig herbeigeführt (siehe Tesla Model X Unfall auf dem 101) oder aber sind in einem Graubereich, weil der Fahrzeugführer jederzeit die Kontrolle übernehmen mußte (erster bekannter Unfall mit dem querenden Lastwagen).

Sobald aber eine Realität von FSD (L4/5) jemals Realität wird, verursacht praktisch die Maschine und damit entweder der Hersteller oder der Betreiber den Unfall. Ich wage mal den Vergleich zum Air-France-Absturz vor Brasilien in 2009. Dort war Air France vollumfänglich haftbar. Die Schadenersatzzahlungen pro Fall beliefen sich dort bei etwas einer halben Million Euro pro Passagier. Geht nicht ums Geld, weil man leider keinen Passagier damit zurück ins Leben befördert. Aber in USA (man nehme mal die Glyphosat-Klagen als Maßstab) dürften weit höhere Summen aufgerufen werden.

Wenn man also mit wenig Sicherheit spekuliert, dann werden die Firmen pleite geklagt sein, bevor man den Endpunkt von FSD erreicht haben wird. Eine Übergangszeit, in der der Fahrer weiterhin die Kontrolle übernehmen muß, mal außen vor gelassen.

Einen Großteil der Diskussion um Sicherheit, Unfälle und evtl. Haftung, etc. hatten wir schon im Autonomes Fahren Thread im TFF

Es wird imho zunächst autonomes Fahren geben, auch mit Sicherheitsmängeln, irgendwo ab Faktor 5 bis 50, schätze ich. SPÄTER wird es dann DEUTLICH sicherer werden als selbst zu fahren.
Dürfte bei Sicherheitsgurten und Airbags ganz ähnlich gewesen sein. Da gab es am Anfang auch etliche Berichte der Art „ohne Gurt bzw. Airbag wären die Verletzungen geringer gewesen“.

Es ist auch weiterhin so, daß in einer bestimmten Anzahl von Fällen Airbags zu schwereren Verletzungen führen als wenn sie nicht vorhanden wären, jedoch ist der Anteil dieser Fälle gegenüber den Fällen, wo sie ihre Schutzfunktion korrekt erfüllen verschwindend gering.
(Merke: niemals den Beifahrer die Füße hochlegen lassen - Vektor der Unterschenkel!).

Die unbeliebte, moralisch verwerfliche „Leben gegen Leben“ oder „Verletzung gegen Verletzung“ Aufrechnung.

Jeder hat seine eigene ethische Vorstellung. Ich halte es halt für einen Unterschied ob jemand vor Gericht kommt und sich dann andere dadurch abgeschreckt fühlen und ihr verhalten ändern. Bei großen Konzern sieht man ja (VW und Co) wie das läuft. Ich denke dass der AP min. doppelt so gut sein muss wie der menschliche Fahrer im Schnitt um auch denen gerecht zu werden die besser als der Schnitt sind.

So habe ich auch gestimmt. Das wird aber, befürchte ich, nicht reichen, um in der öffentlichen Meinung zu bestehen.

Ich denke: Schon 1 Unfall besser als der Schnitt reicht.

Genau genommen reicht es wenn das auto besser fährt wie der jeweilige Fahrer, je nach fahrkunst und aktuellem Allgemeinzustand.

Nichts desto trotz dürfte eine hohe statistische Signifikanz nachzuweisen sein.
Den ZulassungsAufwand wird keiner treiben, wenn das Ergebnis nicht sicher ist und ein shitstorm wahrscheinlich…

Nur doppelt so gut wie der durchschnittliche menschliche Fahrer ist viel zu schlecht!

Maschinen sind nicht müde, kennen alle Regeln und haben keine Beeinträchtigungen durch bewußtseinsverändernde Mittel.
Entfernt man alle aus diesen Gründen verursachten Unfälle aus dem Unfallgeschehen, hätte man evtl. eine Basis von der aus man nochmal einen gewissen Faktor > 2 besser werden müsste.

Ansonsten wäre das autonome Fahrzeug schlechter als ein guter Autofahrer und das ist aus meiner Sicht nicht mal ansatzweise akzeptabel.

Wenn ein einziger Mensch weniger stirbt oder verletzt wird als bei einem menschlichen Fahrer, reicht das doch. Was gibt es denn da zu diskutieren?

90% der Unfälle werden durch zu schnelles Fahren, waghalsige Überholmanöver, Alkohol , Unaufmerksamkeit oder ähnliches ausgelöst. Bei autonomem Fahren fallen diese Ursachen weg, wenn ALLE Fahrzeuge autonom fahren würden. Wenn heute schon alle auf der Autobahn mit einem System wie AP2 fahren würden, wären deutlich weniger Unfälle zu erwarten alleine deshalb, weil die o.g. Ursachen wegfallen würden. Und das selbst dann, wenn das System einige Unfälle wegen technischem Versagen zusätzlich verursachen würde, die ein menschlicher Fahrer nicht verursacht hätte.

Ich halte die Diskussion für fragwürdig, oder wollen wir tatsächlich mehr Menschen sterben lassen, weil wir verlangen, dass die autonomen Systeme absolut oder größtenteils fehlerlos sein müssen?

Mir war das Problem beim Erstellen der Umfrage bewusst, dass der durchschnittliche Autofahrer wenn er denn vorschriftsmäßig fahren würde, deutlich weniger Unfälle baut als es nun mal in der Realität ist.
Trotzdem sehe ich „nur“ doppelt so gut als eine gute Hausnummer an.
Zu irgend einen Kennwert muss man sich halt einigen. Man darf diesen auch nicht zu kompliziert gestalten.
Ich denke alternativ könnte man auf diesen Kennwert auch verzichten und einfach sagen: autonom fahrende Autos dürfen keine höhere Versicherungsbeiträge haben als manuell gesteuerte. :bulb:
Ist allerdings problematisch da ja sicherlich noch sehr lange autonome Fahrzeuge auch manuell gesteuert werden.

Wie angedeutet: Ich sehe einen Unterschied zwischen einer (nach meiner Meinung) ausreichenden Qualität / Fehlerquote des vollautonomen Fahrens (das wäre Faktor 2) und einer statistisch erreichten Quote die nötig ist, um dem Autonomen Fahren zu weitgehender gesellschaftlicher Akzeptanz zu verhelfen: Das wäre mindestens Faktor 10.
Denn jeder einzelne Unfall, der autonom passiert, wird als gewichtiges Argument gegen das Autonome Fahren instrumentalisiert werden, egal wie viele Unfälle gleichzeitig dadurch verhindert worden sein mögen.

Eben nicht!

Wie Du selbst schreibst,

gibt es Unfälle, die ein gesunder, fahrtüchtiger, ausgeruhter, gut ausgebildeter Fahrer nicht machen würde. Und ich stimme vollkommen zu bei:

NUR: Würde trotz des Wegfalls dieser Unfälle die Anzahl der Verkehrstoten lediglich minimal (um 1) sinken, kommen viele neue Unfälle durch autonomes Fahren hinzu, die bisher gar nicht existieren! D.h. Situationen, die der Mensch ohne Probleme beherrscht, sind auf einmal gefährlich.
Und es ist doch völlig inakzeptabel, dass das Auto heute fährt wie ein junger Gott und morgen wie ein Besoffener (bzw. die gleiche Unfallwahrscheinlichkeit hat).

Absolut geht sowieso nicht. In quasi jedem größeren Transportsystem kommt es zu tödlichen Unfällen. Aber nur ein klein wenig besser als der Mensch ist viel zu schlecht.

Kannst du mir das bitte erklären, das verstehe ich nicht. Nach welcher Logik ist ein klein wenig besser viel zu schlecht??? Etwa nach der Logik, ich fahre besser als die anderen? Es geht hier um die Gemeinschaft und nicht um dich und da zählt nun mal jedes Menschenleben gleich viel.