Das sind meines Erachtens zwei verschiedene Fälle bzgl. der Beendigung des Level 3 in der Tabelle 2:
a request to intervene
disenegagement.
Aber ich wollte hier nur auf die gute Erklärung des SAE-Dokuments hinweisen und es nicht selbst erklären. Offensichtlich gibt es ja unterschiedliche Interpretationen ein- und desselben Textes. Da bin ich dann raus.
Die Planung bezüglich Millionen von Robo-Taxis habe ich verfolgt. Seit den verschiedenen FSD-Rewrites konnten nach meiner Ansicht die ursprünglich vorgesehenen Einführungstermine nicht mehr eingehalten werden.
Elon hat am 3.7.21 getweetet dass die FSD-Entwicklung schwieriger ist als angenommen:
Generalized self-driving is a hard problem, as it requires solving a large part of real-world AI. Didn’t expect it to be so hard, but the difficulty is obvious in retrospect.
Ja, das ändert aber das Versprechen nicht und die Tatsache dass mit diesem Versprechen Autos und FSD verkauft wurden. Das wird sicher über Kurz oder lang nochmal zum Thema werden.
Mal Ernsthaft: Wir suchen aus Internetquellen zusammen, was denn nun FSD können soll oder nicht. Besser wäre es, wenn Tesla hier eine ordentliche Beschreibung des Umfangs liefern würde. Es ist aber auch klar, warum Tesla das nicht macht.
Aus fachlicher Sicht gebe ich Dir recht: Wir sind sehr weit von L5 entfernt.
Das ist natürlich richtig. Es wurde mir auch nicht verkauft.
Mir wurde das „Volle Potenzial für autonomes Fahren“ verkauft, laut Rechnung. Potenzial, nicht Fähigkeit.
korrekt
und dennoch fährt der Wagen auf der Autobahn mit dieser Vorschau bereits nach Level 3-Definition herum, fährt er auf der Landstraße mit Level 2,5 und erreicht die FSD-Beta schon einen Stand zwischen 3 und 4.
Das ist komplett falsch und ein gefährliches Missverständnis. Tesla bietet auf der Autobahn ein Level-2 Assistenzsystem an und mehr kann das System auch nicht. Der Fahrer muss permanent das Fahrzeug überwachen, alles andere ist lebensgefährlich.
Vielleicht sollte man mal einen Wissens-Test einführen, bevor man an diesem Thread teilnehmen darf, damit die gröbsten Fehler nicht immer wiederholt werden.
naja, der Audi-Chef hat vor ein paar Jahren ja groß getönt, dass autonomes Fahren bzw. Fahrzeuge, die das könnten, eh frühestens 2024 ein Thema wären. Was unsere deutschen Autobauer nun machen, ist nichts anderes, als diese Vorhersage brav zu erfüllen.
Von daher - sollen die in ihre Koffer greifen, sich ihre Tränen mit ihrem Schwarzgeld trocknen und in Berlin rumjammern, damit dort entsprechende Gesetze geschaffen werden, die ihr Überleben in einer Welt, in der Patente und Richtlinien weiter die technologische Entwicklung hemmen und das Auspressen uralter Technologien überhaupt erst möglich macht, gewährleistet wird. Sprich: Das, was in den letzten mehr als 20 Jahren gemacht wurde.
Nun, es ist mittlerweile schon fast 2022 und die laut verkündeten „Robotertaxis“ werden wohl auch 2024 nicht verfügbar sein. Er wird also wohl recht behalten.
Nein, er hat wohl nur seinen Stand realistisch eingeschätzt und wohl recht behalten. Allerdings hat auch aktuell kein anderer Hersteller eine Lösung anzubieten und die werden sich sicher alle keine Mühe geben, die Prophezeiung von Audi zu erfüllen
Woran wird das System erkennen, dass seine Grenzen bald erreicht sein werden? Vielleicht:
Navigationsdaten. Es erkennt, dass man bald den Bereich auf dem Level 3 angeboten wird, verlassen wird, bspw Ausfahrt von der AB in 20s.
Verkehrsdaten, bei aktueller Umsetzung mit Limitierung auf 60km/h. Es erkennt, dass der Stau sich bald auflöst, Baustelle kommt etc. und übergibt.
Es erkennt, dass die Sensoren nicht mehr 100% funktioneren, daran, dass die Berechnungswahrscheinlichkeiten sich verringern, bspw Nebel, Schmutz etc. und übergibt.
Was mMn nicht geht, ist dass das System eine Gefahrensituation erkennt oder an die Systemgrenzen kommt und dann übergibt. Dafür reicht die übernahmezeit nicht aus, d.h. das Level 3 System muss diese Situation selbstständig bewältigen können.
hier sehe ich in der Tat weniger die Problematik bei dem Fahrer oder dem Wagen, sondern am Umfeld.
Wenn ich sehe, mit wie wenig Abstand etliche Menschen auf den Straßen unterwegs sind (das geflissentliche Ignorieren von Tempolimits, Überholverboten, Sperrflächen oder Ähnlichem muss man denke ich nicht einmal mehr erwähnen) wird es schon gefährlich, da man mit der Dummheit bzw. Rücksichtslosigkeit der anderen Fahrer rechnen muss, die auf eine Gefahrenbremsung eines vollautonomen Fahrzeugs entweder spät oder gar nicht reagieren und folglich nahezu ungebremst hinten reinkrachen. DANN heißt es in der Presse wieder schnell „autonomes Fahrzeug verursache Unfall“, obwohl es der Mensch dahinter war, der meinte, bei Tempolimit 60 mit 100 zu fahren und gleichzeitig noch eben schnell auf die WhatsApp zu antworten wäre voll okay…
UND es sind Videos auf Strecken, die der AKTUELLE Autopilot, der eben noch KEIN FSD ist, rein von den Bedingungen nicht fehlerfrei KANN, sich folglich AUSSERHALB seines Wohlfühl-Bereichs bewegt.
Sollte man, wenn man sowas sagt, niemals vergessen.