Fahrzeugsoftware V9.0 2019.16

Sollte man nicht einbeziehen, dass das System evtl. lernend ist?
Ein Freund wollte einen, sagen wir mal, nicht hilfreichen Lenkeingriff, der ihm zweifach an einer Stelle passiert ist, noch mal reproduzieren. Es ging, trotz hartnäckiger Versuche, nicht. Das deutet doch drauf hin, dass das System möglicherweise lernt. Und zwar permanent, ohne das man auf ein Update warten müsste.

Hmm, ich selber hatte nur berechtigte sanfte Eingriffe um mich wieder in die Spur zu bringen. Der Notassi ging bei mir noch nicht los. Bin eigentlich mit dem Update sehr zufrieden.

Führt ihr die Situationen bei oder kommt das wirklich aus heiterem Himmel? Vielleicht zu banal, aber mal die Linsen der Kameras putzen. Sonst gefährliche Situationen wie oben schon erwähnt unbedingt melden.

Glaub ich nicht. Dafür reichen selbst die KI-Chips nicht…
Ich denke eher, das durch die unterschiedliche Beleuchtung die Szene völlig anders interpretiert wird, und deswegen die reproduzierbarkeit nicht gegeben ist.

Was mich eher wundert: um das auszurollen muss irgendwer in Europa das abgenommen habe (TÜV, …). Wie konnte das passieren?

Ich hätte das System auch abgenommen. :slight_smile: Bei mir funktioniert es gut. Es hat bisher nur einmal bei dem schon beschriebenen Radstreifenszenario angeschlagen. Das war aber nicht gefährlich, sondern nur „wachmachend“ durch das akustische Gedöns. Jetzt weiß ich Bescheid und kann mich drauf einrichten. Sollte das System noch besser werden, womit ich fest rechne, kann ich prima damit leben und sehe es als wichtiges Sicherheitsfeature.

So funktioniert das mit dem lernen nicht. Man braucht dazu die Bestimmungen von relativ richtig und relativ falsch für die beteiligten Komponenten. So ein Lenkeingriff erfolgt aufgrund einer Reihe von teilweise trainierten (erlernten) und teilweise programmierten Abläufen. Wenn man das Gegenlenken des Fahrers direkt nach dem Eingriff ganz grob als „das war falsch, liebes Auto“ deutet, bleibt die alles entscheidende Frage, was zu dieser falschen Reaktion geführt hat. Ist bei der Erkennung des Strassenrandes etwas schief gelaufen? Oder bei der Berechnung des Strassenverlaufes? War vielleicht die Kontrastfindung bei der Edge Detection nicht korrekt oder war es im Grunde gar kein Fehl-Ausweichen und der Fahrer hat nur eingegriffen, um nach dem Passieren des Hindernisses in die ursprüngliche Spur zurück zu fahren? Nur im Labor kann man das isolieren, die Ursache aufspüren und das Training verfeinern. Würde man das jedem einzelnen Auto mit seinen sehr wenigen Daten selbst überlassen, käme ein nutzloser, grauer Zufalls-Brei dabei heraus.

Nein & Kameras sauber.

@Moddi Toll dass Du es besser weißt als Tesla wie man sowas macht. Wo kann man das von Dir entwickelte Assistenzsystem probefahren?

@Stefan

Du hast falsch verstanden. Genau so wie ich das beschrieben habe macht es Tesla. Die Autos lernen nicht selbst und trainieren auch nicht individuell ihre eigenen Netze (zum Glück).

Beißreflex? Er hat nirgends geschrieben, das Tesla was falsch macht. Den auch Tesla hat nirgends geschrieben, das sie im Auto lernen, sondern nur, dass sie mit Daten aus dem Auto lernen. Moddis Ausführungen sind aus meiner Sicht korrekt.

Zum Glück!
Man stelle sich nur mal das Szenario vor, dass jedes Autoindividuum selber lernen würde - vom jeweiligen Fahrer!
Dann hätten wir eine Flotte autonom fahrender Linkspurblockierer, Drängler, Sonntagsfahrer, Nichtblinker, etc. pp.

[Disclaimer]Nein, nur weil man einen Tesla kauft und fährt, wird man nicht automatisch zum vorbildlichen Verkehrsteilnehmer. Dies schließt den Autor dieses Betrags mit ein.[/Disclaimer]

Mir ist echt egl ob er lernt oder nicht… wenn ich rechts ausweiche über die Linie weil es links eng ist, dann hilft es nicht wenn er mal spontan links lenkt…

Wie das Lernen funktioniert wurde im „Autonomy Day“ Vortrag von Tesla doch ganz gut erläutert. Für Menschen die etwas Hintergrund in KI-Entwicklung und maschinellem Lernen haben ist das nichts wirklich bahnbrechendes vom reinen Ablauf her… sehr wohl jedoch von den Möglichkeiten der Datenbeschaffung und vom Maßstab her.

Natürlich lernt das Auto nicht „live“ beim Fahren. Das neuronale Netz welches die Daten im Autopiloten verarbeitet ist fix und wird nur mit Softwareupdates aktualisiert. Das Lernen passiert in der Infrastruktur von Tesla, auf Kommando und unter Kontrolle der dortigen Entwickler, allerdings auf Basis der Daten der gesamten Fahrzeugflotte (bzw. Teile davon die für die gegebene Funktionalität die gelernt/verbessert werden soll relevant sind). Diese Daten werden kontrolliert gesammelt, aggregiert, wenn notwendig per Hand annotiert (in simplester Form: „so ist richtig“ und „so ist falsch“, das geht natürlich beliebig viel komplizierter) und dann an den Lernalgorithmus gefüttert. Das Ergebnis wird mehrfach verifiziert, Regressionstests gefahren (die sicherstellen dass bisherige Funktionalität und Verhalten nicht durch die Neuerungen kaputtgehen oder „verschlimmbessert“ werden), und erst wenn das Endergebnis für gut befunden wurde wird dieses ausgerollt - erst an Tesla eigene Testfahrzeuge, dann an die „early access“ Tester, und final an das Gesamtpublikum, also an uns hier.

Unsere Lenkeingriffe und Korrekturen haben aber natürlich ein Einfluss auf das Lernen, jedoch nicht unmittelbar sondern eher auf lange Sicht betrachtet. Der Autopilot läuft ständig im Schattenmodus und vergleicht seine „Wunschaktionen“ mit denen des Fahrers, Unterschiede werden zumindest geloggt und in vielen Fällen vmtl an Tesla übertragen. Wenn man jetzt anhand dieser Daten eine Situation feststellt in der mehrere Autos bzw. Fahrer konsistent etwas anders machen als der Autopilot (zum Beispiel eine ungewöhliche Fahrbahnmarkierung die den AP aus dem Konzept bringt, oder eine ganz bestimmte Konstellation von umgebenden Fahrzeugen auf der Autobahn in der der AP vielleicht nicht die korrekte Entscheidung bzgl. Bremsen oder Beschleunigen trifft), am besten auch drastisch anders, dann ist es genau so ein interessanter Datensatz für das Weiterlernen des Algorithmus.

In Kürze: Moddi hat Recht :slight_smile:

Hallo zusammen,

ich habe vor dem Update diesen Thread mit großem Interesse gelesen und war wirklich am zweifeln, ob ich nicht auf der 2019.12 bleiben sollte. Die einfachere Verwendung des Sentry und die technische Spielerei der Fahrzeuganimation hat mich dann jedoch updaten lassen. Ich fahre nun seit einer Woche mit dem Notfallspurhalte Assistenten durch die Gegend und dieser hat auch schon mindestens 3 mal eingegriffen. Immer an Stellen, an denen es auch eng war. Oft ist es so, wenn rechts eine Böschung mit relativ hohem Gras ist und man einem entgegen kommenden Fahrzeug ausweicht. Kommt auf dem Land ja öfter mal vor.

Jedoch finde ich das Gegenlenken des Autos als recht sanft. Man kann dies problemlos übersteuern wenn man das Lenkrad in der Hand hat. Ich finde diese teils heftig geführte Diskussion und das Verteufeln dieses Features irreführend. Zudem steht oft hier, dass es nicht deaktiviert werden kann, was aber ja nicht stimmt. Es kann eben nur temporär deaktiviert werden. Aber wer für sich entscheidet, dass der Assistent ein zu großes Sicherheitsrisiko darstellt, kann das doch bei jeder Fahrt aus schalten. Wie beim Licht früher. Da war auch das erste was ich tat das Abblendlicht einzuschalten. Das ging dann schon total unterbewusst bei jeder Fahrt. So wird es für euch dann auch bald mit dem Deaktivieren des Assistenten sein.

Langer Rede kurzer Sinn: Der Assistent funktioniert für mich sehr gut und stellt trotz Gegenlenken keine Gefahr dar, wenn man aufmerksam ist und das Lenkrad im Griff hat. Diese beiden Sachen sollten aber sowieso eine Selbstverständlichkeit sein wenn man am Straßenverkehr aktiv teil nimmt.

2019.16.3 is coming.

Auf dem „Autonomy Day“ wurde mehrfach betont, dass sich die ganzen Ausnahmefälle halt gerade nicht im Labor finden und lösen lassen.

Und dass statt dessen das Eingreifen der Fahrer ausgewertet wird.

@Moddi behauptet jeweils das genaue Gegenteil.

Tut er nicht. Du verstehst es falsch.
Aber die ganze Diskussion dazu hat nix in dem Thread zu suchen.

Sehe ich auch ganz genau so. Sinnvolles Feature, für den verantwortlichen Fahrer eine Hilfe, dabei merkwürdig hysterisch geführte Diskussion im Forum.

wenn man aufmerksam ist und das Lenkrad im Griff hat.

braucht man den Assistenten aber nicht…

Ich krall mich nicht so am Lenkrad fest, dass ich den überflüssigen und nicht zu erwartenden Ruck voll abdämpfen kann… vom Überraschungseffekt spreche ich mal auch nicht… wer ihn möchte kann ihn ja einschalten (wäre eine schönere Alternative) so wie beim Assistenten… hat auch mit Hysterie und übertriebener Diskussion nix zu tun… er kann ja lenken oder bremsen bevor ich in ein Auto fahre… aber mich in die Enge zu treiben obwohl rechts genug Platz ist (nur ebend eine durchgezogene Linie) das geht nicht… ich bleib doch nicht mitten auf der Landstraße hinter einem Linksabbieger stehen… werden die hinter mir sicher ähnlich sehen… also fahre ich re. über die Linie… und das mache ich unbewusst, selbstverständlich und mit einer Hand am Steuer… wie sehr viele (spart mir die Diskussion um eine Hand am Steuer)… wenn dann hüphüphüp kommt er nach links ruckelt bin ich nicht drauf vorbereitet…und das will ich auch nicht sein…

Man muss das Feature ja nicht gleich verteufeln, ich halte es auf vielen Straßen sogar für hilfreich. Aber im aktuellen Reifegrad muss so etwas einfach dauerhaft abschaltbar sein. Tesla tut sich und uns definitiv keinen Gefallen damit es eingeschaltet zu lassen, denn genau so wird man es schaffen, dass solche Systeme zunehmend kritisch beäugt werden.