Diskussion über Erkennung & Einordnung von Objekten auf der Fahrbahn beim Model 3

Soeben über diesen Artikel gestolpert:

https://www.golem.de/news/autopilot-full-self-driving-tesla-model-3-erkennt-kinder-dummy-mehrfach-nicht-2208-167535.html

Wie steht es um die Erkennung von Objekten bei Tesla?
Gibts unterschiede bei den Modellen?
Darf sich die Erkennung mit Updates „verschlechtern“?
Besitzt hier das KBA eine Prüfpflicht welcher nach jedem Update nachgekommen werden muss? Eure Inputs zu diesem Thema?

Der Artikel wurde ja inzwischen um die Information ergänzt, dass die „Tester“ nicht in der Lage waren, das FSD zu aktivieren, was für einen FSD-Test aber schon hilfreich wäre. Sie waren wohl auch nicht soweit mit dem Tesla vertraut, dass sie erkannt hätten, dass der FSD nicht aktiv war.

Ob der „Test“ dann noch irgendeine Aussagekraft hat, darf nun jeder für sich beurteilen.

5 „Gefällt mir“

Hier der dazugehörige Electrek-Artikel:

Unfassbar. Und Golem greift es bis auf den „Nachtrag“ völlig unkritisch auf. Es gibt ja durchaus einiges, das sachlich begründet an FSD kritisiert werden kann – aber die Vehemenz, mit der hier Fehler gesucht (oder herbeigeredet) und dann ausgeschlachtet werden, irritiert mich zunehmend. Zumal eben nach wie vor der Fahrer voll in der Verantwortung ist und daran ändert auch ein wie auch immer gearteter Name nichts.

6 „Gefällt mir“

Ich habe noch nie etwas über Tesla oder Musk dort gelesen was nicht nach Clickbait riecht und nicht von fragwürdig journalistischer Qualität ist.

Eher aus nostalgischer Gewohnheit lande ich ab und zu dort. Aber im Grunde kann man Golem echt vergessen. Die Medienlandschaft hier ist zum Abgewöhnen.

Vielleicht hilft ja aber ein freundlicher Hinweis an die Redaktion und ich bin einfach nur Kulturpessimist.

4 „Gefällt mir“