In dem von @Beat.8000 verlinkten Artikel(danke hierfür!) steht explizit:
My closing comments are about complacency vs. being prepared . I know that many of my suggestions may seem obvious to any responsible pilot. While I considered myself a responsible pilot, I was complacent, I was not well prepared, and I failed to do what may seem obvious to others.
Meine abschließenden Kommentare beziehen sich auf Selbstzufriedenheit vs. Vorbereitung. Ich weiß, dass viele meiner Vorschläge jedem verantwortungsbewussten Piloten offensichtlich erscheinen mögen. Während ich mich für einen verantwortungsbewussten Piloten hielt, war ich selbstgefällig, ich war nicht gut vorbereitet und habe es versäumt, das zu tun, was anderen offensichtlich erscheinen mag.
Er hat seine Lektion gelernt und teilt sie mit uns; und ich möchte sagen wir sollten diese Lektion mit der nötigen Demut annehmen.
Ja, absolut. Meine Aussage endet ja auch damit, dass er bei einer sechsspurigen Straße und einem möglicherweise noch erratisch agierenden, selbstfahrenden Auto auch allen Grund dazu hat.
Dies könnte durchaus zutreffen. Nach meiner Ansicht berücksichtigt Elon bei seinen Aussagen zur Qualität der FSD Beta meistens den Aktienkurs, da gemäss einem Interview vom 6.22 Tesla ohne FSD praktisch wertlos wäre.
Zudem hat er sich zum 4D-FSD im November 2020 ähnlich positiv geäussert wie heute zu PureVision. Kurz danach wurde das 4D-Projekt eingestellt.
Woher hast du die Info, dass 4D mittlerweile wieder eingestellt wurde?
4D meint ja Wahrnehmung des 3D-Raums über den zeitlichen Verlauf hinweg (also sozusagen mit „Gedächtnis“) und ist meines Wissens nach immer noch in Verwendung (und ganz zentral für‘s Funktionsprinzip von „Pure Vision“), oder?
Ja, selbstverständlich. Aber in @Beat.8000 s Welt sind seitdem ja 3 komplette Rewrites passiert und der vorherige Stand wurde natürlich jeweils komplett weggeworfen
Zu einem Projektstopp bei Tesla habe ich mal gelesen, dass die betreffende Software komplett archiviert und beim Folgeprojekt nicht mehr verwendet wurde.
Zudem wurden die zuständigen Mitarbeiter gefeuert.
„4D“ wurde auf jeden Fall keineswegs eingestellt, „Video“-Input in alle relevanten NNs mit 10-25s Länge ist selbstverständlich vorhanden, wie es SoA ist.
Ohne 4D wird autonomes Fahren nie funktionieren. Was denkt ihr denn wieso nvidia, waymo, etc (und ich behaupte auch Tesla) da so unglaublich viel Ressourcen rein stecken. Das Auto muss „denken“ können. „Oh da läuft ein Kind einem Ball hinterher auf die Straße.“. Das Kind verschwindet aus dem Sichtfeld des Autos. Jetzt darf das Auto nicht annehmen das Kind ist nicht mehr da, sondern muss die ganzen möglichen Laufwege in seine Planung einbeziehen. Ohne das gehts nicht. Ganz einfaches Beispiel.
4D hat nichts mit Radar zu tun, sondern nur was man als Raumzeit (gemäß Einstein) bezeichnet. Also drei Raumdimensionen und eine Zeitdimension.
Oder vereinfacht gesagt, Weg oder Bewegung in der Zeit = Geschwindigkeit, bzw. die Berechnung wann ist welches erkannte Objekt WO und könnte es mit dem Auto kollidieren.
Man könnte auch einfach sagen, das Auto braucht „Objektkonstanz“ in seiner Wahrnehmung.
Okay, offensichtlich hast du echt keinen Schimmer von Teslas FSD-Roadmap oder stiftest hier absichtlich Verwirrung.
Jetzt habe ich es auch endlich verstanden, wie @Benjo offensichtlich schon seit einer Weile.
Und es gibt nur ein Land auf der Welt, wo der Mercedes Drive Pilot nach Level 3 zugelassen ist. Rate mal welches? Tipp: die Zulassung kommt von einer Organisation names KBA, die aktiv den Dieselskandal vertuscht hat.
So schlimm ist es nach meiner Ansicht nicht.
Soeben habe ich es nochmals nachgelesen. Der Radarsensor wurde von Continental’s ARS410 auf Arbe 4D Phoenix umgestellt und die Reichweite von ca. 160 auf 300 Metern erhöht.
Diese Aenderung hat m.E. jedoch keine langdauernde Bedeutung weil mit der Eliminierung des Radars auch dieser Sensor unnötig wurde.
Gemäss der Beschreibung von Arbe kann mit dem betreffenden Radar-Sensor und der verwendeten Technik ein 4D-Bild erstellt werden:
Arbe’s proprietary baseband processing chip integrates radar processing unit (RPU) architecture with embedded radar signal processing algorithms to convert massive amounts of raw data in real-time while maintaining low silicon power consumption. Arbe’s patent pending processing chip manages up to 48 Rx channels in combination with 48 Tx channels in real-time, generating 30 frames per second of full 4D image, with equivalent processing throughput of 3 Tb/sec.