FSD V13 wird anscheinend an die Tesla-Mitarbeiter verteilt:
v13 wird krass
Etwas kritische Einordnung zum Tracker:
Ja, sehr interessante Einordnung. Ich habe mich schon gefragt, warum man auf dem Community tracker so wenig Verbesserung sieht. Schade, dass die Daten durch Einzelne hier so verfälscht werden. So ist es nur begrenzt brauchbar.
Hier eine Beinahekollision mit einem Reh auf einem Kanadischen Highway:
Ehrlich gesagt etwas enttäuschend, FSD bremst erst, als das Reh direkt vor dem Auto ist. Aber ich denke es ist kein Erkennungsproblem, sondern ein Trainingsproblem.
Ich verstehe sowieso nicht, warum Tesla nicht schon längst bei ihrer Label-basierten Objekerkennung so Sachen wie Rehe oder anderes Wild hinzugefügt haben. Gibt’s irgendeine logische Erklärung dafür? Müsste doch technisch einfach möglich sein (Hunde kann das System ja auch erkennen).
Rehe werden erkannt. Da gab es schon ein Video (bei Tageslicht auf kurvigen Straßen im Wohngebiet) von AI Drivr inkl. der Bildschirm-Visualisierung dazu. Und im obigen Video wurde es ja wohl auch erkannt.
Was wurde da genau visualisiert? Ein grauer Blob oder für ein Reh? So, wie wenn z.B. ein Hund oder Mensch erkannt wird? Wäre mir neu, dass die label-basierte Objekterkennung Rehe kennt. Damit meine ich nicht das neue V12 FSD „World Model“ für die Erkennung, sondern das alte HydraNet. Also das von V11 oder unserem Autopiloten, was auch nach wie vor hauptsächlich für die Visualisierungen verantwortlich ist (außer bei der Einparkhilfe oder Autopark, da sieht man das neue „World Model“).
Und ich glaube James Douma meinte, dass diese Label-basierte Erkennung vermutlich auch noch für V12 komplementär zum neuen Modell verwendet wird, z.B. für die Erkennung von Ampel, Tempolimits, Fußgängern. Aber Rehe kennt das System, soweit ich weiß, nicht.
Man sieht ja, dass es Menschen auch im Dunkeln hervorragend erkennt… Warum bringt man ihm nicht auch bei Rehe zu erkennen? Das würde auch dem Notbremsassistenten zu Gute kommen oder zumindest akustisch vor Rehen warnen.
Ich finds nicht so schlecht - als ich das Video das erste mal gesehen habe, war ich recht erschrocken das es schon so nahe auftauchte - vor dem grauen Hintergrund mit Lichtern.
Auch ist es nicht notwendig, das die Tierart auch noch korrekt erkannt wird, es reicht wenn er irgendeinen 4-Beiner anzeigt oder ggf. auch einen Blob - bei zb einem toten Tier auf der Fahrbahn.
Für kleinere Tiere darf er dann auch nur/weniger Bremsen wenn hinten keiner dicht auf ist.
Das Video ist schon länger her und, da AI Drivr sehr viele Videos gemacht hat, nicht zu finden. Nach meiner Erinnerung sah die Visualisierung wie hochbeinige Hunde aus; also wie Rehe.
Hab’s gefunden (ab 10:40):
Die Rehe werden tatsächlich auch von der alten Objekterkennung erkannt, nur ist sich die Visualisierung nicht ganz sicher, als was sie die Rehe anzeigen soll. Da ist alles dabei: Hund, Menschen, Fahrrad, Motorrad, Auto
Auch werden sie nicht durchgängig angezeigt, was für mich darauf hindeutet, dass Rehe (oder anderes Wild) beim Training für die Objekterkennung (also HydraNet) nicht besonders im Vordergrund stehen.
Offensichtlich wurde das Reh in dem [Highway] Video nur sehr spät erkannt (bzw. viel zu spät reagiert). Wenn z.B. ein Mensch über den Highway gerannt wäre, würde ich darauf wetten, dass er schon von sehr weit entfernt erkannt worden wäre. Wenn mehr Wildtiere im Training vorkommen würden, würde das sicherlich auch bei Rehen gehen.
Selbst wenn der Output vom HydraNet nicht mehr für FSD verwendet wird (oder zukünftig nicht mehr verwendet werden soll), würde es trotzdem unserem Notbremsassistenten zu Gute kommen.
Ja, das ist die Szene:
FSD erkennt die Rehe (mal vom Schönheitsfehler der springenden Visualisierung abgesehen) und folgt ihnen langsam in gebotenem Abstand. Mehr würde ich nicht erwarten.
Ah sorry ich habe mich missverständlich ausgedrückt. Ich meinte in dem Highway Video wird das Reh viel zu spät erkannt (bzw. viel zu spät drauf reagiert), es ist mehrere Sekunden vor der Reaktion schon gut sichtbar.
Auf dem AiDrivr Video ist das Verhalten natürlich einwandfrei. Aber das ist denke ich nicht wirklich vergleichbar, weil es tagsüber und bei niedriger Geschwindigkeit war.
Er fährt NYC nach LA mit FSD:
Der User hier hats mit dem CT schon vorher gemacht:
V13 changelog mit Reverse und Unpark:
FSD v13 fährt zu einem supercharger und parkt selbständig an einem stall:
Es ist beeindruckend wie schnell der Fortschritt nun geht.
Mit FSD 13.2 ist nun eine komplette Fahrt ab Parkplatz bis Parkplatz autonom möglich.
Wow.
FSD (Supervised) v13 upgrades every part of the end-to-end driving network.
Includes:
- 36 Hz, full-resolution Al4 video inputs
- Native Al4 inputs and neural network architectures
- 4.2x data scaling
- 5x training compute scaling (enabled by the Cortex cluster)
- Reduced photon-to-control latency by 2x
- Speed Profiles on both City Streets and Highways
- Start FSD (Supervised) from Park with the touch of a button
- Integrated unpark, reverse, and park capabilities
- Improved reward predictions for collision avoidance
- Improved camera cleaning
- Redesigned controller for smoother, more accurate tracking
- Dynamic routing around road closures, which displays them along an affected route when they are detected by the fleet
Upcoming Improvements:
- 3x model size scaling
- 3x model context length scaling
- Audio inputs for better handling of emergency
vehicles- Improved reward predictions for navigation
- Improvements to false braking and slower driving in parking lots
- Support for destination options including pulling
over, parking in a spot, driveway, or garage- Efficient representation of maps and navigation
inputs- Improved handling of camera occlusions
Erste Fahrten der „Early Access“-Kunden mit FSD (Supervised) 13.2.
Omar Quazi (Whole Mars Catalog):
Chris (Dirty Tesla):
- Parken an ungeeigneten Stellen des Ziels
- Steckenbleiben in Sackgasse
Chuck Cook:
- kein „NHTSA-Stopp“ an „Chuck’s Turn“, aber an anderer Kreuzung
- Steckenbleiben in Sackgasse
- keine Anzeige von oder Reaktion auf Rettungsfahrzeug
Ziemlich guter Fortschritt mal wieder, mal sehen wie jetzt die Langzeiterfahrungen aussehen.
Ich bin mir ziemlich sicher, dass wir jetzt bald across america sehen werden, wären die gängigen Youtuber eigentlich doof das als Chance für mehr Klicks liegen zu lassen und es wird ziemlich gut funktionieren mit 12.x und 13.
Am Supercharger einparken läuft ja auch.
Wäre blöd, wenn Tesla das nicht selbst macht, wäre eine gute Marketing Aktion. So wie die 500 Mile Fahrt mit dem Semi, die sie aus dem Cockpit gefilmt und per Zeitraffer veröffentlich haben. Das würde in den konventionellen Medien vermutlich größere Reichweite bekommen als irgendein YouTuber.
War doch gestern hier irgendwo verlinkt, dass gerade ein CT und ein Y vom NY nach LA fahren?
Jau, aber das könnte man ja medial maximal ausschlachten und Klicks einsacken
Gehen wird es jetzt durchgängig, es wird ein paar Interventions geben, aber ich gehe davon aus, dass das gar kein Problem mehr ist (was die beiden Beispiele ja auch gemacht haben).