Hallo Leute!
In diesem Thread soll es ausschließlich um die Hardwarekomponenten der Autopilot 2.0 Hardware gehen, im Hinblickauf deren technischen Aspekte für die Eignung für vollautonomes Fahren. Natürlich darf es auch um die Frage gehen, ob eine AP 3.0 Hardware notwendig sein wird oder nicht, und was an dieser noch verbessert werden könnte.
Bitte hier nur konstruktive Beiträge posten.
Dass Tesla es hinbekommt auf der Autobahn vollautonom zu fahren glaube ich schon, vor allem auf den üppigen US highways. Auch deutsche enge Autobahnbaustellen sollten damit im Gegensatz zu AP 1.0 sicher möglich sein, wobei auch hier in dichter Kolonnenfahrt evtl Probleme auftreten könnten durch Verdeckung der Fahrbahnmarkierungen durch vorausfahrende Fahrzeuge.
Tesla hält sich ein rhetorisches Hintertürchen offen mit der Formulierung „enabling full self-driving in almost all circumstances“.
Welche mögen es sein? Die ersten Zweifel kamen mir als ich neulich mit einem Freund in seinem 90D durch das nächtliche, stark verregnete und dunkle Ludwigshafen fuhr, und ich selbst mit meinen Augen trotz Licht kaum noch etwas von der Fahrbahn sehen konnte…kann das die Kamera besser? Handykameras bekommen Probleme mit Rauschen bei geringer Heligkeit, was gilt wohl für die Tesla Kameras?
Falls irgendwelche Annahmen oder Bauteile falsch sein sollten, bitte PN an mich, danke!
Die AP 2.0 Hardware besteht im Gegensatz zu AP 1.0 aus:
- 8 Kameras statt einer
- 12 Ultraschallsensoren mit fast doppelter Reicheite und Auflösung (zuvor ca 5-6m, jetzt etwa um die 10m?)
- einem nVidia basierten Supercomputer (basierend auf nVidia NVIDIA DRIVE™ PX 2) mit etwa 40x mehr Rechenleistung als AP1.0
- einem etwas präziseren GPS
- einem vorwärts schauenden Radar (ich kenne noch keine Details ob der wesentlich besser ist als AP 1.0 oder gleich)
Nach dem semi truck trailer Todesfall, bei dem die eine Kamera nicht den querenden Truck von einem Schild unterscheiden konnte, vollzog Tesla ja einen Schwenk von Kameras hin zu „seeing the world in radar“ als Haupt-Informationsquelle…nun scheinen die Kameras doch wieder den Löwenanteil der Erfassungsarbeit zu tragen.
Die Kameras sind:
3 Im Rückspiegel: vorne links, vorne rechts und eine medium range „zoomkamera“ für schnelle Autobahnfahrten und optische Früherkennung ausserhalb der Radar Erfassungsweite (von ca. 150m?). Da die gerade schauende Kamera im Rückspiegel die medium range Zoomkamera sein muss, werden die weitwinkligeren Kameras nach vorn links und vorn rechts sich im Sichtfeld überlappen.
2 Kameras in den B Säulen, für den Blick zur Seite links und rechts verantwortlich. Dadurch werden Kreisverkehre ect. zuverlässig erfasst.
2 Kameras in den seitlichen Blinkern, die zu diesem Zweck etwas ausgestellt sind, um nach hinten ein sich ebenfalls überlappendes Blickfeld zu ermöglichen.
Macht 7 - die Rückfahrkamera dürfte die 8. Kamera sein, sie wird nun offenbar auch vom Rechner ausgewertet statt nur dem Fahrer im 17" Touchscreen eingeblendet zu werden.
Der Radar ist gut und kann Entfernungsunterschiede schneller erkennen als die Optik, teilweise sogar unter dem vorausfahrenden Fahrzeug hindurch das übernächste Fahrzeug tracken.
Das mit dieser Sensorflotte tagsüber bei klaren Fahrbahnmarkierungen eine hochpräzise, hochzuverlässige und wesentlich sicherere Fahrweise möglich ist als der durchschnittliche, ja sogar der gute Autofahrer steht ausser Frage. Denn kein Mensch kann 360° gleichzeitig überblicken und auch bei 15 Stunden Gewaltfahrten permanent 100% aufmerksam und wach bleiben.
Ich habe jedoch bedenken, ob die Kameras bei sehr ungünstigen Lichtverhältnissen (nasse Strasse, fehlende Fahrbahnmarkierungen, „Flickenteppich“ Asphalt, Nebel oder Starkregen) noch gut und zuverlässig auswertbares Bildmaterial liefern, und ob es wirklich möglich sein wird, das Ziel ins Navi eintippen zu können, und sich schlafen zu legen oder ein Buch zu lesen, Film anzuschauen oder sonstwie seine Aufmerksamkeit vollständig vom Verkehrsgeschehen abzuwenden.
Das Problem an AP 1.0 ist doch, dass man als Fahrer jederzeit voll aufmerksam bleiben muss, und innerhalb von einer Sekunde eingreifen wenn nötig. Was mich interessiert ist die spannende Frage, wird AP 2.0 so sicher und zuverlässig funktionieren, das Tesla fahren ähnlich entspannt und erholsam sein wird wie Zugfahren?
Edit: Hier noch ein sehr interessanter Artikel über die verschiedenen Erfassungssysteme die es momentan auf der Welt gibt:
cleantechnica.com/2016/07/29/te … dar-right/
Google baut auf LIDAR, Tesla sagt es geht ohne…sieht technisch fundiert aus, vor Allem die Diagramme vermitteln einen guten Eindruck. Mag sie nicht direkt hochladen wg. Copyright, aber die Seite ist öffentlich.
Edit2: cleantechnica.com/2015/11/05/te … ving-cars/
Hier noch ein Breakdown des Autors über die Ansätze (neudeutsch: approaches) von Tesla vs. Google - und ich denke er hat Recht! Tesla macht das Rennen, während Google sich an super-perfekten Zentimetergenauen Karten zutode rackert. Ich glaub Elon Musk als Visionär weiß genau warum er (momentan) auf Lidar verzichtet. bei schlimmem Wetter (Regen, Nebel…) ist Lidar auch schnell erledigt, und das noch schlimmer als Kameras. Falls es jedoch billiger wird, wird Elon einer der ersten, wenn nicht der erste Sein, der es in seine Teslas einbaut. Eine sinnvolle Ergänzung wären sie in jedem Fall, jedoch nicht zwingend notwendig.