Impressum / Datenschutz Forumsregeln
TFF FORUM TFF E.V. SUPERCHARGE-ME
TFF Forum

Hat Bosch Teslas Autopilot entwickelt? Nein - aber:

Ich habe das so verstanden, das Lidar schlecht durch Gischt und Nebel durch kommt - das widerspricht sich dann aber oder?

Richtig:

twitter.com/elonmusk/status/753843823546028040

Nein das habe ich nicht behauptet - ich habe nur gesagt wer heute als grosser Hersteller Testautos auf der Strasse hat mit aktueller Technik der hat eben mit allerhöchster Wahrscheinlichkeit mechaniklose Systeme weil das nunmal Stand der Technik ist für die bald kommenden Systeme.

Stand aktuell ist
Delphi hat sich zu den komplett mechaniklosen Systemen bekannt mit Quanergy wurde seit 2014 on road getestet geht dieses Jahr in die Massen Produktikon.
ZF hat sich zu echten mechaniklosen Lidars bekannt bei der Übernahme on Ibeo (Ex Bosch Lieferant)
Contintental hat sich 2016 offiziell zur komplett spiegellosen Lidar Technologie bekannt
(Einzelfirmen wie Mercedes,Hyundai, Renault GM erwähne ich mal nur am Rande)

Alles Systeme die 2017 bis 2020 in die Massenproduktion gehen.

Natürlich sind das in den Testautos heute Labor Einzel der Kleinserienmuster anders man kann ja nicht erst mit Sensoren testen wenn die bereits in der Massenprodution sind? das doch auch der Grund weshalb viele Konzerne schon seit Jahren aus dem Automotivebereich Mitbesitzer obiger Lidarsensoren Entwickler sind um Technolgiepartener zu sein.

Wollen wir mal die Begrifflichkeiten glattziehen? Es klingt immer so, als ob Solid-State die Alternative zu spiegelbasierten Systemen ist.

Solid-State-Lidar bezieht sich auf die Photonics-Unit, Alternativen wären Laserröhren oder z.B. diverse andere PMD-Sensoren.

Demgegenüber sind oszillierende, rotierende, prismatische Spiegel, Linsen- oder Triangulationssysteme ein Merkmal des Strahlablenksystems. Dazu gibt es dann noch die Klassifizierung nach Camera View (auf das Du Dich beim Bosch-Beispiel immer beziehst) und Full-Dome (360° mal X°).

Diese drei Parameter hängen keineswegs untrennbar voneinander ab. Velodyne entwickelt zum Beispiel gerade ein Solid-State-Lidar für den Puck, das heißt ein drehendes System. Warum machen die das? Weil Solid-State-Units sehr günstig sind, kleine Bauformen ermöglichen und energieeffizient sind.

Solid-State Sensoren haben aber nicht nur Vorteile, sondern auch diverse Nachteile, wie ein schlechteres S/N-Ratio und eine deutliche temperaturinduzierte Drift, häufig auch nichtliniear. War schon damals beim Swiss-Ranger so. Zudem ist die Lebensdauer der Laserquelle noch nicht für alle Anwendungen geeignet.

Was genau ein Autohersteller oder Automotive-Zulieferer als Komponente verwendet, hängt sehr stark vom Systemdesign, dem Zielmarkt und dem Navigationsansatz ab. Einige nutzen das Lidar als komplementären Sensor, andere als additiven. Umgebungserfassung und Hinderniserkennung haben sensorisch nämlich durchaus unterschiedliche Anforderungen.

Vor allem in dem F&E Bereich, der auf hochdynamische Full-Dome Daten zielt, sind die Velodyne Systeme mit mechanischer Ablenkeinheit wie egn völlig richtig gesagt hat, State-of-the-Art.

Dass sie Komponenten ohne Mechanik herstellen, heißt nicht automatisch, dass alle drehenden Sensoren keine Daseinsberechtigung mehr haben, wie Du oben schreibst.

Auf der CES hat der optische Teil des NVida PX2 Systems bei künstlichem Extremregen versagt Menschen noch zu erkennen - die Lidar Sensoren haben dagegen Personen noch erkannt. Seit man die Strörstrahlung die Regentropfen erzeugen technisch ausfiltern kann, sind die auch bei Regen/Schnee/Nebel inzwischen recht gut (Auflösung sinkt natürlich) aber die Störwerte die bisher das Problem waren hat man ganz offensichtlich inzwischen im Griff, denn die liefern nicht nur Abstand zurück sondern auch rudimentäre Objektbeschaffenheit.

Das Bild zeigt den reinen Lidardatenanteil des Nvidia PX2 Referenzsystems aus den 2 nach vorne gerichteten Lidar Sensoren im Fahrbetrieb die nur mit Phasenmodulation aber ohne bewegliche Teile auskommen (Sensoren im Referenzsystem quanergy.com/s3/) Ich habe aus dem Bild ledglich die hier unnötigen Zusatzinfos entfernt, so dass man die Auflösung besser sehen kann aber nichts natürlich sonst geändert :smiley:

Dazu kommen natürlich dann zusätzlich die optischen Daten aus den Kameras und die Daten aus Nah und Fernradar.

Das Bild zeigt einen Demodatensatz aus 2015.

Wenn Du das Graustufenmapping mal remissionswertcodiert rechnest, siehst Du die Überlagerung der beiden Scanner besser und vor allem, dass da qualitätsmäßig noch deutlich Luft nach oben ist.

Es wäre übrigens gut, wenn Du Quellen für solche Sachen angeben würdest.

Das Bild ist aber schon echt cool, was so geht. Man sieht sogar die Fahrspur des vorausgefahrenen Fahrzeugs (vermute ich mal).

Hier ist mehr Information zum Quanergy S3 aus dem wohl auch der Composite Scan oben ist.

Composite Scan heißt hier dass die einzelnen Scans während der Fahrt durch die Szene über SLAM zu einem gemeinsamen Punktwolke zusammen gefasst wurde.

Was mich an dem oben gezeigten Datensatz stört ist der kreisförmige Verlauf der Linien in der Punktwolke. Dies deutet für mich auf einen Rotationslidar hin.

Bei einer Punktwolke vom Quanergy S3 würde ich eine gleichmäßige Verteilung der Punkte erwarten.

Naja ich hab das aus dem Quanergy Prospekt gescannt den ich von der CES 15 od 16 habe - ansonsten verlinke ich schon immer.

Nun es ist defnitiv ein S3 LidarScan an enem PX2 - ohne irgendwelche bewegliche Teile im Sensor.

Letztendlich müsste man halt die Bewegungen des Fahrzeugs rausrechnen und die Pixel noch zeitlich kodieren - das ist sicher ein additiver Scan (S3 macht laut den Daten die ich von damals habe ~ 450.000 Messungen / s)

Im Infoblatt wird auch extra betont dass man Lidar-Sensorik mit irgendeiner Form von Mechanik für völlig ungeeignet für den Automotve Bereich hält aus Preis und vor allem aus Gründen der Anfälligkeit und das einzige was brauchbar ist Sensorik ohne Mechanik - also nur Sensorik wie der eigene Gen 3 überhaupt in Frage kommen :smiley:

So ist es. Sieht man auch daran, dass die laterale Auflösung 10x höher ist als die radiale.

Edit: Sorry, hattest Du im nächsten Absatz ja selbst geschrieben.

Hier mal zwei gefilterte Bilder von einem Velodyne:


[ Die Kamerakalibrierung stimmt hier nicht exakt, ist aber nicht relevant weil die Kamerabilder nur zu Dokumentationszwecken genutzt werden. ]

Die Straßenmarkierungen sind immer aus dem Composite Scan, während die Objektpunktwolke im ersten Bild aus einem einzelnen Scan ist, und im zweiten Bild aus dem gleichen Composite Scan wie die Straßenmarkierungen.

Die für die Serie eingebauten Rotationslaser haben meist nicht mehr als 4 Ebenen auf denen sie Scannen, der Quanergy S3 hat 16x16 „Pixel“. Ein Punktwolke mit hoher Auflösung und Genauigkeit des Fahrzeugumfelds bekommt man nur mit sehr vielen Scans/Aufnahmen. Aber es reicht natürlich in beiden Fällen aus um die Distanz zu Hindernissen zu bestimmen, und die Zukunft gehört sicherlich in vielen Massenanwendungen den Solid-State Lidars.

Es ist mit Sicherheit kein Phased Array System, denn dabei wird der gesamte Array am Stück ausgelesen. Da gibt es quasi keine Effekte aus dem Bewegungsvektor.

Die 480 kHz Samplingrate gelten nur bei 1000 Fps, also 480 Pixel Array. Und jetzt schau Dir mal die Punktwolke an. Die Querlinien sind ganz klar zu erkennen und sind deutlich breiter als 22 Pixel. Zudem passen Anzahl und Radialabstand der Linien nicht zu einem Array.

Quanergy ist immer sehr aggressiv im Marketing, ich würde das nicht alles glauben, was in den Prospekten steht. Die sollen erstmal liefern.

Aber es ist doch kein RAW Scan was du da siehst sondern wie ich geschrieben habe - und du doch auch wie ich sehe zitiert hast - das was der PX2 ausgibt der den S3 Teil frameweise unterschiedlich ansteuert und der auch die S3 Daten verarbeitet.

Aus einem bereits verabeiteten Signal kann man doch nicht mehr so einfach auf die Sensorik schliessen? Ein Raw Signal ohne PX2 sieht sicher anders aus - darum habe ich das auch extra dazugeschrieben dass das ein PX2 System ist. Natürlich habe ich die „Spuren“ auch gesehen die man ja nicht übersehen kann :mrgreen: - aber diesen Effekt habe ich einfach mal dem Preprocessing Teil zugeschrieben.

Die Bilder der optischen Kameras werden auch am PX2 verarbeitet ausgegeben in RAW sind das doch meist Fischaugen im PX2 dann bereits entzerrte - auch da kann man natürlich doch nicht mehr auf den Kameratyp schliessen?

Doch, sowas kann man sehen. Die innere Geometrie des Sensor-Patterns und somit die relative Lage der Scanpunkte im Objektraum wird durch die Prozessierung nicht mehr verändert, Kalibrierfunktion mal ausgenommen.

Und auch die relative Lage der beiden LIDARs zueinander ist weitgehend fix.

Photogrammetrie und LIDAR kann man in dieser Hinsicht nicht vergleichen. Kameras liefern nur 2D Daten und Stereosysteme sind in aller Regel mit Weitwinkeloptiken ausgestattet. Ich schließe auch nicht auf das konkrete Modell sondern auf das Aufnahmeprinzip.

Also für mich sieht das ähnlich einem typischen SLAM von Velodyne Scans aus:

Hier ein ähnliches Bild, allerdings gefiltert und auf die niedrigere Kameraposition umgerechnet:

Quanergy schreibt ja auch nicht explizit bei den Bildern (Seite 27 und 28) dass die Daten vom Q3 stammen. Die Bilder sind nur zur Illustration verschiedener Darstellungen von Lidar Daten da und sollen nur die Laien beeindrucken. :wink:

Und wenn man auf den Vehicle Lidar raw input von der PX2 sieht, deren Daten wohl vom Q3 stammen, dann sieht die Struktur der Punktwolke völlig anders aus. Die ist natürlich wegen der geringeren Lidar Auflösung gegenüber einem Velodyne auch viel dünner und deshalb nicht so eindrucksvoll. Immerhin liefert ein Velodyn HDL-644 rund 2,2 Mio Punkte pro Sekunde.

Ne das nicht. Aber sie bringen halt die Bilder immer in Zusammenhang mit dem S3 - hier auf dem - allerdings etwas schon älteren - Vortrag des Quanergy Gründers vor der Stanford in dem es umd die Vorstellung des S3 solid state gegenüber den mechanischen System geht.

Da wird auch gesagt dass man eben nicht die ganze Umwelt auf einmal scannt sondern das mit einem Spot-Scan-Pattern macht also letztendlich einem virtuellen Strahl die Umgebung „punktweise“ abscannt (@ 56:10) - ich dachte halt das sei das Eregebnis nach dem Post Processing - eben so wie wenn man mit dieser Spotmessung eine Form fährt wie mal ganz vereinfacht eine liegende 8 ej anachdem welches Spotmessungsmuster man fährt kommt man doch als ergebnis dann zu belibigen Mustern? Im Prinzip ist das doch eine erweiterte Einzestrahlmessung? Der Quanergy Gründer sagt doch ganz eindeutig er misst keine Gesamtfläche sondern fährt Einzelspotmessung?

Das der Einsprung zu den Bildern
youtube.com/watch?v=uPqzo29 … be&t=47m3s

Das zur Messmethodik
youtube.com/watch?v=uPqzo29 … e&t=56m10s

OK, es wird als ein einzelner codierter Laserpuls rund 1 Mio/s gesendet und damit die Umgebung gescannt und eben kein Flash-Lidar.

Die Frage ist mit was die Ablenkung erfolgt. Hier ist ein Mikrospiegel (ala DLP) denkbar. Da dieser an einem Punkt aufgehängt ist und damit eine Kreisbahn beschreibt ergibt sich logischerweise ein ähnliches Muster wie bei einem Rotationslidar.

Das Konzept wird hier beschrieben.

Ein ähnliches Konzept verwendet auch LeddarTech die mit Valeo zusammenarbeiten.

Da auch hier ein Scan über die Zeit erfolgt muss man für bewegte Objekte alle Punkte in der Bewegung kompensieren, sonst bekommt man eine verzerrtes Abbild des Objekts. bei den Rotationslidars muss man das auch, aber nur für die horizontale Ebene machen.

Danke, für die Diskussion!

Gleich am Anfang des Videos als er den S3 vorstellt sagt er ganz klar es hat überhaupt keine beweglichen Teile in dem Sensor auch keinerlei Microspiegel (das erwähnt er extra) oder sonstiges was sich bewegt das ist echtes 100% solid state.
youtu.be/uPqzo29Q9Wc?t=3m50s

Die technischen Daten sind halt schon echt beeindruckend finde auf 100 Meter hat man eine Auflösung von glaub 3 cm die man abtasten kann :open_mouth:

youtu.be/uPqzo29Q9Wc?t=30m36s und zwar alle pro Frame(!) komplett änderbar- man kann also in einem Frame voll Zoomen und bereits im nächsten den Zomm völlig rausnehmen im übernächsten wieder woanders hinzoomen und das 50.000x pro Sekunde - weil sich halt gar nichts im Sensor mechanisch bewegt.

Meine Überlegung zu seiner Aussage dass er eben über Spots nacheinander scannt - was er zumindest explizit sagt - ist eben dass er vermutlich ein Muster fährt das mögichst wenig Störsignale bringt bei maximaler Nutzung der Auflösung - und das heisst doch dass man die Messfelder möglichst klein (Zoom Mode) und zeitlich nah beeinander liegende Messfelder möglichst weit voneinander setzt.

Zumindest wüsste ich nicht was da sonst zu der Aussage passen würde? Der Sensor gibt das ja her.

Das Interessante ist nicht der Empfänger sondern der Sender. Dann ergibt sich die Struktur der Punktwolke wohl aus der Verteilung der Laser und der Linse des Senders, die die Laserpulse entsprechend ablenkt.

Die maximale Framerate ist übrigens nur 1000 Hz und nicht 50000 Hz.

Hier noch ein etwas älterer kritischer Artikel.

Man kann doch einfach auch die Wellenlänge minimalst verändern? Das müsste doch bei konstatenem Brechungswinkel der Linse auch leichte Ablenkung geben (Dispersion)? Man muss doch eh mit minimalst variabler Modulierung arbeiten für die SNR Funktion wie bei Regen?

klar sind das nur 1.000 weiss nicht wie ich auf die 50.000 da gekommen bin :smiley:

Man hat immerhin Delphi Mercedes und Co überzeugen können - daher denke ich das wird schon passen.
Delphi ist ja in dem Bereich mit driverless Technologie nicht gerade wirklich schlecht auch vor Quanergy waren die da immer ganz vorne bei den Pilotsystemen dabei.