Autonomes Fahren

Sonstige Beiträge...

Re: Autonomes Fahren

von pjw » 14. Mai 2018, 19:31

Da das Thema Rettungsgasse immer wieder mal kommt, habe ich jetzt einen neuen Faden erstellt, wo wir Lösungen suchen können:
viewtopic.php?f=23&t=21845
Tesla Model S 85 (05/2015 AP1, 2018.21.9 75bdbc11), 100% erneuerbare Energie, 150'000 km.
EU Supercharger Probleme, Ladestationen
unbegrenzte Supercharger-Gratisnutzung
Benutzeravatar
 
Beiträge: 1229
Registriert: 18. Mär 2016, 21:57
Wohnort: Zürich

Re: Autonomes Fahren

von Bones » 24. Mai 2018, 12:39

Uber shuts down Arizona self-driving program two months after fatal Crash

Macht aber in anderen Städten, Bereichen weiter.
Benutzeravatar
 
Beiträge: 1780
Registriert: 20. Apr 2017, 08:07

Re: Autonomes Fahren

von KrassesPferd » 24. Mai 2018, 13:29

prodatron hat geschrieben:
Naheris hat geschrieben:Wie lange fährt übrigens ein Tesla Hands-Free in einem solchen Szenario ohne Warnung? (ernste Frage)

5-10 Minuten würde ich nach aktueller Erfahrung sagen. Je mehr man im Stau rumzuckelt, desto länger ist es nicht nötig, kurz am Lenkrad zu wackeln. So ein Stau bzw. Stop-and-Go ist halt auch mit die trivialste Situation von allen.


Ich würde aus meiner Erfahrung sagen, dass es länger dauert, wenn man etwa 20 bis 25km/h nicht überschreitet. Ich habe mit dem Tesla schon mehrfach weit über 10 Minuten im Stau (oder Stop&Go) gestanden und auf der mittleren Spur den AP eingeschaltet. Der meldet sich nicht, auch nicht nach 15 Minuten. Fahre AP1
Tesla Model S 75D (FL 09.2016) Multicoat-Red | Leder hellbraun | Premium | AP1 | Pano | SmartAir | Sound | Performance
Benutzeravatar
 
Beiträge: 1655
Registriert: 11. Okt 2016, 23:18
Wohnort: Hannover/Pattensen

Re: Autonomes Fahren

von smartgrid » 24. Mai 2018, 22:55

"Uber zufolge sind Notbrems-Manöver abgeschaltet, wenn das Fahrzeug vom Computer gesteuert wird, um ein unberechenbares Verhalten des Fahrzeugs zu vermeiden."


Jau. DAS macht das autonome Fahren ja richtig sicher... :? :roll:
smartgrid

Model S75 aus 03/18 mit Firmware: 2018.21.9
Bei Bestellung eines Model S/X gibt es kostenfreies Supercharging + 1.000 Euro Cash (pn für Details)
Benutzeravatar
 
Beiträge: 2086
Registriert: 14. Jan 2014, 00:42

Re: Autonomes Fahren

von prodatron » 24. Mai 2018, 23:40

KrassesPferd hat geschrieben:
prodatron hat geschrieben:
Naheris hat geschrieben:Wie lange fährt übrigens ein Tesla Hands-Free in einem solchen Szenario ohne Warnung? (ernste Frage)

5-10 Minuten würde ich nach aktueller Erfahrung sagen. Je mehr man im Stau rumzuckelt, desto länger ist es nicht nötig, kurz am Lenkrad zu wackeln. So ein Stau bzw. Stop-and-Go ist halt auch mit die trivialste Situation von allen.


Ich würde aus meiner Erfahrung sagen, dass es länger dauert, wenn man etwa 20 bis 25km/h nicht überschreitet. Ich habe mit dem Tesla schon mehrfach weit über 10 Minuten im Stau (oder Stop&Go) gestanden und auf der mittleren Spur den AP eingeschaltet. Der meldet sich nicht, auch nicht nach 15 Minuten. Fahre AP1


Das kann gut sein. Je trivialer die Situation ist, desto länger fährt er selbst, ohne daß man am Lenkrad wackeln muß ("Drehmoment" ausüben :D ). Das wirkt in dem Zusammenhang sehr gut durchdacht. Ich stand jetzt erst einmal richtig lang im Stau, beim nächsten mal muß ich das mal stoppen.
Alle sagen, das geht nicht. Dann kam einer, der wußte das nicht und hat's gemacht
Tesla Model S 100D "Dragon 100" (11/2017) seit 04/2018; 2x Model 3 reserviert
9,8KWp PV Anlage mit Akkuspeicher seit 03/2013; Opel Ampera von 07/2013 - 05/2018
 
Beiträge: 522
Registriert: 3. Nov 2013, 22:08
Wohnort: Moers

Re: Autonomes Fahren

von Teslanaut » 26. Mai 2018, 01:03

Um die fachkundigen und interessanten Diskussionen zum Thema zu befruchten, stelle ich mit freundlicher Genehmigung der Abteilung Flugsicherheit der Lufthansa AG (FRA CF) folgendes, aktuelles Interview mit CPT Manfred Müller, Leiter Flugsicherheitsforschung der Lufthansa AG, Dozent für Risikomanagement an der Hochschule Bremen, in dieses Forum. Auch Tesla wird dort erwähnt:

Autonomes Fliegen - Ist Fliegen bald ohne Piloten möglich?
Von Manfred Müller.
In letzter Zeit nehmen Berichte über autonomes Fahren, Fliegen und künstliche Intelligenz im Verkehrswesen in den Medien einen immer breiteren Raum ein. Selbsternannte Spezialisten gehen davon aus, dass sich schon in wenigen Jahren der Verkehr weitgehend selbst steuern wird.
Häufig wird die Luftfahrt als Beleg für die Machbarkeit dieser Konzepte herangezogen. Erstaunlicherweise werden selten Fachleute an der Diskussion beteiligt, die tatsächlich praktische Erfahrung in der Bedienung von hochautomatisierten technischen Geräten haben. Der öffentliche Diskurs wird von Betriebswirten, Juristen, Marketing-Spezialisten und Ingenieuren bestimmt, die in der Regel die Herausforderungen nur von der Theorie her kennen.
CF wurde kürzlich um eine Stellungnahme zum Thema autonomes Fliegen für unsere Betriebsöffentlichkeit gebeten, da diese Fragestellung auch Lufthansa-intern für Diskussionen sorgt. Nicht zuletzt fragen sich auch potentielle Nachwuchsflugzeugführer, ob sich der Einstieg in diesen Beruf noch lohnt.
 
Das Interview mit der Redaktion One und Manfred Müller, zuständig für Forschung und Entwicklung bei CF, finden Sie hier in ungekürzter Version.
 
One: Herr Müller, Medienberichten nach zu urteilen, dauert es scheinbar nicht mehr lange, bis zivile Luftfahrzeuge ohne Piloten fliegen und nur noch vom Boden aus gesteuert werden können. Was ist Ihre Einschätzung?
 
Müller: Ich würde mich über pilotenlose Cockpits freuen, denn dann könnte ich in einigen Jahren von einem sonnigen Plätzchen im Seniorenheim aus weltweit Flugzeuge steuern. Auch für jüngere Flugzeugführer mit kleinen Kindern wäre es ideal, wenn sie zwischen Kindergarten und vormittäglichem Einkauf die Landung eines Großraumflugzeuges am Rande eines Taifuns in Hongkong überwachen könnten. Aber Spaß beiseite, beim autonomen Fliegen gibt es zwei große, ungelöste Probleme: Sicherheit und Zuverlässigkeit.
 
One: Die NASA, Airbus und Boeing klingen da etwas zuversichtlicher. Die NASA veranstaltete Ende November ein Wettfliegen zwischen einer Drohne und dem NASA-Piloten Ken Loo, bei dem die Drohne dem Piloten nur marginal unterlag. Boeing will bereits nächstes Jahr mit Testserien beginnen, deren Ziel es ist, künftig Verkehrsflugzeuge pilotenlos fliegen zu lassen. Versperren Sie sich als Lufthansa-Kapitän mit dieser Einschätzung nicht gegen einen gefürchteten, aber durchaus möglichen Strukturwandel?
 
Müller: Zu Furcht vor einem Arbeitsplatzverlust für Piloten besteht kein Anlass. Zunächst muss festgehalten werden, dass ein Flug mit einem Passagierflugzeug wenig mit einem Wettflug zwischen einer Drohne und einem Testpiloten der NASA zu tun hat. Es geht – aus dem Blickwinkel der Flugsicherheit – nicht darum, eine, wie auch immer gestaltete Wette zu gewinnen. Vielmehr besteht die Aufgabe darin, für Millionen von Flügen ein akzeptables Sicherheitsniveau zu erreichen.
Leider ist die NASA in diesem Zusammenhang kein leuchtendes Vorbild: Die Sicherheit der Spaceshuttle-Raumfähren lag bei etwa 98%. Übertragen auf die Lufthansa Group bedeutete das etwa zwei tödliche Flugzeugunfälle pro Stunde.
Als ich meine Piloten-Ausbildung an der Flugschule der Lufthansa in Bremen beendete, erhielt ich zunächst keinen Arbeitsplatz im Cockpit, konnte aber als Flugbegleiter fliegen. Der damalige Personalchef erklärte uns Flugschülern, dass Lufthansa mit großer Wahrscheinlichkeit nie mehr Piloten einstellen würde, da in naher Zukunft alles automatisch, also ohne Flugzeugführer gesteuert werden würde. Das war 1981, also vor fast 40 Jahren. Im Rahmen meiner Forschungstätigkeit beschäftige ich mich seit über 20 Jahren mit dem Thema „Automation und künstliche Intelligenz in der Flugführung“. In Kooperation mit der Hochschule der Bundeswehr in München wurden schon in den 90er-Jahren, unter der Leitung von Reiner Onken, Professor für Flugmechanik und Flugführung, umfangreiche Experimente mit sprachgesteuerten Autopiloten und komplexen Algorithmen zur rechnergesteuerten Entscheidungsfindung durchgeführt. Ich durfte als Pilot mit Linienflugerfahrung die entsprechenden Systeme testen. Das Ergebnis war leider ernüchternd: Die Systeme hatten eine Zuverlässigkeitsgrenze von <10-5, also mehr als einen Totalverlust pro 100.000 Flüge. Für die Lufthansa Group ergäbe diese Zahl einen schweren Unfall pro Monat und damit den baldigen wirtschaftlichen Ruin des Konzerns.
 
One: Was fehlt also bis zur „kommerziellen Serienreife“?
 
Müller: Als limitierender Faktor zeigte sich bisher nicht die Rechnerleistung, die tatsächlich immer besser wird, sondern die Entwicklung von „Drehbüchern“ für die Entscheidungsfindung. Für die unterschiedlichsten Szenarien, die während eines Flugverlaufs eintreten können, muss es entsprechende vorprogrammierte Reaktionen geben. In unvorhergesehenen Situationen fehlt dem digitalen Rechner die Fähigkeit, alternative Handlungsoptionen zu generieren. An diesem grundsätzlichen Problem hat sich in den letzten 30 Jahren nichts geändert. Die Erfahrung hat gezeigt, dass ein Rechner nur in "trivialen" Fällen die Sicherheit signifikant erhöhen beziehungsweise garantieren kann. Da auch der beste Programmierer nicht alle möglichen Situationen vorhersehen kann, "versagt" der Rechner häufig, wenn unkonventionelle Entscheidungen erforderlich werden oder wenn Einflussgrößen abgewogen und bewertet werden müssen. Plakativ formuliert kann man feststellen: Der Automat hilft, wenn Hilfe nicht unbedingt erforderlich ist und er lässt uns im Stich, wenn eine Aufgabe sehr anspruchsvoll wird. Deshalb ist im Moment der Mensch, trotz seiner Fehlerhaftigkeit, der entscheidende Sicherheitsfaktor im Cockpit. Der Satz aus dem Pilotentraining gilt nach wie vor: Der wichtigste Schalter des Autopiloten ist der OFF-Switch.

One: Welche menschlichen Eigenschaften fehlen computergesteuerten Systemen?
 
Müller: Nach aufwendigen Forschungsprojekten hat sich mittlerweile in Fachkreisen die Erkenntnis durchgesetzt, dass der sogenannten Künstlichen Intelligenz (KI) enge Grenzen gesetzt sind. Selbst der gesunde Menschenverstand kann von einem Computer nur in sehr beschränktem Umfang „imitiert“ werden. Ein digitaler Computer ist nicht innovativ, er kann nur messen und rechnen. Von der künstlichen Intuition oder der digitalen Entwicklung kreativer und neuer Ideen ist man noch sehr weit entfernt. Auch der häufig vorgetragenen These der Schwarmintelligenz einer großen Gruppe vernetzt arbeitender Computer (man muss nur sehr viele Rechner verbinden, dann werden diese immer schlauer), widersprechen die Tatsachen. Neuere Forschungen haben gezeigt, dass es leider keine Schwarmintelligenz, in der Definition des Wortsinnes gibt (Intelligenz = „lesen und wählen“, also Fakten sammeln und das beste Resultat wählen).
Ein Schwarm folgt immer als Massenphänomen bereits im Vorfeld genau festgelegten, nicht verhandelbaren Algorithmen, auch wenn diese für die vorliegende Situation fatal sind. Delfine machen sich dieses Phänomen bei der Sardinenjagd zunutze: Ein Tier treibt den Schwarm genau in die Mäuler seiner Kollegen. Der „Schwarm“ der mittelalterlichen Menschen, war – programmiert durch die Kirche – der Ansicht, dass die Erde eine Scheibe sei. Galileo war mit seiner korrekten Meinung ein geächteter Außenseiter.
Ein Beispiel aus der Luftfahrt: Vor einiger Zeit war die Mehrzahl der Messsensoren für den Anstellwinkel eines A321 fälschlicherweise der Meinung, dass die Nase des Flugzeugs deutlich abgesenkt werden müsse. Der einzige nicht eingefrorene und korrekt funktionierende Sensor wurde vom Schwarm überstimmt. Dies hätte zum Überschreiten der maximal zulässigen Geschwindigkeit (bis zum Überschreiten der Schallgeschwindigkeit) und somit zum Verlust des Flugzeuges geführt. Nur durch das beherzte und schnelle Eingreifen der Piloten, die den Systemfehler sofort erkannten und in Zusammenarbeit mit Troubleshooting eine innovative Abwehrstrategie entwickelten (bestimmte Computer ausschalten), konnte das Flugzeug gerettet werden.
Auch die Tatsache, dass ein Rechner dem Menschen in einem geschlossenen System wie Schach oder Go bei Weitem überlegen ist, bedeutet nicht, dass die Maschine sogar für den Menschen einfache Alltagsaufgaben zuverlässig lösen kann. Schon ein so triviales Problem wie das Durchfahren einer Straßenbaustelle mit nicht eindeutiger Markierung, stellt für das autonom fahrende Auto eine häufig nicht zu bewältigende Aufgabe dar. Ganz zu schweigen von Fahrten bei Starkregen oder im Schneesturm. Auch ein komplexes Rechenprogramm kann sich – genau wie ein Mensch – täuschen.
 
One: Nennen Sie uns bitte ein Beispiel!
 
Müller: Ein Tesla-Auto hatte die Seitenfront eines LKW versehentlich für eine Wolke gehalten und nicht abgebremst. Es kam zu einem tödlichen Unfall. Interessanterweise wurde nach dem Unfall von den Juristen der Autofirma darauf hingewiesen, dass natürlich der Fahrer sofort zum Eingreifen bereit sein müsse. Er trägt somit immer die Gesamtverantwortung.
Eine ähnliche Täuschung hätte im September 1983 um Haaresbreite den 3. Weltkrieg ausgelöst: Ein Satellit der russischen Atomabwehr hatte Sonnenreflexionen an Wolken über dem US-Bundesstatt Montana irrtümlich für einen Massenstart amerikanischer Interkontinentalatomraketen gehalten. Glücklicherweise griff der verantwortliche russische Offizier, gegen einen ausdrücklichen Befehl der Führung, manuell ein und stoppte den Abschuss von zig russischen Atomraketen.
Auf diese Weise verhinderte er einen atomaren Angriff Russlands auf die USA und den dadurch zwangsläufig erfolgten Gegenschlag der Amerikaner.
Einfache mathematische Herleitungen zeigen, dass komplexe Software nicht vollständig getestet werden kann. Die Anzahl der möglichen Systemzustände steigt exponentiell mit der Anzahl der zu kontrollierenden Parameter. Tests komplexer Software müssen sich deshalb immer auf mehr oder weniger umfangreiche Stichproben beschränken. Ein Beispiel: Bei Boeing geht man davon aus, dass sich in der Steuer-Software der B-777 etwa 103 Programmierfehler verstecken. Die Lösung des Problems sind drei voneinander unabhängige Computerprogramme, die jeweils von anderen Teams programmiert wurden. Man hofft, dass sich die Fehler an unterschiedlichen Stellen der Programme befinden und sich somit gegenseitig neutralisieren können.
Ein kleines Gedankenexperiment verdeutlicht die Herausforderung: Man stelle sich einen Großrechner vor, der einen Flug vollautomatisch steuern kann. Vor seinem ersten Einsatz muss aus Sicherheitsgründen ein Software-Test durchgeführt werden. Geht man davon aus, dass nur 100 Parameter einen Flug beeinflussen (was ein sehr konservativer Ansatz ist, wenn man berücksichtigt, dass bei einem modernen Flugzeug mehr als 30.000 Parameter kontinuierlich überwacht werden), ergeben sich aus 100 Parametern 2100 oder 1,27 x 1030 Systemzustände. Selbst, wenn ein noch zu konstruierender Superrechner pro Sekunde 100 Millionen (108) Systemzustände überprüfen könnte, würde der Testlauf 1,27 x 1030 geteilt durch 108 Sekunden, also 4 x 1013 Jahre dauern. Die Dimension dieser Zahl erschließt sich, wenn man sie mit dem Alter unserer Erde vergleicht, das "nur" ca. 5 x 109 Jahre beträgt, der Test also achttausend Mal länger dauern würde, als unsere Erde existiert!
Dieses Rechenbeispiel zeigt, dass komplexe Software mit sehr großer Wahrscheinlichkeit fehlerbehaftet ist und dass Fehlerfreiheit nicht nachgewiesen werden kann. Ein Software-Test muss sich folglich immer auf mehr oder weniger umfangreiche Stichproben beschränken. Kritiker werden nun einwenden, dass man auch einen Menschen im System (z.B. einen Piloten) nicht erschöpfend testen kann. Diese Aussage ist zunächst richtig. Aber ein Mensch kann in nicht vorhersehbaren Situationen seinen gesunden Menschenverstand einsetzen, er kann Plausibilitätskontrollen durchführen und hat – im Gegensatz zu einem Elektronengehirn – eventuell eine innovative Idee.
Wie schnell sich ein „kleiner“ Programmierfehler gravierend auswirken kann, hat im Jahre 1999 die gescheiterte Marsmission der NASA gezeigt: Ein unbemanntes Raumschiff zerschellte auf dem roten Planeten, weil der Eintritt in die Marsumlaufbahn fehlerhaft berechnet worden war: Die eine Abteilung benutzte als Entfernungsmaßeinheit nautische Meilen, die andere Abteilung Kilometer. Bei der Überprüfung des Datenaustausches fand versehentlich kein Abgleich der Maßeinheiten statt.
Die vollständige Kontrolle eines anspruchsvollen Rechenprogrammes ist also nicht möglich. Daher muss bei nichttrivialen Arbeiten, die über Leben und Tod anvertrauter Menschen entscheiden, immer eine von einem Team von Spezialisten durchgeführte Plausibilitätskontrolle als letzte Kontrollinstanz stehen.
Beim Einsatz autonom agierender Computer zeigt sich ein erkenntnistheoretisches Dilemma: Einem autonom arbeitenden Rechner muss die Möglichkeit einprogrammiert werden, auch autonom zu lernen und sich, sofern nötig, selbst umzuprogrammieren. Das Ergebnis dieses Prozesses ist analog zur Evolution des menschlichen Gehirns nicht fehlerfrei, sondern verläuft nach dem Konzept „trial and error“. Der „Evolutionsast“ einiger unserer Vorfahren, die einen Säbelzahntiger versehentlich für einen Schatten im Gebüsch hielten, endete vorzeitig, aber insgesamt betrachtet wurde die Einschätzung der Menschen verbessert.
 
Für das Marketing autonomer Verkehrsmittel wird es eine große Herausforderung werden, diesen Sachverhalt den Kunden positiv zu verkaufen: „Stellen Sie sich bitte nicht so an, auch wenn sich Ihr autonomer Computer heute signifikant getäuscht hat. Langfristig betrachtet, verbessert sich das System kontinuierlich von selbst!“
Welche Zuverlässigkeit kann erwartet werden? Der Mathematikprofessor und „Guru“ für autonomes Fahren Amnon Shashua, der nach Medienberichten an der „Weltformel für autonomes Fahren“ arbeitet, veröffentlichte folgende Zahlen: Die Analyse von 6 Mio. Autounfällen zeigte 37 typische Szenarien, die mit 99,4% Zuverlässigkeit von den mathematischen Modellen beherrscht werden können. Diese Aussage bedeutet im Umkehrschluss, dass 0,6% der mehr als 6.000 täglichen Unfälle in der BRD auch mit den besten autonomen Computern weiterhin passieren werden. Das wären immerhin durchschnittlich zwei Unfälle pro Stunde. Allerdings weiß jeder Techniknutzer, dass diese theoretisch möglichen Zuverlässigkeitswerte in der Praxis nie erreicht werden. Es ist fraglich, ob die von der „German Angst“ befallene Bevölkerung der BRD beim autonomen Fahren oder Fliegen eine großzügigere Fehlertoleranz entwickeln wird als bei der Nutzung der Atomkraft. Deren Ausstieg wurde nach dem Gau in Fukushima beschlossen.
BMW nutzt für die Anforderungsspezifikation von Komponenten des autonomen Fahrens Berechnungsmethoden, die im Forschungsprojekt Samsys entwickelt wurden. Eine Gesamtzuverlässigkeit von 10-8 pro Fahrt würde, bei einem flächendeckenden Einsatz dieser Systeme in der BRD, mehr als einen fatalen Unfall täglich bedeuten.
 
One: Gibt es auch Beispiele aus der kommerziellen Luftfahrt?
 
Müller: Ich war beim letzten fatalen Unfall der Lufthansa Passage, dem A320-Landeunfall in Warschau, seitens der Flugsicherheitsabteilung der verantwortliche Flugunfalluntersucher. Die Unfallursache war ein Programmierfehler im Bremssystem des Flugzeugs: In der Logik der Aktivierung der Störklappen, der Radbremsen und der Schubumkehr wurde statt eines ODER- ein UND-Gate programmiert. Das führte dazu, dass die Piloten nach dem Aufsetzen 17 Sekunden lang die Maschine nicht abbremsen konnten.
 
One: Also konnte automatisiertes Fliegen, als Vorstufe zum autonomen Fliegen, die Unfallwahrscheinlichkeit bisher nicht reduzieren?
 
Müller: In der Luftfahrt hat ein erhöhter Automationsgrad die Unfallwahrscheinlichkeit bisher nicht signifikant reduzieren können. Nach der Einführung hochautomatisierter Flugzeuge hat sich allerdings bedauerlicherweise die Unfallursache „mangelndes Training“ vervierfacht. Es gilt folglich: Je komplexer die Technik wird, umso besser müssen die Operateure ausgebildet sein. Die von Airbus entwickelten Schutzkreise, sogenannte „Envelope Protections“, haben bisher zu keiner deutlichen Reduzierung der Unfallwahrscheinlichkeit geführt.
Der größte „Killer“ für zivile Verkehrsflugzeuge ist zurzeit der „loss of control in-flight“. In dieser Kategorie ist Airbus mehrfach prominent vertreten. So stürzte ein A330 in den Südatlantik, nachdem die Staurohre für die Geschwindigkeitsmessung vereisten. Dies führte zu einem Versagen der entsprechenden Computer-Schutzkreise und in der Folge zu einem Strömungsabriss. Da man den Flugzeugführern im Type-Rating erklärt hatte, dass dieses Flugzeug nicht in einen überzogenen Flugzustand geraten kann, dauerte es zu lange, bis die Piloten die Lage analysiert hatten. Mittlerweile sind Szenarien dieser Art aber wieder Bestandteile des Pilotentrainings.
 
One: Airbus-Chef Thomas Enders behauptet allerdings, autonomes Fliegen sei technisch einfacher umzusetzen als automatisiertes Fahren. Stimmen Sie zu?
 
Müller: Ich stimme Herrn Enders zu, dass grundsätzlich ein vollautomatischer Flug einfacher zu programmieren ist als eine Autofahrt durch das Verkehrsgewühl einer Großstadt. Es ist ziemlich unwahrscheinlich, dass einem Flugzeug über dem Pazifik in 35.000 ft Höhe eine ältere Dame, gestützt durch einen Rollator, in die Quere kommt. Aber das Auto kann sofort in einen sicheren Betriebszustand überführt werden. Es muss einfach nur stehen bleiben. Ein komplexer Systemausfall über einem großen Meer erfordert in einem Flugzeug unter Umständen stundenlanges Fliegen, bis eine Landebahn erreicht werden kann, die einen langfristig überlebbaren Betriebszustand des Transportsystems erlaubt. Die Rolle des Piloten wird hier zukünftig noch anspruchsvoller werden: In wenigen, schwer vorhersehbaren Ausnahmesituationen, die einem einzelnen Flugzeugführer unter Umständen nur einmal in seiner Karriere begegnen, muss sehr schnell eine innovative Lösung gefunden werden.
Die Lücke zwischen der Zuverlässigkeit komplexer Rechnersysteme von etwa 10-5 (pro Flug) zu unserem Sicherheitsziel von 10-8 (pro Flug) müssen die Menschen im Cockpit, eventuell zusammen mit Spezialisten von Trouble-Shooting am Boden, schließen. Oder anders formuliert: Zukünftig müssen Menschen das automatisierte System durch ihre Inputs etwa 1.000 Mal sicherer machen, als dies den Ingenieuren und Programmierern alleine gelingen kann. Diese eine hoffentlich korrekte Entscheidung entspricht einem finanziellen Gegenwert von über einer Milliarde Euro. Die zwei Flugzeugführer, welche diese treffen müssen, kosten zusammen in ihrer gesamten Karriere weniger als 1%, dieser Summe. Kein schlechter Return on Invest!
 
One: Könnten Flugzeuge aber theoretisch heute schon vom Boden aus gesteuert werden?
 
Müller: Rein theoretisch ist eine Steuerung eines Verkehrsflugzeuges auch vom Boden aus möglich. Es gibt ja seit vielen Jahren ferngesteuerte Modellflugzeuge. Limitierender Faktor ist hier eine sichere Datenverbindung von der Steuerzentrale zum Flugzeug. Um das aktuelle Sicherheitsniveau der Zivilluftfahrt von einem schweren Unfall alle zwei Millionen Flüge gewährleisten zu können, dürfte diese Datenverbindung nur in weniger als einem von 100.000.000 Flügen abreißen. Ich bitte den flugerfahrenen Leser, diesen erforderlichen Zuverlässigkeitswert mit den aktuellen Ausfallraten des FlyNet zu vergleichen. Der Datentransfer muss auch bei einem kompletten Ausfall der primären Stromversorgung gewährleistet sein. Entsprechende Back-up-Systeme wären erforderlich, welche über Stunden auch bei Notfallstromversorgung alle relevanten Parameter zuverlässig übertragen können. Wie komplex diese Aufgabe ist, zeigen die Drohnen der Luftwaffe: Mit einer Wahrscheinlichkeit von >10-4 wird hier die Datenverbindung durch technische Fehler unterbrochen, was in der Regel zum Verlust der Drohne führt. Mit der aktuell beobachteten Zuverlässigkeit würde die Lufthansa Group mindestens einen wöchentlichen Totalverlust erleiden.
 
Zusammenfassend kann man feststellen, dass der momentane öffentliche Hype um autonomes Fliegen wie auch um autonomes Autofahren in erster Linie ein Marketing-Gag ist. Die Unfallwahrscheinlichkeit eines Google-Autos liegt im Moment um den Faktor 10 über der eines normalen Autofahrers. Bis Passagierflugzeuge tatsächlich autonom unterwegs sein können, werden noch Generationen vergehen. Ich bin allerdings davon überzeugt, dass auch in ferner Zukunft bei Premiumfluggesellschaften Menschen im Cockpit die letzte Entscheidungsgewalt haben werden.
Modernste Computertechnik sollte den Menschen am Boden und in der Luft, wo immer möglich, optimal unterstützen und helfen, die Sicherheit und Zuverlässigkeit weiter zu erhöhen. Es muss allerdings darauf geachtet werden, dass der „Spieltrieb“ von Ingenieuren nicht dazu führt, dass zusätzliche Risiken entstehen.
Wie schwer der Weg zu vollautomatischen Steuerungsprozessen ist, zeigt die Deutsche Bahn gerade auf der Strecke München-Berlin. Obwohl bei einem Zug nur ein einziger Freiheitsgrad (die Geschwindigkeit) reguliert werden muss, kommt es zu erheblichen Problemen mit der Zuverlässigkeit: Das System zur automatischen Zugsteuerung (ETCS) überführt das „Transportsystem Schiene“ im Zweifel immer in einen sicheren Betriebszustand: Der ICE bleibt stehen. Die angekündigte Fahrzeitverkürzung von sechs auf vier Stunden wird deshalb häufig in der Praxis nicht erreicht. Ein Umschalten auf rein manuellen Zugbetrieb ist auf der Neubaustrecke leider nicht mehr möglich, weil in weiten Streckenabschnitten die für diesen Betrieb erforderlichen optischen Signalanlagen entlang der Strecke eingespart wurden.
Um für die Zukunft die sichersten und effizientesten Verkehrsmittel bauen zu können, müssen Entwickler und Bediener optimal zusammenarbeiten. Die Chancen und Limitierungen von Mensch und Maschine müssen hierbei berücksichtigt werden. Wissenschaftlich korrekt durchgeführte Forschungsprojekte sind erforderlich, bei denen in randomisiert durchgeführten Experimenten menschliches Leistungsvermögen und technische Möglichkeiten gemessen und bestmöglich aufeinander abgestimmt werden. Im Fokus muss hierbei die Erhöhung der Sicherheit stehen. Der Nutzer sollte bei diesem Prozess das letzte Wort haben („Human Centered Automation“).
Die momentan zu beobachtende Fokussierung auf Vollautomation setzt die falschen Schwerpunkte und vergeudet wertvolle Ressourcen, welche stattdessen für eine zeitnahe Sicherheitserhöhung von Verkehrssystemen verwendet werden sollten.“
Dateianhänge
ED7764F3-878E-45F3-92D5-EDAD25723A1A.png
Vollautomatische Landung einer B 777 auf der Landebahn 08R in München
Zuletzt geändert von Teslanaut am 26. Mai 2018, 09:25, insgesamt 1-mal geändert.
MX 100D 7 Sitzer in Pearl White Multicoat seit 08.11.17
 
Beiträge: 399
Registriert: 19. Feb 2016, 11:11

Re: Autonomes Fahren

von Adastramos » 26. Mai 2018, 08:56

Ich muss sagen, dass ich die Aussagen von Kapitän Müller nicht ganz nachvollziehen kann und er sich tendenziös ausdrückt. Klar hat die kommerzielle Luftfahrt andere Sicherheitsanforderungen, als man aus dem Straßenverkehr gewohnt ist und das ist auch zum großen Vorteil uns aller so geregelt.

Wenn er jedoch sagt, dass von 6000 täglichen Verkehrsunfällen, die Anzahl auf 0,6% gesenkt werden kann, also auf 36 Unfälle, dann ist dass ein deutlicher (um das 167-fache gestiegener) Sicherheitsgewinn. Ebenso wertet er die Leistungen und Zurechnungsfähigkeit von Entwicklern und Ingenieuren ab, welche mit Sicherheit nicht aus einem "Spieltrieb" heraus Dinge entwickeln, die potentiell hochgefährlich sind, denn auch die von Müller geführten Flugzeuge, sind Entwicklungen derselben.
Man kann -das sagt Müller richtig- keine 100%ige Sicherheit entwickeln, nirgendwo, das ist wenn dann eine Illusion, aber man kann die Anzahl der bisherigen Risikofaktoren minimieren, das fing beim Sicherheitsgurt an, über den Airbag, ABS, ESP, bis wir heute bei Notbremsassistenten angekommen sind.

Mit scheint es, dass er aus einer anderen Motivation gegen ein automatisiertes Fahren ist, das Interview beschäftigt sich nämlich hauptsächlich mit dem automatisierten Fliegen und eines ist sehr wahrscheinlich: Generationen braucht es nicht mehr, bis wir vollautonom fahren können, da wird es wohl eher innerhalb der nächsten zehn Jahre ablaufen, als dass es über 50 oder 60 Jahre bräuchte.
Und meine Meinung dazu ist, dass auch die kommerzielle Luftfahrt -mit Sicherheit später als der Straßenverkehr- dem trotzdem zeitnah folgen kann. Das widerspricht natürlich jemand, der ein Interesse daran hat, dass sein Berufsbild weiterhin existent bleibt.
Als Gegenbeispiel könnte man die automatisierte Landung einer Falcon 9 exemplarisch anführen, das kann kein Pilot derartig präzise steuern, denn flugdynamisch ist die erste Stufe massivst instabil.

Auch wenn es vermutlich sehr vermessen klingen mag, und ich die fliegerische Erfahrung von Manfred Müller und die aus seiner Tätigkeit in der Flugunfalluntersuchung sehr achte, aber ich glaube seine Aussagen kann man so einordnen, wie die eines Verbrennungsmotor-Ingenieur der über Möglichkeiten der eMobilität referiert.

Alles Gute!
Die Zeit lässt sich nicht aufhalten.
Benutzeravatar
 
Beiträge: 670
Registriert: 19. Okt 2015, 23:46

Re: Autonomes Fahren

von Teslanaut » 27. Mai 2018, 23:02

Das Interessante am Ansatz von CPT Müller ist (neben aufschlussreichen Zahlen) das “Drehbuch“! Wie soll Musk‘s Plan, dieses Problem mit KI in den Griff zu bekommen, funktionieren, ohne Maschinen etwas Essentielles, typisch Menschliches und eigentlich Unberechenbares beizubringen, nämlich Gefühle, konkret: das Gefühl für Gefahr. Es wird noch lange dauern, bis das gelingt, die Frage ist sogar, ob es jemals gelingen wird. Für mich sind die Rechnungen und Wahrscheinlichkeiten, die CPT Müller darlegt, überzeugender als Elon Musks Hoffnung, das Problem mit KI (auch noch zeitnah) lösen zu können. Ich glaube auch, dass die Präzision und Geschwindigkeit, mit der Reaktionen im Straßenverkehr erfolgen müssen, höher sind, als bei der Steuerung eines Verkehrsflugzeuges, trotz der um das 7-8 fach höheren Geschwindigkeit des Flugzeugs und dessen Bewegung in 3 statt nur 2 Dimensionen. Der Grund ist einfach: Im Straßenverkehr ist deutlich weniger Platz (Abstand des Außenspiegels zu einer italienischen Autobahnleitplanke ca. 20 cm) und der Verkehr ist z.B. in einer Großstadt auf Grund der vielen, unterschiedlichen Verkehrsteilnehmer dichter, komplexer, unübersichtlicher und nicht durch Fluglotsen kontrolliert und überwacht.
Wenn man das berücksichtigt und anerkennt, relativiert sich der Verdacht, CPT Müller könnte nur die Interessen seines Berufsstandes vertreten - bewußt oder unbewußt. Dafür wird die Sorge größer, E.M., den ich im Übrigen sehr bewundere, könnte einer Fehleinschätzung dieser Problematik unterliegen - insbesondere was den für eine Lösung erforderlichen Zeitrahmen angeht.
MX 100D 7 Sitzer in Pearl White Multicoat seit 08.11.17
 
Beiträge: 399
Registriert: 19. Feb 2016, 11:11

Re: Autonomes Fahren

von Adastramos » 28. Mai 2018, 08:47

Ich weiß nicht, ob man da von einer Fehleinschätzung reden kann. Die Zahl von den 99,4% vermiedenen Unfällen, die durch Software vermieden werden können, wären schon ein großer Gewinn für alle, CPT Müller waren sie noch zu gering aber wenn man vergleich, dass (angenommen) von den 3000 Verkehrstoten in Deutschland, jährlich nur noch 18 tödlich verunglücken, wie könnte man dagegen stimmen? Abgesehen von den andern, weitaus mehr Verunglückten (Deu 2017: ca 391000). Bereits eine Reduktion um nur 50% wäre ein enormer Vorsprund.

Ein anderer Aspekt, ist das menschliche Leistungsvermögen (HPL - Human Performance and Limitations). Die Risikoeinschätzung ist etwas, was uns Menschen garnicht liegt, nicht, wenn wir uns selbst richtig einschätzen können und die jeweilige Situation, in der wir uns befinden. Ich erlebe im Straßenverkehr häufig, wie zu dicht aufgefahren und zu schnell gefahren wird, aggressives Fahrverhalten begegnet einem meist täglich draußen. Reaktionszeit, also freier Raum vor einem, bei einer bestimmten Geschwindigkeit, bedeutet Überleben und Sicherheit.
Ich bin zur Zeit dran, meine SPL zu machen und die Frage "Bin ich fit und fähig heute zu fliegen" ist recht zentral, an das Auto haben sich viele mit Selbstverständlichkeit dran gewöhnt, ohne sich die Frage zu stellen "Wie geht es mir heute, bin ich emotional und körperlich überhaupt bereit dafür?". Daher denke ich, dass das Gefahrenbewusstsein der fahrenden Allgemeinheit nicht sehr hoch ausgeprägt ist.

Die Chancen autonom fahrender Autos (ob mit oder ohne KI) sehe ich in der Emotionslosigkeit, drängeln, rasen und fahren außerhalb der Limits wird dadurch abnehmen.
Ein anderer Aspekt wird sein, den du richtig ansprichst, der Straßenverkehr ist unkontrolliert, also ohne "Lotenunterstützung". Jedoch wird künftig die Car-to-Car Kommunikation, wie auch Car-to-x, zunehmen. Ich hab selbst einmal sehen dürfen, wie bei meinem französischen Kollegen ein System entwickelt wurde, dass alle ausgestatteten Fahrzeuge in einem Umkreis von 1km sich über ihre Fahrtrichtung und Geschwindigkeit austauschen und gleichzeitig auch Zustände übertragen wurden, wie "parkend", "Warnblinker an" oder "Unfall".

Zusammengefasst mag ich einfach sagen, dass das menschliche Leistungsvermögen immer begrenzt und beeinflusst ist und der Mensch überwiegend das schwächste Glied in der Kette ist. Zudem entwickelt sich die Technik in den kommenden 5-10 Jahren derartig, dass es unfair wäre, sie als unfähig abzutun, dem Menschen nahe zu kommen.

Alles Gute!
Die Zeit lässt sich nicht aufhalten.
Benutzeravatar
 
Beiträge: 670
Registriert: 19. Okt 2015, 23:46

Re: Autonomes Fahren

von cer » 28. Mai 2018, 09:09

Die Idee vom »Drehbuch« ist – zumindest im Falle Tesla – verkehrt, ebenso wie die Auffassung, dass ohne hochpräzise Kartendaten kein autonomes Fahren möglich sei. Ich werde nicht müde, darauf hinzuweisen, dass sich aus dem Deep-Learning-Ansatz ohne Objekterkennung ganz andere Aufgaben, Probleme und Verhaltensmuster ergeben als beim klassischen Ansatz.

Kein autonomes System wird, so denke ich, jemals in der Lage sein, moralische Entscheidungen zu treffen oder auch nur Szenarien zu prüfen, ehe es eine »Entscheidung« trifft. In kritischen Situationen tut der Mensch das ja auch nicht. Er reagiert automatisch / instinktiv, und das ist gut so. Ich selbst habe bereits zwei Mal potentiell tödliche Unfälle verhindert, und der einzige bewusste Denkvorgang war der feste Entschluss, es nicht »passieren zu lassen«. Für den Rest des Geschehens habe ich über gefühlt übermenschliche Kräfte verfügt, die direkt aus alten Gehirnteilen kamen und unmittelbar auf Erfahrung zurückgriffen – ohne dass ich dabei etwas vom Geschehen »verstanden« hätte.

Hier kommt die große Schwäche des »klassischen« Ansatzes mit Objekterkennung: In unvorhergesehenen Situationen gibt es keine Muster, und Ähnlichkeit ist, da eine Bewertung vorgenommen und eine Art »Verständnis« entwickelt werden muss, nicht ausreichend. Deswegen bin ich, mit der ganzen Ignoranz meines angelesenen Laienwissens, davon überzeugt, dass alle autonomen Systeme, die versuchen, Objekterkennung zu betreiben, grandios scheitern (und zuvor aktiv einige grässliche Unfälle produzieren) werden.

Das Konzept von NIVIDIA / Tesla, direkt aus der Bild- / Sensorauswertung Verhaltensmuster zu lernen, mag zunächst irre wirken. Aber eine andere Möglichkeit wird es in der Komplexität der Wirklichkeit nicht geben.
 
Beiträge: 1515
Registriert: 13. Jan 2014, 12:12
Wohnort: Bayern

VorherigeNächste

Wer ist online?
Mitglieder in diesem Forum: 0 Mitglieder und 2 Gäste