@Measureman: Ich muss Dir hier teilweise widersprechen.
Diese in dem Eröffnungspost genannten Szenarien, Entscheidung zwischen „30 alten Rollstuhlfahrern am Zebrastreifen und 5 Kindern auf dem Gehweg“ ist genau das, worüber man nicht diskutieren muss.
Wer glaubt, dass eine KI in einer komplexen Unfallsituation da auch nur entfernt irgendwas entscheiden und dann auch noch umsetzen kann, der irrt gewaltig. Wie der von mir verlinkte Artikel zeigt, liegt die Herausforderung darin, überhaupt mal alle Sonderfälle abzudecken, von komplexem Unfallgeschehen ganz zu schweigen.
Fakt ist, dass bei Verkehrsunfällen viel Zufall eine Rolle spielt.
Ich bin nicht emotional, ich wünsche mir nur, dass Leute, die offensichtlich von Ethik keine Ahnung haben sondern knallharte Interessenpolitik verfolgen, bei diesen Diskussionen nicht involviert sein sollten. Da kann nichts gutes dabei rauskommen.
In meinem Bekanntenkreis sind viele sehr skeptisch über Level 3+ Wagen, und ich kann das gut nachvollziehen. Das Thema gehört in die Hände von Leuten, die sich mit Technikfolgenabschätzung auskennen und nicht in die Hände von Leuten, die zusammen mit Kollegen in mehreren Bundestagsuntersuchungsausschüssen Rede und Antwort stehen müssen.
@Mathie
zu 2) Sehr falsch. Wenn die KIs das könnten, immer richtig reagieren (was ist richtig, wenn man nicht weiß, wie das gegenüber reagiert) wären sie Götter, weil sie die Zukunft vorhersagen könnten.
Die Natur kennt übrigens keine Schuld. Das projezieren wir Menschen auf die Natur.