Autonomes FahrenSchau mir in die Augen, Kleinwagen!

In Japan hat ein autonom fahrender Bus einen Mann mit Sehbehinderung angefahren, weil die Systeme sein Verhalten nicht richtig vorhersagen konnten. Immer wieder werden die Bedürfnisse von Menschen mit Behinderung bei der Technologieentwicklung vernachlässigt. Damit kämpfen auch Entwickler:innen in Deutschland.

Professor Z aus dem Film "Cars 2": blaues Auto mit Gesicht und Monokel.
Autonome Fahrzeuge sollen irgendwann Blickkontakt mit Passant:innen aufnehmen. Das gefährdet Menschen mit Sehbehinderung. – Alle Rechte vorbehalten IMAGO / Everett Collection

Es klingt zu paradiesisch, um wahr zu sein: ein Klick in einer App und wenige Minuten später steht ein elektrisch angetriebenes, autonomes Fahrzeug vor der Tür, das mich klimaschonend von einen Ort zum anderen bringt. Und ich muss es nicht einmal selbst steuern. Es kann die Fahrtroute optimal planen, sodass ich schnell am Ziel bin, und gleichzeitig andere Fahrgäste einsammeln, um Fahrten zu sparen. Unfälle werden seltener, weil menschliches Versagen wegfällt, Staus und Parkplatzmangel gehören der Vergangenheit an, da durch die Vernetzung viel weniger Fahrzeuge benötigt werden.

Autonomes Fahren steht auf der Rangliste der digitalen Heilsversprechen regelmäßig ganz oben. Es besteht kein Zweifel: Eine Verkehrswende ist nötig. Vor allem aus Klimaschutzgründen, aber auch, um Städte lebenswerter zu machen, die Luftverschmutzung zu reduzieren und damit tausende Todesfälle im Jahr zu verhindern. Außerdem sollen die Mobilitätsbedingungen zwischen Stadt und Land angeglichen werden. Autonomes oder automatisiertes Fahren soll ein Baustein sein, dieses Ziel zu erreichen.

Doch immer wieder erschüttern Unfälle von automatisierten Autos das Vertrauen in die Technologie. Wenn auch viele davon auf Fehler der Fahrer:innen zurückzuführen sind, bleibt ein mulmiges Gefühl zurück.

Blinder Sportler von autonomem Bus angefahren

Auf dem Gelände der Paralympics in Japan ist kürzlich ein Sportler mit Sehbehinderung von einem automatisierten Bus angefahren und verletzt worden. Der Judoka Aramitsu Kitazono wollte an einer Kreuzung die Straße überqueren. Sowohl die Systeme des Busses als auch die beiden Sicherheitsfahrer:innen an Bord hatten wohl den Eindruck gewonnen, Kitazono würde den herannahenden Bus sehen und stehen bleiben. Wegen seiner Sehbehinderung war das aber nicht der Fall und weder Mensch noch Maschine haben schnell genug reagiert und das Fahrzeug angehalten. Der Judoka verpasste wegen der Verletzung seinen Wettkampf.

Dass sich bei den Paralympics Menschen mit verschiedensten sichtbaren und unsichtbaren Behinderungen auf dem Gelände bewegen, sollte niemanden überraschen. Offensichtlich waren die Verkehrsplaner:innen trotzdem nicht auf sie vorbereitet, als sie sich für den Einsatz der automatisiert fahrenden Busse entschieden haben. Wie mag das erst im normalen Straßenverkehr aussehen?

Fünf Levels der Automatisierung

Fahrzeuge, die heute auf den Straßen unterwegs sind, fahren nicht autonom. Fachleute unterscheiden fünf verschiedene Level der Automatisierung. Nur das letzte Level wird als autonom bezeichnet. Bei diesen Fahrzeugen sind die Menschen an Bord ausschließlich Fahrgäste, die keine Verantwortung für das Fahren tragen. Das Fahrzeug muss außerdem alle Verkehrssituationen alleine bewältigen können, Menschen können das Steuer nicht mehr übernehmen.

Alle Stufen darunter bezeichnen verschiedene Automatisierungslevel. Bis Level zwei sind die Fahrer:innen noch für alles verantwortlich, sie müssen dauerhaft wachsam sein. Danach nimmt ihre Rolle immer weiter ab, bis die Fahrzeuge ab Level 4, dem „vollautomatisierten Fahren“, auch ganz ohne Menschen fahren dürfen.

Doch soweit ist die Technologie in der Praxis noch lange nicht. Was derzeit auf deutschen Straßen fährt, bewegt sich irgendwo zwischen Level zwei und Level drei. Die Fahrzeuge können also schon viele Aufgaben im Straßenverkehr übernehmen, die Fahrer:innen müssen aber jederzeit eingreifen können. Geforscht wird an Universitäten und bei Autokonzernen allerdings schon an Größerem.

Marius Zöllner, Professor am Karlsruher Institut für Technologie und Vorstand beim FZI Forschungszentrum Informatik, betreibt gemeinsam mit einigen Partnerorganisationen das Projekt „EVA-Shuttle“. EVA steht für Elektrisch, Vernetzt und Automatisiert. In einem Karlsruher Stadtteil verkehrten für einige Monate automatisiert fahrende Shuttle-Busse. Sie waren für den Transport auf der „letzten Meile“ gedacht, also um Menschen zu den Haltestellen des öffentlichen Nahverkehrs zu bringen; und um einen Schritt weg vom eigenen Fahrzeug zu machen.

Die entscheidende Rolle der Sicherheitsfahrer:innen

Zöllner setzt große Hoffnungen in das automatisierte Fahren. Es werde den Verkehr sicherer machen: „Wir haben 3.000 Verkehrstote pro Jahr in Deutschland, da gibt es einiges zu tun.“ Um im Straßenverkehr frei fahren zu können, müssen die Systeme eines automatisierten Fahrzeugs flexibel auf die verschiedensten Verkehrssituationen reagieren können. In vergangenen Projekten setzte man oftmals auf eine sogenannte „virtuelle Schiene“. Fahrzeuge konnten ohne die Sicherheitsfahrer:innen keine Hindernisse umfahren, sondern blieben auf einer vorher definierten Spur. Befand sich auf dieser Spur ein Hindernis, bremste das Fahrzeug.

Hier klicken, um den Inhalt von YouTube anzuzeigen.
Erfahre mehr in der Datenschutzerklärung von YouTube.

Der EVA-Shuttle kann sich hingegen innerhalb der Grenzen der Fahrbahn und der Verkehrsregeln frei bewegen, Hindernissen ausweichen und sogar überholen. Im Testgebiet waren die Busse mit bis zu 20 km/h unterwegs. Zur Sicherheit waren bei jeder Fahrt Sicherheitsfahrer:innen mit an Bord, die in heiklen Situationen einen Nothalt auslösen konnten.

Diesen Sicherheitsfahrer:innen käme beim Umgang mit blinden Menschen oder Menschen mit Sehbehinderung eine entscheidende Rolle zu, berichtet Zöllner: „Die EVA-Shuttles sind mit einem eher konservativen System ausgestattet. Das bedeutet, dass der Bus lieber einmal zu viel als einmal zu wenig abbremst. Daraus resultiert dann ein nicht ganz befriedigendes Fahrverhalten, was wir aber in Kauf nehmen. Für Ausnahmesituationen sind aber ohnehin die Sicherheitsfahrer:innen verantwortlich. Bei einem Fall wie in Japan würde von unseren Fahrern erwartet werden, dass sie die Situation erkennen und das Fahrzeug anhalten.“

Datensätze umfassen nicht alle denkbaren Verhaltensweisen

Die Erfahrung habe gezeigt, dass viele angehende Sicherheitsfahrer:innen gerade bei den ersten Fahrten unsicher seien. Das sei auch beim EVA-Projekt aufgefallen, berichtet Zöllner: „Bei der Schulung der Fahrer:innen lief nicht immer alles rund, gerade bei den ersten Fahrten. Wir haben deshalb die Prüfung nochmal verschärft, bevor die Fahrer:innen im Straßenverkehr eingesetzt wurden.“

Für die technischen Systeme des automatisierten Busses sei es eine große Herausforderung, mit einer Situation wie der in Japan umzugehen. Das liege daran, dass diese Systeme auf maschinellem Lernen basieren. Sie analysieren also große Mengen an Daten, die ihnen zu Trainingszwecken zur Verfügung gestellt werden und üben mit diesen Beispieldaten, wie sie sich in bestimmten Verkehrssituationen zu verhalten haben. Weil diese Daten aber schwer zu sammeln sind, sind die Datensätze oft klein und umfassen nicht die gesamte Bandbreite an Verhaltensweisen, die Menschen an den Tag legen könnten.

Wenn ein autonomes Fahrzeug seine Umgebung und die Passant:innen beispielsweise mit einer Kamera beobachtet und die Bilder analysiert, aber noch nie zuvor mit einem Menschen im Rollstuhl in Berührung kam, kann es dessen Verhalten nicht vorhersagen, weil es keine beispielhaften Daten für so eine Situation hat. Das System kennt in einem solchen Fall nur Menschen, die aufrecht stehen.

Kaum Unterschiede zwischen blinden und sehenden Menschen

Ganz ähnlich ist das bei Menschen mit Sehbehinderung. Rainer Stiefelhagen hat am Karlsruher Institut für Technologie (KIT) die Professur für „Informatiksysteme für sehgeschädigte Studierende“ inne und leitet das Studienzentrum für Sehgeschädigte. Er forscht an Technologien, die Menschen mit Sehbehinderung unterstützen können, zum Beispiel um ihnen die Orientierung im Straßenverkehr zu erleichtern.

Für die technischen Systeme autonomer oder automatisierter Fahrzeuge sei es besonders schwer, mit blinden und sehbehinderten Menschen umzugehen, so Stiefelhagen: „Von außen ist oft nicht direkt erkennbar, dass eine Person sehbehindert oder blind ist. Wenn ein Mensch mit Sehbeeinträchtigung die Straße überquert, dreht er seinen Kopf meistens auch kurz nach rechts oder links, allerdings nicht, um nach Autos Ausschau zu halten, sondern um besser hören zu können, ob sich ein Fahrzeug nähert.“

Dabei könne aber der Eindruck entstehen, die Person hätte ein herannahendes Fahrzeug gesehen. Von außen betrachtet unterscheide sich das Verhalten zwischen blinden und sehenden Menschen dann aber so gut wie gar nicht. Schon für menschliche Fahrer:innen seien blinde Menschen schwer zu erkennen, wenn sie keinen Langstock dabeihätten oder keine Blindenbinde tragen. Für einen Algorithmus gelte das ebenso. 

Blickkontakt zwischen Passant:innen und Fahrzeug

Die Blickrichtung und der Augenkontakt zwischen Fußgänger:innen und Fahrzeug soll in Zukunft dabei helfen, Unfälle zu vermeiden. An der TU Delft in den Niederlanden forscht Dariu Gavrila an der Vorhersage des Verhaltens von Fußgänger:innen mithilfe der Kopfbewegungen: „Ein vorhandener Blickkontakt mit einem querenden Fußgänger gibt einem menschlichen Fahrer bei einem unmarkierten Übergang Hinweise, ob dieser am Straßenrand stoppen oder weiter laufen wird. […] Umgekehrt ist der Fall, wenn der Fußgänger nicht hinschaut, aussagekräftiger. Denn in diesem Fall ist die Wahrscheinlichkeit groß, dass der Fußgänger weiterläuft.“

Kamerabild aus der Sicht eines Autofahrers, drei Fußgänger am Straßenrand, zwei bewegen sich Richtung Fahrbahn. Geometrische Formen zeigen an, welchen Aufenthaltsort die Software für die Fußgänger vorhersagt.
Zwei Passanten bewegen sich auf die Fahrbahn zu. Die blauen Felder geben an, welchen Aufenthaltsort die Software für sie in den nächsten Sekunden vorhersagt. Dieser Ort ändert sich, wenn die Fußgänger den Kopf Richtung Auto drehen. - Alle Rechte vorbehalten Screenshot YouTube Intelligent Vehicles at TU Delft

Die Sicherheitssysteme, die die Entwickler:innen von autonomen Fahrzeugen bislang verwenden, berücksichtigen Gavrila zufolge nur die Position und die Geschwindigkeit der Fußgänger:innen. Er habe einen Prototypen entwickelt, der ähnlich wie menschliche Fahrer:innen die Kopfrichtung mit einbeziehe. Trainiert wurde das System mit vielen Beispielsituationen, die den Effekt der Kopfrichtung auf Stoppen und Weiterlaufen zeige.

Das funktioniert so: Die Systeme des Autos versuchen mittels Wahrscheinlichkeit vorherzusagen, wo sich ein Passant hinbewegen wird. Ziel des Autos ist es, keine Menschen zu überfahren. Nähert sich ein Passant der Fahrbahn, messen die Sensoren oder die intelligenten Kameras des Fahrzeugs die Gehgeschwindigkeit des Fußgängers. Daraus errechnet das System den Punkt, an dem sich der Mensch vermutlich einige Sekunden später befinden wird. Registrieren die Systeme nun, dass der Passant Blickkontakt zum Fahrzeug aufgenommen hat, geht es davon aus, dass der Mensch das Auto gesehen hat und die Fahrbahn nicht betritt. Gibt es keinen Blickkontakt, rechnet das Auto damit, dass der Fußgänger die Straße überquert – und bremst deswegen.

In „Einzelfällen“ kann es schiefgehen

Doch wie soll dieses System mit blinden Menschen funktionieren, wenn die Systeme bei einem zugewandten Gesicht davon ausgehen, dass der Passant das Fahrzeug gesehen haben muss? „Wenn mittels maschinellem Lernen zu viel auf normatives Verhalten gesetzt wird, werden die Systeme wohl meistens besser prädizieren, aber in seltenen Einzelfällen, zum Beispiel bei Sehbehinderten, kann es dann richtig schief gehen“, sagt Gavrila. Die Kopfrichtung kann also womöglich helfen, die Vorhersagen über das Verhalten von Fußgänger:innen zu verbessern, darf aber nie das einzige Merkmal sein, das in die Entscheidungsfindung mit einbezogen wird.

Helfen könnte auch, mehr Daten von Menschen mit Behinderung in die Datensätze aufzunehmen, mit denen die Systeme lernen. Rainer Stiefelhagen merkt aber an, dass Behinderungen sehr divers sind. Jede mögliche Ausprägung in einem Datensatz zu repräsentieren, damit die Systeme auf jeden individuellen Menschen vorbereitet sind, wird nur schwer möglich sein.

In Bezug auf den Unfall in Japan weist Stiefelhagen auf ein weiteres Problem hin: „Viele autonome Fahrzeuge sind Elektroautos. Die E-Motoren sind deutlich leiser als Verbrennungsmotoren. Blinde und sehbehinderte Menschen sind aber im Straßenverkehr viel mehr auf das Hören angewiesen.“ Sein blinder Mitarbeiter habe kürzlich neben einem laufenden Tesla gestanden und so gut wie gar nichts gehört.

Blinde in Technologien einbinden

Um dieses Problem anzugehen, schreibt die EU seit dem 01.07.2021 vor, dass auch E-Autos Geräusche machen müssen, damit blinde Menschen sie hören können. Stiefelhagen wünscht sich, dass Menschen mit Sehbeeinträchtigung häufiger von Anfang an in die Technologieentwicklung eingebunden werden: „Wenn Entwickler sich eine Lösung für blinde Menschen überlegen, ohne sie einzubeziehen, ist das schlecht.“ Er betont, dass autonomes Fahren für blinde Menschen auch eine Chance sein könnte. Wenn die Bedienung barrierefrei gestaltet sei, könnte die Technologie die Mobilität blinder Menschen erleichtern.

Für seine eigene Forschung an KI-gestützten Systemen, die blinden Menschen die Orientierung in der Stadt erleichtern sollen, nutze er Ergebnisse und Modelle des autonomen Fahrens. Dort müsse man zum Beispiel mithilfe von Kamerabildern einen Gehweg von einer Straße unterscheiden. Diese Technik könne man sich zunutze machen, wenn man Systeme für blinde Menschen entwickle.

Ob die Technologie für blinde Menschen und Menschen mit Sehbehinderung also eine Gefahr oder eine Chance darstellt, hängt entscheidend davon ab, wie ihre Interessen schon in frühen Entwicklungsstadien mit einbezogen werden. Bessere Repräsentation in den Daten und in den Forschungsgruppen erhöht das Bewusstsein für die Bedürfnisse von Menschen mit Behinderung – bei Forscher:innen und Maschinen.

23 Ergänzungen

  1. „Auf dem Gelände der Paralympics in Japan ist kürzlich ein Sportler mit Sehbehinderung von einem automatisierten Bus angefahren und verletzt worden.“

    Super Beispiel. Auch zum Thema „Diskriminierung“ – oder Voreingenommenheit, dann das sind auch die kleinen Problem-chen mit der lieben „KI“.

    Gerade dachte ich noch, einen selbstfahrfähigen E-Sitz zu empfehlen, als Hilfe für Ü80 beim Spazierengehen, Made in Japan :)… aber ein ganzes Land in einen Topf, wer/was macht denn sowas…

  2. „weil die Systeme sein Verhalten nicht richtig vorhersagen konnten.“ – nun, das können sie prinzipiell nicht, auch wenn das der Hauptanspruch von ML/AI ist.

    Bisherige ML/AI Syteme können bestenfalls Muster erkennen und kategorisieren, wenn ein Muster in den Trainingsdaten erkennbar ist. Schlüsse ziehen oder Vorhersagen daraus gestalten hat eine Trefferquote nahe einer Zufallsentscheidung. Manche (siehe GAN) versuchen nun, auf synthetische Weise Trainingsdaten zu erzeugen, aber in Endeffekt wird das nur potenziertes Rauschen.

    Aber solange der AI-Hype andauert, werden wir damit leben (und sterben) müssen, das Systeme eingesetzt werden, die nur im statistischen Mittel funktionieren und im Einzelfall versagen.

  3. Bisher ist jeder Versuch gescheitert, u.a. auch in Wien.

    Autonomer Bus – Seestadt Wien
    https://www.wienerlinien.at/web/wiener-linien/auto-bus-seestadt
    https://de.wikipedia.org/wiki/Autonomer_Bus_(Wien)

    Wir wären mit der Technologie schon viel weiter, wäre man bei der Autonomie systematisch vorgegangen, so nebenbei auch mit dem Effekt das es den zu recht bestehenden widerstand in der Zivilgesellschaft so nicht geben würde.

    Meines Erachtens ist die Hochseeschifffahrt der erste Kandidat wo sich die Autonomie durchsetzen wird. Schiffe sind extrem träge, selbst eine Latenzzeit von 10 Sekunden ist hier noch Echtzeit, dazu wirtschaftliche Gründe, mit halber Geschwindigkeit kann sehr viel Treibstoff eingespart werde Thema Umweltschutz. Durch die Energieeinsparung fallen für Reedereien auch die sehr teuren Kanalgebühren weg, die Fahrt über das Horn von Afrika wird billiger, als die Passage über den Suez Kanal. Weiterer Vorteil weniger Versicherungsgebühren, u.a. durch Wegfall der Piraterie.

    Trotz all der handfesten Gründe die dafür sprechen ist die autonome Hochseeschifffahrt noch in Entwicklung, bei der Umsetzung ist sicherlich auch Thema das zurück zum Segel, das wahrscheinlich die größte Herausforderung sein wird.

    Der erste Kandidat auf der Straße werden autonome Straßenbahnen sein, klarer Fahrweg, klare Signalisierung sowie geringe Geschwindigkeiten, innerstätisch wird selten mehr als 25 km/h erreicht. Die Probleme hier sind die Ausfallsicherheit sowohl bei den Fahrzeugen selbst, als auch bei den Schienen Stichwort Weichen.

    Mit der autonomen Straßenbahn wäre damit der erste Schritt für die autonyme im Straßenverkehr getan. Ein schwerer Fehler das bei der Autonomie nicht systematisch vorgegangen wurde, sondern gleich mit dem Auto und somit dem Komplexesten alles auf eine Karte gesetzt wurde.

    Davon unabhängig – bisherige autonome System zeigen das sich die Personaleinsparungen sehr in Grenzen halten. Bei der MQ-9 Reaper ist sie sogar negativ, es wird mehr Personal benötigt als bei der Lockheed Martin F-22 oder Northrop B-2 Spirit.

    Es ist somit bis auf weiteres nicht zu rechnen das autonome Straßenfahrzeuge massiv Personalkosten senken werden, schon von daher macht die ganze Entwicklung reichlich wenig Sinn.

    1. Ja, Gleis geführte System werden sich zuerst durchsetzen. Das müssen keine echten Schienen sein, die können in der Stadt auch aufgemalt sein. Schiff und Flugzeug sind ebenso Routen gesteuert. Mischsysteme, bei denen der Mensch „die letzte Meile“ selbst steuert haben Vorzüge. Dichter städtischer Individualverkehr überfordert die Robotic.

  4. Am Wochenende gab es bei Tagesschau24 ein Interview mit einem, der zum Thema autonomes Fahren forscht.

    Der hat ganz klar dargestellt, das aF mehr Fluch als Segen ist. Neben der Entscheidungsfindung und Reaktion auf spezielle Vorgänge, u.a. der Hinweis, das sich die Städte und Gemeinden immer mehr der Abschaffung von ruhendem Verkehr aus dem Straßenbild verschrieben haben (gerade aktuell in Berlin großes Kino). Als Folge werden aF nur noch im Kreis fahren und mit Hinblick auf die Elektromobilität der Energiebedarf dadurch noch steigen und die Strassen weiter verstopfen…

  5. „Registrieren die Systeme nun, dass der Passant Blickkontakt zum Fahrzeug aufgenommen hat, geht es davon aus, dass der Mensch das Auto gesehen hat und die Fahrbahn nicht betritt. Gibt es keinen Blickkontakt, rechnet das Auto damit, dass der Fußgänger die Straße überquert – und bremst deswegen.“

    Ein klassisches Beispiel, wie KI falsch trainiert wird. Der erfahrene Fußgänger weiß aus Erfahrung, dass Autofahrer zuverlässig stoppen, wenn man das Gesicht eben nicht in Richtung des zuvor wahrgenommenen, sich nähernden Fahrzeugs wendet. Der Fahrer wird es nicht mehr darauf anlegen, das Recht des Stärkeren durchzusetzen. Dabei wird er hoch emotionalisiert, weil er unerwartetes Verhalten verarbeiten muss. Selbstverständlich muss der Fußgänger bei dieser Methode dennoch das Fahrzeug per Blick aus den Augenwinkeln genau beobachten, ob der Fahrer aufmerksam ist, und das Tempo auch wie erwartet deutlich verringert.

    Verhalten kann stets falsch interpretiert werden. Zum Teil ist es ein Wahrnehmungsproblem, teilweise aber werden auch falsche Schlüsse gezogen. Unzählige Verkehrsunfälle basieren darauf.

    Man darf darauf gespannt sein, wie Zeichen gebende Verkehrsteilnehmer autonomes Fahren beeinflussen kann. Wird die Handbewegung als Aufforderung zum Fahren oder zum Stoppen gewertet? Und wird der einzelne Mittelfinger mit längerem Hupen quittiert werden?

    Bezogen Auf KI bei autonomem Fahren versucht man zu optimieren, weil das Rechnen immer noch zu viel Zeit beansprucht. Wenn nun jedoch zusätzlich auch noch Augen von Fußgängern lokalisiert und bewertet werden sollen, so wir das eben noch mehr Rechenzeit benötigen. Die Bewertung jedoch kann Fehlerhaft sein, weil menschliches Verhalten nicht konsistent Verlässlich ist. Wenn Menschen ein selbstfahrendes Fahrzeug als solches erkennen könnten sie gerade deswegen verleitet sein, die Straße zu betreten, weil sie erwarten dass so ein Fahrzeug zuverlässiger anhält, als ein menschlicher Fahrer.

    Bei schweren Verkehrsunfällen in solchen Situationen wird es zwangsläufig zu Offenlegungen von Algorithmen kommen (müssen). Spätestens dann werden zufallsgesteuerte Teil-Algorithmen, bzw. falsch gelernte KI als teilweise menschenverachtende Technologie entlarven.

      1. Masken eröffnen aber wiederum auch spannende neue Möglichkeiten – so ist eine Strassenkreuzungs-Sitzblockade sicherlich viel wirkungsvoller, wenn an jedem Stromkasten, Liftfaßsäule, Laternenmast am Straßenrand eine Pappfigur mit Gesicht hängt. Muss ja nicht besonders hochwertig gemalt sein, einfach und klar kommt den K“I“s ja auch entgegen… Hauptsache, die Auto-Autos stoppen alle 10 cm, weil die im Wind wackelnde Figur vielleicht auf die Straße läuft.

        Reagieren die auch auf Luftballons und Seifenblasen? Oder wenn mir an der Stadtring-Hauptkreuzung ganz aus Versehen der Karton mit Aluminium-Düppeln vom Wind aufgepustet wird?

        1. Bei Mützen muss man sicherlich auch noch aufpassen, dass die nicht zu sehr mit der Umgebung verschmelzen…

          Wenn Radar/Lidar keine Bremspriorität mehr vor allgemeiner Objekterkennung haben, wird das alles sicherlich sehr witzig.

          1. Jäger statten sich schon aus: „Optifade Open Road“

            Sonst blinken und hupen die Fahrzeuge automatisch, und vertreiben die Sau.

    1. Nicht zu vergessen die Versicherungen, wenn Autonome Autos Unfälle bauen sind sie schuld. Bzw. der Hersteller wird in die Haftung genommen.
      Sowas wird ausgenutzt werden und gezielt die schwächen angegriffen werden um bei der Versicherung was rauszuschlagen.
      Das ende vom Lied wird schrittgeschwindigkeit sein. Oder was ich am Sinnvollstenn finde Autonomes fahren in Städten komplett ausschließen und nur auf Autobahnen wie es in den Film I Robot dargestellt ist.

  6. Für mich ist die entscheidende Fragen hätte ein Mensch als Fahrer besser reagiert. Auch der Mensch ist nicht perfekt. Wenn die KI besser fahren kann als der Mensch dann ist ja schon viel gewonnen, oder?

    1. „Wenn die KI besser fahren kann als der Mensch dann ist ja schon viel gewonnen, oder?“

      „könnte“ und „wäre“. Wie in vielen anderen Fällen wenn versucht wird mittels Statistik zu lügen, werden Durchschnittswerte verglichen. Im Durchschnitt macht die KI weniger Fehler. In der Praxis vermeidet die KI ganz viele kleine Fehler, erzeugt aber sehr selten richtig große und dumme Unfälle, die menschliche Fahrer im Mittel vermeiden. Teslas Fahrassistent fährt selten, aber dann mit viel Selbstvertrauen in stehende Hindernisse. Menschliche Fahrer machen das bei Sichtproblemen, Teslas machen das, weil am Abstandsradar gespart wurde (was das gleiche ist).

      1. Der Hauptunterschied ist, dass die Menschen, die und ihrem Auto bei schlechter Sicht zu viel zutrauen, quasi automatisch aussortiert werden. Bei autonomen Autos scheint es im Moment kein Äquivalent dazu zu geben.

  7. Vielleicht sollte man mal die Gesetze berücksichtigen.
    In Deutschland gilt: „§ 26 Fußgängerüberwege: (1) 1 An Fußgängerüberwegen haben Fahrzeuge mit Ausnahme von Schienenfahrzeugen den zu Fuß Gehenden sowie Fahrenden von Krankenfahrstühlen oder Rollstühlen, welche den Überweg ERKENNBAR benutzen wollen, das Überqueren der Fahrbahn zu ermöglichen. “
    Ein Kopf-Drehen sollte erkennbar genug sein, um das Auto zu STOPPEN – nicht um es gerade WEITERfahren zu lassen – Im Sinne von: Der Fußgänger guckt, also soll er stoppen?? Wie kommt die KI auf diese Schlußfolgerung?
    Umgekehrt: Wer nicht guckt und prüft, hat Vorfahrt?? Das ist gegen Menschenverstand UND Gesetze.
    Zum Vergleich in Bulgarien: §119 Straßenverkehrsordnung (Zakon za dvizhenieto po patishtata): Erst wenn der Fußgänger bereits auf der Straße ist, ist der Autofahrer verpflichtet zu stoppen. Der erste Schritt auf die Straße ist also das Harakiri-Risiko des Fußgängers.
    Die drastisch unterschiedliche Gesetzeslage ist schockierend genug. In der Programmierung sollte natürlich immer der achtsamste Fall einbezogen werden: daß das Auto eher stoppt!

  8. Mir persönlich würde automatisches Einparken schon reichen.

    Außer Sehbehinderten sollen in freier Wildbahn auch noch zerstreute, abgelenkte oder eilige Fußgänger, auf die Straße laufende Kinder, Menschen mit Rollatoren, Rollstühlen oder Krücken vorkommen. Wird ein Radfahrer als Mensch erkannt? Auch mit Lastenfahrrad?
    Der Straßenverkehr in Deutschland ist zu unberechenbar und inhomogen, finde ich.
    Außerdem grenzt die Vorstellung, dass ein autonomes Fahrzeug gehackt oder mit Malware verseucht werden könnte, oder auch nur eine Fehlfunktion hat, an einen Alptraum.

    Für den LKW-Verkehr auf Autobahnen wäre eine Halbautomatik vielleicht sinnvoll:
    gekoppelte Kolonne mit homogener Geschwindigkeit (also keine Elefantenrennen auf drei Spuren mit je 5 km/h Geschwindigkeitsdifferenz mehr),
    Abbiegeassistent (Kamera im toten Winkel),
    automatische Zielführung (kein Verirren mehr in enge Gässchen),
    Wecker/Totmannschaltung gegen den Sekundenschlaf.

    Behinderte werden generell bei neuen Technologien vergessen, Sehbehinderte erst recht. Fängt schon an mit den allgegenwärtigen Touchscreens, sogar die popeligsten Haushaltsgeräte haben heute welche. Früher gab es bei Handys noch Knöpfe zum Tasten, man will ja nicht in aller Öffentlichkeit die gewählte Nummer per Spracherkennung laut verkünden. Ständig muss man was einscannen, bunte Buttons anwählen, Kleingedrucktes abnicken. Als blinder oder seheingeschänkter Mensch biste bei fortschreitender Digitalisierung immer mehr außen vor. So geht Inklusion. Nicht.

  9. „Sowohl die Systeme des Busses als auch die beiden Sicherheitsfahrer:innen an Bord hatten wohl den Eindruck gewonnen, Kitazono würde den herannahenden Bus sehen und stehen bleiben. Wegen seiner Sehbehinderung war das aber nicht der Fall und weder Mensch noch Maschine haben schnell genug reagiert“
    Also haben die Aufsicht führenden Menschen den Unfall zu verantworten. Warum wird im Titel so reisserisch nur der „autonome Bus“ genannt?

  10. Noch mehr Angst als vor unzureichend trainierten und zu simpel programmierten KI-Autos habe ich vor dem enormen Druck auf die Entwickler und Programmierer, die m.E. zu oft wider besseres Wissen unzureichend geplante und getestete Software auf den Markt werfen (oder – vom Chef gedrängt – werfen müssen).
    Wir brauchen klare gesetzliche Vorgaben und eine neutrale Test- und Abnahmestelle wie z.B. das BSI; das Kraftfahrtbundesamt hängt zu sehr an der Politik (Scheuer!). Ich würde kein KI-Auto freigeben, wenn nicht die Software vom Entwurf an hinterlegt und für die Teststelle compilierbar und (besonders bei KI) die Tests trainierbar vorliegen!
    Und im übrigen läge vielleicht *defensives Fahren* nahe, wie es früher mal für menschliche Fahrer empfohlen wurde (»Der siebte Sinn«, leider seit langem nur historische Fernsehspots).

    1. Dabei ist unabdingbar die Kompetenz zur Einschätzung der Systeme bis auf eine gewisse Detailebene zu haben. Unabhängig von der Industrie.

      Vielleicht steht in Frage, auf welche Weise z.B. Objekterkennung bzw. -Interpretation z.B. Sicherheitsfunktionen außer Kraft setzen dürfen (z.B. Geschwindigkeitsverringerung bei Vorsicht, ein Bus könnte dann auch ein gerichtetes akustisches Signal abspielen, um nahe Fußgänger zu Vorsicht oder Abstand zu bitten, solche müssten allerdings auch standardisiert und u.a. auch von Blinden trainiert werden). Würden die Hersteller jetzt drauf scheißen und man glaubte blauäugig, dass es nicht anders gehe…

      Also gehört vielleicht eine Regelung hin, welche Flexibilitäten bei der Abstufung mit hingehören, und welche Sensortypen die Ergebnisse welcher anderen überhaupt invalidieren dürfen. Das kann bedeuten, dass ohne Radar/Lidar irgendwann keine Erlaubnis mehr gegeben werden kann, und dann auch keine Entschädigung gezahlt werden wird, wenn sich herausstellt, dass autonome Funktionen nun mal Radar voraussetzen müssen. Hier sollte die Gesetzgebung durchaus vorausschauend vorbauen.

  11. Das Problem mit der Objekterkennung ist doch nur ein Problem des ganzen.
    Wie erklärt man einem autonomen Fahrzeug das es doch bitte zu einer bestimmten Position auf einer Fläche (Rampe am Gebäude, Position an der das Fahrzeug niemand im Wege steht, oder optimal beladen werden kann) mit einem bestimmten Winkel fahren soll („Stell dich mal 50 cm weiter nach rechts“!?)
    Oder wie dirigiert man ein Fahrzeug durch das Chaos einer Baustelle, bei der die frisch betonierte Fläche vielleicht doch noch nicht befahrbar ist, die Handwerker aber nur ein paar Hütchen zur Absperrung hingestellt haben?

    1. Naja naja, Wegfindung ist eine Sache. Aber Sicherheitsmechanismen quasi wörtlich monetär einzusparen, das ist dann schon ein Problem.

      Ein Bus ist dauernd in der Nähe von Fußgängern, was können Busfahrer uns wohl darüber mal so erzählen. Objekterkennung ist jetzt auch nicht „das Problem“, es scheint allerdings ziemlich direkt mit „hier das Problem“ zu tun zu haben, zumindest laut Beschreibung. Es ist auch nicht so einfach, dass jeder Sensor sein völlig eigenes Regime hat. Das kann man so aber nicht laufen lassen, sonst sind wir wieder im wilden Westen, und keiner hat’s kommen sehen.

  12. Hier noch ein viel banaleres Beispiel für die mangelnde Berücksichtigung von Menschen mit Handicaps bei der Planung der künftigen Mobilität: Die Parkplätze an E-Ladestationen sind häufig gar nicht auf den Platzbedarf von Menschen ausgelegt, die auf einen Rollstuhl angewiesen sind.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.