Du steigst ein, gibst dein Ziel ein – und lehnst dich zurück. Doch was, wenn dein selbstfahrendes Auto plötzlich schneller entscheidet als du denken kannst – und dabei dein Leben gegen das eines anderen abwägt?
Ein Kind rennt auf die Straße. Rechts ein Betonpfeiler, links eine Gruppe Fußgänger:innen. Keine Zeit zum Bremsen. Wer wird geschont? Wer geopfert?
Was früher reine Theorie war, ist heute hochaktuelle Praxis. Willkommen beim Trolley-Problem 2.0 – real, programmiert und (noch) ungelöst.
Ein Trolley rast auf fünf Menschen zu. Du kannst ihn auf ein Nebengleis umleiten – dort liegt aber eine einzelne Person. Lenkst du um und opferst bewusst einen – oder tust du nichts und lässt fünf sterben?
Autonome Fahrzeuge stehen täglich vor ähnlichen Entscheidungen. Nur ist die Weiche hier ein Algorithmus. Im Gegensatz zum Menschen entscheidet die Maschine nicht intuitiv, sondern nach vordefinierten Regeln – programmiert von Menschenhand.
Und genau hier beginnt das Problem: Wer definiert diese Regeln? Darf man sie überhaupt festlegen? Und: Ist ein Algorithmus, der Leben gegeneinander „optimiert„, juristisch zulässig?
Ferdinand von Schirachs Theaterstück „Terror“ zeigt einen Kampfpiloten, der ein Passagierflugzeug abschießt, um 70.000 Menschen in einem Stadion zu retten. In Publikumsabstimmungen halten ihn 86,9 % für unschuldig. Doch was, wenn nicht mehr ein Mensch entscheidet, sondern eine KI?
Was, wenn der entscheidende Code lautet: „Wenn mehr Leben gerettet werden können, lenke in Richtung des Einzelnen“?
Wäre das dann systematischer Mord?
Tesla etwa trifft bewusst keine moralischen Abwägungen. Denn jede Kodifizierung von Leben-vor-Leben-Entscheidungen könnte strafrechtliche Konsequenzen nach sich ziehen.
In Europa sind über 1.400 autonome Fahrzeuge in Pilotbetrieb. Die meisten operieren auf Level 3 (teilautomatisiert). Vollautonome Serienfahrzeuge (Level 4) sind laut Prognose der deutschen Automobilindustrie ab 2027 denkbar, aber nur unter strengen Auflagen und zunächst in spezifischen Einsatzbereichen wie dem Shuttle-Verkehr oder Autobahnpiloten.
In den USA ist man weiter: Waymo und Cruise betreiben Robotaxis in San Francisco und Phoenix – ohne Sicherheitsfahrer. Ihre Systeme analysieren u.a. Personen, Schilder, Ampeln, Fahrbahnmarkierungen und andere Fahrzeuge. Grundlage ist eine Kombination aus Lidar, Radar und hochauflösenden Kameras, die ein 360-Grad-Bild der Umgebung erzeugen. Ein neuronales Netzwerk interpretiert diese Daten in Echtzeit, erkennt Bewegungsmuster und kann daraus Vorhersagen ableiten: etwa, ob ein Kind zur Straße läuft oder ein Auto abbiegen wird. So entsteht eine kontinuierlich aktualisierte Entscheidungsgrundlage – ganz ohne menschlichen Blick.
Autonome Systeme treffen im Minutentakt sicherheitsrelevante Entscheidungen. Und jede davon könnte zur moralischen werden.
Laut Daten der US-Verkehrsbehörde NHTSA liegt die durchschnittliche Unfallrate bei menschlichen Fahrer:innen bei etwa 1,52 Unfällen pro einer Million gefahrenen Meilen.
Im Vergleich dazu meldete Waymo im Jahr 2023 eine Unfallrate von 0,41 Unfällen pro Million Meilen, bei denen keine schwerwiegenden Personenschäden auftraten. Cruise verzeichnete im gleichen Zeitraum rund 1 Unfall pro Million Meilen, allerdings mit einzelnen Fällen von Personenschaden. Cruise musste deshalb 2024 wegen mehrerer Unfälle den Dienst einstellen. Waymo meldete über 80 kritische Zwischenfälle im selben Jahr.
Diese Zahlen deuten insgesamt darauf hin, dass autonome Systeme zumindest unter kontrollierten Bedingungen sicherer sein könnten als menschliche Fahrer:innen. Doch: Kritiker:innen warnen, dass KI-Systeme besonders bei seltenen, unvorhersehbaren Ereignissen – also genau jenen Situationen, die das Trolley-Problem beschreibt – noch immer deutliche Schwächen zeigen.
Warnung aus der Zukunft, gesprochen in der Vergangenheit
Norbert Wiener, der Begründer der Kybernetik, formulierte bereits in den 1950er-Jahren eine Warnung, die heute aktueller ist denn je:
„Der Einsatz von Maschinen, die selbst Entscheidungen treffen, ist ein moralisches Experiment, dessen Folgen wir erst beginnen zu verstehen.“
Wiener war einer der ersten, die erkannten, dass automatisierte Systeme nicht nur technische, sondern tiefgreifend gesellschaftliche Konsequenzen haben. Sein Werk bildet die Grundlage für heutige Diskussionen über autonome Entscheidungsprozesse – lange bevor das erste KI-gesteuerte Auto gebaut wurde.
Ausblick: Wem vertrauen wir das Lenkrad unserer Moral an?
Technisch sind autonome Entscheidungen längst möglich. Doch rechtlich und ethisch betreten wir ein hochsensibles Terrain, auf dem jede programmierte Reaktion zur Grundsatzfrage wird.
Das Trolley-Problem ist längst kein akademisches Gedankenspiel mehr – es rollt mitten durch unsere Städte.
Wiener, Norbert. The Human Use of Human Beings: Cybernetics and Society. Boston: Houghton Mifflin, 1954.
Zero Congestion with Self-driving Vehicles | General Motors
Self-Driving Car Technology for a Reliable Ride - Waymo Driver
GM's Cruise robotaxi service faces fine in alleged cover-up of San Francisco accident's severity
Points of reference: Robotaxi safety
Tesla Fahrzeugsicherheitsbericht | Tesla Österreich
EU auditors warn that road safety goals will not be achieved unless efforts are moved up a gear