Kolumne: Die Ökonomin Die Ethik selbstfahrender Autos

Fahrzeuge, die nicht von Hand gelenkt werden, sind sicherer als jene, die von Menschen gesteuert werden. Doch wie sollen sie sich bei drohenden Unfällen verhalten? Sie kennen keine Ethik und können auch nicht haften.

Erich Kästner hat es schon immer gewusst: In seinem Kinderbuch "Der 35. Mai" gibt es die vollautomatische Stadt Elektropolis, in der fahren auch die Autos selbst. Überall gibt es Haltestellen, an denen man ein Auto rufen kann. Die Wagen haben statt Lenkrädern Mikrofone, in die die Gäste ihr Fahrziel sprechen. Die Autos fahren mit Strom, und der treibt auch die Laufbänder auf den Bürgersteigen an. Als das Kraftwerk außer Kontrolle gerät, bricht in Elektropolis Chaos aus.

Eine erstaunliche Vision für 1931, als das Buch über die Reise vom Schüler Konrad erschien. Technisch sind wir nun so weit: Die selbstfahrenden Autos des Internetkonzerns Google fahren längst auf Straßen in den USA. Auch andere Hersteller haben Prototypen entwickelt. Diese sind zwar noch teuer und nicht zugelassen, die eigentlichen Probleme sind aber ethische. Die Hersteller verweisen darauf, dass selbstfahrende Autos sicherer sind als jene, die per Hand gesteuert werden. In der Tat: Die meisten Unfälle gehen auf menschliche Fehler zurück. Die Frage aber ist, wie man die Autos programmiert. Die Fahrzeuge müssen auf viele Situationen vorbereitet werden: Ein Kind läuft auf die Straße, auf dem Bürgersteig steht eine Seniorengruppe, zum Bremsen ist es zu spät: Soll das Auto das Kind anfahren, die Senioren oder sich vor die Leitplanke setzen?

Ein tragisches Dilemma. Ein Mensch muss es vorab nicht lösen, er entscheidet intuitiv, wenn die Lage da ist - und wird im Zweifel für Fehlentscheidungen haftbar gemacht. Maschinen aber können Folgen von Handlungen nicht ethisch bewerten, sie können auch nicht haften. Ein Mensch muss ihnen vorab sagen, was wann zu tun ist. Das verlangt, schwierige Abwägungen zu treffen - womöglich unter Berücksichtigung des ethischen Profils der Fahrgäste: Für altruistische Gäste kann anderes Verhalten programmiert werden als für egoistische.

Eine ungemütliche Aufgabe. Und für die Hersteller ein guter Grund, an einem Notlenker festzuhalten, über den der Mensch im Notfall doch eingreifen kann - und damit auch in die Verantwortung geht.

IHRE MEINUNG? SCHREIBEN SIE MIR UNTER KOLUMNE@RHEINISCHE-POST.DE

(RP)
Meistgelesen
Neueste Artikel
Zum Thema
Aus dem Ressort