Dieses Versprechen wird Toyota nicht halten können: Der weltgrösste Autobauer will mithilfe künstlicher Intelligenz selbstfahrende Autos entwickeln, «die unfähig sind, einen Unfall zu verursachen». Das liess der japanische Konzern diese Woche an der Consumer Electronic Show in Las Vegas verlauten.

Keine Software ist ohne Fehler. Das gilt erst recht für die künstliche Intelligenz (KI), welche die Toyota-Fahrzeuge in Zukunft sicher über Autobahnen und durch Städte steuern soll.

Irgendwann wird sich die KI in einer unerwarteten und besonders verworrenen Verkehrssituation falsch «entscheiden» und es wird zu einem Zusammenstoss kommen. In einigen Fällen lässt sich ein Unfall auch gar nicht vermeiden, weil sich andere Verkehrsteilnehmer falsch verhalten.

Was macht das autonome Auto, wenn plötzlich ein Kind auf die Strasse rennt? Für eine Vollbremse reicht die Zeit nicht aus. Ein Ausweichmanöver ist möglich, doch das würde zu einer Frontalkollision mit einem anderen Auto führen. Die KI ist nun geradezu gezwungen, einen Unfall zu verursachen. Die Frage ist nur welchen.

Autos haben keine Intuition

An diesem Beispiel zeigt sich ein grundlegendes moralisches Dilemma, das in der Philosophie als sogenanntes Trolly-Problem breit diskutiert worden ist. Das Gedankenexperiment geht auf die Philosophin Philippa Foot zurück und lautet folgendermassen: Eine Tram («Trolly») ist ausser Kontrolle geraten und droht, fünf Personen zu überrollen.

Durch Umstellen einer Weiche kann das Tram auf ein anderes Gleis umgeleitet werden. Unglücklicherweise befindet sich dort eine weitere Person. Die zentrale Frage lautet nun: Darf durch Umlegen der Weiche der Tod einer Person in Kauf genommen werden, um das Leben von fünf Personen zu retten?

Eine knifflige Frage, die aber bisher ziemlich realitätsfremd war. Doch das könnte sich nun ändern. «Das Trolly-Problem könnte in der realen Welt auftreten, wenn autonome Fahrzeuge zum Einsatz kommen», schreibt der Philosoph Patrick Lin in einer kürzlich veröffentlichten Fachpublikation. Deshalb, so meint der Forscher der California Polytechnic State University, müsse die Entwicklung von selbstfahrenden Autos von einer breiten öffentlichen Diskussion begleitet werden.

Natürlich können auch menschliche Autofahrer in Situationen geraten, in denen sie zwischen zwei verschiedenen Übeln entscheiden müssen. Etwa einem Lastwagen nach links ausweichen, wo fünf Fussgänger stehen, oder nach rechts, wo sich ein Velofahrer befindet. Wie auch immer der Fahrer reagieren wird, unter dem Zeitdruck ist keine rationale Abwägung möglich, sondern bloss eine intuitive Entscheidung.

Anders ist das bei autonomen Fahrzeugen. Sie werden sich in dieser und ähnlichen Situationen so verhalten, wie sie programmiert wurden. Doch nach welchen Prinzipien sollen sie programmiert werden?

Für Ethiker, die eine sogenannt utilitaristische Position vertreten, ist die Situation klar. Sie entscheiden sich in obigem Beispiel für jene Variante, die das «kleinste Leid» verursacht und weichen also nach rechts aus, da so nur ein Mensch (der Velofahrer) stirbt.

Doch darf man Menschenleben miteinander aufrechnen? Sogenannt deontologische Ethiker sagen Nein. Für sie hat jedes Leben einen absoluten Wert. Deshalb kann nicht eines geopfert werden, um fünf zu retten, und deshalb bleibt das Problem unlösbar. Ein moralisches Dilemma eben.

1,2 Millionen Verkehrstote

Psychologen um Jean-François Bonnefon von der französischen Toulouse School of Economcis wollten wissen, wie sich die Menschen in solchen Dilemmata entscheiden würden. Dafür konfrontierten sie über 300 Menschen mit verschiedenen Szenarien, in denen einer oder mehrere Fussgänger gerettet werden können, wenn ein selbstfahrendes Auto ausweicht und in eine Wand kracht, wobei dann der Fahrer oder ein anderer Passant getötet wird.

Die Resultate der kürzlich veröffentlichten Studie zeigen, dass die Teilnehmer mehrheitlich utilitaristische Entscheidungen fällen – sich also für jene Variante entscheiden, bei der am meisten Menschen gerettet werden können. Das gilt zumindest für Gedankenexperimente, die nicht so konstruiert sind, dass sich der Proband selber in einem selbstfahrenden Auto befindet und getötet wird. Ist diese der Fall, steigt die Anzahl jener, die sich dafür aussprechen, dass das autonome Auto eine Zufallsentscheidung trifft.

Doch auch hier stellt sich natürlich die Frage, ist es ethisch gerechtfertigt, eine solche schwierige Frage über den Tod von Menschen einfach dem Zufall zu überlassen? Man könnte daraus folgern, wenn wir nicht fähig sind, eine Entscheidung zu treffen, die von der breiten Gesellschaft gestützt wird, sollten wir autonome Autos vielleicht einfach nicht zulassen. Doch dies führt unweigerlich in ein anderes ethisches Dilemma.

Experten sind sich weitgehend einig, dass selbstfahrende Autos den Verkehr sicherer machen. So haben etwa die Google-Autos über 1,6 Millionen Kilometer zurückgelegt, ohne selber einen Unfall zu verursachen.

Im Jahr 2014 gab es in der Schweiz 243 Verkehrstote; weltweit kommen jährlich 1,2 Millionen Menschen bei einem Autounfall ums Leben. Diese Zahl könnte vielleicht um das 10-fache gesenkt werden, wenn man in Zukunft nur noch selbstfahrende Autos auf die Strasse liesse.

Dürfen wir autonomen Autos wirklich die Zulassung verweigern, wenn wir damit jährlich über eine Million Menschenleben retten können? Wäre es unter diesem Gesichtspunkt nicht eher gefordert, nicht-autonome Autos zu verbieten?

Wir müssen uns also fragen, ob wir ein paar Tausend durch autonome Autos getötete Menschen in Kauf nehmen wollen, um eine Million Menschenleben zu retten. Entscheiden wir uns für die autonomen Autos, kommen wir wohl nicht darum herum, sie aufgrund von utilitaristischen Kriterien zu programmieren.

«Wir müssen zu einer Quantifizierung von Menschenleben kommen», forderte jüngst Eric Hilgendorf, Leiter derForschungsstelle RobotRecht an der Universität Würzburg, in der Zeitschrift «Technology Review». Denn nach heutiger Rechtslage wäre es verboten, Menschenleben miteinander aufzurechnen.

Die Moral der Algorithmen

Doch wenn wir umdenken, und unsere deontologischen Prinzipien über Bord werfen, so könnte das Folgen haben, die nicht nur auf den Strassenverkehr beschränkt wären. «Wenn wir versuchen, Ethik logisch abzubilden, was ja wohl nötig wäre, um sie einer KI beizubringen, könnte das auch einen Effekt auf unsere Moralvorstellung haben», sagt Philipp Theisohn, Science-Fiction-Experte an der Universität Zürich, diese Woche im Interview mit der «Nordwestschweiz».

Die rationalisierte, utilitaristische Ethik, die wir unseren Autos einimpfen, könnte also auch auf den Menschen selber überschwappen. Wir würden uns, so kann vermutet werden, bei moralischen Entscheidungen weniger von Empathie und Intuition leiten lassen und stattdessen die Konsequenzen unseres Handelns vermehrt rational gegeneinander abwägen.

So würden wir unser Denken den Algorithmen der Maschinen anpassen. Ausgerechnet in einer Welt, in der Computer und Roboter unsere Jobs streitig machen, würden wir auf Merkmale verzichten, die uns von Maschinen unterscheiden – Merkmale, die in einer automatisierten Welt umso wichtiger werden, weil sie nicht programmiert werden können. Und wiederum stellt sich die Frage: Wollen wir das wirklich?