Roboter, die durch Straßen marschieren, eigene Entscheidungen treffen und nicht zu stoppen sind – diese Szenarien kennt man aus vielen Science Fiction Filmen. Das Grundprinzip dieser Handlungsmuster – ein Computer trifft selbständige Entscheidungen – war bis dahin nur eine Vision fantasiegetränkter Filmemacher. Jetzt wird davon zunehmend die Realität eingeholt, ein greifbares Beispiel ist das selbstfahrende Auto. Führt man die Diskussion über den technischen Aspekt hinaus, kommt man schnell in moralische und ethische Fragestellungen.
„Künstliche Intelligenz kann Leben retten“ – das ist die Überzeugung von Audi-Chef Rupert Stadler. Er sieht im selbstfahrenden Auto „die Chance, 900.000 Leben pro Jahr zu retten und 36 Millionen Menschen vor Verletzungen zu schützen.“ Das selbstfahrende Auto steht kurz vor der Markteinführung, Google testet bereits, Apple entwickelt und wirbt dafür viele Ingenieure der etablierten Industrie ab, auch die eher konservative Automobilindustrie ist aber auf diesen Zug aufgesprungen. Mit Fahrassistenzsystemen, mit denen mittlerweile schon bei Mittelklassefahrzeugen Marketing betrieben wird, beginnt der Einstieg in die künstliche Intelligenz.
Was wenig diskutiert wird, ist die Frage der Moral künstlicher Intelligenz. Ein Computer kennt nur ja oder nein, auf dieser Basis fällt künstliche Intelligenz alle Entscheidungen. Doch was passiert, wenn abgewogen werden muss – wenn es dabei um Menschenleben geht? Um das zu verdeutlichen, hat die britische Philosophin Philippa Foot das sogenannte Trolley(=Straßenbahn)-Problem beschrieben:
„Ein Straßenbahnwagen ist außer Kontrolle geraten und rast auf fünf nichtsahnende Bahnarbeiter zu. Sie stehen an einer Weiche und können den Wagen auf ein anderes Gleis leiten, auf dem aber ein Bahnarbeiter steht. Entscheiden Sie sich, die Weiche umzulegen und opfern bewusst den einen Bahnarbeiter, um die fünf Leben zu retten oder unterlassen Sie es, zu handeln?“
Hier kommt man schnell in eine Ethik-Diskussion. So lässt die Ethik des Philosophen Immanuel Kants nicht zu, ein Menschenleben bewusst zum Wohle vieler Menschenleben zu opfern. Aus seinen Geboten der Sittlichkeit leitet sich das die Pflicht, nicht zu töten, ab. Man kann die Frage noch weiter führen: Wie handelt der Mensch, wenn er keine Wahl hat? Wägt er die Anzahl der Menschenleben ab? Wie handelt er, wenn der einzelne Mensch auf den Gleisen ein Kind, der Partner des Weichenstellers oder dieser selber ist? Auch das Strafrecht spielt eine Rolle: Unterlassen wird deutlich geringer bewertet als bewusstes Töten.
Überträgt man diese Szenarien auf das selbstfahrende Auto, stellt sich schnell die Frage, wie die dahinter stehende Programmierung passieren soll. Umfragen haben ergeben, dass die Mehrheit der Menschen eher utilitaristisch, also nutzenorientiert denkt. Hier würde das eine Leben zugunsten der fünf Leben geopfert. Darf der Fahrer eingreifen und in eine Menschengruppe rasen, um sich selber zu retten? Die Juristen werden zu klären haben, wer eigentlich haftet, wenn eine einzelne Person sterben muss um eine Menschengruppe zu retten.
Man sieht: Hier eine ja oder nein Entscheidung final zu programmieren, kann brutale Konsequenzen haben. Lösungen dafür sind noch in weiter Ferne. Die Technik ist machbar – wird die Moral nachkommen? Wird überhaupt jemand ein selbstfahrendes Auto kaufen in dem Bewusstsein, sich damit in bestimmten Situationen selbst zu opfern?
Links:
Der Audi-Chef zu künstlicher Intelligenz
Welche Moral hat künstliche Intelligenz?
Das Trolley-Problem
Ethik Werkstatt Kant
Umfrage: Nur 44 Prozent wollen selbstfahrendes Auto
Autos von Google, Apple und Tesla
http://gothaer2know.de/auto/
http://gothaer2know.de/blogparade-mobilitaet/
http://gothaer2know.de/elektroauto/
Da habt Ihr echt genau den Punkt getroffen. Für mich hört der Spaß beim selbstfahtebden Auto auf. Gerade Google fängt an, alles zu übertreiben, man denke an den Scheachsinn mit dieser Brille.