Foto: scharfsinn86/Adobe Stock

Mit diesem Tool wollen Forscher*innen erfahren, wie eine künstliche Intelligenz moralische Entscheidungen treffen kann

Wie würdest du entscheiden?

Die Bremsen eines selbstfahrenden Autos versagen. Es rast geradewegs auf einen Zebrastreifen zu, auf dem gerade zwei Frauen und zwei ältere Männer gehen. Der Wagen könnte ausweichen und gegen eine Betonbarriere fahren. In diesem Fall sterben drei Kinder und ein Mann. Wie soll das Auto reagieren? Wie würdest du entscheiden?

Foto: scharfsinn86/Adobe Stock

Die Webseite Moral Machine konfrontiert Besucher*innen mit insgesamt 13 dieser krassen Szenarien. Situationen und Verkehrsteilnehmer*innen variieren. Die Nutzer*innen müssen den Unfallschaden abwägen und sich für eine Variante entscheiden. Probiere es selbst aus:

In einer groß angelegten Studie der Moral-Machine-Macher*innen haben Wissenschaftler*innen des Massachusetts Institute of Technology (MIT) mit der Webseite bereits Daten von 2,3 Millionen Menschen gesammelt. Die Ergebnisse der Studie haben die Forscher*innen im Magazin Nature veröffentlicht.

Ergebnisse der Studie

Demnach würde die Mehrheit der Befragten eher Kinder verschonen als ältere Menschen. Und die meisten würden eher Tiere überfahren als Menschen. Allerdings zeigten sich bei genauerer Betrachtung größere kulturelle Unterschiede zwischen Proband*innen in verschiedenen Weltregionen. Das Team fand heraus, dass Menschen aus Ländern mit stabilen staatlichen Institutionen, wie Finnland und Japan, sich häufiger dafür entschieden, Menschen zu überfahren, die die Straße illegal überquerten, als Befragte in Nationen mit schwächeren Institutionen, wie Nigeria oder Pakistan.

Bei der Auswertung nach Ländern teilten die Wissenschaftler*innen sie in drei Gruppen auf: westliches, östliches und südliches Cluster. Die Entscheidungen in vielen asiatischen Ländern – dem östlichen Cluster – weichen von den anderen Gruppen dadurch ab, dass sie nicht die jüngeren Menschen verschonen würden. In diesen Ländern gilt der Respekt vor den älteren Mitgliedern der Gemeinschaft. Das südliche Cluster (Mittel- und Südamerika) unterscheidet sich vom westlichen Cluster (Europa, Nordamerika) unter anderem dadurch, dass die Mittel- und Südamerikaner*innen viel öfter eingreifen würden als auf eine Lenkbewegung des selbstfahrenden Autos zu verzichten.

In Szenarien, in denen es darum ging, einen Obdachlosen auf der einen oder einen Manager auf der anderen Straßenseite zu retten, hingen die Entscheidungen der Befragten häufig mit dem Grad der wirtschaftlichen Ungleichheit in ihrer Kultur zusammen: Menschen aus Finnland – wo die Kluft zwischen Arm und Reich gering ist – ließen das selbstfahrende Auto kaum die Spur verlassen und auf die andere Seite lenken. Es war egal, wer sich auf der Spur des Autos befand. Teilnehmer*innen aus Kolumbien – einem Land mit erheblicher wirtschaftlicher Ungleichheit – entschieden sich jedoch dafür, die Person mit dem niedrigeren Status zu töten. Warum solche Klassifikationen? „Weil selbstfahrende Autos jedem Passanten zumindest theoretisch eine bestimmte gesellschaftliche Bedeutung zumessen könnten, um davon Entscheidung abhängig zu machen. Menschen lassen sich von solchen Überlegungen ja auch in ihrem Handeln beeinflussen“, sagt Iyad Rahwan, Mitautor der Studie, im Interview mit dem Spiegel.

Die Studie belegt also, dass es so etwas wie eine universelle Moral nicht gibt. Von der Befragung versprechen sich die Wissenschaftler*innen dennoch ein besseres Verständnis dafür, wie Menschen solche Arten von Entscheidungen treffen. Die Ergebnisse können dabei helfen, in Zukunft den Algorithmus eines selbstfahrenden Autos zu programmieren. So schreiben die Wissenschaftler*innen: „Bevor wir unseren Autos erlauben, ethische Entscheidungen zu treffen, müssen wir eine globale Konversation führen und unsere Präferenzen den Unternehmen, die diese moralischen Algorithmen entwerfen, und den politischen Entscheidungsträgern gegenüber deutlich machen."

Kritik an der Studie

Die Ergebnisse der Studie weichen teilweise von den Regeln ab, die die deutsche Ethikkommission im Juni 2017 vorgeschlagen hat. Diese Regeln sehen vor, dass „bei unausweichlichen Unfallsituationen jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt [ist]." Die künstliche Intelligenz selbstfahrender Autos solle demnach äußerliche oder innerliche Merkmale ignorieren, um Diskriminierungen vorzubeugen. Auch sehen die Regeln der Ethikkommission vor, dass jemand, der sich selbst dafür entschieden hat, in ein selbstfahrendes Auto zu steigen, niemals Unbeteiligte überfahren dürfe, um selbst zu überleben. So heißt es: „Eine allgemeine Programmierung auf eine Minderung der Zahl von Personenschäden kann vertretbar sein. Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern.“

Professor Armin Grunwald war Mitglied der Ethikkommission, die die Regeln entworfen hat. Er kritisiert die Studie: Online-Spiele würden Anlass für gewisse Vermutungen über menschliches Verhalten geben. Ob das dann auch in der Wirklichkeit zutreffe, sei schwer zu beantworten. „Immerhin ist Spiel nicht Ernst. Auf jeden Fall ist Vorsicht geboten, die Ergebnisse eines Spiels einfach auf die Realität zu übertragen.“ Der Leiter des Instituts für Technikfolgenabschätzungen und Systemanalyse (ITAS) in Karlsruhe mahnt: „Aus Umfragen gewinnt man nie Informationen darüber, was ethisch legitim geboten und erlaubt ist, sondern nur, was die Menschen darüber denken. Daraus folgt aber nicht, dass dies ethisch richtig ist.“

Iyad Rahwan, der seit Ende 2018 Direktor des von ihm neu gegründeten Center for Humans and Machines am Berliner Max-Planck-Institut für Bildungs­forschung ist, sieht in Moral Machine eine Chance: Natürlich könnten ethische Fragen nicht dadurch gelöst werden, dass Menschen in einer Umfrage oder in einem Online­experiment entscheiden. „Aber die Politik und diejenigen, die Richtlinien erstellen, sollten zumindest wissen, wie gewöhnliche Leute über solche Fragen denken – auch deshalb, weil sie darauf gefasst sein müssen, ihre Entscheidungen vor einer Öffentlichkeit zu begründen, die vielleicht anderer Meinung ist als sie.“

Autor*in

Ludmilla Ostermann