Foto: Fourleaflover/iStock
Denkraum Technik
Wie kriegen wir die Ethik in den Code?
Algorithmische Systeme haben eine enorme Macht. Solch eine Stärke kann natürlich auch missbraucht werden – wenn es keine Regeln gibt.
Viele Initiativen und Unternehmen diskutieren bereits seit einiger Zeit darüber, wie ein Algorithmus gefahrlos angewendet werden kann. Auch die EU hat eine Expert*innengruppe eingesetzt und 2018 einige Richtlinien zum Umgang damit präsentiert. Sie spricht dazu außerdem mit internationalen Partnern – etwa Singapur, Japan oder Kanada.
Foto: Fourleaflover/iStock
„Technologien und Algorithmen kennen keine Grenzen“, heißt es in einem EU-Papier. Vor diesem Hintergrund hat 2019 auch die Bertelsmann-Stiftung – gemeinsam mit dem Think Tank iRights und wie auch in unserer Ausstellung zu sehen – mehrere Ethik-Regeln für den Gebrauch von Algorithmen erarbeitet.
1. Kompetenz aufbauen
Diejenigen, die algorithmische Systeme entwickeln, betreiben und/oder über ihren Einsatz entscheiden, müssen über die erforderliche Fachkompetenz und ein entsprechend abgestuftes Verständnis der Funktionsweisen und potenziellen Auswirkungen der Technologie verfügen. Das Teilen von individuellem und institutionellem Wissen (…) sind dafür ebenso zentral wie qualifizierende Maßnahmen. Diese sind in die Ausbildung (…) neuer Mitarbeiter und Mitarbeiterinnen zu integrieren.
2. Verantwortung definieren
Die Verantwortung bedarf einer eindeutigen Zuteilung. Die damit verbundenen Aufgaben müssen der zuständigen Person bewusst sein. Dies gilt auch für geteilte Verantwortlichkeiten bei mehreren Personen oder Organisationen. Die Zuteilung muss lückenlos sowie nach innen und außen transparent dokumentiert werden. Die Verantwortung darf weder auf das algorithmische System noch auf die Anwender und Anwenderinnen oder betroffenen Personen abgewälzt werden.
3. Ziele dokumentieren
Die Ziele des algorithmischen Systems müssen klar definiert (…) werden. (…) Vor dem Einsatz des algorithmischen Systems muss eine dokumentierte Folgenabschätzung durchgeführt werden. Besonders bei lernenden Systemen (…) ist die Folgenabschätzung in regelmäßigen Abständen zu wiederholen. Hierbei sind Risiken für Diskriminierungen und weitere (…) Folgen im Blick zu behalten. Werteabwägungen bei (…) dem Einsatz von algorithmischen Systemen müssen festgehalten werden.
4. Sicherheit gewährleisten
Zuverlässigkeit und Robustheit eines algorithmischen Systems und der zugrunde liegenden Daten gegenüber Angriffen, Zugriffen und Manipulationen sind unbedingt zu gewährleisten. Dafür muss Sicherheit von Anfang an festes Element der Gestaltung des algorithmischen Systems sein (Security by Design). Das System ist vor seinem Einsatz in einer geschützten Umgebung zu testen. Die Sicherheitsvorkehrungen sind zu dokumentieren.
5. Kennzeichnung durchführen
Beim Einsatz algorithmischer Systeme muss durch eine entsprechende Kennzeichnung für Personen, die mit ihnen interagieren, erkennbar sein, dass der Entscheidung oder Prognose ein algorithmisches System zugrunde liegt. Das gilt besonders dann, wenn das System einen Menschen in Art und Weise der Interaktion (Sprache, Aussehen etc.) imitiert.
6. Nachvollziehbarkeit sicherstellen
Ein algorithmisches System muss mit (…) seiner Funktionsweise für Menschen leicht verständlich gemacht werden, damit diese es hinterfragen und überprüfen können. Dafür müssen Informationen über die dem System zugrunde liegenden Daten und Modelle, seine Architektur sowie die möglichen Auswirkungen veröffentlicht (…) werden. Es ist stets zu prüfen, ob sich ein Ziel (…) auch mit einem algorithmischen System erreichen lässt, das weniger komplex und (…) leichter nachvollziehbar ist.
7. Beherrschbarkeit absichern
Damit ein algorithmisches System gestaltbar bleibt, müssen alle Personen, die an (…) Entwicklung und (…) Einsatz beteiligt sind, gemeinsam stets die Kontrolle über das System behalten. Dabei muss sichergestellt werden, dass der Gesamtüberblick über das System stets gewahrt bleibt, auch wenn Aufgaben zwischen (…) Personen und Arbeitsbereichen verteilt sind. Die Arbeitsweise eines Systems darf niemals so komplex (…) werden, dass es von Menschen nicht mehr beherrschbar ist oder nicht mehr geändert werden kann. Das gilt insbesondere für selbstlernende Systeme. Kann diese Beherrschbarkeit nicht sichergestellt werden, so ist auf den Einsatz (…) zu verzichten.
8. Wirkung überprüfen
Ein algorithmisches System muss einer aktiven Kontrolle unterliegen, ob die beabsichtigten Ziele tatsächlich verfolgt werden und der Einsatz des Systems bestehendes Recht nicht verletzt. Externe Prüfstellen sollten (…) durch entsprechende technische Vorkehrungen in die Lage versetzt werden, ein algorithmisches System (…) umfassend unabhängig prüfen zu können. Wird eine negative Wirkung festgestellt, muss (…) das algorithmische System entsprechend angepasst werden.
9. Beschwerden ermöglichen
Die ein algorithmisches System einsetzende Stelle muss leicht zugängliche Wege zur Kontaktaufnahme zur Verfügung stellen. Betroffene Personen müssen erstens eine qualifizierte und detaillierte Auskunft zur konkreten Entscheidung und der dahinter liegenden Abwägung einfordern können. (…) Zweitens muss eine einfache, niedrigschwellige und wirksame Beschwerdemöglichkeit zur Verfügung stehen. Beschwerden und eingeleitete Maßnahmen sind zu dokumentieren.