@ Clay Banks von Unsplash
Künstliche Intelligenz (KI) ist eine Schlüsseltechnologie der Zukunft. Aber sie birgt auch Risiken – insbesondere im Hinblick auf Geschlechterungleichheiten. Verzerrungen in Datensätzen und Modellanwendungen können die Unterrepräsentation von Frauen im Allgemeinen, jedoch insbesondere im Globalen Süden, verstärken. Auf dem re:publica Panel „Beating the gender bias in AI“ wurde diskutiert, wie eine feministische Digitalpolitik diesen Herausforderungen begegnen kann. Im folgenden Artikel veranschaulicht Felix Dengg eine allgemeinere Perspektive auf das Thema, indem er verschiedene Ungleichheitsmerkmale in der KI beleuchtet und deren Ursachen sowie mögliche Lösungsansätze benennt.
Immer mehr Entscheidungen in allen Lebensbereichen werden an Technik und Software delegiert – die gesellschaftlichen Folgen sind viel weitreichender als nur ein Gewinn an Effizienz und Komfort. Algorithmen prägen zunehmend wichtige Entscheidungen im Leben. Empfehlungsalgorithmen werden eingesetzt, um bestimmte Produkte zum Kauf zu empfehlen oder Routen, um zu einem bestimmten Ort zu gelangen. Technologieunternehmen wie Facebook oder Youtube setzen Algorithmen ein, die Inhalte filtern und sortieren und damit entscheiden, welche Inhalte wir sehen und welche Medien wir konsumieren. Und wir sehen Klassifizierungs- und Profilierungsalgorithmen, die die Kreditwürdigkeit bewerten oder Richter*innen bei ihren Entscheidungen unterstützen und damit wichtige Entscheidungen über das Leben von Menschen beeinflussen.
Der Grund für die Anwendung von Algorithmen ist ihre Fähigkeit bei relativ geringen Kosten, große Datensätze zu verarbeiten, unbekannte Muster und Erkenntnisse über Phänomene des realen Lebens zu finden und abzuleiten, Vorhersagen zu treffen und Entscheidungen zu automatisieren. Algorithmen haben in den letzten Jahren unglaubliche Fortschritte im Umgang mit natürlicher Sprache oder beim Erkennen von Bildern gemacht. Aber während wir diese intuitive Vorstellung von Technologien als neutrale Werkzeuge haben, basiert ihre Entwicklung immer auf bestehenden Bedingungen und Vorstellungen von der Welt.
Ethische Fragen ergeben sich in diesem Zusammenhang, wenn menschliche Voreingenommenheit und Vorurteile (Biases) ihren Weg in automatisierte Entscheidungssysteme finden. Biases beschreiben Fehleinschätzungen bei der menschlichen Entscheidungsfindung. Zum Beispiel der Bestätigungfehler (Confirmation Bias): die Tendenz des Menschen, Informationen zu suchen, zu bevorzugen und zu nutzen, die seine bestehenden Überzeugungen bestätigen. Vorurteile können zum Beispiel auf rassistischen Stereotypen beruhen, wenn Menschen voreingenommene und falsche Vorstellungen von People of Color haben. Schließlich können Vorurteile automatisierte Entscheidungsfindungssysteme beeinflussen und Ungleichheit somit manifestieren oder verschärfen. In den Vereinigten Staaten haben Algorithmen, die im Strafsystem eingesetzt werden, nachweislich unverhältnismäßig häufig die schwarze Bevölkerung im Visier. Hier werden Algorithmen zur Einschätzung des kriminellen Risikos eingesetzt, um die Wahrscheinlichkeit zu berechnen, dass eine Person ein weiteres Verbrechen begehen wird. Dieser Prozess soll Richter*innen bei der Urteilsfindung unterstützen. Bestehende Biases, die an Algorithmen weitergegeben werden, prägen also buchstäblich Entscheidungen über das Leben von Menschen – aber nicht auf neutrale Art und Weise. Verzerrungen verstärken typischerweise bestehende Ungleichheiten. Die wichtigsten Bereiche, in denen Verzerrungen auftreten, sind:
Gender
Insbesondere am Arbeitsplatz, wo in den meisten Branchen ein erhebliches geschlechtsspezifisches Lohngefälle besteht, kann die Konstruktion und Verwendung von Algorithmen aus vorhandenen Daten problematisch sein. Da Algorithmen für Einstellungs- und Beförderungsentscheidungen verwendet werden, haben sich einige Algorithmen wie der von Amazon als diskriminierend für Frauen erwiesen. Aber das Problem reicht weit über den Arbeitsplatz hinaus, in Bereichen wie Bankwesen und Kredite oder Spracherkennung.
Ethnische Herkunft/Rassismus:
In dem Buch „Algorithmen der Unterdrückung – Wie Suchmaschinen Rassismus verstärken“ untersucht die Autorin Safiya Umoja Noble die selbsterklärte Neutralität der Suchmaschinen-Algorithmen von Google. Sie argumentiert, dass Suchmaschinen rassistisch sind, solange sie negative Vorurteile in der Gesellschaft und die Menschen, die sie produzieren, widerspiegeln. Sie erklärt, wie Algorithmen Weiße Menschen privilegieren, indem sie zeigt, wie Suchmaschinen positiv konnotierte Bilder liefern, wenn nach Stichworten wie „weiß“ gesucht wird, und negativ konnotierte, wenn nach Begriffen wie „schwarz“ gesucht wird. Dies kann Stereotypen und Verzerrungen verstärken.
Inequality
In ihrem Buch „Automating Inequality“ untersucht die Autorin Virgina Eubanks die Auswirkungen des Einsatzes automatisierter Entscheidungsfindung auf die öffentlichen Dienstleistungen in den USA. Sie legt dar, dass die Automatisierung der Bereitstellung von Sozialleistungen in den USA nicht zu besseren Ergebnissen für die sozial benachteiligte Personen geführt hat. Die Autorin diskutiert prädiktive Polizeialgorithmen, Algorithmen, die über Sozialhilfezahlungen entscheiden, oder Algorithmen, die Wahrscheinlichkeiten von Kindesmissbrauch in Familien vorhersagen. Sie argumentiert, dass der Einsatz der Technologie eine Fortsetzung der Geschichte der Vereinigten Staaten von Amerika ist, in der versucht wurde, Profile von armen Menschen zu erstellen, sie zu überwachen und zu bestrafen.
Das Versprechen einer verbesserten Fairness und Effizienz bei der Auslagerung von Entscheidungen an die Technologie kann als Rechtfertigung für die Fortführung bestehender Ungleichheiten herhalten. Warum also sind technologische Lösungen nicht so neutral, wie wir vielleicht denken?
Warum sind KI-Systeme nicht neutral?
Verzerrte Trainingsdaten
Entscheidungsfindungssysteme verwenden Statistiken, um Muster in vorhandenen Daten zu finden und Vorhersagen über Wahrscheinlichkeiten zukünftiger Ereignisse zu treffen. Zum Beispiel analysiert ein Algorithmus historische Kriminalitätsstatistiken, die Postleitzahlen, Alter, Einkommen, Bildung und andere soziodemografische Faktoren beinhalten, um vorherzusagen, wie wahrscheinlich es ist, dass eine Person ein weiteres Verbrechen begeht. Ein Problem bei diesem Ansatz ist der vorhandene Datensatz. Wenn in der Vergangenheit eine bestimmte Bevölkerungsgruppe überproportional von der Polizei ins Visier genommen wurde, wie z. B. Minderheiten oder einkommensschwache Gebiete, wird die Statistik zeigen, dass sie mit größerer Wahrscheinlichkeit ein Verbrechen begehen, was wiederum die Vorhersagen des Modells beeinflusst. Auf diese Weise wird das anfängliche rassistische Profiling durch höhere Inhaftierungsraten verstärkt. Und während es unproblematisch ist, rassistische oder geschlechtsbezogene Daten aus Datensätzen zu löschen, gibt es Faktoren, welche mit diesen Aspekten korrelieren, die jedoch schwer zu identifizieren sind und zu denselben verzerrten Ergebnissen führen könnten.
Gleichzeitig werden Statistiken über eine ganze Bevölkerung verwendet, um Entscheidungen über das Leben eines Einzelnen zu treffen. Für das Individuum wird es schwieriger, seinem statistischen Schicksal zu entkommen, die Vorhersage manifestiert sich, was zu längeren Haftstrafen und möglicherweise geringeren Chancen auf Wiedereingliederung in die Gesellschaft führt. Marbre Stahly-Butts von Law for Black Lives bezeichnete diese Art der datengesteuerten Risikobewertung als „einen Weg, unterdrückerische Systeme reinzuwaschen und zu legitimieren“, der letztlich von den tatsächlichen Problemen ablenkt, die diese Gemeinschaften betreffen.
Mangel an Daten
Da Trainingsdaten die Grundlage für KI-Anwendungen sind, ist die Verfügbarkeit solcher Daten entscheidend für deren Entwicklung. Anwendungen wie Übersetzungs-Apps oder Spracherkennungssysteme benötigen zum Beispiel riesige Datensätze in der jeweiligen Sprache, um Ergebnisse zu liefern. Diese Daten sind aber in bestimmten Branchen oder Bereichen möglicherweise nicht umfangreich verfügbar. Dies ist der Fall, wenn es für Technologieunternehmen weniger wirtschaftliche Anreize gibt, Daten zu sammeln, zu teilen und gemeinsam zu nutzen. Länder, in denen dies der Fall ist, laufen Gefahr, in der digitalen Wirtschaft zurückzufallen und von Technologien aus dem globalen Norden abhängig zu werden. Viele afrikanische Länder haben weniger entwickelte Daten-Ökosysteme, in denen keine Trainingsdaten verfügbar sind, was die Entstehung von KI-Unternehmen und -Initiativen verhindert. Wenn die Abhängigkeit von ausländischen Technologien wächst, steigt wiederum das Risiko für negative Auswirkungen wie Verzerrungen oder intransparente Entscheidungen (mehr Informationen hier).
Mangelnde Diversität in der Forschung zu Künstlicher Intelligenz
Ein weiterer Grund, warum die automatisierte Entscheidungsfindung an der Neutralität scheitert, ist die fehlende Diversität in der Forschung zur künstlichen Intelligenz. Vor allem die großen amerikanischen Tech-Unternehmen, die für einen großen Teil der KI-Forschung und -Anwendungen verantwortlich sind, sind besonders wenig diversifiziert [1]. Schwarze Mitarbeiter stellen nur 2,5 % der Belegschaft von Google und nur 4 % der Belegschaft von Facebook und Microsoft. Zugleich sind nur 10 % der KI-Forscher*innen bei Google weiblich. Weltweit sind nur etwa 22 % der KI-Fachleute weiblich. Je weniger divers ein Forschungsteam jedoch ist, desto unwahrscheinlicher ist es, dass es automatisierte Entscheidungstechnologie entwickelt, die für alle Bevölkerungsgruppen fair und gut funktioniert. Eine nicht-diverse Gruppe ist möglicherweise blind für die Erfahrungen anderer Teile der Bevölkerung und nicht mit deren Problemen vertraut. Neben ethnischer Herkunft und Geschlecht mangelt es auch an geografischer und kultureller Vielfalt. Die Tatsache, dass eine solche Technologie im globalen Norden entwickelt wird, kann zu Komplikationen beim Einsatz im globalen Süden führen.
Was kann man tun, um diese Vorurteile zu bekämpfen?
- Externe Audits & Rechenschaftspflicht
- Algorithmen öffentlich zur Überprüfung zugänglich machen
- Datensätze für die Öffentlichkeit zugänglich machen: Die Bereitstellung von Datensätzen würde es unabhängigen Parteien ermöglichen, die Datensätze zu prüfen und auf Verzerrungen zu untersuchen. Allerdings gibt es erhebliche Hürden in Bezug auf Anonymität und Datenschutz
- Forschungsteams vielfältiger gestalten
Initiativen zur Bekämpfung von KI-Biases:
- Die Algorithmic Justice League: hat es sich zur Aufgabe gemacht, das Bewusstsein für die Auswirkungen von KI zu schärfen, empirische Forschung zum Thema zu betreiben, die Stimme und die Wahlmöglichkeiten der am stärksten betroffenen Gemeinschaften zu stärken sowie Forscher*innen, politische Entscheidungsträger*innen und Praktiker*innen aus der Industrie zu mobilisieren, um KI-Biases und -Schäden abzumildern. Es ist eine Bewegung, um das KI-Ökosystem in Richtung einer gerechten und verantwortlichen KI zu verändern.
- Das Center for Equity, Gender & Leadership der University of Berkeley in Kalifornien hat das „Mitigating Bias in Artificial Intelligence (AI): An Equity Fluent Leadership Playbook“ veröffentlicht, das einen Rahmen für den Umgang mit Bias in der KI bietet.