Vorurteile und Stereotypen vermeiden: So gelingt ethische KI

@ GIZ
Stellen wir uns eine KI vor, die behauptet, allein durch die Analyse eines Fotos erkennen zu können, ob jemand schwul oder heterosexuell ist. Schockierend, oder? Diese provokante Frage war der Ausgangspunkt für einen Workshop im MozFest House in Amsterdam mit dem Titel „Reclaiming Power: Ethische KI für eine gerechtere Zukunft nutzen“.
Masuma Shahid: KI-Vorurteile und LGBTQIA+-Rechte

Masuma Shahid, Dozentin und Forscherin an der Erasmus School of Law in den Niederlanden mit Schwerpunkt auf LGBTQ+-Rechten, forderte die Teilnehmer*innen heraus, indem sie Bilder von Menschen auf eine Leinwand projizierte und das Publikum aufforderte, deren sexuelle Orientierung zu erraten. Diese Übung basierte auf dem kontroversen Projekt „AI Comes Out of the Closet“, dass die Voreingenommenheit von KI-Systemen zur Bestimmung der sexuellen Orientierung aufzeigt.

Es ist alarmierend, wie diese KI-Systeme schädliche Stereotypen verstärken und in die Privatsphäre eindringen.

Masuma Shahid, Dozentin und Forscherin an der Erasmus School of Law in den Niederlanden

Sie unterstrich die Notwendigkeit von intersektionellen und inklusiven Ansätzen für KI, insbesondere für LGBTQIA+-Personen. Mit Blick auf die regulatorischen Entwicklungen verwies Masuma auf die jüngsten Fortschritte beim EU-AI-Act: „Die EU ist der Durchsetzung einer strengen Regulierung von KI einen Schritt nähergekommen, indem sie neue Schutzmaßnahmen entworfen hat, die eine breite Palette gefährlicher Anwendungsfälle verbieten würden“.

Dazu gehören Verbote von Programmen zur massenhaften Gesichtserkennung an öffentlichen Plätzen und von Algorithmen, mit denen die Polizei versuchen würde, zukünftige Straftäter*innen anhand persönlicher Daten zu identifizieren. Masuma betonte, dass solche Maßnahmen wichtig sind, um marginalisierte Gemeinschaften – einschließlich LGBTQIA+-Personen – vor den potenziell schädlichen Auswirkungen von KI zu schützen.

@ Alex Knight, Unsplash

Ähnliche Regelungen sind jedoch in Ländern der globalen Mehrheit, in denen LGBTQIA+-Personen aufgrund solcher Technologien von Kriminalisierung bedroht sind, dringend erforderlich.

 

Chenai Chair: Sprache und Vertrauen in KI

Chenai Chair, Leiterin des Africa-Mradi-Program von Mozilla, nahm die Teilnehmer*innen mit auf eine persönliche Reise, auf der sie die kulturellen und grenzüberschreitenden Dimensionen der KI erkundeten. Sie reflektierte über ihre eigenen Erfahrungen als Afrikanerin, die im globalen KI-Raum arbeitet, und über die Bedeutung der Sprache bei der Gestaltung der Wahrnehmung von KI.

In vielen Gemeinschaften der globalen Mehrheit gibt es ein Misstrauen gegenüber KI, weil sie sich fremd und aufgezwungen anfühlt.

Chenai Chair, Leiterin des Africa-Mradi-Program von Mozilla

Sie gab Einblicke in die Afrika-Mradi-Strategie von Mozilla und betonte die Notwendigkeit lokalisierter und kulturell sensibler KI-Lösungen wie z. B. das Projekt Common Voice, das Open-Source-Sprachdaten sammelt, die für die Spracherkennung ressourcenarmen Sprachen verwendet werden können.

 

Maria Hattya Karienova: KI und Politik

Maria Hattya Karienova, Anwältin für integrative Entwicklung und digitale Rechte am Pulitzer Center in Indonesien, rundete die Session ab, indem sie die breiteren gesellschaftlichen Auswirkungen und die Bedeutung der Berücksichtigung von Geschlecht, Behinderung und anderen sich überschneidenden Identitäten bei der KI-Entwicklung erörterte. Sie stützte sich dabei auf ihre Erfahrungen mit einer Schulung zur KI-Politik, die FAIR Forward in Indonesien durchgeführt hat.

Sie wies auch auf die versteckten Auswirkungen von Algorithmen auf die Rechte digitaler Arbeiter*innen hin, die sich zunehmend auf digitale Arbeitsplattformen als Quelle ihres Haupteinkommens verlassen. Maria stellte kritische Fragen zum Dateneigentum und zur Ausbeutung der KI-Arbeiterschaft.

@ Nahrizul Kadri, Unsplash

„Wem gehören die Daten, die die KI antreiben, und wie werden die Rechte der KI-Datenarbeiter*innen geschützt?“ und gab damit den Teilnehmer*innen einen starken Anstoß, über die ethischen Implikationen von Datenpraktiken nachzudenken.

 

Auf dem Weg zu umsetzbaren Lösungen

Der Workshop endete mit einem Aufruf zum Handeln: Bei ethischer KI geht es nicht nur um Technologie, sondern auch um die Werte und Prinzipien, die ihre Entwicklung und Nutzung leiten. Es bedarf einer kollektiven Anstrengung, um sicherzustellen, dass KI allen gleichberechtigt und inklusiv dient.

@ GIZ

Wir müssen die Macht im Bereich der KI dezentralisieren und sicherstellen, dass diese Technologien von und für die Gemeinschaften entwickelt werden, denen sie dienen.

Karlina Octaviany, Beraterin und Country Focal Point von FAIR Forward in Indonesien

Diese Rückgewinnung von Macht ist ein dringendes Unterfangen und erfordert unser gemeinsames Handeln und unsere Verantwortung bei der Gestaltung einer gerechten KI-Zukunft. Weitere Informationen über das Projekt Fair Forward: Künstliche Intelligenz für Alle, findet sich hier.