5 Fragen an…Elisa Lindinger, Co-Founder SUPERRR Lab
Sie haben das SUPERRR Lab 2019 zusammen mit Julia Kloiber gegründet. Ihre Vision ist eine „feministische, digitale Zukunft“ zu gestalten. Ganz konkret, wie setzten Sie diese Vision um?
Die wichtigste Antwort darauf lautet: auf keinen Fall allein. Wir wollen dafür sorgen, dass die digitale Transformation der Gesellschaft dient und dazu beiträgt, dass sie gerechter wird. Für uns bedeutet ein feministischer Ansatz, Ungerechtigkeiten abzubauen und Macht neu zu verteilen. Dafür braucht es die Perspektiven und die Mitarbeit vieler.
In der Weltpolitik wird gerade sehr sichtbar, dass die Digitalisierung eher zu mehr Machtkonzentration führt und Big Tech und Teile der Parteienlandschaft näher zusammenrücken. Das Ergebnis davon ist weniger Mitbestimmung, ein Verlust von digitalen Schutzräumen, und weniger Teilhabe an den Vorteilen, die die digitale Transformation verspricht. Die Rede war mal vom globalen Dorf, in dem wir alle sein dürfen, wie wir sind. Ein Dorf, in dem wir näher zusammenrücken und in unserer Vielfalt Verständnis füreinander entwickeln. Dieses Versprechen hat sich nicht eingelöst. Genau deshalb brauchen wir neue Visionen davon, was uns eine digitale Zukunft bringen soll. Wir sprechen oft von „Zukünften“, denn möglich sind viele. Aber welche wollen wir erreichen? Genau diese Debatte führen wir bei SUPERRR ständig und laden dazu ein, mit uns und anderen Zukunftsvisionen zu entwerfen, die wir uns wünschen und die uns vereinen.
Aktuell leben wir in einer Zeit, in der Autokraten weltweit an Einfluss gewinnen und sich Gesellschaften politisch immer stärker aufspalten. Genau in diesem Umfeld werden Desinformation und der Einfluss von KI immer gefährlicher. Welche Kompetenzen brauchen wir, um dieser Gefahr zu begegnen?
Digitale Technik ist ein weiteres Werkzeug im Repertoire derjenigen, die unsere Gesellschaften spalten wollen. Ich weiß nicht, ob wir uns einen Gefallen tun, der Technik eine solche Sonderrolle zukommen zu lassen, wie das im gegenwärtigen Diskurs der Fall ist. Fakt ist doch: Technik wird von Menschen zu einem bestimmten Zweck eingesetzt – sie handelt nicht selbst und sie ist auch keine Naturgewalt.
Genau das ist eine Kompetenz, die wir meiner Ansicht nach stärken sollten: Technik nicht zu vermenschlichen und uns zu trauen, Entwicklungen und Behauptungen im Digitalbereich auch mal zu hinterfragen.
Desinformation ist keine Erfindung des 21. Jahrhunderts, das beweist die Geschichte des Dritten Reichs, in der Desinformation und Propaganda zentrale Faktoren waren. Diese wird in Zeiten immer schnellerer und dichterer digitaler Kommunikation ebenfalls beschleunigt. Wir können mit technischen Maßnahmen vielleicht die Verbreitung von Desinformation verlangsamen, aber damit bekämpfen wir nur die Symptome, nicht die Ursachen.
Bei dem Digitalforum am 26.11.2024 im BMZ Berlin haben Sie anschaulich dargestellt, welchen Machtungleichgewichten Algorithmen unterliegen können und Sie sprechen sich für eine stärkere Regulierung von Künstlicher Intelligenz aus. Wo fangen wir als globale Gemeinschaft am besten damit an?
Ich wünschte, ich hätte die eine Antwort! Als Freundin evidenzbasierter Politik halte ich eine Datengrundlage für absolut notwendig: Wo werden Verfahren der Künstlichen Intelligenz so eingesetzt, dass sie potenziell großen Schaden anrichten? Also entweder dadurch, dass die Auswirkungen sehr viele Menschen betreffen, oder die Menschen, die schon jetzt Benachteiligung erfahren. Wir haben das Allgemeine Gleichbehandlungsgesetz und die UN-Menschenrechtskonvention. Wenn KI diskriminiert, ist das kein ethisches Problem, sondern ein Grundrechtsbruch und so sollten wir es auch nennen.
Regulierungsvorhaben und andere kritische Auseinandersetzungen blicken zur Zeit vor allem auf die sozialen Auswirkungen beim Einsatz von KI. Aber Künstliche Intelligenz ist inzwischen ein Wirtschaftszweig mit enormem Umsatz, deshalb lohnt sich auch der Blick auf den Produktionsprozess, und hier sieht es an vielen Stellen ziemlich düster aus: Die Aufbereitung von Daten und das Training von KI-Modellen ist prekäre oder sogar traumatisierende Arbeit, häufig ausgelagert in Länder der globalen Mehrheit, während die Gewinne in den Industrieländern gehortet werden.
Ob Unternehmen solche Daten, die sie für das Training ihrer KI-Modelle nutzen, überhaupt verwenden dürfen, ist oft eine Grauzone – hier bereichert sich eine Branche an Daten ganzer Gesellschaften, alles unter dem Schlagwort „Innovation“. Aber was ist eine Innovation wert, die nicht der Gesellschaft dient? Wir brauchen andere Entscheidungshilfen dafür, wann, wie und zu welchem Zweck wir Technik nutzen – das wäre ein guter Anfang.
Eine Meta-Analyse mit mehr als 100.000 Teilnehmenden aus 26 Ländern zeigt: Frauen nutzen KI signifikant seltener als Männer. Eine weitere Studie zeigt, dass die Hälfte der untersuchten KI-Systeme geschlechtsspezifische Vorurteile aufweisen. Wer trägt die Verantwortung für diese Entwicklung?
Dass Frauen KI seltener nutzen als Männer, ist vielleicht einfach ein Zeichen von Vernunft, denn viele Versprechen des KI-Booms sind völlig überzogen. Der versprochene Effizienzgewinn löst sich nicht ein, im Gegenteil. Aber ernsthaft: Die Unterschiede in der Nutzung haben natürlich viele Ursachen, die wir differenziert betrachten müssen. Menschen kommen vor allem im Beruf in Kontakt mit KI-Werkzeugen oder generell mit digitalen Anwendungen. Aber die Beschäftigungsquoten von Männern und Frauen gehen auseinander. Auch Armut trägt dazu bei, dass Menschen digital abgehängt werden – auch hier sind Frauen stärker betroffen, insbesondere im Alter. Weder die Frauen noch die Technik sind also schuld an dieser Schieflage, sondern sie ist ein Ausdruck sozialer Ungerechtigkeit. Wir als Gesellschaft tragen die Verantwortung dafür, das zu ändern.
Es stimmt, das KI-Anwendungen die geschlechtsspezifischen Vorurteile aufweisen, die in ihren Trainingsdaten enthalten sind – ebenso wie Rassismus, Ableismus. Wir als Gesellschaft sind offensichtlich ein schlechter Lehrer, denn die Trainingsdaten sind nichts anderes als Archive von vergangenen Entscheidungen, die die Technik jetzt abstrahieren soll. Wir können nicht von der Technik erwarten, dass sie besser wird als wir es sind.
Im Jahr 2025 wird die “Hamburg Declaration on Responsible AI” verabschiedet – ein Prinzipienpapier, in welchem sich BMZ und UNDP unter anderem auf die Vermeidung geschlechtsspezifischer Ungleichheiten bei KI-Technologien festlegen. Welche konkreten Maßnahmen sollten wir ergreifen, um KI -Systeme gegenüber Geschlecht, Herkunft, finanziellem Status, Bildungsgrad und sexueller Orientierung zu sensibilisieren?
Zunächst einmal sollten wir nicht KI vermenschlichen, sondern die Menschen finden, die von solchen Systemen profitieren und bei ihnen mit der Sensibilisierung anfangen oder damit, Verantwortlichkeit herzustellen.
Ich bin ehrlich gesagt pessimistisch, dass es ein technisches System geben kann, dass völlig diskriminierungsfrei ist. Wir Menschen sind es ja auch nicht. Deshalb brauchen wir wirksame Mechanismen, um Diskriminierung so weit wie möglich zu erschweren, aber auch dafür, Menschen in Fällen von Diskriminierung zu ihrem Recht zu verhelfen.
Die Offenlegung der Datengrundlage, die in das Training oder die Schärfung von KI-Modellen herangezogen wurde, zum Beispiel für Audits, ist ein denkbarer Schritt. Auch die Verpflichtung zur Auditierbarkeit von algorithmischen Systemen, die in Kontexten eingesetzt werden, in denen Diskriminierung häufig ist. Darüber hinaus muss Menschen stets die Möglichkeit gegeben werden, gegen eine automatisierte Entscheidung Einspruch einzulegen. Das muss mit vertretbarem Aufwand möglich sein oder an Interessensvertretungsorganisationen übertragen werden können. Denn gerade die Menschen, die Diskriminierung erleben, verfügen über weniger Zeit, Geld und Zugang zu Hilfsstrukturen, um ihre Rechte durchzusetzen. Der beste – und vielleicht einzig wirksame – Weg dafür, Diskriminierung durch KI einzudämmen, ist es, sich für gerechtere Gesellschaften einzusetzen. Sie sehen: Am Ende kommen wir immer wieder bei der Frage an: Wie wollen wir miteinander leben, für welche Zukunft machen wir uns stark?