KI im Ethik-Crashtest? Ein Weg zu verantwortungsvoller Innovation

Wer sich ein Auto kaufen möchte, achtet nicht nur auf den Preis, sondern auch auf die Sicherheit. Ein Auto ohne TÜV fahren – undenkbar! KI kann Krankheiten erkennen oder vorhersagen, wann Landwirt*innen mit der Aussaat beginnen sollten oder die Kreditwürdigkeit einschätzen. KI kann aber auch negative Wirkungen haben, wenn sie Krankheiten von Nutzpflanzen oder Menschen nicht zuverlässig erkennt, falsche Informationen generiert oder die Kreditwürdigkeit von sozial benachteiligten Gruppen herabwürdigt. Müsste es daher nicht auch für Künstliche Intelligenz (KI) eine Art TÜV geben?

Sorgfältig durchgeführte KI-Risikobewertungen sind daher eine moralische Verantwortung. Ähnlich wie ein Crashtest für Autos kann die Risikobewertung die Sicherheit und das Vertrauen in KI-Produkte erhöhen und auch die beteiligten Entwickler*innen sensibilisieren, KI-Ethik in die Entwicklung ihrer KI-Produkte einfließen zu lassen.

Zutaten für eine KI-Risikobewertung

Wie könnte ein solcher TÜV für KI aussehen? Die BMZ-Initiative FAIR Forward hat sich mit genau dieser Frage beschäftigt. Das Ziel war klar: Es sollte eine anwendbare Methodik zur Bewertung von KI-Risiken entwickelt werden, die in der internationalen Zusammenarbeit als Leitfaden zur praktischen Umsetzung von KI-Ethik dienen kann – eine Art Ethik-Crashtest für KI also. Folgende Zutaten standen dafür zur Verfügung:

  • Ein weltweit anerkannter ethischer Leitfaden mit Empfehlungen zur Ethik der KI (UNESCO 2023)
  • Ein diverses und engagiertes Team, bestehend aus FAIR Forward, Eticas,  KI-Inklusionsexpert*innen und Projektpartner*innen aus Afrika und Asien.
  • Leitfäden für die KI-Analyse sowohl aus qualitativer als auch aus quantitativer Sicht. Die Auswirkungen künstlicher Intelligenz sollten in einem größeren Zusammenhang bewertet werden, um sie so auf Verzerrungen testen und nötigenfalls wirksam gegensteuern zu können – ähnlich wie bei klinischen Studien: Erst wenn neben dem Nutzen auch die Nebenwirkungen eines Medikaments ausreichend erforscht sind, kann über die Zulassung entschieden werden.
  • Sieben diverse diskriminative KI-Projekte (z.B. Klimaanpassung, KI in der Landwirtschaft oder auch Chatbots für öffentliche Dienstleistungen), die für einen Pilottest der Methodik offen waren. Das Ergebnis dieses Prozesses: die Responsible AI Assessments.

Zum Download

Josia Paska Darmawan aus Indonesien, beteiligt am Projekt als KI-Inklusions*expertin, äußert sich wie folgt:

Die FAIR Forward Responsible AI Assessments unterstützen beteiligte Stakeholder bei der ethischen Entwicklung von KI, indem sie ein umfassendes Rahmenwerk und Instrumente zur Bewertung der potenziellen Risiken bieten. In Indonesien halfen die Responsible AI Assessments einem Projekt zur Kartierung von Wäldern mit hohem Kohlenstoff dabei, sicherzustellen, dass der gesamte Prozess – von der Problemformulierung über die Datenerhebung bis hin zur Anwendung – eng mit den Prinzipien der freien, vorherigen und informierten Zustimmung (FPIC) übereinstimmt und die Rechte lokaler vulnerabler Gruppen einbezieht und schützt.

Josia Paska Darmawan, KI-Inklusions*expertin

Risiken in KI steuern

Welchen Schritten eine KI-Risikobewertung folgen kann, wird im Folgenden anhand des vorgestellt – dem „GhanaBot“, der Bürger*innen mit Anfragen zu öffentlichen Dienstleistungen helfen soll.

  1. Unbekannte Gewässer entdecken – Scoping Call

Der Scoping Call zielt darauf ab, verborgene Strömungen, d.h. potenzielle Risiken unter der Oberfläche von „GhanaBot“ zu identifizieren. Gemeinsam mit dem Projektteam und seinen Entwickler*innen wollen wir verstehen: Was ist das Ziel des Chatbots? Wer sind die Nutzer*innen? Mit welchen Daten wird er trainiert? Der Scoping Call stellt sicher, dass wir nicht mit verbundenen Augen segeln.

  1. Erkundung der Strömungen – Deep Dive

Beim Deep Dive geht es darum, die identifizierten Risiken gründlich zu untersuchen. Unsere Hauptmethode: Kritische Debatten mit dem Projektteam, aber auch mit lokalen Expert*innen für natürliche Sprachverarbeitung (NLP), öffentlichen Dienstleister*innen und Bürger*innen, die den „GhanaBot“ nutzen könnten. Dadurch lernen die Grenzen von GhanaBot kennen und überlegen, wie wir die Nutzer*innen sicher und offen durch die risikoreichen Strömungen und Untiefen navigieren können.

  1. Seekarte – Abschlussbericht

Basierend auf den Erkenntnissen des Deep Dive werden die besprochenen Empfehlungen in konkrete Maßnahmen übersetzt, die auf den „GhanaBot“ zugeschnitten sind. Der Abschlussbericht entspricht einer Seekarte mit allen Untiefen und Gefahrenzonen, an der sich Nutzer*innen orientieren können, um Risiken sicher zu vermeiden.

 

Stärken und Herausforderungen des Ansatzes

  1. Wegweiser: Die Responsible AI Assessments helfen KI-Entwickler*innen und -Projektmanager*innen, mögliche Fallstricke zu umgehen und bewusste Entscheidungen zu treffen. Ähnlich, wie man einen Kompass nutzt, um einen Weg zum Ziel zu finden.
  2. Lernen durch Handeln: Responsible AI Assessments leben von praktischen Lernerfahrungen. Durch die Identifizierung von Risiken verbessern die Teams ihr Verständnis von KI und deren Auswirkungen.
  3. Kontextsensibilität: Die Responsible AI Assessments sind ein flexibles Werkzeug, das sich an verschiedene Kontexte und KI-Anwendungsfälle anpassen lässt
  4. Aktive Diskussion: KI-Risikobewertungen fördern die kritische Reflexion zwischen verschiedenen Interessengruppen, um blinde Flecken aufzudecken und maßgeschneiderte Maßnahmen zu entwickeln.

 

Herausforderungen des Ansatzes:
  1. Erforderliches Fachwissen: Risiken in KI zu bewerten erfordert Auditing-Expertise und spezielles Fachwissen – dazu gehört Fachwissen zum Anwendungsbereich, sowie ein Verständnis, wie sich KI auf die betroffenen Personen auswirkt. Es empfiehlt sich immer, diese Perspektiven an einem Tisch zu vereinen.
  2. Mehr als eine Check-Liste: Die Risikobewertung von KI ist keine Übung zum Ankreuzen. Die Bewertung von KI-Risiken erfordert kontinuierliche Aufmerksamkeit. Eine einmalige Bewertung reicht nicht aus – sondern es handelt sich um einen fortlaufenden Prozess, der nur so gut ist wie die Sorgfalt und das eingebrachte Fachwissen.
  3. Kein Allheilmittel: Selbst, wenn die Bewertung keine großen Risiken aufzeigt, ist dies keine Garantie für Schadensfreiheit. Zusätzliche Kontrollen und Abwägungen sind nötig, um das Risiko und den Schaden für Nutzer*innen und Betroffene von KI-Produkten zu mindern.
  4. Grenzen des Ansatzes: Auch wenn die Responsible AI Assessments an verschiedenen Anwendungsfällen getestet wurde, sollten sie für neue Anwendungsfälle gewissenhaft geprüft werden, z. B. für generative KI oder den Einsatz von KI im Gesundheitswesen. Weitere Anwendungsfälle werden im Rahmen der zweiten Pilotphase 2024 abgedeckt.

Zu den Responsible AI Assessments

Falls Sie zur Verbesserung der Bewertungen beitragen oder ein Feedback weitergeben wollen, können Sie fairforward@giz.de kontaktieren. Die Responsible AI Assessments sind offen zugänglich und nutzbar – und wir planen, sie kontinuierlich weiterzuentwickeln!