Gutes Beispiel ABLE – Gemeinsam für faire KI-Chatbots
-
Anspruch:
-
Aufwand:
- Zielgruppe: Entwicklung

Immer häufiger begegnen uns auf Websites und in Anwendungen Chatbots. Die Anbieter erhoffen sich damit Zeitersparnis bei der Beantwortung von Fragen oder auch mehr Kundenzufriedenheit, weil Anliegen schneller gelöst werden sollen.
Aber wie sieht es in der Realität aus? Häufig verstehen die Chatbots nicht die beschriebene Anfrage oder sind wenig hilfreich beim Finden von Informationen. Menschen mit Behinderungen machen häufig auch die Erfahrung, dass Chatbots eine diskriminierende oder unverständliche Sprache verwenden.
Ausgangspunkt für das Projekt der Aktion Mensch und der Hochschule Bielefeld war folgende Beobachtung:
Daher wurde im Projekt ein Tool entwickelt: ABLE (Ableism Bias Language Evaluation, grob übersetzt: Überprüfung von Sprache auf Ableismus und Vorurteil).
Das Tool prüft, wie sich KI-Systeme verhalten, um Ableismus und Diskriminierung sichtbar zu machen – und zu vermeiden.
Mithilfe des Tools wurden bereits einige Chatbots von Städten und Kommunen überprüft.
Das OpenSource-Tool steht kostenfrei über GitHub zur Verfügung für alle, die selbst Chatbots überprüfen möchten oder das Tool entwicklungsbegleitend bei der Chatbot-Programmierung einzusetzen.
Zur Beurteilung der Chatbots werden verschiedene Regeln eingesetzt. Neben Aspekten der Sprache wie Respekt und Verständlichkeit, wird auch auf Vorurteile geachtet und darauf, ob auf Sondersysteme verwiesen wird und auf mögliche Barrieren hingewiesen wird ohne dabei eine Defizitperspektive einzunehmen.
Ziel des Projektes ist es, das Tool und die Bewertungskriterien weiterzuentwickeln.