Die Autor*innen Andrea Lübken und Dr. Matthias Wiemer sind neben diesem Essential zu „KI-Ethik und Verantwortung“ für weitere Essentials in der „Inklusion und KI“-Reihe verantwortlich. Die Bücher basieren auf ihrer langjährigen Erfahrung in Fort- und Weiterbildung, langjähriger Führungserfahrung sowie ihren Erfahrungen in der Organsiationsentwicklung. Die Essentials-Reihe soll kompakte Einstiege in den aktuellen Stand der Fachdiskussionen zu aktuellen Themen bieten.
Ausgangspunkt für das Buch ist die Rolle von Technologie allgemein, und damit auch der Künstlichen Intelligenz, aus Sicht der Autor*innen (vgl. Seite 1):
„Technologie ist niemals bloß Technik. Sie trägt immer die Handschrift von Vorstellungen, Prioritäten und Machtstrukturen, die in ihrer Entwicklung verankert sind. Künstliche Intelligenz, als besonders wirkmächtige Ausprägung digitaler Technologien, bewegt sich nicht auf einem neutralen Pfad. Ihre Anwendung beeinflusst Lebenswelten, verändert Bildungsprozesse, bestimmt berufliche Teilhabe und prägt gesellschaftliche Kommunikation. Damit legt sie zugleich Chancen wie auch Hindernisse für Inklusion fest.“
Dabei wird im Buch auch die Rolle der Politik und damit der rechtlichen Grundlagen beleuchtet (vgl. Seite 2):
„[...] gleichberechtigte Teilhabe in allen gesellschaftlichen Bereichen zu sichern, auch im digitalen Raum. Der europäische AI Act ergänzt diesen Anspruch, indem er Transparenz, Risikobewertung und Diskriminierungsfreiheit verbindlich einfordert. Beide Rahmenwerke verdeutlichen, dass ethische Fragen keine abstrakten Ergänzungen sind, sondern konkrete Maßstäbe für politische und organisatorische Verantwortung“
Für die Autor*innen ist dabei ein inklusives Menschenbild von zentraler Bedeutung (vgl. Seite 5):
„Ein inklusives Menschenbild bildet dabei den Kern. Es erkennt Vielfalt als Ausgangspunkt jeder Gestaltung an und nicht als nachträgliche Zusatzbedingung. Es orientiert sich an der Würde des Menschen, nicht an Effizienzkriterien oder Nutzungsprofilen. Es fragt, wie Technik Lebensrealitäten unterstützen kann, statt sie zu vereinheitlichen oder auszugrenzen.“
Ein negatives Praxisbeispiel, wenn auch nicht aus dem Bereich der KI, das im Buch genannt wird, sind die digitalen Terminbuchungssysteme in Arztpraxen oder Kliniken, die viele Voraussetzungen an Hardware und digitale Kompetenzen setzen, die insbesondere ein großer Teil der Zielgruppe, ältere Menschen, nicht erfüllen.
Speziell in Bezug auf Systeme der Künstlichen Intelligenz stellen die Autor*innen mit Blick auf die Trainingsdaten fest (vgl. Seite 13):
„In der Praxis führt das dazu, dass Systeme bestimmte Gruppen schlechter erkennen, falsch einordnen oder übersehen. Menschen mit Behinderungen, deren Alltagserfahrungen oder Kommunikationsweisen in Datenmodellen fehlen, werden häufig nicht berücksichtigt. Ebenso benachteiligt sind Personen, die sprachlich, kulturell oder körperlich nicht der angenommenen Norm entsprechen. Technik funktioniert dann für einige, während andere ausgeschlossen bleiben.“
Dabei wird im Buch Wert auf echte Partizipation gelegt, die in der Praxis bei der Entwicklung von KI-Systemen häufig nicht stattfindet, wodurch wertvolles Erfahrungswissen von Menschen mit Behinderungen ungenutzt bleibt (vgl. Seite 18):
„Auch organisatorische Rahmenbedingungen erschweren Mitgestaltung. Viele Technikprojekte sind von Zeitdruck und knappen Budgets geprägt. Beteiligung wird als Zusatz betrachtet, nicht als fester Bestandteil. Häufig beschränkt sie sich auf Workshops, Umfragen oder Tests, die punktuell durchgeführt werden, ohne nachhaltigen Einfluss auf das Design zu haben. Partizipation wird so zur Alibimaßnahme: Sichtbar, aber folgenlos.“
Insgesamt bietet das Buch einen kompakten Einsteig ins Thema, auch wenn häufig auf die Entwicklung und den Einfluss von Technologie allgemein, und weniger auf die Besonderheiten der Künstlichen Intelligenz eingegangen wird.