Ob bei personalisierten Online-Shopping-Empfehlungen, der Recherche in lernenden Suchmaschinen oder bei der Kommunikation mit virtuellen Assistenten – die oftmals als „zukunftsweisende Technologie“ bezeichnete Künstliche Intelligenz hat sich längst in unseren Alltag eingeschlichen. Daraus resultieren gleichermaßen Chancen wie Risiken. Einen ganz speziellen Diskussionspunkt zu diesem Thema möchten wir in unserem heutigen Blogbeitrag genauer beleuchten: Kann Künstliche Intelligenz fairer entscheiden als Menschen und für mehr Gerechtigkeit sorgen?
Das Europäische Parlament definiert Künstliche Intelligenz (KI) als „die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.“¹ Anstatt für jede mögliche Situation programmiert zu werden, können KI-Systeme selbständig Probleme lösen, indem sie die Folgen früherer Aktionen analysieren und dazulernen.
Zahlreiche Unternehmen stützen sich mittlerweile bei ihren Entscheidungen auf KI-Systeme. Die zu treffenden Entscheidungen werden dabei immer bedeutender und umfassen zum Beispiel die Personalauswahl, die Prüfung von Kreditanträgen sowie die Einschätzung der Rückfallwahrscheinlichkeit von Straftätern. Schnell kann dabei jedoch vergessen werden, dass die KI-Modelle hinter dem vorgeschlagenen Ergebnis noch immer von Menschen erstellt werden. So bleiben in scheinbar “objektiven” KI-Programmen durch Vorurteile oder unbeabsichtigte Fehler des Programmierers oftmals historische soziale Ungleichheiten bestehen.
Einige Studien deuten darauf hin, dass die Nachteile von KI-Systemen unverhältnismäßig stark Gruppen betreffen, die aufgrund von Faktoren wie Hautfarbe, Geschlecht oder soziökonomischem Hintergrund bereits benachteiligt sind. Beispielsweise könnte ein KI-System zur Ermittlung von Strafrückfälligkeit vorhersagen, dass Menschen einer bestimmten Hautfarbe eher wieder straffällig werden als andere. Der wahre Grund liegt aber womöglich darin, dass diese Menschen häufiger verhaftet werden, auch wenn sie unschuldig sind. Solche Vorurteile müssen natürlich beseitigt werden, um allen Menschen eine gleiche Behandlung zu ermöglichen.
Da Werte wie Fairness jedoch sehr subjektiv sind, ist es manchmal schwierig zu sagen, was nun wirklich die fairste Entscheidung wäre. So hatten Forscher die gute Absicht benachteiligten Gruppen den Zugang zu Krediten zu erleichtern. Dies hatte allerdings den unbeabsichtigten Effekt, dass sich die tatsächliche Zahl der Zahlungsausfälle innerhalb dieser Gruppe erhöhte und die Kreditwürdigkeit der Gruppe insgesamt sank.
Algorithmen, die in KI-Modellen verwendet werden, haben das Potenzial, die Diskriminierung im Vergleich zu menschlichen Entscheidungen zu verringern und Ergebnisse viel genauer vorherzusagen als Menschen es können. Der Einsatz eines KI-Modells ist eine Alternative, um gegen einseitige menschliche Entscheidungen vorzugehen und die Diskriminierung von Angesicht zu Angesicht zu verringern.
Aber es bleibt wohl auch weiterhin unerlässlich, dass sich die Programmierer und Nutzer von KI-Systemen deren Schwachstellen bewusst sind und Vorurteile erkennen, reduzieren und abmildern. Einen Lösungsansatz sehen viele Experten darin, dass die Ergebnisse der KI-Systeme mit einer verständlichen Erklärung versehen sein sollten, sodass die Entscheidung nachvollzogen und hinterfragt werden kann. Künstliche Intelligenz stellt einen ebenso großen kulturellen wie technischen Wandel dar. Deshalb müssen wir sicherstellen, dass diese Veränderungen wirklich einen positiven Nutzen aufweisen, bevor sie weiter in die Infrastruktur des täglichen Lebens eingebaut werden.
Europäisches Parlament (2021): Was ist künstliche Intelligenz und wie wird sie genutzt?
https://www.europarl.europa.eu/news/de/headlines/priorities/kunstliche-intelligenz-in-der-eu/20200827STO85804/was-ist-kunstliche-intelligenz-und-wie-wird-sie-genutzt [Letzter Zugriff: 07.11.2022]Lernende Systeme – die Plattform für Künstliche Intelligenz: Was bedeutet Künstliche Intelligenz?
https://www.ki-konkret.de/was-ist-ki.htmlOECD.AI, Ota-Liedtke Erika, Raghunath Madhuri (2022): New AI technologies can perpetuate old biases: some examples in the United States
https://oecd.ai/en/wonk/ai-biases-usa [Letzter Zugriff: 07.11.2022]Yale Insights, Kwok Roberta (2021): Can Bias Be Eliminated from Algorithms?
https://insights.som.yale.edu/insights/can-bias-be-eliminated-from-algorithms [Letzter Zugriff: 07.11.2022]Harvard Business Review, Burt Andrew (2020): How to Fight Discrimination in AI
https://hbr.org/2020/08/how-to-fight-discrimination-in-ai [Letzter Zugriff: 07.11.2022]Crawford K., Calo R. (2016): There is a blind spot in AI research. Nature 538, 311-313
https://doi.org/10.1038/538311a [Letzter Zugriff: 07.11.2022]Köchling A., Wehner M.C. (2020): Discriminated by an algorithm: a systematic review of discrimination and fairness by algorithmic decision-making in the context of HR recruitment and HR development. Business Research 13, 795-848
https://link.springer.com/article/10.1007/s40685-020-00134-w [Letzter Zugriff: 07.11.2022]