Direkt zum Inhalt springen
Internetbanking Login

Private Banking der Volksbank Vorarlberg

Vermögensverwaltung

  • Über Uns
    • Willkommen
    • Unser Haus
    • Unsere Philosophie
    • Unser Beratungsansatz
    • Unsere Standorte
    • Datenschutzerklärung
    • Rechtshinweise
      • MiFID II
      • Einlegerinformation
      • Hinweis zur Bankenabwicklung und Gläubigerbeteiligung
      • Offenlegungen
      • Beschwerdemanagement
      • Impressum
      • Angaben nach dem Mediengesetz
      • Satzung der Volksbank Vorarlberg
      • Whistleblowing Meldeformular
      • Code of Conduct
      • Disclaimer/Information
  • Leistungen
    • Vermögensverwaltungsstrategien
    • Aktienmandat Premium Selection
    • Aktienmandat Premium Dividends
    • Individualmandat
    • Fonds
      • Aktienfonds Premium Selection Equity Fund
      • Mischfonds Balanced Selection Fund
    • Für deutsche Kunden
  • Märkte
    • Börsendaten
    • Börsenkommentare
  • Nachhaltigkeit
    • Achtsamer Investmentansatz
    • Engagement
    • PRI – Principles for Responsible Investment
    • FNG-Siegel
    • Nachhaltige Entwicklungsziele
    • Achtsamkeitsblog – Unser tägliches Streben nach Nachhaltigkeit
    • Achtsamkeitsvlog – Kompakt, aktuell und informativ.
    • Nachhaltigkeitsberichte
    • Veröffentlichungen Offenlegungsverordnung
  • Karriere
  • Kontakt
Start Blog Achtsamkeitsblog Künstliche Intelligenz für mehr Fairness?
Social

Künstliche Intelligenz für mehr Fairness?

28. November 2022

Ob bei personalisierten Online-Shopping-Empfehlungen, der Recherche in lernenden Suchmaschinen oder bei der Kommunikation mit virtuellen Assistenten – die oftmals als „zukunftsweisende Technologie“ bezeichnete Künstliche Intelligenz hat sich längst in unseren Alltag eingeschlichen. Daraus resultieren gleichermaßen Chancen wie Risiken. Einen ganz speziellen Diskussionspunkt zu diesem Thema möchten wir in unserem heutigen Blogbeitrag genauer beleuchten: Kann Künstliche Intelligenz fairer entscheiden als Menschen und für mehr Gerechtigkeit sorgen?

Das Europäische Parlament definiert Künstliche Intelligenz (KI) als „die Fähigkeit einer Maschine, menschliche Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität zu imitieren.“¹ Anstatt für jede mögliche Situation programmiert zu werden, können KI-Systeme selbständig Probleme lösen, indem sie die Folgen früherer Aktionen analysieren und dazulernen.

Zahlreiche Unternehmen stützen sich mittlerweile bei ihren Entscheidungen auf KI-Systeme. Die zu treffenden Entscheidungen werden dabei immer bedeutender und umfassen zum Beispiel die Personalauswahl, die Prüfung von Kreditanträgen sowie die Einschätzung der Rückfallwahrscheinlichkeit von Straftätern. Schnell kann dabei jedoch vergessen werden, dass die KI-Modelle hinter dem vorgeschlagenen Ergebnis noch immer von Menschen erstellt werden. So bleiben in scheinbar „objektiven“ KI-Programmen durch Vorurteile oder unbeabsichtigte Fehler des Programmierers oftmals historische soziale Ungleichheiten bestehen.

Einige Studien deuten darauf hin, dass die Nachteile von KI-Systemen unverhältnismäßig stark Gruppen betreffen, die aufgrund von Faktoren wie Hautfarbe, Geschlecht oder soziökonomischem Hintergrund bereits benachteiligt sind. Beispielsweise könnte ein KI-System zur Ermittlung von Strafrückfälligkeit vorhersagen, dass Menschen einer bestimmten Hautfarbe eher wieder straffällig werden als andere. Der wahre Grund liegt aber womöglich darin, dass diese Menschen häufiger verhaftet werden, auch wenn sie unschuldig sind. Solche Vorurteile müssen natürlich beseitigt werden, um allen Menschen eine gleiche Behandlung zu ermöglichen.

Da Werte wie Fairness jedoch sehr subjektiv sind, ist es manchmal schwierig zu sagen, was nun wirklich die fairste Entscheidung wäre. So hatten Forscher die gute Absicht benachteiligten Gruppen den Zugang zu Krediten zu erleichtern. Dies hatte allerdings den unbeabsichtigten Effekt, dass sich die tatsächliche Zahl der Zahlungsausfälle innerhalb dieser Gruppe erhöhte und die Kreditwürdigkeit der Gruppe insgesamt sank.

Algorithmen, die in KI-Modellen verwendet werden, haben das Potenzial, die Diskriminierung im Vergleich zu menschlichen Entscheidungen zu verringern und Ergebnisse viel genauer vorherzusagen als Menschen es können. Der Einsatz eines KI-Modells ist eine Alternative, um gegen einseitige menschliche Entscheidungen vorzugehen und die Diskriminierung von Angesicht zu Angesicht zu verringern.

Aber es bleibt wohl auch weiterhin unerlässlich, dass sich die Programmierer und Nutzer von KI-Systemen deren Schwachstellen bewusst sind und Vorurteile erkennen, reduzieren und abmildern. Einen Lösungsansatz sehen viele Experten darin, dass die Ergebnisse der KI-Systeme mit einer verständlichen Erklärung versehen sein sollten, sodass die Entscheidung nachvollzogen und hinterfragt werden kann. Künstliche Intelligenz stellt einen ebenso großen kulturellen wie technischen Wandel dar. Deshalb müssen wir sicherstellen, dass diese Veränderungen wirklich einen positiven Nutzen aufweisen, bevor sie weiter in die Infrastruktur des täglichen Lebens eingebaut werden.

¹ https://www.europarl.europa.eu/news/de/headlines/priorities/kunstliche-intelligenz-in-der-eu/20200827STO85804/was-ist-kunstliche-intelligenz-und-wie-wird-sie-genutzt

  • Europäisches Parlament (2021): Was ist künstliche Intelligenz und wie wird sie genutzt?
    https://www.europarl.europa.eu/news/de/headlines/priorities/kunstliche-intelligenz-in-der-eu/20200827STO85804/was-ist-kunstliche-intelligenz-und-wie-wird-sie-genutzt [Letzter Zugriff: 07.11.2022]

  • Lernende Systeme – die Plattform für Künstliche Intelligenz: Was bedeutet Künstliche Intelligenz?
    https://www.ki-konkret.de/was-ist-ki.html

  • OECD.AI, Ota-Liedtke Erika, Raghunath Madhuri (2022): New AI technologies can perpetuate old biases: some examples in the United States
    https://oecd.ai/en/wonk/ai-biases-usa [Letzter Zugriff: 07.11.2022]

  • Yale Insights, Kwok Roberta (2021): Can Bias Be Eliminated from Algorithms?
    https://insights.som.yale.edu/insights/can-bias-be-eliminated-from-algorithms [Letzter Zugriff: 07.11.2022]

  • Harvard Business Review, Burt Andrew (2020): How to Fight Discrimination in AI
    https://hbr.org/2020/08/how-to-fight-discrimination-in-ai [Letzter Zugriff: 07.11.2022]

  • Crawford K., Calo R. (2016): There is a blind spot in AI research. Nature 538, 311-313
    https://doi.org/10.1038/538311a [Letzter Zugriff: 07.11.2022]

  • Köchling A., Wehner M.C. (2020): Discriminated by an algorithm: a systematic review of discrimination and fairness by algorithmic decision-making in the context of HR recruitment and HR development. Business Research 13, 795-848
    https://link.springer.com/article/10.1007/s40685-020-00134-w [Letzter Zugriff: 07.11.2022]

Abgelegt unter: Achtsamkeitsblog, Social

Herausgeberin

Lisa Ess MSc CESGA
Vermögensverwaltung

Lisa Ess hat an der Universität Innsbruck ihr Studium mit einem Master in Banking and Finance abgeschlossen.

Im Januar 2020 startete sie als Junior Portfolio Managerin bei der Volksbank Vorarlberg.

Seither ist sie Mitglied im Anlageausschuss und erstellt die eingehenden Anlagevorschläge innerhalb der Vermögensverwaltung. Zudem ist sie als ESG-Analystin die Hauptverantwortliche für das Thema Nachhaltigkeit.

Newsletter Anmeldung

Private Banking der Volksbank Vorarlberg
Montag – Freitag 08 – 17 Uhr
+43 (0)50 882 2000
PRI-Sig-Web-V1_227

Copyright © 2025 Volksbank Vorarlberg - Alle Rechte vorbehalten

Impressum Disclaimer AGB Datenschutzerklärung

Cookie Zustimmung verwalten
Wir verwenden Cookies, um unsere Website und unseren Service zu optimieren.
Funktional Always active
The technical storage or access is strictly necessary for the legitimate purpose of enabling the use of a specific service explicitly requested by the subscriber or user, or for the sole purpose of carrying out the transmission of a communication over an electronic communications network.
Preferences
The technical storage or access is necessary for the legitimate purpose of storing preferences that are not requested by the subscriber or user.
Statistiken
The technical storage or access that is used exclusively for statistical purposes. The technical storage or access that is used exclusively for anonymous statistical purposes. Without a subpoena, voluntary compliance on the part of your Internet Service Provider, or additional records from a third party, information stored or retrieved for this purpose alone cannot usually be used to identify you.
Marketing
The technical storage or access is required to create user profiles to send advertising, or to track the user on a website or across several websites for similar marketing purposes.
Manage options Manage services Manage {vendor_count} vendors Read more about these purposes
Zeige Einstellungen
{title} {title} {title}