Anmelden und live dabei sein
Anmelden und live dabei sein
KI-Studie deckt genderbezogene Diskriminierung auf
15.07.2024 Eine Untersuchung der Hochschule Bielefeld offenbart, dass KI-Anwendungen häufig genderbezogene Diskriminierung verstärken. Dies wurde besonders in Fällen deutlich, bei denen KI-Systeme bei der Auswahl von KandidatInnen oder der Anzeige von Stellenanzeigen Vorurteile zeigten.
Negative Auswirkung auf Akzeptanz von KI
Die Berichterstattung über die Ausgrenzung von Frauen durch KI macht Schlagzeilen und hat Auswirkungen auf die Akzeptanz und Einsetzbarkeit der Technologie. Vor diesem Hintergrund hat eine Gruppe von Forschenden an der Hochschule Bielefeld (HSBI) die Studie "Fit für KI?" durchgeführt, um festzustellen, in welchen Anwendungsbereichen von KI genderbezogene Diskriminierung wahrscheinlich ist sowie Weiterbildungs- und Gegenmaßnahmen zu eruieren.Im Ergebnis identifizierten die HSBI-Forschenden dabei fünf Kategorien, die berücksichtigt werden sollten, um KI-Technologien gerechter und gleichberechtigter zu gestalten:
- Freiheit von Diskriminierung,
- Wissen und Bildung,
- Geschlechterunterschiede,
- Kommunikation und Benutzerfreundlichkeit sowie
- Transparenz und Regelungen.
Unterrepräsentiertheit von Frauen führt zu mangelnder Leistungsfähigkeit
"In vielen Wirtschaftsbereichen, insbesondere in großen Technologieunternehmen, ist eine geschlechtsspezifische Voreingenommenheit von KI-Technologien zu beobachten, da hier vorwiegend Männer die Entwicklungsteams bilden" erklärt Studienleiter Prof. Dr. Sascha Armutat. "Die Unterrepräsentiertheit von Frauen in den Daten, mit denen KI-Systeme lernen, wirkt sich unter anderem auf die Leistungsfähigkeit von Stimm-, Sprach- und Gesichtserkennungssystemen aus, die bei Männern häufig zuverlässiger funktionieren", berichtet der Professor.Systematische Verzerrungen, die durch unkritisch in KIs einfließende empirische Daten, geschlechtsbezogene Stereotypisierungen und Vorurteile entstehen, bezeichnet die Wissenschaft als "Gender Bias". Darüber und über die aus solchen Erkenntnissen abzuleitenden Vorgaben für den transparenten Einsatz von KI und über Regelungen, die Diskriminierungen unterbinden, wurde in den Fokusgruppen am häufigsten diskutiert. Ihre Forderung lautet: Der Umgang mit KI müsse nachvollziehbarer und demokratischer gestaltet werden. Dazu könnte eine Kennzeichnungspflicht gehören, um anzuzeigen, wann jemand mit einer KI interagierte. Außerdem wurde der Wunsch nach Regelungen geäußert, in denen festgelegt wird, was KI darf und was nicht. Der EU AI Act, der KI-Anwendungen in unterschiedliche Risikoklassen einordnen soll, geht hier in die richtige Richtung.