Anmelden und live dabei sein
Anmelden und live dabei sein

Geschäftsschädigende Algorithmen: So treibt man KI dumme Vorurteile aus
HANDLUNGSRELEVANZ
|
Operativ |
Strategisch |
Visionär |
Technik |
![]() |
![]() |
![]() |
Medien |
![]() |
![]() |
![]() |
Wirtschaft |
![]() |
![]() |
![]() |
|
heute |
morgen |
übermorgen |

- Ein Bilderkennungs-Algorithmus von Google
hat 2015 irrtümlicherweise zwei Fotos schwarzer Menschen als Gorillas identifiziert und entsprechend kategorisiert.
- 'Frauen gehören an den Herd' war buchstäblich das Urteil einer Software, die Verhältnisse zwischen Wörtern einordnen sollte. Der Algorithmus befand: Mann verhält sich zu Frau wie König sich zu Königin verhält. Soweit so okay. Aber dann urteilte das Programm: 'Mann verhält sich zu Programmierer wie Frau zu Hausfrau'.
- Microsofts
Chatbot 'Tay' erging sich nach längerer Interaktion mit Nutzern im Web nur noch in rassistischen Plattitüden, sodass ihn seine Schöpfer zerknirscht vom Netz nahmen.
Premium-Inhalt
Dieser Premium-Inhalt war am Erscheinungstag für Basis-Mitglieder öffentlich abrufbar. Wenn Sie diesen Beitrag jetzt abrufen möchten, werden Sie einfach Premium-Mitglied - aktuell mit bis zu 50% Preisvorteil!
Premium-Mitglied werden Login