Natürliche Sprache - die ultimative CX Anmelden und live dabei sein
Der intuitivste Weg, ein Produkt zu finden, war schon immer das Gespräch. Mit KI-gestützten Copiloten und KI-Agenten wird genau das möglich. Erfahren sie in diesem Vortrag, wie das in der Praxis funktioniert.
Anmelden und live dabei sein
Warum gute CX entscheidend ist Anmelden und live dabei sein
Dieser Vortrag zeigt praxisorientiert, warum es oft leichter ist, von guter Customer Experience zu reden, als sie tatsächlich zu erreichen – und wo der Weg zur echten Kundenzentrierung beginnt.
Anmelden und live dabei sein
In jeder KI steckt auch ein Stückchen Mensch. Nicht immer ist das hilfreich, um genaue Ergebnisse zu erhalten. (Bild: Pixabay / Public Domain)
Bild: Pixabay / Public Domain
In jeder KI steckt auch ein Stückchen Mensch. Nicht immer ist das hilfreich, um genaue Ergebnisse zu erhalten.

Geschäftsschädigende Algorithmen: So treibt man KI dumme Vorurteile aus

14.02.2018 - Künstliche Intelligenz spiegelt die Vorurteile ihrer Schöpfer: Rassistische Programmierer schaffen rassistische Bots. Doch soweit muss man gar nicht gehen. Es verbrennt schon Umsatz, wenn unmotivierte Mitarbeiter miese Algorithmen machen. So geht's besser.

HANDLUNGSRELEVANZ

 
Operativ
Strategisch
Visionär
Technik
Medien
Wirtschaft
 
heute
morgen
übermorgen
Die iBusiness-Handlungsmatrix zeigt, wie langfristig die vorgestellten Aufgaben angegangen werden müssen.
TL;DR
Algorithmen spiegeln die Vorbehalte ihrer Schöpfer wider. So etwas im Nachhinein hinauszuprogrammieren kann schwer bis unmöglich sein.
Algorithmen sind auch nur Menschen, stellte iBusiness vergangene Woche in seiner Analyse Wie Vorurteile Algorithmen verfälschen Relation Browser fest: Sie haben Vorurteile. Schlimmstenfalls bedeutet das: Sie verhalten sich wie Rassisten und Sexisten.
  • Ein Bilderkennungs-Algorithmus von Google zur Homepage dieses Unternehmens Relation Browser hat 2015 irrtümlicherweise zwei Fotos schwarzer Menschen als Gorillas identifiziert und entsprechend kategorisiert.
  • 'Frauen gehören an den Herd' war buchstäblich das Urteil einer Software, die Verhältnisse zwischen Wörtern einordnen sollte. Der Algorithmus befand: Mann verhält sich zu Frau wie König sich zu Königin verhält. Soweit so okay. Aber dann urteilte das Programm: 'Mann verhält sich zu Programmierer wie Frau zu Hausfrau'.
  • Microsofts zur Homepage dieses Unternehmens Relation Browser Chatbot 'Tay' erging sich nach längerer Interaktion mit Nutzern im Web nur noch in rassistischen Plattitüden, sodass ihn seine Schöpfer zerknirscht vom Netz nahmen.
Diese drei Beispiele zeigen auch gleich schön die drei Wege auf, auf denen menschliche Voreingenommenheit in künstliche Intelligenzen gerät. Entweder der Fisch stinkt von den Daten her: Man füttert eine Software nur mit Fotos weißer Gesichter, stolpert sie dann über ein schwarzes, packt sie dieses aus Mangel an Input in den Gorilla-Ordner. Oder es liegt an der P

Premium-Inhalt

Dieser Premium-Inhalt war am Erscheinungstag für Basis-Mitglieder öffentlich abrufbar. Wenn Sie diesen Beitrag jetzt abrufen möchten, werden Sie einfach Premium-Mitglied - aktuell mit bis zu 50% Preisvorteil!

Premium-Mitglied werden Login
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
Verwandte Beiträge zu dieser Analyse
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema: