Expert Talk: "Verzahnung von Marketing und Vertrieb hat riesigen Effekt" Video-Podcast ansehen
"Effizienz" ist 2024 zu einem der wichtigsten Stichworte erfolgreicher Unternehmen geworden. Das gilt insbesondere für die Zusammenarbeit von Marketing und Vertrieb - die Budgets sind schließlich überall knapper geworden. Wie sich Unternehmen richtig aufstellen, damit die Umsätze flutschen, erklärt HubSpot-Managerin Josephine Wick Frona im iBusiness Expert Talk.Video-Podcast ansehen
Dossier Paid Content Zum Dossier Paid Content
Wer nutzt Bezahlinhalte im Internet? Welche Inhalte werden bevorzugt gekauft und abonniert? Wie hoch ist die Ausgabebereitschaft für Paid-Content?
Zum Dossier Paid Content
In jeder KI steckt auch ein Stückchen Mensch. Nicht immer ist das hilfreich, um genaue Ergebnisse zu erhalten. (Bild: Pixabay / Public Domain)
Bild: Pixabay / Public Domain
In jeder KI steckt auch ein Stückchen Mensch. Nicht immer ist das hilfreich, um genaue Ergebnisse zu erhalten.

Geschäftsschädigende Algorithmen: So treibt man KI dumme Vorurteile aus

14.02.2018 - Künstliche Intelligenz spiegelt die Vorurteile ihrer Schöpfer: Rassistische Programmierer schaffen rassistische Bots. Doch soweit muss man gar nicht gehen. Es verbrennt schon Umsatz, wenn unmotivierte Mitarbeiter miese Algorithmen machen. So geht's besser.

HANDLUNGSRELEVANZ

 
Operativ
Strategisch
Visionär
Technik
Medien
Wirtschaft
 
heute
morgen
übermorgen
Die iBusiness-Handlungsmatrix zeigt, wie langfristig die vorgestellten Aufgaben angegangen werden müssen.
TL;DR
Algorithmen spiegeln die Vorbehalte ihrer Schöpfer wider. So etwas im Nachhinein hinauszuprogrammieren kann schwer bis unmöglich sein.
Algorithmen sind auch nur Menschen, stellte iBusiness vergangene Woche in seiner Analyse Wie Vorurteile Algorithmen verfälschen Relation Browser fest: Sie haben Vorurteile. Schlimmstenfalls bedeutet das: Sie verhalten sich wie Rassisten und Sexisten.
  • Ein Bilderkennungs-Algorithmus von Google zur Homepage dieses Unternehmens Relation Browser hat 2015 irrtümlicherweise zwei Fotos schwarzer Menschen als Gorillas identifiziert und entsprechend kategorisiert.
  • 'Frauen gehören an den Herd' war buchstäblich das Urteil einer Software, die Verhältnisse zwischen Wörtern einordnen sollte. Der Algorithmus befand: Mann verhält sich zu Frau wie König sich zu Königin verhält. Soweit so okay. Aber dann urteilte das Programm: 'Mann verhält sich zu Programmierer wie Frau zu Hausfrau'.
  • Microsofts zur Homepage dieses Unternehmens Relation Browser Chatbot 'Tay' erging sich nach längerer Interaktion mit Nutzern im Web nur noch in rassistischen Plattitüden, sodass ihn seine Schöpfer zerknirscht vom Netz nahmen.
Diese drei Beispiele zeigen auch gleich schön die drei Wege auf, auf denen menschliche Voreingenommenheit in künstliche Intelligenzen gerät. Entweder der Fisch stinkt von den Daten her: Man füttert eine Software nur mit Fotos weißer Gesichter, stolpert sie dann über ein schwarzes, packt sie dieses aus Mangel an Input in den Gorilla-Ordner. Oder es liegt an der P

Premium-Inhalt

Dieser Premium-Inhalt war am Erscheinungstag für Basis-Mitglieder öffentlich abrufbar. Wenn Sie diesen Beitrag jetzt abrufen möchten, werden Sie einfach Premium-Mitglied - aktuell mit bis zu 50% Preisvorteil!

Premium-Mitglied werden Login
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
Verwandte Beiträge zu dieser Analyse
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema: