Revolution deiner Product Data Journey – mit KI zu mehr Dateneffizienz, -qualität und Conversion-Uplifts Anmelden und live dabei sein
Anhand von Use Cases erfahren Sie, wie KI Produktdaten und -Assets entlang der Product Data Journey effizienter organisiert, qualitativ aufgewertet und einen Conversion-Uplift am Customer Touchpoint erzeugt.
Anmelden und live dabei sein
Countdown zur digitalen Barrierefreiheit – was 2025 auf Unternehmen zukommt Anmelden und live dabei sein
Barrierefreiheit ist keine unüberwindbare Hürde, sondern ein echter Erfolgsfaktor für die digitale Zukunft. Erfahren Sie, wie Sie Barrierefreiheit 2025 souverän angehen können und dabei auch noch davon profitieren!
Anmelden und live dabei sein
KI und Verantwortung

Freiwillige KI-Regulierung: PIA Dymatrix und Barmer legen Regeln fest

25.04.2023 Die Barmer Ersatzkasse und die Online-Agentur Pia Dymatrix haben ein Regelwerk entwickelt, um einen verantwortungsvollen Umgang mit KI im Marketing sicherzustellen.

Nur ausgedacht: KI zeichnet ein düsteres Bild - zumindest wenn man danach fragt. (Bild: Bing)
Bild: Bing
Nur ausgedacht: KI zeichnet ein düsteres Bild - zumindest wenn man danach fragt.
Die rasanten Innovationen im Bereich der künstlichen Intelligenz werden gerade allgegenwärtig in den Medien, der Öffentlichkeit und Politik diskutiert. "Large Language Models", wie ChatGPT, führen spektakulär vor Augen geführt, welche Ableitungen Machine Learning Modelle vollständig autonom treffen könnte. Das birgt große Chancen für die Nutzung von KI im Marketing, allerdings auch Risiken. Die Krankenkasse Barmer zur Homepage dieses Unternehmens Relation Browser und PIA Dymatrix zur Homepage dieses Unternehmens Relation Browser Dienstleister-Dossier einsehen haben deshalb ein Regelwerk zum Umgang mit KI in der Marketing Automation entwickelt, noch bevor es spezielle gesetzliche Regelungen zum Einsatz von KI gibt.

Warum sollte der Einsatz von KI im Marketing reguliert werden?

Hintergrund der Entscheidung ist, dass Large Trained Models heute so weit entwickelt sind, dass sie professionelle Texte verfassen, Designs entwerfen oder sogar Musik komponieren können. Für Laien ist dabei in der Regel nicht mehr erkennbar, dass eine künstliche Intelligenz Urheber war. Die eingesetzten Modelle sind darauf trainiert, einen überzeugenden Output zu generieren, den Menschen akzeptieren. Sie können aber weder zwischen Wahrheit und Lüge, noch zwischen richtig und falsch in einem ethischen Sinn unterscheiden.

"Deshalb müssen solchen Modellen Grenzen gesetzt werden, die sowohl den möglichen Dateninput als auch den möglichen Output beschränken und beispielsweise ausschließen, dass eine KI beginnt, Fehlinformationen zu verbreiten", erklären die Partner in einer gemeinsamen Erklärung, die im Rahmen der Hauskonferenz PIA DynaSummit veröffentlicht wurde. "In der Marketing Automation wollen wir KI vor allem dafür nutzen, mit Hilfe von prädiktiven Modellen eine ,Next Best Action' für die Nutzer vorherzusagen. Es geht also immer um die Frage, was einem Website-Nutzer oder einer Newsletter-Leserin als nächstes am meisten hilft oder sie am stärksten interessiert." Am Beispiel der Gesundheitskommunikation kann das etwa ein Überblicksartikel zu Entspannungstechniken sein, ein Yoga-Video, der Link zu einer Meditations-App oder das Anmeldeformular für einen Kurs zu progressiver Muskelentspannung.

Potenziell schädlicher KI-Output muss ausgeschlossen werden

Sollte sich das Modell in diesem Szenario einmal "irren" und eine Meditation vorschlagen, obwohl Nutzende lieber Power-Yoga machen würden, entsteht kein Schaden. Aber was, wenn das prädiktive Modell aufgrund des Suchverhaltens einer Person fälschlich zu dem Schluss kommt, dass diese unter einer lebensbedrohlichen Krankheit leidet und ihr fortan nur noch entsprechende Inhalte ausspielt? Es kann schwerwiegende Folgen haben, Menschen eine schwere Erkrankung zu suggerieren, unter der sie gar nicht leiden. Deshalb ist es an dieser Stelle sinnvoll, die Ausspielung solcher Inhalte durch eine KI generell auszuschließen.

Um solche und ähnliche Szenarien zu verhindern, hat Pia Dymatrix gemeinsam mit der Barmer ein Regelwerk konzipiert, dass die Nutzung von KI in der Marketing Automation grundsätzlich reguliert.

Das Regelwerk basiert darauf, den möglichen Daten-Input und Content-Output anhand ethischer Kriterien in vier Kategorien einzuteilen.
  1. Daten/Content mit inakzeptablem Risiko - zum Beispiel Krebserkrankung/Krebstherapie
  2. Daten/Content mit hohem Risiko - zum Beispiel Schwangerschaft/Hinweise zur Geburtsvorbereitung
  3. Daten/Content mit beschränktem Risiko - zum Beispiel Alter/Hinweis Darmkrebsfrüherkennung
  4. Daten mit minimalem Risiko - zum Beispiel Versichertenstatus/Hinweis Bonusprogramm

Je nach Einordnung auf dieser Skala werden Daten und Inhalte mehr oder weniger streng für die Nutzung in KI-Modellen reguliert oder generell ausgeschlossen. Der Einsatz von KI-Modellen soll außerdem auf der Website oder im Newsletter transparent gemacht und in einfacher Form erklärt werden. Neben dem technisch fest implementierten Regelwerk sollen Nutzer auch die Möglichkeit bekommen, selbst zu entscheiden, ob und in welchem Umfang sie Empfehlungen einer KI erhalten möchten. Es wird also auch möglich sein, die KI individuell abzuschalten.
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema:
Relation Browser Tags/Schlagwörter und Unternehmen: