Anmelden und live dabei sein
Anmelden und live dabei sein
KI als Marketing-Gag: Wie Marken die Arbeit der KI-Hersteller machen
19.04.2023 KI-Anbieter und -Berater haben einen Hype erschaffen. Marken verrennen sich in PR-Stunts - und verstärken nur ihre Abhängigkeit. Analyse eines Marketing-Geniestreichs.
HANDLUNGSRELEVANZ
|
Operativ |
Strategisch |
Visionär |
Technik |
|||
Medien |
|||
Wirtschaft |
|||
|
heute |
morgen |
übermorgen |
Verschiedene Medien das Web rauf und runter haben die Schauermär von einer artifiziellen Konzernchefin verbreitet, und darunter sind nicht nur Blogs von vor Enthusiasmus erblindeten Tech-Evangelisten, sondern durchaus ernstzunehmende Organe wie etwa Der Standard oder T3N . Da steht nicht nur zu lesen, dass der Kurs durch die Decke geht, sondern, dass der männliche CEO der Firma ganz begeistert ist, wie die KI das alles deichselt. Der letzte Satz, den NutzerInnen unter dem Artikel mit ätzendem Spot kommentieren, zeigt auf, wie sehr uns der KI-Hype in eine intellektbefreite Realitätsverzerrung hineingestoßen hat.
Wie sonst kann ein Artikel feststellen, ein Konzern würde von einem weiblichen KI-CEO geleitet und gleichzeitig den menschlichen und männlichen CEO zitieren. Hier zeigt sich zum einen, wie nicht KI etwa den Job des Journalisten bedroht, sondern wie sich der Journalismus selbst abschafft: Auf der Teamseite der Firma Netdragon Websoft hätte jedeR Journalisten-KollegIn ohne vom Notebook aufzustehen erkennen können, wer die Firma de facto leitet (wäre eine KI die Chefin, müsste sie bei einem börsennotierten Unternehmen auf der Webseite aufgeführt sein). Und man hätte gleich sitzen bleiben und auf der Google-Börsenkurs-Übersicht nachsehen können, wie die Aktie der Firma einen ziemlichen Sinkflug hinlegt, der seinen vorläufigen Tiefpunkt um die Zeit erreichte, als die ersten Berichte vom erfolgreichen KI-Management die Runde machten.
Man darf annehmen, dass das Unternehmen eine in vielen Firmen bereits übliche Decision Intelligence verwendet, der man mal kurzerhand einen Namen verpasst hat. Wohlgemerkt einen weiblichen, denn eine KI wehrt sich ja nicht, wenn man sie für Purplewashing
instrumentiert. Das wäre so einfach zu enttarnen und mal wirklich eine Nachricht gewesen, die sich wohltuend vom Nachkauen der PR-Lüge unterscheidet, aber offenkundig gibt es aktuell keinen Markt für Berichte darüber, was KI nicht tut, sondern nur eine Nachfrage nach grenzenloser KI-Begeisterung. Und so lässt der Hersteller eines Bieres eine KI ein Bier brauen
und in einer surrealen Steampunk-Dose in limitierter Form ausschenken, da komponiert eine KI anderswo Schlager-Songs, bei denen einem das Ohr genauso blutet wie bei den menschengemachten Songs oder ein Verband verkündet in einer Pressemitteilung an die iBusiness-Redaktion, dass eine KI geholfen hat, die vorliegende Umfrage zu erstellen - auf Nachfrage kommt dann allerdings keine Antwort, was genau die KI getan hat.
Das ist alles nicht richtig schlimm, Marketing springt halt auf bestehende Hypes auf. Doch de facto machen sich die meisten Unternehmen und auch die NutzerInnen zu unwissenden HelferInnen bestehender KI-Dienstleister: Man schwingt die KI-Fahne, tappst aber in Wahrheit schimmerlos durch die schöne neue Welt und treibt die KundInnen und NutzerInnen in die Hände derer, die es wirklich können. Dazu zählen etwa Open AI
, aber auch Giganten wie das oftmals auf dem KI-Feld unterschätzte Google
.
Und natürlich profitieren Berater, auch die selbsternannten: "Hypes werden auch geschaffen, um Businesses zu generieren", sagt Christian Hoffmeister
, Dozent und Inhaber des Beratungsinstitutes DCI Institute
: "Timelines quellen über von 'Besten Prompts', 'lustigsten Fails', Anbieter versprechen KI-Software - da stellt sich für eine Marke die Frage, wo eigentlich der Mehrwert liegt, wenn offenbar jeder jetzt KI kann."
Unmenschliche KI-Industrie: ehrfurchtgebietende Technologie, brechreizinduzierende Umstände
Indes vollzieht sich das Wunder der KI-Revolution unter menschlich oftmals erbarmungswürdigen Umständen. Und deren düstere Halbwelt-Ausleuchtung hat so gar nichts mit der strahlenden Hochglanz-Zukunft der kursierenden KI-Utopien zu tun. So berichtet Netzwelt von den in Schwellen- und Drittweltländern beheimateten Sklaven- und NiedrigstlohnarbeiterInnen, welche die nötige Vorarbeit leisten, mit der KI überhaupt erst funktioniert - etwa das Labeln und Strukturieren von Daten. Doch selbst wenn man mal betriebsam über diese Nachfolger der Klick-Sklaven hinwegsieht, die sich schon mal zu 35 eine einzige Toilette in Madagaskar teilen müssen: Laut Studien der KI-Forscherin Milagros Miceli fördert KI nicht nur neue, moderne Ausbeutungsszenarien - manchmal sind die KundInnen auch die Betrogenen. Die Informatikerin hat Fälle ausfindig gemacht, in denen sich hinter vermeintlichen KI-Kameras und -Bots de facto Menschen verbergen, die die Lösungen steuern, aber von den Anbietern als KI verkauft werden. "Das hat zum einen damit zu tun, dass ein Wachmann, der am Monitor sitzt, nicht cool klingt oder das Unternehmen als KI-Autorität positioniert", sagt Hoffmeister. "Es zeigt aber auch wie weit der Mythos von der KI schon gediehen ist: Wir schreiben ihr in Sachen Bilderkennung höhere Kompetenz zu als dem Menschen." Man will eine KI am Monitor sitzen sehen, obwohl der menschliche Wachmann de facto noch leistungsfähiger bei der Bilderkennung ist.Liest man auf Homepages, dass ein Unternehmen angeblich KI verwendet, konsumiert man anscheinend ziemlich oft eher fantastische Literatur als Tatsachenberichte: Professorin Doktor Claudia Bünte , KI-Expertin an der Berlin University of Applied Science , hat im Rahmen eines Projektes Unternehmen auf den Zahn gefüllt, die sich auf ihren Internetseiten mit KI-Verwendung schmücken. Auf Nachfrage der Professorin antwortet etwa die Hälfte dieser Unternehmen dann schon gar nicht mehr: "Man darf misstrauisch werden, wenn Firmen im Web nur 'KI' angeben, statt darauf einzugehen, was genau sie einsetzen: Natural Language Processing oder etwas anderes Konkretes etwa. Hier wird KI als Teil von Growth-Hacking benutzt: Hauptsache, die Leute haben einen gesehen, die über Google reingekommen sind, weil sie nach dem Begriff gesucht haben, merkt schon keiner!" Doch nicht immer steckt vorsätzliche Täuschung dahinter: "Das eigentliche Problem besteht darin, dass Viele wirklich glauben, alles Digitale sei Künstliche Intelligenz. Doch nicht mal alles, was regelbasiert ist, darf man als KI bezeichnen. Meine Minimaldefinition wäre eher 'KI ist ein Algorithmus, der selbstständig dazu lernt'."
Der Markenwunsch, sich von jetzt auf gleich als KI-Avantgarde zu positionieren, geht auf die unterstellte Fehlerunanfälligkeit Künstlicher Intelligenz zurück: Man geht davon aus, ein ChatGPT sei dem Menschen überlegen, obwohl man miterleben kann, wie der Algorithmus schon mal 94 und 3 zu 98 addiert oder sogar ausdrücklich in einem Disclaimer auf die eigene Unvollkommenheit hinweist. "De facto ist Vieles noch unfertig oder Beta-Stadium", sagt Claudia Buente. Auch das ist Teil einer Marketingstrategie, deren Großmeister der verstorbene Steve Jobs
war: "Jobs hat in seinen Präsentationen 'fertige' Produkte vorgestellt, die noch Wochen bis zur Fertifstellung benötigten. So etwas liegt bei Start-ups sogar regelrecht in der DNS: Man steht ständig vor neuen Herausforderungen, muss Fristen überbrücken, improvisieren." Das bedeutet dann aber auch, dass man nicht 'KI' denken sollte, sondern stets 'KI minus Hype', um die Implikationen nüchtern zu beurteilen.
Doch gerade diese Nüchternheit wird von KI-Anbietern gezielt verschleiert und ein Heer an willigen Influencern, Techjournalisten und Future-Evangelisten steht bereit zur Unterstützung. Verhängnisvollerweise findet auf diesem Wege eine gewisse Reprogrammierung der menschlichen Wahrnehmung statt, wie es Christian Hoffmeister ausdrückt: "Wenn man genug Joghurtbecher mit synthetischen Erdbeer-Aromen leergelöffelt hat, schmecken einem die irgendwann besser als echte Erdbeeren. Ein ähnliches Phänomen vollzieht sich bei KI: Wir empfinden das Künstliche als überlegen, weil sich unser Auswahlraum zunehmend verengt." Bedeutet: Je mehr wir uns in Szenarien bewegen, in denen wir nur noch mit von Computern hergestellten Inhalten konfrontiert werden, beurteilen wir nur noch Künstlichkeit und lassen uns von deren Fortschritt beeindrucken, aber nicht mehr die Realität. Ein Beispiel dafür wäre etwa der Trailer zum Film Avatar 2, in dem eine computergenerierte Szene, in der eine Figur ihre Hand in Großaufnahme ins Wasser taucht, für die realistische Darstellung gefeiert wurde. De facto könnte aber jeder am nächsten Baggersee die eigene Hand ins Wasser tauchen und sich am überlegenen Realismus erfreuen.
Doch der Vergleichsmaßstab schwindet, Künstlichkeit wird zum eigenen Wert. "Man kann die Qualität irgendwann nicht mehr beurteilen", sagt Hoffmeister. "So auch bei ChatGPT: Wenn wir immer mehr zum Computer werden, ist es kein Wunder, dass uns der Computer immer häufiger schlägt." Die Schnittmenge zwischen Mensch und KI ist nämlich deutlich kleiner als wir annehmen und wir immer nachdrücklicher animiert werden, anzunehmen. Er funktioniert anders und kommt aus einer ganz anderen Richtung, wenn er sich einem Problem annähert: "Er schlägt uns oft nicht auf unserem Gebiet, sondern auf seinem", sagt Hoffmeister.
Angezapfte NutzerInnen: Wie die KI-Economy uns ihre Arbeit machen lässt
Die Schattenseite dieser vom Marketing befeuerten Faszination ist die Arbeit an der eigenen Abhängigkeit. Dies lässt sich leicht an besonders drastischen Beispielen illustrieren. Wenn etwa Samsung-MitarbeiterInnen mal eben den kompletten Quell-Code einer vertraulichen Anwendung bei ChatGPT reinhauen, hätten vermutlich sogar im Umgang mit einer Spielkonsole geschulte Viertklässler vorhersagen können, dass das Material, das man in die Maschine eingibt, dann irgendwie bei der Firma am anderen Ende ankommt. Doch die MitarbeiterInnen eines tech-affinen Konzerns sehen kein Problem darin, ChatGPT das Protokoll einer internen Sitzung erstellen zu lassen (siehe Bericht bei Inside-IT ).Diese Mischung aus intellektueller Faulheit, Ahnungslosigkeit und blindem Enthusiasmus, die im Rausch der Technologie entsteht, ist Teil des Plans. Bei Steve Jobs nannte man den Effekt das Reality Distortion Field. Doch bei der KI entsteht ein Effekt, der noch über die bloße Verzauberung hinausgeht: Die NutzerInnen der Anwendungen schmeißen den Herstellern und Dienstleistern der KI-Ökonomie wertvolle Informationen in den Hals. Das müssen nicht gleich ein kompletter Source-Code oder kritische Interna sein. Selbst der tägliche KI-Gebrauch von Millionen NutzerInnen schult die Anwendungen in einem Ausmaße, das die Hersteller niemals leisten könnten: Der aktuelle Primus unter den KI-Bildgeneratoren, Midjourney , etwa stellt NutzerInnen auf einen Prompt hin beispielsweise vier Versionen dessen zur Verfügung, was die NutzerInnen vielleicht haben wollten. Die Auswahl einer der Versionen trainiert die KI weiter und hilft ihr, eine Korrespondenz zwischen Prompt (Eingabe-Befehl) und Output herzustellen: Das System weiß künftig besser, was sich NutzerInnen bei spezifischen Befehlen wünschen und was eben nicht. "Für Menschen, die immer alles mit einer Bedeutung versehen wollen, gibt es wertlose Informationen. Nicht für Computer", sagt Hoffmann. "Das ist etwas, was wir nur schwer begreifen - jede Interaktion schult den Algorithmus."
Man erinnere sich an die verhassten 'ReCaptchas', die krakeligen Buchstaben-Bilder, die man auf LogIn-Screens abtippen musste, um sich als Nicht-Roboter auszuweisen. Vordergründig nur zum Aufspüren von Fraud konzipiert, haben die NutzerInnen nebenher die Anwendung jahrelang in der Identifikation von Handschriften trainiert. Wem gehört Recaptcha? Google
, einer Firma, die nicht nur Bücher scannt, sondern ein solcherart geschultes KI-Programm zu vielen möglichen Verwendungen einsetzen kann. Und der Techjournalisten übrigens seit ChatGPT pausenlos den verpassten Anschluss an KI-Technologie attestieren. Google besitzt die Firma seit 2009. Seit 14 Jahren arbeiten also NutzerInnen (zu geschätzten 99 Prozent komplett ahnungslos) weltweit für Google daran, einen Algorithmus zur Handschriften-Identifikation zu schulen. Oder besser: Arbeiteten. Denn in den vergangenen Jahren sind die ReCaptcha-Motive zu Bildern von Straßen übergegangen, auf denen NutzerInnen Zebrastreifen, Ampeln oder andere Objekte anhaken sollen; man könnte den Eindruck bekommen, Google ließe uns nun die Vorarbeit für eine Bilderkennung zum autonomen Fahren machen.
Diese Mitarbeit der NutzerInnen, die häufig ahnungslos vonstatten geht, ist nur ein Teil der extrem schlanken Konstruktion der neuen Geschäftsmodelle, mit denen KI-Anbieter operieren: Wer den Bildgenerator Midjourney ausprobieren will, sucht nicht selten erstmal irritiert, wo genau der Dienst überhaupt lokalisiert ist, bis klar wird, dass die Social-Media-Präsenz von Midjourney
bei Discord
im Grunde der Dienst ist: An die Discord-Seite docken verschiedene Apps an, eine von Discord selbst, wo man seine Bilder sortieren kann und ein Payment-Service - und das ist im Grunde das ganze virtuelle Unternehmen. Schlanker geht es kaum. man darf annehmen, dass Midjourney sogar seine Rechenpower nicht selbst stellt, vermutet Christian Hoffmeister: "Das dürfte größtenteils über Amazon Webservies als Infrastructure as a service ablaufen. Ich bin auch ziemlich sicher, dass die Firma via Discord Rechnerkapazitäten der NutzerInnen anzapft: Solange man das als Tab geöffnet hat, stellt man CPU-Leistung zur Verfügung." Und während ein US-Start-up auf diese Weise mit minimalen Ressourcen weltweit NutzerInnen sammelt und Schlagzeilen macht, brauen deutsche Firmen KI-Bier oder sind zufrieden damit, das Buzzwort KI in ihren Pressemitteilungen unterzubringen.
Dabei gibt es sinnvolle Anwendungen für KI, die sogar unmittelbar auf den Umsatz einzahlen können.
Substanz statt Marketing: KI-Verwendungen mit Sinn und Strategie
Claudia Buente hat etwa festgestellt, dass es Szenarien im KundInnenkontakt gibt, in denen die NutzerInnen sich entgegen dem Regelfall doch lieber einer KI anvertrauen: "Ein Hersteller von Sanitäranlagen hat auf einer Konferenz einmal dargelegt, dass die KundInnen einen KI-Chatbot Dinge fragen, die sie mit menschliche Agenten niemals besprechen: Dazu gehört etwa die Frage, wie genau man ein Bidet verwendet." Auch bei der Selbstdiagnose und Fragen zu psychischen Erkrankungen sind die NutzerInnen einem KI-Bot gegenüber aufgeschlossener als einem Menschen. Die Maschine punktet hier offenbar durch die Entmenschlichung, weil analog zur Humanität des Beraters das Schamgefühl bei den KundInnen schwindet.Manchmal reicht auch eine gute Idee, um aus KI ein überraschend effektives Anwendungsszenario herauszuholen: So hat SEO-Experte Severin Lucks , Geschäftsführer der Onlinemarketing-Beratung und SEO-Agentur Delucks GmbH , etwa ein virtuelles Team mittels KI-Bild-Erstellung zusammengestellt. Die fiktiven MitarbeiterInnen waren mit artifiziellen Porträtfotos und erdachten Biografien auf der Homepage verzeichnet, neben den echten MitarbeiterInnen. "Gegenüber den KundInnen, die dann mit uns einen Dialog aufgenommen haben, haben wir es dann aufgelöst." Dieses 'hybride Team' aus echten und erdachten MitarbeiterInnen sollte dann die Botschaft vermitteln: Man hat es zwar mit einer kleineren Agentur zu tun, als es von außen aussieht, die aber leistungsfähig wie eine große ist (iBusiness berichtete ).
Unterdessen scheint die Zahl der gefakten KI-Anwendungen, bei denen tatsächlich ein Mensch die Arbeit macht, zu schwinden, meint Claudia Buente zu beobachten: "Außerdem ist eine KI mit menschlichem Arbeitsanteil nicht grundsätzlich negativ: Wenn es etwa um Überwachung, Korrektur und Training geht, ist das durchaus eine positive Sache - wir sollten keine KIs wollen, die machen was ihnen beliebt." Das gilt umso mehr, als sich die Entwicklung so sehr beschleunigt hat, dass selbst die einst tonangebenden Entwickler im aktuellen Tempo überrollt werden. Der Bedarf nach Neuigkeiten ist so groß, dass Version 4 von ChatGPT "im Vergleich zu seinem Vorgänger (...) über weniger Schutzmechanismen zu verfügen (scheint), die ihn daran hindern könnten, Fehlinformationen zu verbreiten", wie Newsguardtech berichtet.
Unternehmen sollten nicht versuchen, bei diesem Tempo um jeden Preis mitzumachen. Vielmehr sollten sie abklopfen, welche Teile in ihrer Wertschöpfungskette KI ersetzen kann und wie vital diese für das Geschäftsmodell sind. Kann man KI gewinnbringend einsetzen und freiwerdende Kapazitäten auf andere Glieder der Kette übertragen, so dass am Ende vielleicht sogar Produktivität und Qualität steigen? Oder greift KI so tief ins Geschäftsmodell ein, dass man dieses verändern muss?
So etwas ergibt Sinn - und bringt mehr, als KI-Bier auszuschenken oder in Presse-Auslassungen auf KI-Anwendungen zu verweisen, die sich auf Nachfrage hin auflösen.
LOXXESS AG
Die LOXXESS AG ist ein spezialisierter Logistikdienstleister mit Schwerpunkt auf komplexe Outsourcing-Projekte in Industrie und Handel. Das mittelständische, familiengeführte Unternehmen entwickelt für seine Kunden maßgeschneiderte Lösungen in den Bereichen Kontraktlogistik, Value-Added-Services und Fulfillment.
Unternehmensprofil ansehen