Zum Dossier 'Temu-Strategie'
Wieso wir KI mächtiger machen, als sie ist
03.05.2024 KI-Hersteller hassen diesen Text! Denn mit einem einfachen Trick können Sie durch den Hype sehen. Hier klicken!
Das ist nicht nur ein smarter Gag darüber, wie unsere persönliche Weltsicht uns alles wie durch eine gefärbte Brille sehen lässt (das gute alte 'Wer Hammer verkauft, sieht überall Nägel'). Es ist auch ein Gleichnis darüber, wie wir KI wahrnehmen: Menschlich, wissend, bewusst. Das ist immer wieder für einen kleinen Grusel à la 'Bald kommt die Roboter-Apokalypse' gut. Aber wer als Entscheidungsträger eine KI nüchtern beurteilen will, muss diese falsche Sicht loswerden. Dabei kann der Witz helfen. Denn der paranoide Mann macht den gleichen Denkfehler, den wir alle schon gemacht haben, wenn wir KI betrachtet haben.
Man soll Witze ja nicht erklären, aber Steve Martin möge mir verzeihen, wenn ich dies hier mal tue: Wo liegt der Denkfehler des Mannes? Darin, dass er denkt, eine anonyme Macht hinter dem Schild wisse, wo er sich gerade befindet. Ganz falsch ist das ja nicht, denn er steht ja wirklich dort, wo ihn der rote Pfeil verortet. Aber die Aussage des Schildes ist... naja, nicht gelogen, das Schild sagt nur etwas, wovon es keine Ahnung hat: Es weiß nicht, dass der Mann 'hier' ist. Das Schild kann nur behaupten, dass es selbst 'hier' ist. Und jeder, der die Aussage 'Sie sind hier' liest, ist auch etwa dort, weil er/sie es ja lesen kann. Tatsächlich steht da aber noch immer 'Sie sind hier', wenn unser Paranoiker schon längt am Ausgang auf der anderen Zoo-Seite durchs Drehkreuz huscht. Damit erzählt das Schild nicht direkt eine Lüge, aber es erscheint wissend, wo es nur unpräzise ist. Und genau das tut KI auch.
Es gibt KI-Resultate, die wirklich beeindruckend sind: Videos von Sora
, Bilder von Midjourney
und Texte von ChatGPT
reichen oft bis zur Ununterscheidbarkeit an das Niveau ihrer menschgemachten Pendants heran. Doch ebenso viele Resultate beeindrucken uns nur, weil wir sie doppelt falsch ansehen: Wir unterstellen der KI, sie wüsste, was sie da tut. Doch das tut sie nicht, sie spuckt nur in Text oder Bild oder Audio übersetzte Mathematik aus. Die KI hat genau so wenig Ahnung, was ein Text aussagt, wie das Schild im Zoo weiß, wo der Betrachter wirklich steht.
Und genau so werden viele, scheinbar menschliche Attribute der KI schlicht von uns nur als menschlich interpretiert. Das fängt bei den grundlegenden Eigenschaften an:
- Ein Text, den ein Bot schreibt, ist kein Text. Es ist nur eine nach Wahrscheinlichkeitsgesetzen produzierte Wortfolge: Der Bot bekommt ein Thema und weitere Instruktionen in Form eines Prompts. Anhand dieser Infos bemüht er ein neuronales Netzwerk zum Thema und lässt es eine Folge von Worten ausspucken. Diese Wortfolge aber ergibt für den Bot keinen Sinn. Es ist einfach nur eine Abfolge von Buchstabenhaufen, die er nach antrainierten Regeln generiert. Diese steigern die Wahrscheinlichkeit, dass die Wortfolge in menschlichen Augen sinnvoll ist.
- Bilder, die eine GenAI produziert, funktionieren ähnlich, nur in Pixeln statt Worten: Ein KI-Bild ist eine Anhäufung von Bildpunkten, die die Maschine so ordnet, dass sie für menschliche Augen wie bestimmte Objekte aussehen. Die Mechanismen dahinter sind drögeste Mathematik: Convolutional Neural Networks (CNN) sind in der Lage, 'Kernel-Funktionen' zu ermitteln. Deutsch nennt man sie auch Faltungskerne. Bedeutet brutal vereinfacht: Ein CNN kann erkennen, welche Farbe oder welchen Kontrast Pixel haben und findet so heraus, wo ein Gesicht auf einem Foto endet und der Hintergrund beginnt. So isoliert es das Gesicht vom Rest des Bildes und kann es dann auf Kommando reproduzieren. Vorher muss natürlich ein Lohnsklave der KI beibringen, was ein Gesicht ist, also Tags dranhängen. Wenn also ein Nutzer promptet, dass er eine hübsche Frau vor einem Hintergrund aus Efeu haben will, dann zerlegt eine SprachgeneratorKI diesen Prompt in mathematische Struktur und teilt die dann dem Bildgenerator mit. Der generiert dann Objekte aus einer grauen Grundfläche heraus, so wie ChatGPT einen Satz formt. Unser KI-Experte Christian Bennefeld hat diesen Prozess sehr schön mit dem Schnitzen von Elefanten-Figuren aus Holzblöcken verglichen.<>
Meine Fresse! Als Journalist möchte ich mir täglich ein paar Kollegen oder Techblogger schnappen und sie so lange schütteln, bis aus ihnen eine vernünftige KI-Schlagzeile herauspurzelt: Recherchiert, einsichtig und panikfrei. Aber nee, da würden mir eher die Handgelenke abbrechen. Denn es ist out, KI zu relativieren, grenzenlose Bewunderung und Furcht ist angesagt. KI wird von unseren Techexperten und "Techexperten" so behandelt, wie Kim Jong-il von seinen Staatsmedien, die den entschwebten Diktator schon mal während einer einzigen Golfpartie elf Hole-In-Ones schlagen ließen .
- Und so versorgt uns die New York Times mit einer Checkliste, die zeigt, ob unsere KI ein Bewusstsein entwickelt hat. Gut, in der Realität werden wir diese Checkliste erst in "Jahrzehnten oder Jahrhunderten" benötigen - solange schätzt Professor Doktor Ralf Otte wird es dauern, bis KI ein Bewusstsein entwickelt, wenn überhaupt, denn es existieren keine Theorien, wie man KI mit einem Bewusstsein ausstatten kann. Denn KI, so bringt es Otte an anderer Stelle auf den Punkt, ist Mathematik: Und so sind die Grenzen der Mathematik immer auch die Grenzen der KI. Immer.
- Meine aktuelle Lieblingsmeldung ist die über die rätselhafte KI, die aus dem Nirgendwo im Netz aufgetaucht ist (siehe T3n ) - niemand vermag zu sagen, woher GPT2-Chatbot kommt. Verrückt. Ich weiß auch nicht, woher der Müll in meinem Fahrradkorb immer kommt, aber ich habe irgendwelche angetrunkenen Passanten ohne Manieren in Verdacht. Und genau so wird die nächsten Tage herauskommen, dass sich GPT2-Chatbot nicht selbst programmiert hat, wie wir wohl wegen der kryptischen Schlagzeile annehmen sollen. Sondern es wird irgendeine Beta-Demo sein, die ein KI-Anbieter XY zu Viral-Werbezwecken lanciert hat.
KI wird immer dann beängstigend menschlich, wenn wir uns auf ihr Gebiet begeben - will meinen: Wir spüren 'Für einen Computer ist das erschreckend gut', aber wir denken 'Das ist besser als es ein Mensch könnte!', obwohl es vergleichsweise schlechter oder 'nur' genau so gut ist.
Wenn man sich tief, tief auf die menschliche Seite zurückzieht, also so urteilt, als hätte ein Mensch das KI-Produkt hergestellt, merkt man schnell den Fehler. Das wäre so, als ob wir aus einem Heißluftballon heraus einen Blick auf das Schild im Zoo durch ein Fernglas werfen: 'Sie sind hier' ist auf einmal eine Lüge, denn man steht nicht vor dem Schild, sondern schwebt kilometerweit davon weg in der Luft.
Denn das Schild hat keine Ahnung, es ist nur ein Schild.
Bei der KI indes nehmen wir nicht an, dass es nur eine KI ist, sondern all den Halluzinationen, den 'Emotionen' der KI, die gar keine sind, all den Unerklärbarkeiten unterstellen wir noch zu oft einen geheimen, fast magischen Wissensvorsprung der KI. Das ist schlecht: Es trübt den Blick für die Grenzen der KI und die Stärken der Menschen und es spielt vor allem den KI-Herstellern in die Hände, wenn wir ihren Marketing-Tanz mittanzen
: Sie verkaufen Schwächen als Stärken und lenken von den veritablen Problemen der Algorithmen
ab.
Wenn KI uns etwas lehren sollte, dann, dass organische Dummheit unser größter Feind bleibt, wie ich in einem anderen Text argumentiert habe
. Aber ich verstehe diese Sehnsucht nach der KI-Apokalypse. Ich würde auch gerne mal vor etwas Neuem Angst haben, vor KI-Robotern! Die sind etwas, das Strom braucht, das man abschalten kann und das wegrostet, wenn man es mit Salzsäure übergießt. Leider bleibt die Wahrheit banal. Es ist nicht der Roboter, vor dem wir Furcht haben sollten, sondern immer noch der Mensch.
Am: 03.05.2024
Zu: Wieso wir KI mächtiger machen, als sie ist
Ich halte diese Betrachtung für extrem wichtig, da die sogenannte "Künstliche Intelligenz" nur durch menschliche Intelligenz geschaffen werden konnte. Somit steckt eine unvorstellbar große "Menge" menschlicher Intelligenz in diesen KI-Systemen.
Doch selbst wenn ein derartiges System hardwaretechnisch zusammengebaut ist, spuckt es nichts aus. Erst wenn es mit Daten gefüttert wurde und Algrorithmen entwickelt wurden wie diese Daten exakt verarbeitet werden sollen entsteht allmählich ein Wissensspeicher. Diese Daten sind Texte und Bildmaterial menschlichen Ursprungs. Hinzu kommt die Entwicklung sogenannter Sprachmodelle, die Texte als semantische Konstrukte "verstehen" und auf diese Weise Texte speichern und auch wieder auslesen können. Diese Prozeduren sind dermaßen komplex, dass sie nicht einfach nachvollziehbar sind. Nur wer sich mit dem Prinzip der neuronalen Daten-Verarbeitung intensiver befasst, bekommt eine Vorstellung, was da passiert. Das ist aber letztlich nur sekundär. Lange Zeit haben diese Künstlichen-Intelligenz-Systeme keine wirklich brauchbaren Resultate geliefert, das änderte sich erst mit den Entwicklungen, die OpenAI betrieben hat und mit ChatGPT Ende 2022.
DerWendepunkt war die Datenmenge. Eine unvorstellbar große Anzahl an Dokumenten, die entweder eingescannt und digitalisiert oder aus dem Internet von Webseiten und verfügbaren Textdokumenten aufgenommen wurden. In ähnlicher Weise wurde mit Bildern verfahren. Auf die genauen Verfahren vor allem auch der Bildgenerierung muss man an dieser Stelle imgrunde nicht weiter eingehen, denn entscheident ist die Tatsache, dass alle eingelesenen Texte ursprünglich von Menschen geschrieben wurden und die Bilder von Menschen mithilfe entsprechender anderer Technologien, wie z.B. der Fotografie und digitaler Aufbereitung erstellt wurden. Das Quellmaterial der Künstlichen-Intelligenz-Systeme basiert auf menschlicher Intelligenz. Es ist nicht übertrieben zu sagen, dass diese somit Zugriff auf fast das ganze Menschheitswissen haben. KI-Systeme wie ChatGPT sind nun in der Lage, jede Frage aus diesem Fundus der Menschheit zu beantworten in einer Weise, als würde diese ein Mensch sagen mit Sätzen die vielleicht so noch nie gesagt wurden, weil diese KI-Srachmodelle eine eloquente Sprachausgabe generieren können, daher klingt alles plausibel, schön, intelligent.
KI-Systeme wie ChatGPT sind letztlich nichts anderes als Sprachgesteuerte hochkomplexe Filtersysteme, die das Menschheitswissen entsprechend Filtern und das gewünschte raussortieren. Somit sind KI-Systeme intelligente Filteranlagen für Texte und Bilder. Wobei alles was daran intelligent ist zuvor von Menschen hineingegeben wurde. Imgrunde sind KI-Systeme dümmer als jede Ameise.
LOXXESS AG
Die LOXXESS AG ist ein spezialisierter Logistikdienstleister mit Schwerpunkt auf komplexe Outsourcing-Projekte in Industrie und Handel. Das mittelständische, familiengeführte Unternehmen entwickelt für seine Kunden maßgeschneiderte Lösungen in den Bereichen Kontraktlogistik, Value-Added-Services und Fulfillment.
Unternehmensprofil ansehen