Holen Sie sich Ihr 'iBusiness Executive Briefing' kostenlos iBusiness Daily mit Executive Briefings abonnieren
Abonnieren Sie den den 'iBusiness Daily Newsletter' und bekommen Sie zweimal wöchentlich das umfassende 'iBusiness Executive Briefing' kostenlos zugemailt: .
iBusiness Daily mit Executive Briefings abonnieren
Mehr Sichtbarkeit für Ihre Agentur Hier zu Premium-Plus upgraden
Alle Ihre Whitepaper, Pressemitteilungen und Gastbeiträge kostenlos auf iBusiness.de veröffentlichen. Dazu besseere Sichtbarkeit aller Ihrer Stellenanzeigen und Ihres Agenturprofils. Und noch viel mehr. Zu PremiumPlus hier entlang:
Hier zu Premium-Plus upgraden
Brennpunkt KI

Wieso wir KI mächtiger machen, als sie ist

03.05.2024 KI-Hersteller hassen diesen Text! Denn mit einem einfachen Trick können Sie durch den Hype sehen. Hier klicken!

Woher weiß das Schild, wo ich bin? Das muss diese KI sein! (Bild: Sebastian Halm/ Midjourney)
Bild: Sebastian Halm/ Midjourney
Woher weiß das Schild, wo ich bin? Das muss diese KI sein!
Der Witz stammt nicht von Komiker-Legende Steve Martin‘Steve Martin’ in Expertenprofilen nachschlagen selbst, aber Martin erzählt ihn gerne, weil er ihn so mag: "Ein paranoider Mann kommt in den Zoo und bleibt am Eingang vor dem Lageplan stehen. Er sieht sich an, wo welche Tiere zu finden sind, bis seine Augen an einem roten Pfeil hängen bleiben, an dem steht: 'Sie sind hier!' Er sieht sich misstrauisch um und murmelt: 'Woher wissen die das?'"

Das ist nicht nur ein smarter Gag darüber, wie unsere persönliche Weltsicht uns alles wie durch eine gefärbte Brille sehen lässt (das gute alte 'Wer Hammer verkauft, sieht überall Nägel'). Es ist auch ein Gleichnis darüber, wie wir KI wahrnehmen: Menschlich, wissend, bewusst. Das ist immer wieder für einen kleinen Grusel à la 'Bald kommt die Roboter-Apokalypse' gut. Aber wer als Entscheidungsträger eine KI nüchtern beurteilen will, muss diese falsche Sicht loswerden. Dabei kann der Witz helfen. Denn der paranoide Mann macht den gleichen Denkfehler, den wir alle schon gemacht haben, wenn wir KI betrachtet haben.

Sora-Demo: Der Autor glaubt bis heute nicht, dass OpenAI absichtlich den Astronauten mit einem Häkelhelm gepromptet hat. Kann sein. Kann aber auch sein, dass der Prompt nach dem halluzinativ verunreinigten Ergebnis kam, um die Demo aufzuwerten. (Bild: Sora / OpenAI)
Bild: Sora / OpenAI
Sora-Demo: Der Autor glaubt bis heute nicht, dass OpenAI absichtlich den Astronauten mit einem Häkelhelm gepromptet hat. Kann sein. Kann aber auch sein, dass der Prompt nach dem halluzinativ verunreinigten Ergebnis kam, um die Demo aufzuwerten.

Man soll Witze ja nicht erklären, aber Steve Martin möge mir verzeihen, wenn ich dies hier mal tue: Wo liegt der Denkfehler des Mannes? Darin, dass er denkt, eine anonyme Macht hinter dem Schild wisse, wo er sich gerade befindet. Ganz falsch ist das ja nicht, denn er steht ja wirklich dort, wo ihn der rote Pfeil verortet. Aber die Aussage des Schildes ist... naja, nicht gelogen, das Schild sagt nur etwas, wovon es keine Ahnung hat: Es weiß nicht, dass der Mann 'hier' ist. Das Schild kann nur behaupten, dass es selbst 'hier' ist. Und jeder, der die Aussage 'Sie sind hier' liest, ist auch etwa dort, weil er/sie es ja lesen kann. Tatsächlich steht da aber noch immer 'Sie sind hier', wenn unser Paranoiker schon längt am Ausgang auf der anderen Zoo-Seite durchs Drehkreuz huscht. Damit erzählt das Schild nicht direkt eine Lüge, aber es erscheint wissend, wo es nur unpräzise ist. Und genau das tut KI auch.

Es gibt KI-Resultate, die wirklich beeindruckend sind: Videos von Sora zur Homepage dieses Unternehmens Relation Browser , Bilder von Midjourney zur Homepage dieses Unternehmens Relation Browser und Texte von ChatGPT zur Homepage dieses Unternehmens Relation Browser reichen oft bis zur Ununterscheidbarkeit an das Niveau ihrer menschgemachten Pendants heran. Doch ebenso viele Resultate beeindrucken uns nur, weil wir sie doppelt falsch ansehen: Wir unterstellen der KI, sie wüsste, was sie da tut. Doch das tut sie nicht, sie spuckt nur in Text oder Bild oder Audio übersetzte Mathematik aus. Die KI hat genau so wenig Ahnung, was ein Text aussagt, wie das Schild im Zoo weiß, wo der Betrachter wirklich steht.

Oh Boy, die Drohne lehnt sich gegen ihren Bediener auf. (Bild: Sebastian Halm/ Midjourney)
Bild: Sebastian Halm/ Midjourney
Oh Boy, die Drohne lehnt sich gegen ihren Bediener auf.

Und genau so werden viele, scheinbar menschliche Attribute der KI schlicht von uns nur als menschlich interpretiert. Das fängt bei den grundlegenden Eigenschaften an:

  • Ein Text, den ein Bot schreibt, ist kein Text. Es ist nur eine nach Wahrscheinlichkeitsgesetzen produzierte Wortfolge: Der Bot bekommt ein Thema und weitere Instruktionen in Form eines Prompts. Anhand dieser Infos bemüht er ein neuronales Netzwerk zum Thema und lässt es eine Folge von Worten ausspucken. Diese Wortfolge aber ergibt für den Bot keinen Sinn. Es ist einfach nur eine Abfolge von Buchstabenhaufen, die er nach antrainierten Regeln generiert. Diese steigern die Wahrscheinlichkeit, dass die Wortfolge in menschlichen Augen sinnvoll ist.
  • Bilder, die eine GenAI produziert, funktionieren ähnlich, nur in Pixeln statt Worten: Ein KI-Bild ist eine Anhäufung von Bildpunkten, die die Maschine so ordnet, dass sie für menschliche Augen wie bestimmte Objekte aussehen. Die Mechanismen dahinter sind drögeste Mathematik: Convolutional Neural Networks (CNN) sind in der Lage, 'Kernel-Funktionen' zu ermitteln. Deutsch nennt man sie auch Faltungskerne. Bedeutet brutal vereinfacht: Ein CNN kann erkennen, welche Farbe oder welchen Kontrast Pixel haben und findet so heraus, wo ein Gesicht auf einem Foto endet und der Hintergrund beginnt. So isoliert es das Gesicht vom Rest des Bildes und kann es dann auf Kommando reproduzieren. Vorher muss natürlich ein Lohnsklave der KI beibringen, was ein Gesicht ist, also Tags dranhängen. Wenn also ein Nutzer promptet, dass er eine hübsche Frau vor einem Hintergrund aus Efeu haben will, dann zerlegt eine SprachgeneratorKI diesen Prompt in mathematische Struktur und teilt die dann dem Bildgenerator mit. Der generiert dann Objekte aus einer grauen Grundfläche heraus, so wie ChatGPT einen Satz formt. Unser KI-Experte Christian Bennefeld hat diesen Prozess sehr schön mit dem Schnitzen von Elefanten-Figuren aus Holzblöcken Relation Browser verglichen.<>
Macht das aber wirklich einen Unterschied? Schon. Es ist doch ganz schön zu wissen, dass jene Kampfdrohne, die laut Frankfurter Rundschau zur Homepage dieses Unternehmens Relation Browser völlig unerwartet reagierte, als sie ihren Bediener 'tötete', völlig erklärbar handelte und auch niemanden umgebracht hat. Die KI war darauf trainiert worden, jeden anzugreifen, der sich ihr gegenüber feindselig verhielt, also griff sie (in der Virtuellen Realität) ihren Bediener an, als der sie ausschalten wollte.

Meine Fresse! Als Journalist möchte ich mir täglich ein paar Kollegen oder Techblogger schnappen und sie so lange schütteln, bis aus ihnen eine vernünftige KI-Schlagzeile herauspurzelt: Recherchiert, einsichtig und panikfrei. Aber nee, da würden mir eher die Handgelenke abbrechen. Denn es ist out, KI zu relativieren, grenzenlose Bewunderung und Furcht ist angesagt. KI wird von unseren Techexperten und "Techexperten" so behandelt, wie Kim Jong-il von seinen Staatsmedien, die den entschwebten Diktator schon mal während einer einzigen Golfpartie elf Hole-In-Ones schlagen ließen zur Homepage dieses Unternehmens Relation Browser .
  • Und so versorgt uns die New York Times mit einer Checkliste, die zeigt, ob unsere KI ein Bewusstsein entwickelt hat. Gut, in der Realität werden wir diese Checkliste erst in "Jahrzehnten oder Jahrhunderten" benötigen - solange schätzt Professor Doktor Ralf Otte wird es dauern, bis KI ein Bewusstsein entwickelt, wenn überhaupt, denn es existieren keine Theorien, wie man KI mit einem Bewusstsein ausstatten kann. Denn KI, so bringt es Otte an anderer Stelle auf den Punkt, ist Mathematik: Und so sind die Grenzen der Mathematik immer auch die Grenzen der KI. Immer.
  • Meine aktuelle Lieblingsmeldung ist die über die rätselhafte KI, die aus dem Nirgendwo im Netz aufgetaucht ist (siehe T3n zur Homepage dieses Unternehmens Relation Browser ) - niemand vermag zu sagen, woher GPT2-Chatbot kommt. Verrückt. Ich weiß auch nicht, woher der Müll in meinem Fahrradkorb immer kommt, aber ich habe irgendwelche angetrunkenen Passanten ohne Manieren in Verdacht. Und genau so wird die nächsten Tage herauskommen, dass sich GPT2-Chatbot nicht selbst programmiert hat, wie wir wohl wegen der kryptischen Schlagzeile annehmen sollen. Sondern es wird irgendeine Beta-Demo sein, die ein KI-Anbieter XY zu Viral-Werbezwecken lanciert hat.

Menschen! - Nichts wie weg! (Bild: Sebastian Halm/ Midjourney)
Bild: Sebastian Halm/ Midjourney
Menschen! - Nichts wie weg!

KI wird immer dann beängstigend menschlich, wenn wir uns auf ihr Gebiet begeben - will meinen: Wir spüren 'Für einen Computer ist das erschreckend gut', aber wir denken 'Das ist besser als es ein Mensch könnte!', obwohl es vergleichsweise schlechter oder 'nur' genau so gut ist.

Wenn man sich tief, tief auf die menschliche Seite zurückzieht, also so urteilt, als hätte ein Mensch das KI-Produkt hergestellt, merkt man schnell den Fehler. Das wäre so, als ob wir aus einem Heißluftballon heraus einen Blick auf das Schild im Zoo durch ein Fernglas werfen: 'Sie sind hier' ist auf einmal eine Lüge, denn man steht nicht vor dem Schild, sondern schwebt kilometerweit davon weg in der Luft.

Denn das Schild hat keine Ahnung, es ist nur ein Schild.

Bei der KI indes nehmen wir nicht an, dass es nur eine KI ist, sondern all den Halluzinationen, den 'Emotionen' der KI, die gar keine sind, all den Unerklärbarkeiten unterstellen wir noch zu oft einen geheimen, fast magischen Wissensvorsprung der KI. Das ist schlecht: Es trübt den Blick für die Grenzen der KI und die Stärken der Menschen und es spielt vor allem den KI-Herstellern in die Hände, wenn wir ihren Marketing-Tanz mittanzen Relation Browser : Sie verkaufen Schwächen als Stärken und lenken von den veritablen Problemen der Algorithmen Relation Browser ab.

Wenn KI uns etwas lehren sollte, dann, dass organische Dummheit unser größter Feind bleibt, wie ich in einem anderen Text argumentiert habe Relation Browser . Aber ich verstehe diese Sehnsucht nach der KI-Apokalypse. Ich würde auch gerne mal vor etwas Neuem Angst haben, vor KI-Robotern! Die sind etwas, das Strom braucht, das man abschalten kann und das wegrostet, wenn man es mit Salzsäure übergießt. Leider bleibt die Wahrheit banal. Es ist nicht der Roboter, vor dem wir Furcht haben sollten, sondern immer noch der Mensch.

Neuer Kommentar  Kommentare:
kein Bild hochgeladen
Von: Thomas Bügel ,  T3CONCEPT
Am: 03.05.2024

Zu: Wieso wir KI mächtiger machen, als sie ist

Menschen haben schon immer ihre eigene Intelligenz benutzt um damit Technologien zu entwickeln. Die einfachste ist der Faustkeil, der vor zigtausend Jahren von Menschen entwickelt wurde. Wichtig ist zu verstehen, dass nicht der Stein auf einmal intelligent ist, sondern der Mensch seine eigene Intelligenz in den Stein gehauen hat. Das ist das Grundprinzip. Was wir Menschen aber heute nur schwer nachvollziehen können ist, dass es eine Art Evolution dieser Technologien gibt. Mit jedem Werkzeug, dass der Mensch hergestellt hat, konnte er neue Werkzeuge erstellen, die feiner waren und mehr menschliche Intelligenz enthalten. Umgekehrt benötigt man aber auch diese feinen Werkzeuge um die entsprechenden höherwertigen Technologien realisieren zu können. Würde man nun alle Werkzeuge die Menschen je entwickelt haben in der Reihenfolge der Entwicklung in einem Turm aufstapeln, da käme ein gealtig hoher Turm zustande. Die Technologie, die "künstliche Intelligenz" realisiert hat basiert auf der einen Seite auf der Entwicklung der digitalen Rechner und der Gehirnforschung mit der Entdeckung der neuronalen Verschaltung, der Bildung der neuronalen Netzwerke. Selbst darin steckt eine unglaubliche Menge meschlicher Forschung, sprich menschlicher Intelligenz. Der nächste gewaltige Schritt der Transformation ist hochminiaturisierte Hochleistungsrechner genauer gesagt Rechenkerne, die CPUs bzw. GPUs so zu verschalten, dass damit künstliche trainierbare neuronale Netze gebildet werden konnten.
Ich halte diese Betrachtung für extrem wichtig, da die sogenannte "Künstliche Intelligenz" nur durch menschliche Intelligenz geschaffen werden konnte. Somit steckt eine unvorstellbar große "Menge" menschlicher Intelligenz in diesen KI-Systemen.
Doch selbst wenn ein derartiges System hardwaretechnisch zusammengebaut ist, spuckt es nichts aus. Erst wenn es mit Daten gefüttert wurde und Algrorithmen entwickelt wurden wie diese Daten exakt verarbeitet werden sollen entsteht allmählich ein Wissensspeicher. Diese Daten sind Texte und Bildmaterial menschlichen Ursprungs. Hinzu kommt die Entwicklung sogenannter Sprachmodelle, die Texte als semantische Konstrukte "verstehen" und auf diese Weise Texte speichern und auch wieder auslesen können. Diese Prozeduren sind dermaßen komplex, dass sie nicht einfach nachvollziehbar sind. Nur wer sich mit dem Prinzip der neuronalen Daten-Verarbeitung intensiver befasst, bekommt eine Vorstellung, was da passiert. Das ist aber letztlich nur sekundär. Lange Zeit haben diese Künstlichen-Intelligenz-Systeme keine wirklich brauchbaren Resultate geliefert, das änderte sich erst mit den Entwicklungen, die OpenAI betrieben hat und mit ChatGPT Ende 2022.
DerWendepunkt war die Datenmenge. Eine unvorstellbar große Anzahl an Dokumenten, die entweder eingescannt und digitalisiert oder aus dem Internet von Webseiten und verfügbaren Textdokumenten aufgenommen wurden. In ähnlicher Weise wurde mit Bildern verfahren. Auf die genauen Verfahren vor allem auch der Bildgenerierung muss man an dieser Stelle imgrunde nicht weiter eingehen, denn entscheident ist die Tatsache, dass alle eingelesenen Texte ursprünglich von Menschen geschrieben wurden und die Bilder von Menschen mithilfe entsprechender anderer Technologien, wie z.B. der Fotografie und digitaler Aufbereitung erstellt wurden. Das Quellmaterial der Künstlichen-Intelligenz-Systeme basiert auf menschlicher Intelligenz. Es ist nicht übertrieben zu sagen, dass diese somit Zugriff auf fast das ganze Menschheitswissen haben. KI-Systeme wie ChatGPT sind nun in der Lage, jede Frage aus diesem Fundus der Menschheit zu beantworten in einer Weise, als würde diese ein Mensch sagen mit Sätzen die vielleicht so noch nie gesagt wurden, weil diese KI-Srachmodelle eine eloquente Sprachausgabe generieren können, daher klingt alles plausibel, schön, intelligent.
KI-Systeme wie ChatGPT sind letztlich nichts anderes als Sprachgesteuerte hochkomplexe Filtersysteme, die das Menschheitswissen entsprechend Filtern und das gewünschte raussortieren. Somit sind KI-Systeme intelligente Filteranlagen für Texte und Bilder. Wobei alles was daran intelligent ist zuvor von Menschen hineingegeben wurde. Imgrunde sind KI-Systeme dümmer als jede Ameise.
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema:

LOXXESS AG

Die LOXXESS AG ist ein spezialisierter Logistikdienstleister mit Schwerpunkt auf komplexe Outsourcing-Projekte in Industrie und Handel. Das mittelständische, familiengeführte Unternehmen entwickelt für seine Kunden maßgeschneiderte Lösungen in den Bereichen Kontraktlogistik, Value-Added-Services und Fulfillment.

Unternehmensprofil ansehen
Experten-Profile Genannte Personen: