Countdown zur digitalen Barrierefreiheit – was 2025 auf Unternehmen zukommt Anmelden und live dabei sein
Barrierefreiheit ist keine unüberwindbare Hürde, sondern ein echter Erfolgsfaktor für die digitale Zukunft. Erfahren Sie, wie Sie Barrierefreiheit 2025 souverän angehen können und dabei auch noch davon profitieren!
Anmelden und live dabei sein
Die unendliche Geschichte guter Inhalte: Trends und ToDos für 2025 Anmelden und live dabei sein
Content ist King. Ohne Content kein Commerce. Erfahren Sie im Vortrag, wie Sie von erfolgreichen Content-Strategien namhafter B2C- und B2B-Unternehmen profitieren können.
Anmelden und live dabei sein
KI-Studie

Forschungsergebnis: ChatGPT ist weniger intelligent als befürchtet oder erhofft

22.08.2024 KI-Modelle wie ChatGPT sind laut einer neuen wissenschaftlichen Studie offenbar weniger selbstständig lernfähig als bisher angenommen.

Künstliche Intelligenz (Selbstporträt) (Bild: Leonardo AI)
Bild: Leonardo AI
Künstliche Intelligenz (Selbstporträt)
Es gebe keine Hinweise darauf, dass die sogenannten Large Language Models (LLMs) anfingen, ein allgemeines 'intelligentes' Verhalten zu entwickeln, das ihnen etwa ein planvolles oder intuitives Vorgehen oder komplexes Denken ermögliche, heißt es in der Untersuchung. Die Studie zur Homepage dieses Unternehmens Relation Browser der TU Darmstadt zur Homepage dieses Unternehmens Relation Browser soll auf der Jahrestagung der renommierten Association for Computational Linguistics (ACL zur Homepage dieses Unternehmens Relation Browser ) in Bangkok vorgestellt werden, der größten internationalen Konferenz zur automatischen Sprachverarbeitung.

Im Mittelpunkt der Forschung stehen unvorhergesehene und plötzliche Leistungssprünge der Sprachmodelle, die als "emergente Fähigkeiten" bezeichnet werden. WissenschaftlerInnen hatten nach Einführung der Modelle festgestellt, dass diese mit zunehmender Größe und der Menge an Daten, mit denen sie trainiert wurden (Skalierung), leistungsfähiger wurden. So konnten die Tools mit zunehmender Skalierung eine größere Anzahl sprachbasierter Aufgaben lösen - beispielsweise gefälschte Nachrichten erkennen oder logische Schlussfolgerungen ziehen.

Das weckte zum einen die Hoffnung, dass eine weitere Skalierung die Modelle noch besser machen würde. Zum anderen kam aber auch die Sorge auf, dass diese Fähigkeiten gefährlich werden könnten, da sich die LLMs quasi verselbständigen und der menschlichen Kontrolle womöglich entziehen. Als Reaktion wurden weltweit KI-Gesetze eingeführt, darunter in der Europäischen Union und in den USA.

Die AutorInnen der aktuellen Studie kommen nun allerdings zu dem Schluss, dass es für die mutmaßliche Entwicklung eines differenzierten Denkvermögens der Modelle keine Beweise gebe. Stattdessen erlangten die LLMs die oberflächliche Fertigkeit, relativ einfachen Anweisungen zu folgen, wie die Forschenden zeigten. Von dem, was Menschen können, seien die Systeme noch weit entfernt. Die Studie wurde von TU-Informatikprofessorin Iryna Gurevych ‘Iryna Gurevych’ in Expertenprofilen nachschlagen und ihrem Kollegen Dr. Harish Tayyar Madabushi ‘Harish Tayyar Madabushi’ in Expertenprofilen nachschlagen geleitet.

"Unsere Ergebnisse bedeuten jedoch nicht, dass KI überhaupt keine Bedrohung darstellt", betonte Gurevych. "Wir zeigen vielmehr, dass die angebliche Entstehung komplexer Denkfähigkeiten, die mit bestimmten Bedrohungen verbunden sind, nicht durch Beweise gestützt wird und dass wir den Lernpozess von LLMs doch gut steuern können. Daher sollte der Fokus künftiger Forschung auf weiteren Risiken liegen, die von den Modellen ausgehen, beispielsweise auf deren Potenzial, zur Generierung von Fake News genutzt zu werden."

KI-Modelle können keine eigenständigen Aufgaben lösen

Und was bedeuten die Ergebnisse nun für Nutzende von KI-Systemen wie ChatGPT? "Es ist wahrscheinlich ein Fehler, sich auf ein KI-Modell zu verlassen, um komplexe Aufgaben ohne Hilfe zu interpretieren und auszuführen", erklärt Gurevych, die an der TU Darmstadt die Arbeitsgruppe Ubiquitous Knowledge Processing (UKP) am Fachbereich Informatik leitet. Stattdessen sollten Nutzende explizit angeben, was die Systeme tun sollen, und wenn möglich Beispiele nennen. Wichtig ist: Die Tendenz dieser Modelle, plausibel klingende, aber falsche Ergebnisse zu erzeugen - die sogenannte Konfabulation - wird wahrscheinlich weiter bestehen bleiben, auch wenn sich die Qualität der Modelle in jüngster Zeit drastisch verbessert habe.
Neuer Kommentar  Kommentare:
Schreiben Sie Ihre Meinung, Erfahrungen, Anregungen mit oder zu diesem Thema. Ihr Beitrag erscheint an dieser Stelle.
alle Veranstaltungen Webcasts zu diesem Thema:
Dienstleister-Verzeichnis Agenturen/Dienstleister zu diesem Thema:

LOXXESS AG

Die LOXXESS AG ist ein spezialisierter Logistikdienstleister mit Schwerpunkt auf komplexe Outsourcing-Projekte in Industrie und Handel. Das mittelständische, familiengeführte Unternehmen entwickelt für seine Kunden maßgeschneiderte Lösungen in den Bereichen Kontraktlogistik, Value-Added-Services und Fulfillment.

Unternehmensprofil ansehen