Nicht weinen! „ChatGPT“ & Co. denken bisher nicht selber

Quelle: TU Darmstadt 3 min Lesedauer

Anbieter zum Thema

Wer als Laie heute bei allen beeindruckenden Leistungen von KI-Chatbots glauben könnte, dass diese künstlichen Hirne wirklich komplex denken, der irrt sich. Das belegen jetzt auch Forschungen ...

Dümmer als gedacht! Die Leistungen von KI-Sprachsystemen sind zuweilen höchst beeindruckend. Und dennoch tun sie nur das, was ihnen zuvor eingetrichtert wurde. Dass auch „ChatGPT“ noch weit vom menschlichen Denken entfernt ist, belegt eine aktuelle Studie.(Bild:  peshkova - stock.adobe.com)
Dümmer als gedacht! Die Leistungen von KI-Sprachsystemen sind zuweilen höchst beeindruckend. Und dennoch tun sie nur das, was ihnen zuvor eingetrichtert wurde. Dass auch „ChatGPT“ noch weit vom menschlichen Denken entfernt ist, belegt eine aktuelle Studie.
(Bild: peshkova - stock.adobe.com)

Ein Wissenschaftler hat mal gesagt, dass eine künstliche Intelligenz wirklich erst denkt, wenn sie von sich aus kreativ ist oder gar über einen neuen Witz „lachen“ kann, zu dessen Hintergrund noch nichts „gelernt“ wurde. Dass künstliche Intelligenzen, wie etwa „ChatGPT“ das heute auch noch nicht können, haben Forscher an der TU Darmstadt nebst Partnern erneut bewiesen. Das Fazit ist, dass die Systeme bei aller Leistung weniger selbstständig lernfähig sind als bisher gedacht. Es gibt demnach keine Hinweise darauf, dass die sogenannten Large Language Models (LLMs) anfangen, ein allgemeines „intelligentes“ Verhalten zu entwickeln, das ihnen etwa ein planvolles oder intuitives Vorgehen oder komplexes Denken ermöglicht. Die Studie wird übrigens im August auf der Jahrestagung der renommierten Association for Computational Linguistics (ACL) in Bangkok vorgestellt, der größten internationalen Konferenz zur Automatischen Sprachverarbeitung.

Leistungssprünge bei Sprachmodellen ließen aufhorchen

Im Mittelpunkt der Forschung stehen unvorhergesehene und plötzliche Leistungssprünge der Sprachmodelle, die als „emergente Fähigkeiten“ bezeichnet werden. Wissenschaftler hatten nach Einführung der Modelle festgestellt, dass diese mit zunehmender Größe und der Menge an Daten, mit denen sie trainiert wurden (Skalierung), leistungsfähiger wurden. So konnten die Tools mit zunehmender Skalierung eine größere Anzahl sprachbasierter Aufgaben lösen. Sie konnten etwa Fake News erkennen oder logische Schlussfolgerungen ziehen. Das weckte zum einen die Hoffnung, dass eine weitere Skalierung die Modelle noch besser machen würde. Zum anderen kam aber auch die Sorge auf, dass diese Fähigkeiten gefährlich werden könnten, weil sich die LLMs quasi verselbständigen und der menschlichen Kontrolle womöglich entziehen, so die Befürchtungen. Als Reaktion wurden vor Kurzem deshalb weltweit KI-Gesetze eingeführt, darunter in der Europäischen Union und in den USA.

Zwar „dumm“, aber für Unfug ausnutzbar

Die Autoren der aktuellen Studie kommen nun allerdings zu dem Schluss, dass es für die mutmaßliche Entwicklung eines differenzierten Denkvermögens der Modelle keine Beweise gibt. Stattdessen erlangten die LLMs die oberflächliche Fertigkeit, relativ einfachen Anweisungen zu folgen, wie die Forscher sagen. Von dem, was Menschen können, seien die Systeme deshalb noch weit entfernt. Die Studie wurde von TU-Informatikprofessorin Iryna Gurevych und ihrem Kollegen Dr. Harish Tayyar Madabushi von der University of Bath in Großbritannien geleitet. Doch die Forscher warnen davor, zu glauben, dass KI überhaupt keine Bedrohung darstellt. Die Studie zeigt vielmehr, dass die angebliche Entstehung komplexer Denkfähigkeiten, die mit bestimmten Bedrohungen verbunden sind, nicht durch Beweise gestützt wird und dass man den Lernpozess von LLMs doch gut steuern kann. Deshalb sollte der Fokus künftiger Forschungen auf weiteren Risiken liegen, die von den Modellen ausgehen – beispielsweise auf deren Potenzial, zur Generierung von Fake News.

Das müssen KI-Anwender im Hinterkopf behalten ...

Und was bedeuten die Ergebnisse nun für Anwender von KI-Systemen wie „ChatGPT“? Nun, es ist wahrscheinlich ein Fehler, sich auf ein KI-Modell zu verlassen, um komplexe Aufgaben ohne Hilfe zu interpretieren und auszuführen, so die Experten. Stattdessen sollten User explizit angeben, was die Systeme tun sollen – und wenn möglich, Beispiele nennen. Wichtig sei dabei ist zu bedenken, dass die Tendenz dieser Modelle, plausibel klingende, aber falsche Ergebnisse zu erzeugen – die sogenannte Konfabulation – wahrscheinlich weiter bestehen bleibt, auch wenn sich die Qualität der Modelle in jüngster Zeit drastisch verbessert hat. Und wer sich zum Beispiel auf einer bekannten Videoplattform auch nur die Clips anschaut, in denen 50er-Jahre-Versionen von bekannten Kinofilmen (Star Wars et cetera) sehr überzeugend nebst angepassten „Schauspielern“ generiert wurden, der sollte ins Grübeln kommen. Diese Technik kann man auch als Propagandawaffe missbrauchen, um „Tatsachen“ zu schaffen. Und bis das als Fake erkannt wird, kann es schon zu spät sein ...

(ID:50129452)

Jetzt Newsletter abonnieren

Verpassen Sie nicht unsere besten Inhalte

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung