Kategorien: Nachrichten

Anthropic entdeckt seltsames KI-Verhalten: Längeres Denken lässt Modelle ungenauer werden

Der überraschende Ausrutscher der KI: Längeres Denken ist nicht immer das bessere Denken

In der Welt der künstlichen Intelligenz geht man seit langem davon aus, dass eine KI, die mehr Zeit hat, sich mit einem Problem zu befassen, auch intelligentere Antworten findet. Die Logik scheint einfach: Lässt man die Maschine länger nachdenken, wird sie Details analysieren, Möglichkeiten in Betracht ziehen und bessere Lösungen finden. Doch einige neue Erkenntnisse stellen diese Erwartung auf den Kopf.

Forscher von Anthropic haben eine seltsame Eigenart entdeckt: Wenn ihre KI-Modelle mehr Zeit und mehr Schritte benötigten, um ein Problem zu lösen, wurden die Ergebnisse nicht besser, sondern schlechter. Dies steht im Widerspruch zu einem Leitprinzip der KI-Entwicklung: Zusätzliche Verarbeitungszeit führt zu klarerem, genauerem Denken.

Der Versuch zu verstehen, was schief gelaufen ist

Das Anthropic-Team versuchte, den Denkprozess für eine Reihe von KI-Modellen bei verschiedenen Aufgaben zu verlängern. Was sie feststellten, war konsistent: Modelle, die gebeten wurden, ihre Antworten mit längeren logischen Ketten oder Schritt-für-Schritt-Prozessen zu überdenken, wurden oft weniger genau. Tatsächlich ist die Leistung manchmal dramatisch gesunken, was echte Zweifel daran aufkommen lässt, wie zuverlässig diese "durchdachteren" KI-Systeme wirklich sind - vor allem, wenn es um den anspruchsvollen Einsatz in Unternehmen oder Betrieben geht.

Für Unternehmen, die bei komplexen Aufgaben auf KI angewiesen sind - etwa bei juristischen Untersuchungen, medizinischen Diagnosen oder Finanzprognosen - ist diese Erkenntnis von Bedeutung. Viele Geschäftsstrategien beruhen auf der Vorstellung, dass mehr Rechenleistung und längere KI-Beratungen automatisch zu besseren Ergebnissen führen werden. Wenn tieferes Nachdenken mehr Verwirrung als Klarheit stiftet, könnte dies ein ernsthaftes Umdenken darüber erzwingen, wie KI bei kritischen Entscheidungen eingesetzt wird.

Warum passiert das? Die Antwort ist noch nicht klar. Eine Arbeitstheorie besagt, dass die KI mit zunehmender Dauer ihrer Überlegungen mehr Möglichkeiten für so genannte "Halluzinationen" eröffnet, d. h. Momente, in denen das Modell Details erfindet, die plausibel klingen, aber einfach nicht wahr sind. Ein weiterer möglicher Grund: Lange logische Ketten können zu Widersprüchen führen, wodurch sich die Antwort der KI weiter von der richtigen Lösung entfernt. Was auch immer der Grund sein mag, dies alles unterstreicht die Notwendigkeit, nicht nur besser zu verstehen, was KI falsch macht, sondern auch, was sie falsch macht. warum sie so denkt, wie sie denkt.

Wie geht es weiter?

Da künstliche Intelligenz zu einem Rückgrat für kritische Anwendungen wird, ist das Aufspüren und Verwalten dieser Art von Fehlern nicht nur eine technische Herausforderung, sondern eine praktische Notwendigkeit. Das Ziel besteht nicht nur darin, die KI länger oder schwieriger denken zu lassen, sondern ihr beim Denken zu helfen gut. Der wahre Weg zu vertrauenswürdigen und effektiven KI-Werkzeugen könnte darin bestehen, die Modelle auf produktive Argumentationslinien zu lenken, anstatt ihnen einfach mehr Zeit zu geben.

Wenn Sie tiefer in die augenöffnende Forschung von Anthropic eintauchen möchten, können Sie den vollständigen Bericht auf VentureBeat.

Max Krawiec

Teilen Sie
Herausgegeben von
Max Krawiec

Diese Website verwendet Cookies.