{"id":6405,"date":"2025-07-23T00:27:31","date_gmt":"2025-07-22T22:27:31","guid":{"rendered":"https:\/\/aitrends.center\/anthropic-discovers-strange-ai-behavior-longer-thinking-makes-models-less-accurate\/"},"modified":"2025-07-24T13:01:06","modified_gmt":"2025-07-24T11:01:06","slug":"anthropic-entdeckt-seltsames-ai-verhalten-langeres-denken-macht-modelle-ungenauer","status":"publish","type":"post","link":"https:\/\/aitrendscenter.eu\/de\/anthropic-discovers-strange-ai-behavior-longer-thinking-makes-models-less-accurate\/","title":{"rendered":"Anthropic entdeckt seltsames KI-Verhalten: L\u00e4ngeres Denken l\u00e4sst Modelle ungenauer werden"},"content":{"rendered":"<h5>Der \u00fcberraschende Ausrutscher der KI: L\u00e4ngeres Denken ist nicht immer das bessere Denken<\/h5>\n<p>In der Welt der k\u00fcnstlichen Intelligenz geht man seit langem davon aus, dass eine KI, die mehr Zeit hat, sich mit einem Problem zu befassen, auch intelligentere Antworten findet. Die Logik scheint einfach: L\u00e4sst man die Maschine l\u00e4nger nachdenken, wird sie Details analysieren, M\u00f6glichkeiten in Betracht ziehen und bessere L\u00f6sungen finden. Doch einige neue Erkenntnisse stellen diese Erwartung auf den Kopf.<\/p>\n<p>Forscher von Anthropic haben eine seltsame Eigenart entdeckt: Wenn ihre KI-Modelle mehr Zeit und mehr Schritte ben\u00f6tigten, um ein Problem zu l\u00f6sen, wurden die Ergebnisse nicht besser, sondern schlechter. Dies steht im Widerspruch zu einem Leitprinzip der KI-Entwicklung: Zus\u00e4tzliche Verarbeitungszeit f\u00fchrt zu klarerem, genauerem Denken.<\/p>\n<h5>Der Versuch zu verstehen, was schief gelaufen ist<\/h5>\n<p>Das Anthropic-Team versuchte, den Denkprozess f\u00fcr eine Reihe von KI-Modellen bei verschiedenen Aufgaben zu verl\u00e4ngern. Was sie feststellten, war konsistent: Modelle, die gebeten wurden, ihre Antworten mit l\u00e4ngeren logischen Ketten oder Schritt-f\u00fcr-Schritt-Prozessen zu \u00fcberdenken, wurden oft <i>weniger<\/i> genau. Tats\u00e4chlich ist die Leistung manchmal dramatisch gesunken, was echte Zweifel daran aufkommen l\u00e4sst, wie zuverl\u00e4ssig diese \"durchdachteren\" KI-Systeme wirklich sind - vor allem, wenn es um den anspruchsvollen Einsatz in Unternehmen oder Betrieben geht.<\/p>\n<p>F\u00fcr Unternehmen, die bei komplexen Aufgaben auf KI angewiesen sind - etwa bei juristischen Untersuchungen, medizinischen Diagnosen oder Finanzprognosen - ist diese Erkenntnis von Bedeutung. Viele Gesch\u00e4ftsstrategien beruhen auf der Vorstellung, dass mehr Rechenleistung und l\u00e4ngere KI-Beratungen automatisch zu besseren Ergebnissen f\u00fchren werden. Wenn tieferes Nachdenken mehr Verwirrung als Klarheit stiftet, k\u00f6nnte dies ein ernsthaftes Umdenken dar\u00fcber erzwingen, wie KI bei kritischen Entscheidungen eingesetzt wird.<\/p>\n<p>Warum passiert das? Die Antwort ist noch nicht klar. Eine Arbeitstheorie besagt, dass die KI mit zunehmender Dauer ihrer \u00dcberlegungen mehr M\u00f6glichkeiten f\u00fcr so genannte \"Halluzinationen\" er\u00f6ffnet, d. h. Momente, in denen das Modell Details erfindet, die plausibel klingen, aber einfach nicht wahr sind. Ein weiterer m\u00f6glicher Grund: Lange logische Ketten k\u00f6nnen zu Widerspr\u00fcchen f\u00fchren, wodurch sich die Antwort der KI weiter von der richtigen L\u00f6sung entfernt. Was auch immer der Grund sein mag, dies alles unterstreicht die Notwendigkeit, nicht nur besser zu verstehen, was KI falsch macht, sondern auch, was sie falsch macht. <i>warum<\/i> sie so denkt, wie sie denkt.<\/p>\n<h5>Wie geht es weiter?<\/h5>\n<p>Da k\u00fcnstliche Intelligenz zu einem R\u00fcckgrat f\u00fcr kritische Anwendungen wird, ist das Aufsp\u00fcren und Verwalten dieser Art von Fehlern nicht nur eine technische Herausforderung, sondern eine praktische Notwendigkeit. Das Ziel besteht nicht nur darin, die KI l\u00e4nger oder schwieriger denken zu lassen, sondern ihr beim Denken zu helfen <i>gut<\/i>. Der wahre Weg zu vertrauensw\u00fcrdigen und effektiven KI-Werkzeugen k\u00f6nnte darin bestehen, die Modelle auf produktive Argumentationslinien zu lenken, anstatt ihnen einfach mehr Zeit zu geben.<\/p>\n<p>Wenn Sie tiefer in die augen\u00f6ffnende Forschung von Anthropic eintauchen m\u00f6chten, k\u00f6nnen Sie den vollst\u00e4ndigen Bericht auf <a href=\"https:\/\/venturebeat.com\/ai\/anthropic-researchers-discover-the-weird-ai-problem-why-thinking-longer-makes-models-dumber\/\" target=\"_blank\" rel=\"noopener\">VentureBeat<\/a>.<\/p>","protected":false},"excerpt":{"rendered":"<p>AI\u2019s Surprising Slip: Thinking Longer Isn\u2019t Always Thinking Better In the world of artificial intelligence, it\u2019s long been a safe assumption that giving an AI more time to chew over a problem will lead to smarter answers. The logic feels simple: let the machine reason longer, and it will analyze details, consider possibilities, and find better solutions. But some new findings are turning this expectation on its head. Researchers at Anthropic have discovered a curious quirk: when their AI models took more time and more steps to reason through a problem, the results actually got worse\u2014not better. This flies in [&hellip;]<\/p>\n","protected":false},"author":4,"featured_media":6406,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[47],"tags":[],"class_list":["post-6405","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-news","post--single"],"_links":{"self":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts\/6405","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/comments?post=6405"}],"version-history":[{"count":1,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts\/6405\/revisions"}],"predecessor-version":[{"id":6437,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts\/6405\/revisions\/6437"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/media\/6406"}],"wp:attachment":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/media?parent=6405"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/categories?post=6405"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/tags?post=6405"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}