{"id":7464,"date":"2025-11-26T06:00:00","date_gmt":"2025-11-26T05:00:00","guid":{"rendered":"https:\/\/aitrendscenter.eu\/mit-study-reveals-hidden-shortcomings-in-large-language-models\/"},"modified":"2025-11-26T06:00:00","modified_gmt":"2025-11-26T05:00:00","slug":"mit-studie-deckt-versteckte-mangel-in-grosen-sprachmodellen-auf","status":"publish","type":"post","link":"https:\/\/aitrendscenter.eu\/de\/mit-study-reveals-hidden-shortcomings-in-large-language-models\/","title":{"rendered":"MIT-Studie deckt verborgene M\u00e4ngel in gro\u00dfen Sprachmodellen auf"},"content":{"rendered":"<p><a href=\"https:\/\/news.mit.edu\/2025\/shortcoming-makes-llms-less-reliable-1126\" target=\"_blank\" rel=\"noopener\">J\u00fcngste Forschung<\/a> vom MIT hat eine kritische Schwachstelle in Large Language Models (LLMs) aufgedeckt. Diese fortschrittlichen KI-Tools haben verschiedene Sektoren revolutioniert und bieten Dienste an, die von Bots f\u00fcr den Kundenservice bis hin zu Plattformen f\u00fcr die Zusammenfassung medizinischer Notizen reichen. Es ist jedoch ein unerwartetes Problem aufgetaucht, da diese Modelle in der Trainingsphase m\u00f6glicherweise die falschen Lektionen lernen.<\/p>\n<h5>Das Dilemma, dass die Syntax den Sinn verdr\u00e4ngt<\/h5>\n<p>\u00dcberraschenderweise verlassen sich LLMs bei der Beantwortung von Anfragen nicht ausschlie\u00dflich auf ihr Fachwissen. Stattdessen neigen sie dazu, sich auf vertraute grammatikalische Strukturen zu st\u00fctzen, denen sie zuvor in Trainingssitzungen begegnet sind. Diese Lerntechnik kann dazu f\u00fchren, dass sie ziemlich \u00fcberzeugende, aber dennoch falsche Antworten geben, insbesondere wenn sie mit unbekannten oder syntaktisch irref\u00fchrenden Fragen konfrontiert werden.<\/p>\n<p>Diese Modelle werden anhand eines breiten Spektrums von Internettexten trainiert, so dass sie Beziehungen zwischen W\u00f6rtern, Phrasen und Satzformaten herstellen k\u00f6nnen. Dabei assoziieren LLMs bestimmte syntaktische Muster oder \u201csyntaktische Vorlagen\u201d mit bestimmten Themen oder Dom\u00e4nen. Zum Beispiel k\u00f6nnte das Modell die Struktur einer Frage wie \u201cWo liegt Paris?\u201d so interpretieren, dass sie h\u00e4ufig mit geografischen Fragen in Verbindung gebracht wird. Folglich w\u00fcrde das Modell selbst dann, wenn es eine unsinnige Frage mit derselben Struktur gestellt bek\u00e4me, wie z. B. \u201cWo liegt Paris?\u201d, mit \u201cFrankreich\u201d antworten, ungeachtet der Absurdit\u00e4t der Frage.<\/p>\n<p>Was als unschuldiges Vertrauen in musterorientiertes Denken begann, hat sich zu einer ernsthaften Belastung entwickelt, insbesondere in Umgebungen, in denen viel auf dem Spiel steht. Diese Schwachstelle bedeutet, dass KI-Modelle wie LLMs unvorhersehbar versagen k\u00f6nnen, wenn sie klinische Aufzeichnungen zusammenfassen, Finanzberichte erstellen oder sensible Kundendaten verarbeiten. \u201cDies ist ein Nebenprodukt der Art und Weise, wie wir Modelle trainieren\u201d, erkl\u00e4rt Marzyeh Ghassemi, au\u00dferordentliche Professorin am MIT und Hauptautorin der Studie. \u201cAber Modelle werden in der Praxis inzwischen in sicherheitskritischen Bereichen eingesetzt, die weit \u00fcber die Aufgaben hinausgehen, die diese syntaktischen Fehler verursacht haben.\u201d<\/p>\n<h5>Erforschen, Nutzen und Weiterentwickeln<\/h5>\n<p>Um dieses Problem weiter zu erforschen, f\u00fchrte das Forschungsteam synthetische Tests durch, bei denen jeder Bereich w\u00e4hrend des Trainings im Wesentlichen auf eine syntaktische Vorlage beschr\u00e4nkt war. \u00dcberraschenderweise zeigten die Ergebnisse, dass LLMs auch auf unsinnige Anfragen korrekte Antworten geben konnten, solange sie einer bekannten grammatikalischen Struktur folgten. Eine Umformulierung mit einer anderen Struktur f\u00fchrte zu falschen Antworten der Modelle, unabh\u00e4ngig von einer unver\u00e4nderten Bedeutung.<\/p>\n<p>Die Studie hat auch die beunruhigende Tatsache ans Licht gebracht, dass diese syntaktische Verzerrung von b\u00f6swilligen Nutzern manipuliert werden k\u00f6nnte, um die Sicherheitsprotokolle der KI zu umgehen. Vinith Suriyakumar, MIT-Absolvent und Mitverfasser der Studie, unterstreicht diese Sorge und erkl\u00e4rt: \u201cWir m\u00fcssen neue Abwehrmechanismen entwickeln, die darauf basieren, wie LLMs Sprache lernen, und nicht nur Ad-hoc-L\u00f6sungen.\u201d<\/p>\n<p>Die Forschung hat keine spezifischen L\u00f6sungen vorgeschlagen, aber das Team hat ein neues Tool f\u00fcr Entwickler entwickelt. Mit diesem Benchmarking-Tool k\u00f6nnen Entwickler herausfinden, ob ein Modell \u00fcberm\u00e4\u00dfig auf syntaktische Muster zur\u00fcckgreift, und so die Glaubw\u00fcrdigkeit des Modells vor dem Einsatz verbessern. Das MIT-Team plant auch die Untersuchung potenzieller Abhilfestrategien wie die Einbeziehung vielf\u00e4ltigerer syntaktischer Vorlagen in die Trainingsdaten und die Untersuchung, wie sich dieses Problem auf schlussfolgernde Modelle auswirken k\u00f6nnte - eine Unterkategorie von LLMs, die f\u00fcr die L\u00f6sung mehrstufiger Probleme konzipiert sind.<\/p>\n<p>Die Studie hat die Aufmerksamkeit von Fachleuten au\u00dferhalb der untersuchenden Gruppe auf sich gezogen. \u201cDiese Arbeit unterstreicht die Bedeutung des sprachlichen Bewusstseins in der LLM-Sicherheitsforschung\u201d, kommentierte Jessy Li, au\u00dferordentliche Professorin an der Universit\u00e4t von Texas. Dieses Projekt wurde durch die Unterst\u00fctzung der National Science Foundation, der Gordon and Betty Moore Foundation, Schmidt Sciences, einen Google Research Award und ein Bridgewater AIA Labs Fellowship erm\u00f6glicht.<\/p>","protected":false},"excerpt":{"rendered":"<p>Recent research from MIT has unveiled a critical flaw in Large Language Models (LLMs). These advanced AI tools have revolutionized various sectors, providing services ranging from customer service bots to medical note summarizing platforms. However, an unexpected issue has emerged, as these models might be learning the wrong lessons while in the training phase. The Dilemma of Syntax Superseding Sense LLMs, surprisingly, don&#8217;t exclusively depend on domain knowledge in responding to given queries. Instead, they tend to rely on familiar grammatical structures they\u2019ve previously encountered during training sessions. This learning technique can lead them to come up with rather convincing [&hellip;]<\/p>\n","protected":false},"author":4,"featured_media":7465,"comment_status":"","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[47],"tags":[],"class_list":["post-7464","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-news","post--single"],"_links":{"self":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts\/7464","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/comments?post=7464"}],"version-history":[{"count":0,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/posts\/7464\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/media\/7465"}],"wp:attachment":[{"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/media?parent=7464"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/categories?post=7464"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aitrendscenter.eu\/de\/wp-json\/wp\/v2\/tags?post=7464"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}