{"id":7464,"date":"2025-11-26T06:00:00","date_gmt":"2025-11-26T05:00:00","guid":{"rendered":"https:\/\/aitrendscenter.eu\/mit-study-reveals-hidden-shortcomings-in-large-language-models\/"},"modified":"2025-11-26T06:00:00","modified_gmt":"2025-11-26T05:00:00","slug":"badanie-mit-ujawnia-ukryte-niedociagniecia-w-duzych-modelach-jezykowych","status":"publish","type":"post","link":"https:\/\/aitrendscenter.eu\/pl\/mit-study-reveals-hidden-shortcomings-in-large-language-models\/","title":{"rendered":"Badanie MIT ujawnia ukryte niedoci\u0105gni\u0119cia w du\u017cych modelach j\u0119zykowych"},"content":{"rendered":"<p><a href=\"https:\/\/news.mit.edu\/2025\/shortcoming-makes-llms-less-reliable-1126\" target=\"_blank\" rel=\"noopener\">Najnowsze badania<\/a> z MIT ujawni\u0142a krytyczny b\u0142\u0105d w du\u017cych modelach j\u0119zykowych (LLM). Te zaawansowane narz\u0119dzia sztucznej inteligencji zrewolucjonizowa\u0142y r\u00f3\u017cne sektory, zapewniaj\u0105c us\u0142ugi, od bot\u00f3w obs\u0142ugi klienta po platformy podsumowuj\u0105ce notatki medyczne. Pojawi\u0142 si\u0119 jednak nieoczekiwany problem, poniewa\u017c modele te mog\u0105 wyci\u0105ga\u0107 niew\u0142a\u015bciwe wnioski podczas fazy szkolenia.<\/p>\n<h5>Dylemat sk\u0142adni zast\u0119puj\u0105cej sens<\/h5>\n<p>Co zaskakuj\u0105ce, LLM nie polegaj\u0105 wy\u0142\u0105cznie na wiedzy domenowej w odpowiadaniu na dane zapytania. Zamiast tego maj\u0105 tendencj\u0119 do polegania na znanych strukturach gramatycznych, z kt\u00f3rymi wcze\u015bniej zetkn\u0119li si\u0119 podczas sesji szkoleniowych. Ta technika uczenia si\u0119 mo\u017ce prowadzi\u0107 ich do wymy\u015blania do\u015b\u0107 przekonuj\u0105cych, ale b\u0142\u0119dnych odpowiedzi, zw\u0142aszcza w obliczu nieznanych lub zwodniczych sk\u0142adniowo pyta\u0144.<\/p>\n<p>Modele te przechodz\u0105 szkolenie przy u\u017cyciu szerokiego spektrum tekstu internetowego, co pozwala im ustali\u0107 relacje mi\u0119dzy s\u0142owami, frazami i formatami zda\u0144. W procesie tym LLM wi\u0105\u017c\u0105 okre\u015blone wzorce sk\u0142adniowe lub \u201cszablony sk\u0142adniowe\u201d z okre\u015blonymi tematami lub dziedzinami. Na przyk\u0142ad, model mo\u017ce interpretowa\u0107 struktur\u0119 pytania takiego jak \u201cGdzie znajduje si\u0119 Pary\u017c?\u201d jako cz\u0119sto zwi\u0105zan\u0105 z zapytaniami geograficznymi. W zwi\u0105zku z tym, nawet je\u015bli zostanie mu przedstawione bezsensowne zapytanie o tej samej strukturze, takie jak \u201cGdzie znajduje si\u0119 Pary\u017c?\u201d, model nadal odpowie \u201cFrancja\u201d, niezale\u017cnie od absurdalno\u015bci pytania.<\/p>\n<p>To, co zacz\u0119\u0142o si\u0119 jako niewinne poleganie na rozumowaniu opartym na wzorcach, przekszta\u0142ci\u0142o si\u0119 w powa\u017cn\u0105 odpowiedzialno\u015b\u0107, szczeg\u00f3lnie w \u015brodowiskach o wysokiej stawce. Wada ta oznacza, \u017ce modele sztucznej inteligencji, takie jak LLM, mog\u0105 zawie\u015b\u0107 w nieprzewidywalny spos\u00f3b podczas podsumowywania dokumentacji klinicznej, generowania raport\u00f3w finansowych lub obs\u0142ugi wra\u017cliwych danych klient\u00f3w. \u201cJest to produkt uboczny tego, jak trenujemy modele\u201d, wyja\u015bnia Marzyeh Ghassemi, profesor nadzwyczajny na MIT i starszy autor badania. \u201cAle modele s\u0105 obecnie wykorzystywane w praktyce w domenach o krytycznym znaczeniu dla bezpiecze\u0144stwa, znacznie wykraczaj\u0105cych poza zadania, kt\u00f3re spowodowa\u0142y te b\u0142\u0119dy sk\u0142adniowe\u201d.\u201d<\/p>\n<h5>Odkrywanie, wykorzystywanie i ewolucja<\/h5>\n<p>Aby jeszcze bardziej zag\u0142\u0119bi\u0107 si\u0119 w t\u0119 kwesti\u0119, zesp\u00f3\u0142 badawczy przeprowadzi\u0142 testy syntetyczne, kt\u00f3re zasadniczo ograniczy\u0142y ka\u017cd\u0105 domen\u0119 do jednego szablonu syntaktycznego podczas treningu. Co zaskakuj\u0105ce, wyniki ujawni\u0142y, \u017ce LLM mog\u0105 nadal generowa\u0107 dok\u0142adne odpowiedzi nawet na bezsensowne zapytania, o ile s\u0105 one zgodne ze znan\u0105 struktur\u0105 gramatyczn\u0105. Przeformu\u0142owanie z inn\u0105 struktur\u0105 dawa\u0142o nieprawid\u0142owe odpowiedzi od modeli, niezale\u017cnie od niezmienionego znaczenia.<\/p>\n<p>Badanie ujawni\u0142o r\u00f3wnie\u017c niepokoj\u0105cy fakt, \u017ce ta tendencyjno\u015b\u0107 sk\u0142adniowa mo\u017ce by\u0107 potencjalnie manipulowana przez z\u0142o\u015bliwych u\u017cytkownik\u00f3w w celu omini\u0119cia protoko\u0142\u00f3w bezpiecze\u0144stwa sztucznej inteligencji. Vinith Suriyakumar, absolwent MIT i wsp\u00f3\u0142autor badania, podkre\u015bla t\u0119 obaw\u0119, stwierdzaj\u0105c, \u017ce \u201cmusimy opracowa\u0107 nowe mechanizmy obronne oparte na tym, jak LLM ucz\u0105 si\u0119 j\u0119zyka, a nie tylko rozwi\u0105zania ad hoc\u201d.\u201d<\/p>\n<p>Badania nie zaproponowa\u0142y konkretnych poprawek, ale zesp\u00f3\u0142 opracowa\u0142 nowe narz\u0119dzie dla programist\u00f3w. To narz\u0119dzie por\u00f3wnawcze pozwoli programistom odkry\u0107, czy model nadmiernie opiera si\u0119 na wzorcach sk\u0142adniowych, pomagaj\u0105c w ten spos\u00f3b zwi\u0119kszy\u0107 wiarygodno\u015b\u0107 modelu przed jego wdro\u017ceniem. Zesp\u00f3\u0142 MIT planuje r\u00f3wnie\u017c zbada\u0107 potencjalne strategie \u0142agodz\u0105ce, takie jak w\u0142\u0105czenie bardziej zr\u00f3\u017cnicowanych szablon\u00f3w sk\u0142adniowych do danych treningowych i zbadanie, w jaki spos\u00f3b problem ten mo\u017ce wp\u0142ywa\u0107 na modele rozumowania - podkategori\u0119 LLM zaprojektowan\u0105 do rozwi\u0105zywania problem\u00f3w wieloetapowych.<\/p>\n<p>Badanie przyci\u0105gn\u0119\u0142o uwag\u0119 profesjonalist\u00f3w spoza grupy badawczej. \u201cTa praca podkre\u015bla znaczenie \u015bwiadomo\u015bci j\u0119zykowej w badaniach nad bezpiecze\u0144stwem LLM\u201d - skomentowa\u0142 Jessy Li, profesor nadzwyczajny na University of Texas. Projekt ten by\u0142 mo\u017cliwy dzi\u0119ki wsparciu National Science Foundation, Gordon and Betty Moore Foundation, Schmidt Sciences, Google Research Award oraz Bridgewater AIA Labs Fellowship.<\/p>","protected":false},"excerpt":{"rendered":"<p>Recent research from MIT has unveiled a critical flaw in Large Language Models (LLMs). These advanced AI tools have revolutionized various sectors, providing services ranging from customer service bots to medical note summarizing platforms. However, an unexpected issue has emerged, as these models might be learning the wrong lessons while in the training phase. The Dilemma of Syntax Superseding Sense LLMs, surprisingly, don&#8217;t exclusively depend on domain knowledge in responding to given queries. Instead, they tend to rely on familiar grammatical structures they\u2019ve previously encountered during training sessions. This learning technique can lead them to come up with rather convincing [&hellip;]<\/p>\n","protected":false},"author":4,"featured_media":7465,"comment_status":"","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[47],"tags":[],"class_list":["post-7464","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai-news","post--single"],"_links":{"self":[{"href":"https:\/\/aitrendscenter.eu\/pl\/wp-json\/wp\/v2\/posts\/7464","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/aitrendscenter.eu\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/aitrendscenter.eu\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/pl\/wp-json\/wp\/v2\/users\/4"}],"replies":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/pl\/wp-json\/wp\/v2\/comments?post=7464"}],"version-history":[{"count":0,"href":"https:\/\/aitrendscenter.eu\/pl\/wp-json\/wp\/v2\/posts\/7464\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/aitrendscenter.eu\/pl\/wp-json\/wp\/v2\/media\/7465"}],"wp:attachment":[{"href":"https:\/\/aitrendscenter.eu\/pl\/wp-json\/wp\/v2\/media?parent=7464"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/aitrendscenter.eu\/pl\/wp-json\/wp\/v2\/categories?post=7464"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/aitrendscenter.eu\/pl\/wp-json\/wp\/v2\/tags?post=7464"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}