Automatyzacja

Inteligentniejszy sposób dla dużych modeli językowych do rozwiązywania złożonych problemów

Jeśli chodzi o duże modele językowe (LLM), ich imponująca moc odpowiadania na szereg pytań ma tendencję do słabnięcia, gdy pojawia się złożoność. W przypadku tych szczególnie zawiłych kwestii, LLM często muszą poświęcić więcej czasu i wysiłku obliczeniowego, aby opracować właściwe rozwiązania. Scenariusz ten daje jasny obraz sytuacji: nie każdy problem jest sobie równy, a zatem uniwersalne podejście może być niewłaściwym wykorzystaniem zasobów.

Tradycyjna metoda polegała na przydzielaniu takiej samej ilości zasobów do każdego problemu, bez względu na to, jak łatwy lub wymagający się on okazał. Strategia ta mogła jednak prowadzić do wyczerpania możliwości obliczeniowych w przypadku prostych łamigłówek, pozostawiając skomplikowane kwestie bez wystarczającego wysiłku, aby uzyskać rozwiązanie.

Inteligentniejsze podejście do rozwiązywania problemów

Aby zaradzić tej nierównowadze, naukowcy z Massachusetts Institute of Technology (MIT) opracowali przełomową metodę. Ich strategia umożliwia LLM dynamiczne dostosowywanie przydziału obliczeniowego w oparciu o złożoność pytania i nadzieję rozpaloną przez każde częściowe rozwiązanie. Koncepcja ta znana jest jako Skalowanie adaptacyjne do instancji, gdzie model jest w stanie określić w czasie rzeczywistym, ile wysiłku obliczeniowego musi poświęcić, aby poradzić sobie z problemem.

Zespół badawczy stojący za tym adaptacyjnym podejściem odkrył, że te inteligentniejsze modele mogą działać przy użyciu nawet o połowę mniejszej mocy obliczeniowej niż wcześniej i nadal utrzymywać imponujący poziom dokładności. Co ciekawe, podejście to pozwoliło mniejszym modelom konkurować z większymi, a nawet przewyższać je w złożonych zadaniach rozumowania.

Skuteczne dostosowywanie wysiłku obliczeniowego

Starszy autor badania, Navid Azizan, zauważył, że może to zmienić zasady gry dla dostawców modeli granicznych, ponieważ koszt obliczeniowy wnioskowania stał się głównym wąskim gardłem. Było to rozwiązanie, które pozwoliło modelom skupić swoją uwagę obliczeniową na najtrudniejszych problemach, przy jednoczesnym wykorzystaniu mniejszej liczby tokenów do rozwiązywania łatwiejszych zadań.

To innowacyjne rozmieszczenie zasobów wykraczało nawet poza rozwiązywanie problemów. Rozgałęziła się w technikę znaną jako skalowanie czasu wnioskowania, gdzie modele mogą badać kilka ścieżek rozumowania w tym samym czasie, a następnie wskazywać najlepsze z nich. Oddzielny element znany jako model nagradzania procesów (PRM) oceniłby te ścieżki, aby poprowadzić model w kierunku najbardziej obiecującego rozwiązania.

Cały ten proces naśladuje sposób, w jaki ludzie rozwiązują problemy. Opracowujemy częściowe rozwiązania, a następnie mierzymy ich potencjał, decydując, czy kontynuować, poprawić, czy cofnąć się. Używając PRM do oszacowania trudności pytania i zmierzenia potencjału każdej częściowej odpowiedzi, model może dostosować swój wysiłek obliczeniowy.

Przed nami podróż

To przełomowe podejście nie jest pozbawione przeszkód. Zespół badawczy zmagał się z istniejącą tendencją PRM do przeszacowywania, co często skutkowało przedwczesnym przerwaniem obliczeń, mówi Young-Jin Park, główny autor badania. Informatycy zajęli się tą kwestią, poprawiając kalibrację, aby zapewnić szerszy zakres wyników prawdopodobieństwa.

Patrząc w przyszłość, zespół zastanawia się, w jaki sposób technika ta może zostać przekształcona, aby pasowała do innych dziedzin, takich jak generowanie kodu i agentów sztucznej inteligencji. Ostatecznie, jak podkreśla Akash Srivastava, dyrektor Core AI w IBM Software, celem jest stworzenie agentów AI, którzy rozumieją, gdzie brakuje im wiedzy i mogą z czasem doskonalić się w tych obszarach.

Jak zawsze, gdy posuwamy się naprzód w dziedzinie sztucznej inteligencji, każdy mały krok przybliża nas do przyszłości, w której technologia może po prostu nas prześcignąć.

Więcej informacji na temat tego fascynującego badania Sprawdź oryginalny artykuł MIT.

Jaka jest twoja reakcja?

Podekscytowany
0
Szczęśliwy
0
Zakochany
0
Nie jestem pewien
0
Głupi
0

Komentarze są zamknięte.