Aktualności

Anthropic odkrywa dziwne zachowanie sztucznej inteligencji: Dłuższe myślenie sprawia, że modele są mniej dokładne

Zaskakujący poślizg sztucznej inteligencji: Dłuższe myślenie nie zawsze oznacza lepsze myślenie

W świecie sztucznej inteligencji od dawna panuje przekonanie, że poświęcenie sztucznej inteligencji większej ilości czasu na przeanalizowanie problemu doprowadzi do uzyskania mądrzejszych odpowiedzi. Logika wydaje się prosta: pozwól maszynie rozumować dłużej, a przeanalizuje szczegóły, rozważy możliwości i znajdzie lepsze rozwiązania. Jednak niektóre nowe odkrycia obracają to oczekiwanie wniwecz.

Naukowcy z Anthropic odkryli ciekawe dziwactwo: kiedy ich modele sztucznej inteligencji potrzebowały więcej czasu i więcej kroków, aby zrozumieć problem, wyniki faktycznie się pogorszyły - a nie poprawiły. Jest to sprzeczne z naczelną zasadą rozwoju sztucznej inteligencji: dodatkowy czas przetwarzania zapewnia jaśniejsze i dokładniejsze myślenie.

Próba zrozumienia, co poszło nie tak

Zespół Anthropic próbował wydłużyć proces rozumowania dla różnych modeli sztucznej inteligencji w kilku rodzajach zadań. To, co zauważyli, było spójne: modele poproszone o zastanowienie się nad swoimi odpowiedziami za pomocą dłuższych łańcuchów logicznych lub procesów krok po kroku często stawały się mniej dokładne. W rzeczywistości wydajność czasami drastycznie spadała, podając w wątpliwość niezawodność tych "bardziej przemyślanych" systemów sztucznej inteligencji - zwłaszcza jeśli chodzi o wymagające zastosowania biznesowe lub korporacyjne.

Dla firm, które polegają na sztucznej inteligencji w złożonych zadaniach, takich jak badania prawne, diagnostyka medyczna lub prognozowanie finansowe, to odkrycie ma znaczenie. Wiele strategii biznesowych opiera się na założeniu, że większa moc obliczeniowa i dłuższe rozważania nad sztuczną inteligencją automatycznie doprowadzą do lepszych wyników. Jeśli głębsze przemyślenia przyniosą więcej zamieszania niż jasności, może to zmusić do poważnego przemyślenia sposobu, w jaki sztuczna inteligencja jest wykorzystywana w krytycznych decyzjach.

Dlaczego więc tak się dzieje? Odpowiedź nie jest jeszcze oczywista. Jedną z roboczych teorii jest to, że w miarę jak sztuczna inteligencja rozumuje dłużej, otwiera więcej drzwi dla tak zwanych "halucynacji" - czyli momentów, w których model wymyśla szczegóły, które brzmią wiarygodnie, ale po prostu nie są prawdziwe. Inny możliwy winowajca: długie łańcuchy logiczne mogą tworzyć sprzeczności, prowadząc odpowiedź AI dalej od prawidłowego rozwiązania. Niezależnie od przyczyny, wszystko to podkreśla potrzebę lepszego zrozumienia nie tylko tego, co sztuczna inteligencja robi źle, ale także dlaczego myśli w ten sposób.

Co będzie dalej?

W miarę jak sztuczna inteligencja staje się podstawą krytycznych aplikacji, wykrywanie tego rodzaju błędów i zarządzanie nimi to nie tylko wyzwanie techniczne - to praktyczna konieczność. Celem nie jest po prostu umożliwienie sztucznej inteligencji dłuższego lub trudniejszego myślenia, ale pomoc w myśleniu dobrze. Kierowanie modeli w stronę produktywnych linii rozumowania, zamiast po prostu dawać im więcej czasu, może być prawdziwą drogą do godnych zaufania i skutecznych narzędzi sztucznej inteligencji.

Jeśli chcesz zagłębić się w otwierające oczy badania Anthropic, możesz przeczytać pełną historię na stronie VentureBeat.

Jaka jest twoja reakcja?

Podekscytowany
1
Szczęśliwy
1
Zakochany
0
Nie jestem pewien
0
Głupi
0

Komentarze są zamknięte.