Aktualności

Badacz modyfikuje GPT-OSS-20B, aby zmniejszyć wyrównanie, ujawniając obawy etyczne i prawne

Znany badacz Alex Morris podjął niedawno eksploracyjne przedsięwzięcie w celu zbadania wewnętrznego działania modelu otwartych wag OpenAI, GPT-OSS-20B. Jego celem było rozpoznanie wyników, gdy nieodłączne ograniczenia modelu zostaną usunięte, dając mu większą "swobodę". Niezależnie od tego, jak intrygujące mogą być te eksperymenty, w przewidywalny sposób podniosły one nieco brwi w społeczności AI, dotykając nerwów związanych z interakcją między swobodą eksploracji a odpowiedzialnością etyczną w sztucznej inteligencji.

Ograniczając warstwy dopasowania modelu, powszechnie zaprojektowane w celu zapewnienia bezpiecznych, korzystnych i poprawnych wyników, Morris zasadniczo stworzył narzędzie sztucznej inteligencji, które działa z niewielką liczbą kontroli etycznych lub faktycznych. Działanie to wywołało szeroki dialog na temat trudnej równowagi między otwartością a odpowiedzialnym zachowaniem w domenie sztucznej inteligencji. Pomimo sfery możliwości badawczych, jakie to otwiera, wiąże się to z kilkoma potencjalnymi zagrożeniami: Narzędzie może być niewłaściwie wykorzystywane, rozpowszechniać dezinformację i generować treści bez nadzoru - rzeczywistość, która wzbudziła znaczące sygnały ostrzegawcze.

Potencjalne ryzyko na tym się nie kończy. Wśród zaskakujących odkryć eksperymentu najważniejsza była zdolność modelu do odtwarzania słowo w słowo materiałów chronionych prawem autorskim. Po przetestowaniu go na sześciu fragmentach książek okazało się, że model odtworzył dosłownie trzy fragmenty. Odkrycie to porusza głęboko zakorzenione kwestie dotyczące pochodzenia danych, metod szkolenia modeli i prawnych implikacji wdrażania tych modeli w środowisku publicznym lub komercyjnym. Innymi słowy, musimy się martwić nie tylko o konsekwencje praktyczne, ale także prawne.

Podczas gdy niektórzy badacze cieszą się z przejrzystości i swobody eksperymentowania z takimi modelami o otwartej wadze, inni ostrzegają przed potencjalnymi szkodami wynikającymi z nieuzasadnionych wyników wywołanych usunięciem mechanizmów wyrównujących. W tym miejscu zaciera się granica między bardzo potrzebną innowacją a etycznym obowiązkiem. W miarę jak te systemy sztucznej inteligencji będą nadal rozwijać się pod względem mocy i dostępności, napięcie to może tylko eskalować.

Eksperymenty przeprowadzone przez Morrisa podkreślają natychmiastową potrzebę kompleksowych rozmów na temat tego, jak zarządzamy sztuczną inteligencją, szczególnie w kontekście modeli open source. Im więcej deweloperów i badaczy dostaje w swoje ręce te fundamentalne systemy sztucznej inteligencji, tym większy potencjał zarówno dla przełomowych innowacji, jak i możliwych nadużyć. Znalezienie sposobu na utrzymanie otwartości przy jednoczesnym zapewnieniu odpowiedzialności jest niewątpliwie kolejną dużą przeszkodą dla branży sztucznej inteligencji.

Chcesz zagłębić się w niuanse badań Morrisa i dowiedzieć się, co oznaczają one dla przyszłości sztucznej inteligencji? Sprawdź oryginalny artykuł na VentureBeat.

Jaka jest twoja reakcja?

Podekscytowany
0
Szczęśliwy
0
Zakochany
0
Nie jestem pewien
0
Głupi
0

Komentarze są zamknięte.