Aktualności

OpenAI i Anthropic wprowadzają nowe środki ochrony nastoletnich użytkowników

Aby zapewnić młodym ludziom bezpieczniejszy krajobraz cyfrowy, firmy zajmujące się sztuczną inteligencją, takie jak OpenAI i Anthropic, podejmują proaktywne kroki w celu uruchomienia nowych mechanizmów ochrony. Ich głównym celem jest ochrona nastolatków, którzy wchodzą w interakcje z ich technologiami AI. Ponieważ wpływ narzędzi AI na nieletnich użytkowników budzi coraz większe obawy, środki te są postrzegane jako obiecujący krok w kierunku odpowiedzialnego wdrażania AI.

Nowy priorytet OpenAI: Bezpieczeństwo nastolatków

Zajmując wyraźne stanowisko, OpenAI zaktualizowało wytyczne behawioralne swojego ChatGPT, znane jako Model Spec, aby uwzględnić cztery nowe zasady. Zmiany te koncentrują się na użytkownikach w wieku od 13 do 17 lat, mając na celu uczynienie bezpieczeństwa nastolatków kluczowym priorytetem ChatGPT. Może to prowadzić do pewnych ograniczeń możliwości lub swobód chatbota, ale kompromis wydaje się tego wart.

Odnowiony Model Spec prowadzi ChatGPT do kierowania nastolatków w stronę bezpieczniejszych treści i dyskusji, gdy ich cele mogą obejmować kontrowersyjne tematy lub nieograniczone treści. Zmienione wytyczne podkreślają konieczność zrównoważenia ciekawości intelektualnej i szczególnej wrażliwości młodych użytkowników.

Antropika i weryfikacja wieku

W międzyczasie Anthropic, mózg stojący za asystentem Claude AI, pracuje nad bardziej technicznym podejściem. Opracowuje nowe systemy, aby lepiej identyfikować i wykluczać użytkowników poniżej 18 roku życia. Chociaż dokładna technologia pozostaje nieujawniona, celem jest umożliwienie tylko dorosłym dostępu do określonych funkcji lub treści tworzonych przez ich narzędzia AI.

To strategiczne posunięcie odzwierciedla zmianę w szerszej branży w kierunku odpowiedzialnego korzystania ze sztucznej inteligencji i moderowania treści z uwzględnieniem wieku. Ponieważ narzędzia AI coraz częściej trafiają w ręce młodszych użytkowników, ich ochrona staje się najważniejsza.

Zarówno OpenAI, jak i Anthropic zachowują delikatną równowagę między promowaniem innowacji a odpowiedzialnością etyczną. Te nowe zabezpieczenia podkreślają, że rozumieją wyjątkowe wyzwania związane z cateringiem dla młodszych użytkowników. Chociaż pod względem technicznym użytkownicy ci mogą być zaawansowani, mogą nie być jeszcze dojrzali do radzenia sobie ze wszystkimi rodzajami treści lub interakcji. W obliczu rosnącego zainteresowania ze strony organów regulacyjnych, nauczycieli i rodziców opowiadających się za silniejszymi zabezpieczeniami sztucznej inteligencji, te nowe środki mają na celu zapewnienie bezpieczniejszego i bardziej wspierającego świata online dla młodych użytkowników.

Pełną historię można znaleźć na stronie The Verge.

Jaka jest twoja reakcja?

Podekscytowany
0
Szczęśliwy
0
Zakochany
0
Nie jestem pewien
0
Głupi
0

Komentarze są zamknięte.