Categories: Aktualności

OpenAI i Anthropic wprowadzają nowe środki ochrony nastoletnich użytkowników

Aby zapewnić młodym ludziom bezpieczniejszy krajobraz cyfrowy, firmy zajmujące się sztuczną inteligencją, takie jak OpenAI i Anthropic, podejmują proaktywne kroki w celu uruchomienia nowych mechanizmów ochrony. Ich głównym celem jest ochrona nastolatków, którzy wchodzą w interakcje z ich technologiami AI. Ponieważ wpływ narzędzi AI na nieletnich użytkowników budzi coraz większe obawy, środki te są postrzegane jako obiecujący krok w kierunku odpowiedzialnego wdrażania AI.

OpenAI’s New-Found Priority: Teen Safety

Taking a clear stand, OpenAI has updated the behavioral guidelines of its ChatGPT, famously referred to as the Model Spec, to incorporate four fresh principles. These changes center on users in the age range of 13 to 17, aiming to make teen safety a critical priority of ChatGPT. This may lead to some restrictions on the chatbot’s abilities or freedoms, but the trade-off appears worth it.

Odnowiony Model Spec prowadzi ChatGPT do kierowania nastolatków w stronę bezpieczniejszych treści i dyskusji, gdy ich cele mogą obejmować kontrowersyjne tematy lub nieograniczone treści. Zmienione wytyczne podkreślają konieczność zrównoważenia ciekawości intelektualnej i szczególnej wrażliwości młodych użytkowników.

Antropika i weryfikacja wieku

In the meantime, Anthropic, the brain behind the Claude AI assistant, is working on a more technical approach. It’s developing new systems to better identify and exclude users below 18 years of age. Although the precise technology remains undisclosed, the objective is to allow only adults to access specific features or content produced by their AI tools.

This strategic move mirrors the wider industry’s shift towards responsible AI usage and content moderation sensitive to age. With AI tools increasingly making their way into hands of younger users, their protection is becoming paramount.

Zarówno OpenAI, jak i Anthropic zachowują delikatną równowagę między promowaniem innowacji a odpowiedzialnością etyczną. Te nowe zabezpieczenia podkreślają, że rozumieją wyjątkowe wyzwania związane z cateringiem dla młodszych użytkowników. Chociaż pod względem technicznym użytkownicy ci mogą być zaawansowani, mogą nie być jeszcze dojrzali do radzenia sobie ze wszystkimi rodzajami treści lub interakcji. W obliczu rosnącego zainteresowania ze strony organów regulacyjnych, nauczycieli i rodziców opowiadających się za silniejszymi zabezpieczeniami sztucznej inteligencji, te nowe środki mają na celu zapewnienie bezpieczniejszego i bardziej wspierającego świata online dla młodych użytkowników.

Pełną historię można znaleźć na stronie The Verge.

Max Krawiec

This website uses cookies.