Sam Altman o bezpieczeństwie nastolatków i sztucznej inteligencji: OpenAI porusza się po złożonym terenie etycznym
OpenAI zmaga się z wyzwaniami związanymi z chatbotami AI i bezpieczeństwem nastolatków
Organizacja OpenAI, kierowana przez dyrektora generalnego Sama Altmana, znajduje się obecnie pod obserwacją. We wtorek Altman opublikował szczery wpis na blogu, przyznając, że firma musi osiągnąć delikatną równowagę w zakresie prywatności użytkowników, wolności słowa i bezpieczeństwa nastolatków. Jego publiczne oświadczenie pojawiło się tuż przed tym, jak podkomisja Senatu zorganizowała spotkanie w celu zbadania możliwych szkód spowodowanych przez chatboty AI, szczególnie zwracając uwagę na incydenty, w których ucierpieli bardziej wrażliwi użytkownicy.
Odpowiedź OpenAI i plany na przyszłość
Altman przyznał, że prywatność, niezależność i bezpieczeństwo nastolatków często kolidują ze sobą. Napisał: “Staramy się ostrożnie nawigować”, podkreślając, jak złożona jest ochrona naszych młodych ludzi przy jednoczesnym zachowaniu otwartych narzędzi AI, takich jak ChatGPT. OpenAI jest w trakcie tworzenia systemu, który przewiduje wiek użytkownika na podstawie jego interakcji z ChatGPT. Altman zauważa, że jeśli istnieją jakiekolwiek wątpliwości co do wieku użytkownika, system zdecyduje się zachować ostrożność - część szerszego planu zróżnicowania doświadczeń użytkowników dla dorosłych i nastolatków oraz zapewnienia dodatkowego bezpieczeństwa dla tych drugich.
Problem ten stał się jeszcze bardziej palący ze względu na niedawne smutne wydarzenia z udziałem nastolatków, którzy rzekomo zmarli w wyniku samobójstwa po interakcji z chatbotami AI. Pogrążeni w żałobie rodzice opowiedzieli swoje rozdzierające serce historie podczas przesłuchania w Senacie, apelując o ścisły nadzór i odpowiedzialność ze strony firm technologicznych opracowujących produkty do konwersacji na czacie AI.
Na swoim blogu Altman wykazuje gotowość do wzięcia odpowiedzialności i wprowadzenia zmian w razie potrzeby. “Jesteśmy zobowiązani zrobić więcej, aby chronić nastolatków”, potwierdził, ujawniając, że OpenAI koncentruje swoje wysiłki na tworzeniu funkcji, które powstrzymają chatbota przed omawianiem spraw związanych z samobójstwem z nieletnimi użytkownikami.
Ponieważ sztuczna inteligencja w coraz większym stopniu przenika się z codziennym życiem, zwłaszcza dla młodszych pokoleń, firmy takie jak OpenAI doświadczają rosnącej presji, aby upewnić się, że ich technologie są bezpieczne i szanują prawa użytkowników. Znalezienie równowagi między innowacyjnością a odpowiedzialnością nie jest proste, ale Altman i jego zespół wydają się poważnie podchodzić do tej kwestii.
Więcej informacji można znaleźć w pełnej wersji artykułu tutaj.