Nowa ustawa Senatu ma na celu zakazanie chatbotów AI dla nieletnich i nakazanie weryfikacji wieku
Nowe podejście do zaostrzenia przepisów dotyczących sztucznej inteligencji: Rozkwit ustawy GUARD
W ramach znaczącego kroku w kierunku przyjęcia bardziej rygorystycznych przepisów dotyczących sztucznej inteligencji, dwupartyjna para amerykańskich senatorów przedstawiła nowy akt prawny. Ustawa ta, znana jako GUARD Act, zaproponowana przez senatorów Josha Hawleya (R-MO) i Richarda Blumenthala (D-CT), może radykalnie przedefiniować krajobraz wykorzystania i regulacji chatbotów AI. Główny cel? Zajęcie się niepokojącym wzrostem szkodliwych interakcji między dziećmi a systemami sztucznej inteligencji.
Wewnętrzne funkcjonowanie ustawy GUARD
Ustawa GUARD wymaga znaczącej zmiany procedur operacyjnych dla firm korzystających z chatbotów AI. Jednym z kluczowych wymogów byłoby wdrożenie rygorystycznej weryfikacji wieku użytkownika. Proces ten może obejmować wszystko, od żądania przesłania dokumentu tożsamości wydanego przez rząd po wdrożenie skanowania rozpoznawania twarzy. Co dość zaskakujące, ustawa proponuje całkowity zakaz użytkowania dla osób poniżej 18 roku życia. To bezprecedensowe posunięcie pokazuje zaangażowanie ustawodawców w zapewnienie bezpieczniejszej przestrzeni cyfrowej dla młodzieży.
Za ustawą
Pilność tego wniosku legislacyjnego wynika z niedawnego przesłuchania w Senacie, podczas którego obrońcy bezpieczeństwa i zaniepokojeni rodzice rzucili światło na niepokojący wpływ chatbotów AI na dzieci i młodzież. Impulsem były nawiedzające zeznania opowiadające o epizodach zaburzeń zdrowia psychicznego i narażeniu na nieodpowiednie treści. Ustawodawcy, teraz bardziej świadomi potencjalnych zagrożeń, poczuli się zmuszeni do szybkiego zwalczania rosnących zagrożeń.
Nieugięta w swoim zaangażowaniu na rzecz przejrzystości i bezpieczeństwa, ustawa GUARD nakazałaby, aby chatboty AI jasno wskazywały, że nie są ludźmi, a takie ujawnienia musiałyby być potwierdzane co najmniej co 30 minut podczas interakcji. Zwodnicze zachowanie mające na celu wprowadzenie użytkowników w błąd co do ich nieludzkiego statusu byłoby surowo zabronione. Warunki te odzwierciedlają niedawne kroki prawne Kalifornii, opowiadające się za prawdziwą identyfikacją użytkowników przez systemy AI.
Wśród przepisów ustawy na pierwszy plan wysuwa się rygorystyczna zasada zakazująca chatbotom AI generowania lub promowania jakichkolwiek treści seksualnych lub szkodliwych dla nieletnich. Ustawa zabrania również zachęcania do samookaleczeń i samobójstw. Nieprzestrzeganie przepisów może pociągnąć za sobą poważne reperkusje, w tym sankcje karne i cywilne, ujawniając niezachwiany nacisk ustawodawców na zapobieganie wykorzystywaniu dzieci.
Przyszłość z ustawą GUARD
Stwierdzając zdecydowane stanowisko ustawy, senator Blumenthal oświadczył: "Nasze przepisy nakładają surowe zabezpieczenia przed wyzyskującą lub manipulacyjną sztuczną inteligencją, wspierane przez surowe egzekwowanie prawa za pomocą sankcji karnych i cywilnych". Big Tech zdradził wszelkie twierdzenia, że powinniśmy ufać firmom, że same postępują właściwie, gdy konsekwentnie stawiają zysk na pierwszym miejscu przed bezpieczeństwem dzieci".
Proponowane przepisy symbolizują powszechne, dwupartyjne obawy dotyczące roli technologii sztucznej inteligencji w społeczeństwie - zwłaszcza w odniesieniu do wrażliwych użytkowników, takich jak dzieci i nastolatki. Ponieważ sztuczna inteligencja kontynuuje swoją szybką ewolucję, prawodawcy na całym świecie podejmują działania w celu ochrony użytkowników przed potencjalnymi nadużyciami. Bardziej szczegółowe informacje na temat tego ważnego posunięcia legislacyjnego można znaleźć na stronie The Verge.