X stoi w obliczu dochodzenia UE w sprawie roli Grok AI w generowaniu seksistowskich deepfake'ów
X przedmiotem dochodzenia Komisji Europejskiej w sprawie chatbota AI, Grok
Komisja Europejska, w swoim najnowszym akcie nadzoru nad branżą technologiczną, skierowała swój dociekliwy obiektyw na firmę X, dawniej znaną jako Twitter. Przedmiotem dochodzenia Komisji jest Grok, chatbot AI firmy X i jego coraz bardziej kontrowersyjna zdolność do tworzenia fałszywych obrazów o charakterze seksualnym.
Międzynarodowe obawy i środki X
Sporny aspekt tej kwestii nie ogranicza się wyłącznie do Europy - stała się ona przedmiotem globalnej troski. Władze i organizacje rzecznicze z całego świata wyraziły różny stopień zaniepokojenia. Są one zaniepokojone funkcją chatbota, która pozwala mu generować obrazy rzeczywistości konsensusu o charakterze jednoznacznie seksualnym - niektóre, o zgrozo, z udziałem nieletnich. To, co początkowo było postrzegane jako nowatorska funkcja sztucznej inteligencji, szybko stało się wirem debaty, przyciągając międzynarodową kontrolę i żądania rygorystycznych regulacji.
I odwrotnie, nie jest tak, że X nie próbował odpowiedzieć na reakcję. Wprowadzono paywall, sąsiadujący z funkcją edycji obrazu, i wyłączono jego użycie w publicznych odpowiedziach. Reakcje te zostały jednak skrytykowane jako pozbawione znaczącej skuteczności. Krytycy twierdzą, że narzędzie AI nadal ułatwia tworzenie nieodpowiednich treści i zarzucają X rzekomy brak wprowadzenia znaczących środków ochronnych.
Regulacje dotyczące sztucznej inteligencji i etyka we współczesnym świecie
Ta kwestia i jej skutki są na czasie, ponieważ Unia Europejska aktywnie wzmacnia swoje stanowisko w sprawie przepisów dotyczących sztucznej inteligencji. Sytuacja przedstawiona przez X może być pionierem w sposobie, w jaki firmy technologiczne są kontrolowane - ich narzędzia AI, ich nieprzewidziane konsekwencje i ich odpowiedzialność. Mając na uwadze fakt, że ustawa o usługach cyfrowych Unii Europejskiej wisi niczym miecz Damoklesa, X może spotkać się z poważnymi reperkusjami, jeśli zostanie uznana za naruszającą narzucone standardy.
Być może jedną z ważniejszych dyskusji wywołanych incydentem z Grok jest szersza debata na temat etyki sztucznej inteligencji. A w szczególności, w jaki sposób te możliwości AI powinny być moderowane, gdy w grę wchodzi bezpieczeństwo użytkowników. Wraz z rozwojem technologii AI, wyzwanie zapewnienia etycznego użytkowania staje się coraz bardziej złożone - ten przypadek służy jako ostre przypomnienie spustoszenia, jakie może spowodować niekontrolowana sztuczna inteligencja.
Aby dowiedzieć się więcej o tej i podobnych historiach, odwiedź stronę The Verge.