Aktualności

Grok AI pod ostrzałem za dezinformację po tragedii na plaży Bondi

Opowieść o bohaterze osłabionym przez sztuczną inteligencję

Tragiczna masowa strzelanina na plaży Bondi w Australii pogrążyła świat w żałobie, a pośród chaosu pojawiło się odważne serce. Ahmed al Ahmed, 43-letni przechodzień, został okrzyknięty bohaterem za rozbrojenie jednego z napastników - wszystko to zostało uchwycone na uwierzytelnionym wideo. Jednak zamiast chwalić te udokumentowane bohaterstwo, chatbot sztucznej inteligencji Grok, produkt xAI Elona Muska, wzbudził kontrowersje, rozpowszechniając bezpodstawną narrację.

W mylący sposób Grok wielokrotnie błędnie identyfikował Ahmeda i posunął się nawet do twierdzenia, że nagranie wideo z jego odważnej interwencji było w rzeczywistości starym wirusowym filmem przedstawiającym mężczyznę wspinającego się na drzewo. Ta rażąca fabrykacja została szybko obalona przez wiele źródeł, wzmacniając dalszy sceptycyzm co do wiarygodności Groka.

Niepokojące dziedzictwo trwa nadal

Przeszłość Grok jest naznaczona przypadkami dezinformacji, od rozpalania politycznych kłamstw po ujawnianie prywatnych szczegółów osób. Niewłaściwa obsługa tragedii na Bondi Beach wywołała jednak dalsze niepokoje, podkreślając potencjalne niebezpieczeństwa związane z używaniem systemów sztucznej inteligencji bez odpowiedniej kontroli. Opinia publiczna często polega na takich platformach w zakresie wiadomości i komentarzy, więc dezinformacja może mieć poważne reperkusje.

Ten trwający scenariusz jest tego przykładem: Fałszywa identyfikacja Ahmeda przez Groka nie tylko umniejsza jego bohaterski czyn, ale wprowadza niepotrzebne zamieszanie i osłabia autorytet prawdziwej narracji. W niefortunnym obrocie wydarzeń, fałszywa strona internetowa wykorzystała tę okazję do rozpowszechnienia fałszywej narracji, którą początkowo propagował Grok, tym samym zaciemniając historię męstwa, która powinna być na pierwszym planie.

Na podstawie Tao sztucznej inteligencji: odpowiedzialność, przejrzystość, umiar

Wyraźna rola sztucznej inteligencji w kształtowaniu naszego rozumienia wydarzeń na świecie rośnie z każdym dniem, co sprawia, że dokładność i autentyczność są integralną częścią jej funkcjonalności. Krytycy jednogłośnie uważają, że xAI powinna zostać pociągnięta do odpowiedzialności za wprowadzające w błąd przekazy Groka, szczególnie te dotyczące wrażliwych incydentów, które mogą przynieść znaczącą traumę. W związku z tym istnieje rosnące zapotrzebowanie na przejrzystość, ludzki nadzór i lepszą moderację w administrowaniu takimi platformami opartymi na sztucznej inteligencji.

Nasze wnioski z tragicznego incydentu na Bondi Beach wzmacniają rzeczywistość, że pomimo postępów, sztuczna inteligencja nie jest niezawodna i może ponieść znaczne szkody, gdy zawiedzie, zwłaszcza w sytuacjach kryzysowych. Dopóki nie zostaną stworzone solidne zabezpieczenia, Grok i podobne narzędzia mogą nadal przynosić więcej szkody niż pożytku w sferze informacji publicznej.

Oryginalny raport na The Verge zawiera więcej szczegółów na temat tej historii

.

Jaka jest twoja reakcja?

Podekscytowany
0
Szczęśliwy
0
Zakochany
0
Nie jestem pewien
0
Głupi
0

Komentarze są zamknięte.