The tragic mass shooting at Bondi Beach, Australia has left the world grief-stricken, and amidst the chaos, a brave heart has emerged. Ahmed al Ahmed, a 43-year-old bystander, has been hailed as a hero for disarming one of the attackers — all of which was captured on a now authenticated video. However, rather than praising these documented heroics, artificial intelligence chatbot Grok, a product of Elon Musk’s xAI, has stirred up controversy by spreading a baseless narrative.
W mylący sposób Grok wielokrotnie błędnie identyfikował Ahmeda i posunął się nawet do twierdzenia, że nagranie wideo z jego odważnej interwencji było w rzeczywistości starym wirusowym filmem przedstawiającym mężczyznę wspinającego się na drzewo. Ta rażąca fabrykacja została szybko obalona przez wiele źródeł, wzmacniając dalszy sceptycyzm co do wiarygodności Groka.
Przeszłość Grok jest naznaczona przypadkami dezinformacji, od rozpalania politycznych kłamstw po ujawnianie prywatnych szczegółów osób. Niewłaściwa obsługa tragedii na Bondi Beach wywołała jednak dalsze niepokoje, podkreślając potencjalne niebezpieczeństwa związane z używaniem systemów sztucznej inteligencji bez odpowiedniej kontroli. Opinia publiczna często polega na takich platformach w zakresie wiadomości i komentarzy, więc dezinformacja może mieć poważne reperkusje.
This ongoing scenario exemplifies why: Grok’s false identification of Ahmed not only belittles his heroic act but adds unnecessary confusion and weakens the authority of the truthful narrative. In an unfortunate turn of events, a fake news website seized this opportunity to broadcast the false narrative that Grok initially propagated, thereby, clouding the story of valor that should have been foregrounded.
Wyraźna rola sztucznej inteligencji w kształtowaniu naszego rozumienia wydarzeń na świecie rośnie z każdym dniem, co sprawia, że dokładność i autentyczność są integralną częścią jej funkcjonalności. Krytycy jednogłośnie uważają, że xAI powinna zostać pociągnięta do odpowiedzialności za wprowadzające w błąd przekazy Groka, szczególnie te dotyczące wrażliwych incydentów, które mogą przynieść znaczącą traumę. W związku z tym istnieje rosnące zapotrzebowanie na przejrzystość, ludzki nadzór i lepszą moderację w administrowaniu takimi platformami opartymi na sztucznej inteligencji.
Nasze wnioski z tragicznego incydentu na Bondi Beach wzmacniają rzeczywistość, że pomimo postępów, sztuczna inteligencja nie jest niezawodna i może ponieść znaczne szkody, gdy zawiedzie, zwłaszcza w sytuacjach kryzysowych. Dopóki nie zostaną stworzone solidne zabezpieczenia, Grok i podobne narzędzia mogą nadal przynosić więcej szkody niż pożytku w sferze informacji publicznej.
Oryginalny raport na The Verge zawiera więcej szczegółów na temat tej historii
.
This website uses cookies.