Światowi przywódcy jednoczą się, by wyznaczyć "czerwone linie" dla sztucznej inteligencji, zanim będzie za późno
Galwanizowanie globalnych liderów do wyznaczania czerwonych linii dla sztucznej inteligencji
Podczas niezwykłego poniedziałkowego spotkania, zróżnicowana grupa ponad 200 wpływowych osobistości, składająca się z byłych mężów stanu, laureatów Nagrody Nobla, pionierów sztucznej inteligencji, wybitnych naukowców i zawodowych dyplomatów, złożyła wspólną proklamację. Głośnym głosem wezwali oni do globalnie uznanego zrozumienia działań, które muszą pozostać poza zasięgiem sztucznej inteligencji. Niektóre z wybitnych przykładów, które przedstawili, obejmowały wykorzystanie sztucznej inteligencji do podszywania się pod ludzi lub umożliwienie im samoreplikacji.
Rozpoczęcie globalnego wezwania do inicjatywy AI Red Lines
Chór tych wpływowych głosów dał początek Globalne wezwanie do wyznaczenia czerwonych linii AI inicjatywa. To kompleksowe żądanie wzywa organy rządowe na całym świecie do osiągnięcia konsensusu politycznego w sprawie granic sztucznej inteligencji do końca 2026 roku. Wśród znaczących sygnatariuszy znajdują się takie osobistości w dziedzinie sztucznej inteligencji i polityki, jak Geoffrey Hinton, pionier głębokiego uczenia się; Wojciech Zaremba, współzałożyciel OpenAI; Jason Clinton, CISO w Anthropic; i Ian Goodfellow z Google DeepMind.
Charbel-Raphaël Segerie, dyrektor wykonawczy Francuskiego Centrum Bezpieczeństwa AI (CeSIA), podkreślił konieczność zapobiegania potencjalnemu poważnemu kryzysowi, zanim się rozwinie. Podczas briefingu prasowego potwierdził, że to, czego nie powinna robić sztuczna inteligencja, jest czymś, co wszystkie narody muszą uzgodnić, nawet jeśli metody wykorzystania są różne. Zbiegająca się z 80. tygodniem wysokiego szczebla Zgromadzenia Ogólnego ONZ w Nowym Jorku inicjatywa jest prowadzona przez CeSIA, The Future Society i UC Berkeley's Center for Human-Compatible Artificial Intelligence. Laureatka Pokojowej Nagrody Nobla Maria Ressa również wspomniała o tej inicjatywie w swoim przemówieniu inauguracyjnym w ONZ, opowiadając się za globalną odpowiedzialnością i zaprzestaniem "bezkarności Big Tech".
Odrzucenie dobrowolnych zobowiązań na rzecz nakazanego zarządzania
W kontekście bezpieczeństwa sztucznej inteligencji wiele regionów poczyniło pewne kroki we właściwym kierunku, takie jak europejska ustawa o sztucznej inteligencji zakazująca określonych "niedopuszczalnych" zastosowań sztucznej inteligencji, wraz z porozumieniem między USA i Chinami w sprawie zachowania ludzkiej kontroli nad bronią jądrową pomimo ewolucji sztucznej inteligencji. Wciąż jednak cel w postaci powszechnie uzgodnionego stanowiska pozostaje nieuchwytny. Niki Iliadis, dyrektor ds. globalnego zarządzania sztuczną inteligencją w The Future Society, zauważyła, że same dobrowolne zobowiązania firm zajmujących się sztuczną inteligencją nie spełniają wymagań. Stwierdziła, że konieczna jest autonomiczna globalna instytucja uprawniona do ustanawiania, administrowania i egzekwowania czerwonych linii AI.
Stuart Russell, znany naukowiec zajmujący się sztuczną inteligencją i profesor na UC Berkeley, ponownie podkreślił znaczenie bezpiecznej ścieżki technologicznej. Rysując podobieństwa z energią atomową, gdzie protokoły bezpieczeństwa zostały wdrożone przed rozpoczęciem budowy elektrowni jądrowych, Russell podkreślił, że branża sztucznej inteligencji powinna rozważyć środki bezpieczeństwa od samego początku. Odniósł się również do obaw związanych z ramami regulacyjnymi utrudniającymi innowacyjny postęp. Przyznał, że można dokonać postępów w dziedzinie sztucznej inteligencji, bez niekontrolowanej i potencjalnie niszczycielskiej sztucznej inteligencji ogólnej, porównując rzekomy kompromis do błędu.
Więcej szczegółów można znaleźć w oryginalnym artykule na stronie The Verge.