Categories: Aktualności

Światowi przywódcy jednoczą się, by wyznaczyć "czerwone linie" dla sztucznej inteligencji, zanim będzie za późno

Galwanizowanie globalnych liderów do wyznaczania czerwonych linii dla sztucznej inteligencji

Podczas niezwykłego poniedziałkowego spotkania, zróżnicowana grupa ponad 200 wpływowych osobistości, składająca się z byłych mężów stanu, laureatów Nagrody Nobla, pionierów sztucznej inteligencji, wybitnych naukowców i zawodowych dyplomatów, złożyła wspólną proklamację. Głośnym głosem wezwali oni do globalnie uznanego zrozumienia działań, które muszą pozostać poza zasięgiem sztucznej inteligencji. Niektóre z wybitnych przykładów, które przedstawili, obejmowały wykorzystanie sztucznej inteligencji do podszywania się pod ludzi lub umożliwienie im samoreplikacji.

Rozpoczęcie globalnego wezwania do inicjatywy AI Red Lines

Chór tych wpływowych głosów dał początek Globalne wezwanie do wyznaczenia czerwonych linii AI inicjatywa. To kompleksowe żądanie wzywa organy rządowe na całym świecie do osiągnięcia konsensusu politycznego w sprawie granic sztucznej inteligencji do końca 2026 roku. Wśród znaczących sygnatariuszy znajdują się takie osobistości w dziedzinie sztucznej inteligencji i polityki, jak Geoffrey Hinton, pionier głębokiego uczenia się; Wojciech Zaremba, współzałożyciel OpenAI; Jason Clinton, CISO w Anthropic; i Ian Goodfellow z Google DeepMind.

Charbel-Raphaël Segerie, executive director of the French Center for AI Safety (CeSIA), stressed on the necessity to preempt a potential major crisis before it unfurls. In a press briefing, he affirmed that what should AI not do is something all nations must agree on, even if the utilization methods differ. Coinciding with the 80th United Nations General Assembly high-level week in New York, the initiative is led by CeSIA, The Future Society, and UC Berkeley’s Center for Human-Compatible Artificial Intelligence. Nobel Peace Prize laureate Maria Ressa also mentioned the initiative in her opening address at the UN, advocating globally inclusive accountability and cessation of “Big Tech impunity”.

Odrzucenie dobrowolnych zobowiązań na rzecz nakazanego zarządzania

In the context of AI safety, many regions have made some strides in the right direction like Europe’s AI Act prohibiting specific “unacceptable” AI uses, along with the agreement between the US and China to retain human control over nuclear weaponry despite AI evolution. Still, the goal of a universally agreed-upon stance remains elusive. Niki Iliadis, director for global governance of AI at The Future Society, remarked that mere voluntary pledges from AI firms fall short of requirements. The necessity, she stated, is an autonomous global institution empowered to establish, administer, and enforce AI red lines.

Stuart Russell, znany naukowiec zajmujący się sztuczną inteligencją i profesor na UC Berkeley, ponownie podkreślił znaczenie bezpiecznej ścieżki technologicznej. Rysując podobieństwa z energią atomową, gdzie protokoły bezpieczeństwa zostały wdrożone przed rozpoczęciem budowy elektrowni jądrowych, Russell podkreślił, że branża sztucznej inteligencji powinna rozważyć środki bezpieczeństwa od samego początku. Odniósł się również do obaw związanych z ramami regulacyjnymi utrudniającymi innowacyjny postęp. Przyznał, że można dokonać postępów w dziedzinie sztucznej inteligencji, bez niekontrolowanej i potencjalnie niszczycielskiej sztucznej inteligencji ogólnej, porównując rzekomy kompromis do błędu.

Więcej szczegółów można znaleźć w oryginalnym artykule na stronie The Verge.

Max Krawiec

This website uses cookies.