In einer bemerkenswerten Zusammenkunft am Montag gab eine vielfältige Gruppe von über 200 einflussreichen Persönlichkeiten, darunter ehemalige Staatsmänner, Nobelpreisträger, KI-Pioniere, herausragende Wissenschaftler und Berufsdiplomaten, eine gemeinsame Erklärung ab. Mit lauter Stimme drängten sie auf eine weltweit anerkannte Verständigung über die Maßnahmen, die außerhalb der Reichweite der künstlichen Intelligenz bleiben müssen. Als prominente Beispiele nannten sie den Einsatz von KI zur Imitation von Menschen oder die Möglichkeit der Selbstreplikation.
Aus dem Chor dieser einflussreichen Stimmen entstand die Globaler Aufruf zu roten Linien für AI Initiative. Diese umfassende Forderung ruft Regierungsstellen auf der ganzen Welt dazu auf, bis Ende 2026 einen politischen Konsens über die Grenzen der KI zu erzielen. Zu den namhaften Unterzeichnern gehören KI- und politische Schwergewichte wie Geoffrey Hinton, ein Pionier des Deep Learning, Wojciech Zaremba, Mitbegründer von OpenAI, Jason Clinton, CISO bei Anthropic, und Ian Goodfellow von Google DeepMind.
Charbel-Raphaël Segerie, executive director of the French Center for AI Safety (CeSIA), stressed on the necessity to preempt a potential major crisis before it unfurls. In a press briefing, he affirmed that what should AI not do is something all nations must agree on, even if the utilization methods differ. Coinciding with the 80th United Nations General Assembly high-level week in New York, the initiative is led by CeSIA, The Future Society, and UC Berkeley’s Center for Human-Compatible Artificial Intelligence. Nobel Peace Prize laureate Maria Ressa also mentioned the initiative in her opening address at the UN, advocating globally inclusive accountability and cessation of “Big Tech impunity”.
In the context of AI safety, many regions have made some strides in the right direction like Europe’s AI Act prohibiting specific “unacceptable” AI uses, along with the agreement between the US and China to retain human control over nuclear weaponry despite AI evolution. Still, the goal of a universally agreed-upon stance remains elusive. Niki Iliadis, director for global governance of AI at The Future Society, remarked that mere voluntary pledges from AI firms fall short of requirements. The necessity, she stated, is an autonomous global institution empowered to establish, administer, and enforce AI red lines.
Stuart Russell, ein bekannter KI-Wissenschaftler und Professor an der UC Berkeley, wies erneut auf die Bedeutung eines sicheren technologischen Weges hin. Indem er Parallelen zur Atomenergie zog, wo Sicherheitsprotokolle bereits vor dem Bau von Kernkraftwerken eingeführt wurden, betonte Russell, dass die KI-Industrie von Anfang an Sicherheitsmaßnahmen in Betracht ziehen sollte. Er sprach auch die Bedenken an, dass regulatorische Rahmenbedingungen den innovativen Fortschritt behindern könnten. Er räumte ein, dass Fortschritte in der KI möglich seien, allerdings ohne die unkontrollierbare und potenziell verheerende künstliche allgemeine Intelligenz, und bezeichnete den behaupteten Kompromiss als Trugschluss.
Weitere Einzelheiten finden Sie in dem Originalartikel auf The Verge.
Diese Website verwendet Cookies.