Anthropic beschuldigt chinesische KI-Firmen des Missbrauchs von Claude AI Model
Der KI-Forschungstitan Anthropic ist in eine interessante Kontroverse verwickelt. Das Unternehmen hat erhebliche Beschwerden gegen drei chinesische KI-Unternehmen erhoben: DeepSeek, MiniMax und Moonshot. Es wird behauptet, dass diese Unternehmen das hochmoderne KI-Modell von Anthropic ausgenutzt und ihre eigenen KI-Produkte auf unzulässige Weise verändert und verbessert haben. Diese Angelegenheit zeigt einen beunruhigenden Trend in der Branche auf - konzertierte, groß angelegte Bemühungen, Daten aus hochentwickelten KI-Modellen abzuschöpfen.
Und mehr noch? Es handelte sich nicht um eine kleine Operation. Nach Angaben von Anthropic wurden etwa 24.000 gefälschte Konten erstellt, was zu einem außerordentlichen Austausch von 16 Millionen Daten mit dem KI-Modell Claude führte. Das Ausmaß dieses Datenextraktionsvorhabens wurde der Öffentlichkeit bekannt durch Das Wall Street Journal und hat eindeutig Bedenken hinsichtlich der Integrität und Sicherheit moderner KI-Modelle geweckt.
Im Mittelpunkt dieser Behauptungen steht die als “Destillation” bekannte Praxis. Dabei werden kleinere, einfachere KI-Modelle anhand der Daten trainiert, die von ihren fortgeschritteneren Gegenstücken stammen. Obwohl die “Destillations”-Technik in der Community als legitime Trainingsmethode anerkannt ist, weist Anthropic auf das Missbrauchspotenzial hin. Sie behaupten, dass die Ausnutzung solcher Techniken das Wettbewerbsgleichgewicht und die proprietären Fortschritte in der KI-Arena stören kann.
Weitere Informationen und aktuelle Informationen zu diesem Thema finden Sie unter The Verge.