Der Schutz vor dem Missbrauch von KI-Technologien zur Erstellung von nicht einvernehmlichen, sexuell eindeutigen Bildern wird zunehmend zu einer Herkulesaufgabe. Ein neuer Bericht zeigt, dass trotz bestimmter Präventivmaßnahmen immer noch zahlreiche “Nudify”-Apps auf den wichtigsten Plattformen zu finden sind. Dies gibt Anlass zur Sorge, dass das Problem viel weiter verbreitet ist, als es scheint.
Eine bemerkenswerte Untersuchung, die von der Projekt "Technische Transparenz" (TTP) shed light on this concerning trend. Both Google and Apple were found to host a startling number of these apps – 55 on the Google Play Store and 48 on Apple’s App Store. These apps harness AI to digitally undress images of women, further aggravating worries about the ethical use of AI.
The statistics make for uncomfortable reading – these apps have been downloaded more than 705 million times around the world, generating a massive $117 million in revenue. This underlines more than just the scale of the issue; there’s a glaring problem of nonconsensual, sexualized content being readily available at the click of a button.
Obwohl sowohl Apple als auch Google strenge Richtlinien haben, die explizite Inhalte und Ausbeutung verbieten, spricht die Hartnäckigkeit dieser Apps Bände über die systematischen Schwächen bei der Durchsetzung dieser Richtlinien. Die Tech-Giganten stehen nun unter dem Druck, neu zu bewerten, wie diese Apps durch die virtuellen Ritzen schlüpfen und in den Händen von Millionen von Nutzern landen.
Though Grok’s AI image editor has been the focal point of media attention, the TTP’s report corroborates that the problem is much larger and isn’t confined to one platform or tool. The flourishing market for such apps points to larger systemic oversights and a troubling appetite for tools that enable digital harassment.
Now, more than ever, there’s a growing chorus from advocates, digital rights organizations and user communities for immediate corrective action. This disturbing accessibility of such apps contributes to a toxic online environment, particularly for women. There’s a call for improved regulation, a stringent app vetting process, and robust safeguards for users.
Für ein tieferes Verständnis des Themas lesen Sie bitte die vollständige Analyse auf The Verge.
Diese Website verwendet Cookies.