Kategorien: BilderNachrichten

Kleinere Deepfakes können die größere Bedrohung sein

Unternehmen nutzen heute KI-Tools für Unterhaltungen wie ChatGPT und Google Gemini, um eine weiterentwickelte Form von Deepfakes zu erstellen, die möglicherweise eine Geschichte innerhalb eines Bildes umschreiben können. Dazu gehören subtile Änderungen von Gesten, Requisiten und Hintergründen, die nicht nur menschliche Betrachter in die Irre führen, sondern auch KI-Detektoren täuschen. Dies weckt neue Bedenken hinsichtlich der Authentizität visueller Darstellungen, die online geteilt werden.

Deepfakes, despite being widely associated with direct misuse like political propaganda or explicit non-consensual content, have another side to them. History teaches us that the most influential manipulations usually come in the most subtle forms – a notion that rings true here. Think back to Stalin-era USSR when photo edits were used to erase certain individuals from history. Today’s AI-powered image generation echoes an unsettling similarity to that practice – making alterations to reality, one pixel at a time, rather than just swapping faces.

Unlike traditional deepfakes that project brute digital force, these subtle manipulations bear a psychological aspect akin to ‘gaslighting.’ They are more difficult to detect and possess the potential to gradually shift perceptions. Imagine, a missing stethoscope or a changed background. These minor adjustments may seem negligible, but together they pack the capacity to redefine narratives and disrupt identities.

In response to this emerging threat, researchers from Monash University and Curtin University have introduced MultiFakeVerse – a massive dataset constituted of over 845,000 images featuring menial, people-centered manipulations. Instead of focusing on face swaps or noticeable forgeries, this dataset leverages vision-language models like ChatGPT-4o and Gemini-2.0-Flash to produce context-sensitive edits. These alterations don’t switch the person in the picture but manipulate how they appear, by introducing emotional indications, modifying props, or tweaking the narrative tone of the scene.

Bei der Erstellung dieses Datensatzes wurde mit fast 87 000 authentischen Bildern aus Datenbanken wie EMOTIC, PISC, PIPA und PIC 2.0 begonnen und über 758 000 manipulierte Versionen erstellt. Jede Bearbeitung wurde sorgfältig durch KI-generierte Anweisungen gesteuert, um die wahrgenommenen Emotionen oder die Rolle des Motivs subtil zu verändern. Gemini-2.0-Flash, eines der drei Tools, die zur Durchführung der Bildbearbeitung verwendet wurden, überzeugte mit konsistenten, artefaktfreien Ergebnissen.

Es bleibt jedoch die ernüchternde Tatsache, dass sowohl Menschen als auch führende KI-Erkennungssysteme, die dem Realismus dieses Datensatzes ausgesetzt waren, nur einen Wert von 62% für menschliche Beobachter erreichten, um gefälschte Bilder korrekt zu erkennen. KI-Modelle, darunter CnnSpot und SIDA, zeigten vor allem in Zero-Shot-Szenarien eine schlechte Leistung und stuften manipulierte Bilder häufig fälschlicherweise als echt ein. Darüber hinaus blieb die Erkennungsgenauigkeit auch nach der Feinabstimmung auf MultiFakeVerse bescheiden, was darauf hindeutet, dass aktuelle Erkennungssysteme, die auf offenere Deepfakes trainiert wurden, für diese nuancierten Bearbeitungen schlecht gerüstet sind.

Die Forscher nutzten Metriken wie PSNR, SSIM und FID, um die visuelle Qualität ihrer Manipulationen zu bewerten. Die Ergebnisse zeigten, dass die Bearbeitungen die Bedeutung subtil veränderten, ohne die Integrität der Bilder zu beeinträchtigen. Bei der Beschaffung von Bildunterschriften aus ShareGPT-4V und deren Analyse mithilfe von Long-CLIP-Einbettungen bestätigte sich, dass kleine Änderungen, wie die Änderung einer Requisite oder eines Gesichtsausdrucks, die Interpretation des Bildes durch den Betrachter erheblich beeinflussen können.

Gleichzeitig wurden Tests und Studien mit Teilnehmern durchgeführt, um die große Herausforderung zu verdeutlichen, die diese manipulierten Bilder darstellten. Die Teilnehmer ordneten die Bilder häufig falsch ein und schienen Schwierigkeiten zu haben, die manipulierten Regionen zu identifizieren. Diese Ergebnisse unterstreichen, wie mühelos sich subtile Deepfakes sowohl der menschlichen Intuition als auch der KI-Prüfung entziehen können.

Führende Systeme zur Erkennung von Fälschungen wurden mit dem Datensatz, der in Trainings-, Validierungs- und Testdatensätze aufgeteilt war, sowohl im Zero-Shot- als auch im Feinabstimmungsmodus getestet. Die Ergebnisse zeigten, dass das Nachtrainieren bei der Lokalisierung manipulierter Regionen hilfreich war, auch wenn es immer noch eine große Hürde darstellte, die es zu überwinden galt.

In conclusion, MultiFakeVerse uncovers a critical vulnerability in how we perceive and safeguard visual truth. As AI-generated content becomes increasingly integrated into our digital lives, it gets harder to distinguish the real from the fake. Although, subtle manipulations might not incite instantaneous uproar, their cumulative effect can potentially erode trust in visual media. It’s a new breed of deepfakes that don’t roar their presence, but whisper it, therein laying the danger.

Erstmals veröffentlicht am Donnerstag, 5. Juni 2025. Sie können den Originalartikel unter [hier](https://www.unite.ai/smaller-deepfakes-may-be-the-bigger-threat/) lesen.

Max Krawiec

Teilen Sie
Herausgegeben von
Max Krawiec

Diese Website verwendet Cookies.