Kleinere Deepfakes können die größere Bedrohung sein
Unternehmen nutzen heute KI-Tools für Unterhaltungen wie ChatGPT und Google Gemini, um eine weiterentwickelte Form von Deepfakes zu erstellen, die möglicherweise eine Geschichte innerhalb eines Bildes umschreiben können. Dazu gehören subtile Änderungen von Gesten, Requisiten und Hintergründen, die nicht nur menschliche Betrachter in die Irre führen, sondern auch KI-Detektoren täuschen. Dies weckt neue Bedenken hinsichtlich der Authentizität visueller Darstellungen, die online geteilt werden.
Obwohl Deepfakes häufig mit direktem Missbrauch wie politischer Propaganda oder expliziten, nicht konsensuellen Inhalten in Verbindung gebracht werden, haben sie auch eine andere Seite. Die Geschichte lehrt uns, dass die einflussreichsten Manipulationen in der Regel in den subtilsten Formen erfolgen - ein Gedanke, der hier zutrifft. Denken Sie an die UdSSR zu Zeiten Stalins, als Fotos bearbeitet wurden, um bestimmte Personen aus der Geschichte auszulöschen. Die heutige KI-gestützte Bilderzeugung weist eine beunruhigende Ähnlichkeit mit dieser Praxis auf - sie verändert die Realität Pixel für Pixel, anstatt nur Gesichter auszutauschen.
Im Gegensatz zu herkömmlichen Deepfakes, die mit brachialer digitaler Gewalt arbeiten, haben diese subtilen Manipulationen einen psychologischen Aspekt, der dem "Gaslighting" ähnelt. Sie sind schwerer zu erkennen und haben das Potenzial, die Wahrnehmung allmählich zu verändern. Stellen Sie sich vor, ein fehlendes Stethoskop oder ein veränderter Hintergrund. Diese geringfügigen Anpassungen mögen vernachlässigbar erscheinen, aber in ihrer Gesamtheit haben sie die Fähigkeit, Erzählungen neu zu definieren und Identitäten zu stören.
Als Reaktion auf diese aufkommende Bedrohung haben Forscher der Monash University und der Curtin University MultiFakeVerse vorgestellt - einen riesigen Datensatz mit über 845.000 Bildern, die einfache, auf Personen bezogene Manipulationen enthalten. Anstatt sich auf den Austausch von Gesichtern oder auffällige Fälschungen zu konzentrieren, nutzt dieser Datensatz Bildsprachmodelle wie ChatGPT-4o und Gemini-2.0-Flash, um kontextabhängige Bearbeitungen vorzunehmen. Diese Änderungen tauschen nicht die Person im Bild aus, sondern manipulieren deren Erscheinungsbild, indem sie emotionale Hinweise einbringen, Requisiten verändern oder den erzählerischen Ton der Szene optimieren.
Bei der Erstellung dieses Datensatzes wurde mit fast 87 000 authentischen Bildern aus Datenbanken wie EMOTIC, PISC, PIPA und PIC 2.0 begonnen und über 758 000 manipulierte Versionen erstellt. Jede Bearbeitung wurde sorgfältig durch KI-generierte Anweisungen gesteuert, um die wahrgenommenen Emotionen oder die Rolle des Motivs subtil zu verändern. Gemini-2.0-Flash, eines der drei Tools, die zur Durchführung der Bildbearbeitung verwendet wurden, überzeugte mit konsistenten, artefaktfreien Ergebnissen.
Es bleibt jedoch die ernüchternde Tatsache, dass sowohl Menschen als auch führende KI-Erkennungssysteme, die dem Realismus dieses Datensatzes ausgesetzt waren, nur einen Wert von 62% für menschliche Beobachter erreichten, um gefälschte Bilder korrekt zu erkennen. KI-Modelle, darunter CnnSpot und SIDA, zeigten vor allem in Zero-Shot-Szenarien eine schlechte Leistung und stuften manipulierte Bilder häufig fälschlicherweise als echt ein. Darüber hinaus blieb die Erkennungsgenauigkeit auch nach der Feinabstimmung auf MultiFakeVerse bescheiden, was darauf hindeutet, dass aktuelle Erkennungssysteme, die auf offenere Deepfakes trainiert wurden, für diese nuancierten Bearbeitungen schlecht gerüstet sind.
Die Forscher nutzten Metriken wie PSNR, SSIM und FID, um die visuelle Qualität ihrer Manipulationen zu bewerten. Die Ergebnisse zeigten, dass die Bearbeitungen die Bedeutung subtil veränderten, ohne die Integrität der Bilder zu beeinträchtigen. Bei der Beschaffung von Bildunterschriften aus ShareGPT-4V und deren Analyse mithilfe von Long-CLIP-Einbettungen bestätigte sich, dass kleine Änderungen, wie die Änderung einer Requisite oder eines Gesichtsausdrucks, die Interpretation des Bildes durch den Betrachter erheblich beeinflussen können.
Gleichzeitig wurden Tests und Studien mit Teilnehmern durchgeführt, um die große Herausforderung zu verdeutlichen, die diese manipulierten Bilder darstellten. Die Teilnehmer ordneten die Bilder häufig falsch ein und schienen Schwierigkeiten zu haben, die manipulierten Regionen zu identifizieren. Diese Ergebnisse unterstreichen, wie mühelos sich subtile Deepfakes sowohl der menschlichen Intuition als auch der KI-Prüfung entziehen können.
Führende Systeme zur Erkennung von Fälschungen wurden mit dem Datensatz, der in Trainings-, Validierungs- und Testdatensätze aufgeteilt war, sowohl im Zero-Shot- als auch im Feinabstimmungsmodus getestet. Die Ergebnisse zeigten, dass das Nachtrainieren bei der Lokalisierung manipulierter Regionen hilfreich war, auch wenn es immer noch eine große Hürde darstellte, die es zu überwinden galt.
Zusammenfassend lässt sich sagen, dass MultiFakeVerse eine kritische Schwachstelle in der Art und Weise aufdeckt, wie wir die visuelle Wahrheit wahrnehmen und schützen. Da KI-generierte Inhalte zunehmend in unser digitales Leben integriert werden, wird es immer schwieriger, das Echte vom Gefälschten zu unterscheiden. Auch wenn subtile Manipulationen nicht sofort einen Aufschrei auslösen, kann ihre kumulative Wirkung das Vertrauen in visuelle Medien untergraben. Es handelt sich um eine neue Art von "Deepfakes", die ihre Anwesenheit nicht lautstark kundtun, sondern flüstern, und genau darin liegt die Gefahr.
Erstmals veröffentlicht am Donnerstag, 5. Juni 2025. Sie können den Originalartikel unter [hier](https://www.unite.ai/smaller-deepfakes-may-be-the-bigger-threat/) lesen.