Meta verklagt Deepfake-Entwickler: KI-App soll sexualisierte Inhalte trotz Werbeverbot verbreitet haben

by Eva Hoffmann
0 comments

Der US-Technologiekonzern Meta hat eine Klage gegen Joy Timeline HK Limited aus Hongkong eingereicht. Das Unternehmen vertreibt die App CrushAI, die mithilfe künstlicher Intelligenz entkleidete Deepfakes realer Personen erstellt. Laut Meta verstieß der Anbieter massiv gegen Plattformrichtlinien und verbreitete gezielt verbotene Werbung auf Facebook und Instagram.

Verdecktes Werbenetzwerk nutzt über 170 Fake-Konten

In der Klage wirft Meta dem App-Entwickler vor, ein komplexes System aus mindestens 170 gefälschten Geschäftskonten eingesetzt zu haben. Mehr als 55 Nutzer sollen über 135 Facebook-Seiten insgesamt über 87.000 Anzeigen geschaltet haben. Die Werbung richtete sich vor allem an Nutzer in den USA, Großbritannien, Kanada, Deutschland und Australien.

CrushAI versprach mit Slogans wie „Ein Foto reicht, um sie nackt zu sehen“ oder „Digitale Entkleidung per Klick“ die Erstellung von KI-generierten Nacktaufnahmen. Die Inhalte entstanden meist ohne Zustimmung der betroffenen Personen.

KI macht Persönlichkeitsrechte angreifbar

Die App generierte realistisch wirkende, entkleidete Abbilder auf Basis hochgeladener Fotos. Damit wurde gegen grundlegende Meta-Richtlinien zur sexuellen Ausbeutung und Privatsphäre verstoßen. Trotz interner Kontrollen erschienen solche Anzeigen wiederholt auf Meta-Plattformen – in direktem Widerspruch zu den eigenen Regeln.

Enthüllungen sorgen für politischen Druck

Recherchen mehrerer Technikmedien zeigten, dass ein Großteil des Traffics von CrushAI über Facebook und Instagram erfolgte. Die Enthüllungen führten zu politischen Reaktionen. US-Senator Dick Durbin wandte sich in einem offenen Brief an Meta-Chef Mark Zuckerberg und forderte Aufklärung zu den Sicherheitslücken.

Neue Gesetze sollen Opfer besser schützen

Immer häufiger geraten prominente Persönlichkeiten, Politikerinnen und sogar Schülerinnen ins Visier solcher Deepfake-Technologien. Als Reaktion wurde in den USA der „Take It Down Act“ verabschiedet, der Plattformen verpflichtet, nicht-einvernehmliche KI-Bilder zu entfernen und deren Verbreitung zu verhindern.

Meta rüstet mit KI-Erkennungstechnologie auf

Um zukünftige Verstöße zu verhindern, entwickelte Meta neue Systeme zur Erkennung verdächtiger Begriffe, Emojis und Formulierungen. Diese sollen Anzeigen auch dann identifizieren, wenn sie keine sichtbare Nacktheit enthalten. Die Technologie wurde in Zusammenarbeit mit externen Fachkräften trainiert.

App-Betreiber nutzen ständig neue Umgehungsstrategien

Die Betreiber hinter CrushAI reagieren schnell auf Sperren, indem sie neue Domains registrieren und unverfängliche Bilder verwenden. Meta beschreibt diesen Bereich als besonders herausfordernd, da die Akteure wirtschaftlich motiviert sind und laufend neue Methoden entwickeln.

Brancheninitiative soll gegen digitale Ausbeutung helfen

Über das Projekt „Lantern“, organisiert von der Tech Coalition, teilt Meta sicherheitsrelevante Informationen mit anderen Unternehmen. Ziel ist ein koordinierter Einsatz gegen Deepfake-Werbung und kinderschutzrelevante Inhalte im Internet.

Eingeschränkte Moderation erhöht Risiko problematischer Inhalte

Seit Anfang des Jahres greift Metas automatisierte Inhaltskontrolle nur noch bei schweren Rechtsverstößen wie Terrorismus oder Kindesmissbrauch. Inhalte wie Deepfakes müssen manuell gemeldet werden. Sicherheitsexperten kritisieren, dass schädliche Inhalte dadurch länger online bleiben.

Meta fordert Entschädigung und will Werbung dauerhaft unterbinden

Durch die Ermittlungen und regulatorischen Maßnahmen entstanden Meta laut Klage Kosten in Höhe von 289.000 US-Dollar. Die Klage zielt darauf ab, Joy Timeline dauerhaft vom Zugang zu Werbeplattformen auszuschließen – und ein Zeichen gegen die Verbreitung nicht-einvernehmlicher, KI-generierter Bilder zu setzen.

You may also like