Nutzer verärgert: Metas KI sperrt Gruppen und Konten ohne Grund

by Eva Hoffmann
0 comments

Technisches Versagen führt zu fehlerhaften Löschungen

Meta bestätigte, dass ein technischer Fehler Facebook-Gruppen fälschlich sperren ließ. Das Unternehmen arbeite daran, das Problem zu beheben. Zahlreiche Administratoren berichteten in Foren über automatisierte Nachrichten mit falschen Vorwürfen. In den Mitteilungen hieß es, ihre Gruppen hätten gegen Plattformregeln verstoßen. Diese Sperrungen erfolgten ohne menschliche Prüfung und wurden automatisch durchgesetzt.

Auch Instagram-Nutzer meldeten vergleichbare Vorfälle mit persönlichen Konten. Viele machten Metas KI-Systeme für die Fehler verantwortlich. Meta sprach von einem Einzelfall bei Facebook-Gruppen, bestritt aber ein größeres Problem auf allen Plattformen.

Großgruppen betroffen – Sperrungen nach Protest aufgehoben

Eine Meme-Gruppe mit über 680.000 Mitgliedern wurde wegen angeblicher Nähe zu gefährlichen Organisationen gelöscht. Der Gründer veröffentlichte diese Information öffentlich, woraufhin Meta die Gruppe wiederherstellte. Ein weiterer Nutzer berichtete auf Reddit über die Sperrung seiner KI-Gruppe mit 3,5 Millionen Mitgliedern. Auch sein persönliches Konto war betroffen. Meta entschuldigte sich später mit der Erklärung, die Technologie habe einen Fehler gemacht.

Massenhafte Beschwerden und Online-Petition

Die Sperrwelle führte zu Tausenden Beschwerden über Facebook und Instagram. Eine Online-Petition mit dem Titel „Meta deaktiviert Konten grundlos ohne menschlichen Support“ sammelte fast 22.000 Unterschriften. In einem Reddit-Forum schildern viele Nutzer ihre persönlichen Erfahrungen mit Löschungen. Einige verloren Seiten mit ideellem Wert, andere wichtige Geschäftskonten. Manche berichteten über Vorwürfe, sie hätten gegen Kinderschutzregeln verstoßen.

Zahlreiche Betroffene machten Metas KI verantwortlich und bemängelten fehlenden Support. Sie erklärten, nach der Sperre lasse sich kaum Kontakt zu Meta herstellen. Unabhängige Stellen konnten die Vorwürfe bisher nicht bestätigen.

Meta verteidigt seinen Prüfprozess

Meta erklärte in einer Stellungnahme, man gehe gegen Regelverstöße konsequent vor. Betroffene könnten Widerspruch einlegen, falls ein Fehler vorliege. Das Unternehmen betonte, sowohl Technik als auch Menschen zur Moderation einzusetzen. Meta sehe keinen allgemeinen Anstieg fehlerhafter Entscheidungen. Auf der Instagram-Website heißt es, KI sei zentral für die Inhaltskontrolle. Das System erkenne Verstöße oft vor einer Meldung durch Nutzer. In komplexeren Fällen prüften Menschen zusätzlich.

Meta sperrt Konten sofort bei schweren Verstößen, etwa bei Darstellungen sexuellen Kindesmissbrauchs. Auch KI-generierte Inhalte mit menschenähnlichen Zügen oder fiktionale Abbildungen unterliegen dieser Regelung. Der Konzern setzt zudem Technologien ein, um verdächtiges Verhalten zu erkennen. Dazu zählt etwa, wenn Erwachsene häufig von Jugendlichen gemeldet werden. Auch wiederholte Suchen nach problematischen Begriffen lösen Maßnahmen aus. Betroffene können dadurch ihren Zugang zu Minderjährigen verlieren oder vollständig gesperrt werden.

Meta veröffentlicht regelmäßig Berichte zur Durchsetzung seiner Regeln. Im Zeitraum Januar bis März verzeichnete der Konzern 4,6 Millionen Maßnahmen wegen Kindesmissbrauchsinhalten. Das ist der niedrigste Wert seit Anfang 2021. Der nächste Transparenzbericht soll in wenigen Monaten erscheinen.

You may also like