Meta, der Mutterkonzern von Facebook, Instagram und WhatsApp, treibt seine Pläne zur Automatisierung der Inhaltsmoderation auf seinen Plattformen energisch voran und ersetzt dabei Tausende menschlicher Content-Sicherheitsstellen durch KI-Systeme.
Laut internen Unternehmensdokumenten beabsichtigt Meta, bis zu 90 % seiner Datenschutz- und Integritätsprüfungen zu automatisieren und so seine Abhängigkeit von menschlichen Moderatoren drastisch zu reduzieren. Im aktuellen Integritätsbericht des Unternehmens heißt es, dass die großen Sprachmodelle von Meta „in ausgewählten Richtlinienbereichen bereits über die menschliche Leistungsfähigkeit hinaus agieren“ und es der KI ermöglichen, Inhalte zu prüfen, bei denen das Unternehmen „mit hoher Sicherheit“ davon ausgeht, dass sie nicht gegen die Plattformregeln verstoßen.
Meta ist überzeugt, dass dieser Wandel die Kosten optimiert und es den Plattformen ermöglicht, ein größeres Inhaltsvolumen mit höherer Geschwindigkeit und Konsistenz zu verarbeiten. Das Unternehmen setzt bereits seit mehreren Jahren zunehmend KI zur Inhaltsfilterung ein, doch dieser Schritt markiert eine deutliche Beschleunigung dieser Strategie.
Kritiker argumentieren jedoch, dass KI zwar die Effizienz steigern kann, aber das menschliche Urteilsvermögen für komplexe Moderationsentscheidungen fehlt. Sarah Roberts, Professorin an der UCLA und Direktorin des Center for Critical Internet Inquiry, äußerte Bedenken, dass KI-Systeme „voller Vorurteile und fehleranfällig“ seien. Fälle von Hassrede, Desinformation oder kultureller Sensibilität erforderten häufig ein Kontextverständnis, das KI bislang nur unzureichend leisten könne.
Der Wandel wirft zudem ethische Fragen zu Arbeitsbedingungen, Transparenz und unternehmerischer Verantwortung auf. Inhaltliche Moderatoren haben seit Langem auf problematische Arbeitsbedingungen hingewiesen, ihre Rolle gilt jedoch als essenziell für die Sicherheit der Plattformen. Werden sie durch KI ersetzt, könnte dies das öffentliche Vertrauen untergraben – insbesondere, wenn Moderationsfehler nicht behoben werden.
Dieser Übergang erfolgt im Zuge umfassenderer Änderungen an Metas Inhaltsrichtlinien, darunter die Ablösung externer Faktenprüfer durch ein gemeinschaftsbasiertes Modell sowie gelockerte Beschränkungen für bestimmte Formen der Meinungsäußerung. Während Regulierungsbehörden in Europa und den USA verstärkt prüfen, wie Plattformen mit schädlichen Inhalten umgehen, wird Metas KI-basierter Ansatz sich in puncto Effizienz und Verantwortungsbewusstsein bewähren müssen.