페이스북, 인스타그램, 왓츠앱의 모회사인 메타가 자사 플랫폼 전반에 걸쳐 콘텐츠 관리를 자동화하는 계획을 공격적으로 추진하고 있다. 이에 따라 수천 명에 달하는 인간 콘텐츠 보안 담당자들이 AI 시스템으로 점진적으로 대체된다.
내부 문서에 따르면, 메타는 프라이버시 및 무결성 검토의 최대 90%를 자동화할 계획이며, 이로써 인간 관리자에 대한 의존도를 대폭 줄일 방침이다. 회사의 분기별 무결성 보고서에서는 대형 언어 모델이 "일부 정책 영역에서 이미 인간의 성능을 넘어섰다"고 밝히며, AI가 플랫폼 규칙을 "위반하지 않는다고 매우 확신하는" 콘텐츠를 선별할 수 있게 됐다고 전했다.
메타는 이번 전환을 통해 비용을 최적화하고, 더 많은 양의 콘텐츠를 더욱 빠르고 일관성 있게 처리할 수 있을 것으로 기대하고 있다. 수년 전부터 AI를 활용한 콘텐츠 필터링을 점진적으로 확대해왔으나, 이번 조치는 해당 전략의 본격적인 가속화로 평가된다.
하지만 비평가들은 AI가 효율성을 높일 수는 있지만, 복잡한 관리 결정에는 인간의 판단력이 필수적이라고 지적한다. UCLA 교수이자 비판적 인터넷 연구 센터 소장인 사라 로버츠는 AI 시스템이 "편향으로 가득 차 있고 오류에 취약하다"며 우려를 표했다. 혐오 발언, 허위 정보, 문화적 민감성 등과 관련된 사안은 맥락에 대한 이해가 필요한데, AI는 아직 이를 충분히 제공하지 못한다는 것이다.
이러한 변화는 노동, 투명성, 기업 책임 등 윤리적 문제도 제기한다. 콘텐츠 관리자들은 오랫동안 근무 환경에 대한 우려를 제기해왔지만, 그들의 역할은 플랫폼 안전 유지에 필수적인 것으로 여겨져 왔다. 이들을 AI로 대체할 경우, 특히 관리 오류가 바로잡히지 않을 때 대중의 신뢰가 약화될 수 있다.
이번 전환은 메타의 콘텐츠 정책 전반에 걸친 변화와 맞물려 있다. 여기에는 제3자 팩트체커를 커뮤니티 기반 모델로 대체하고, 특정 유형의 발언에 대한 제한을 완화하는 조치도 포함된다. 유럽과 미국의 규제 당국이 유해 콘텐츠 관리 방식을 점점 더 면밀히 들여다보는 가운데, 메타의 AI 중심 접근법은 효율성과 책임의 균형이라는 중대한 시험대에 오를 전망이다.