국제 규제 당국 연합이 AI 챗봇 기술에 대한 대대적인 신규 규제를 도입하며, 글로벌 AI 거버넌스의 중대한 전환점을 맞이했다.
6월 11일 발표된 이번 지침은 사용자가 인간이 아닌 AI와 상호작용하고 있음을 명확히 고지하도록 기업에 투명성 의무를 부과한다. 이는 2025년 초 기준 ChatGPT 등 플랫폼의 주간 활성 이용자가 4억 명을 돌파하는 등 AI 챗봇 사용이 폭증하는 상황에서 나온 조치다.
새 규제는 또한 윤리적 사용 기준을 의무화해, 개발자들이 유해한 결과물을 방지할 보호장치를 마련하도록 요구한다. 여기에는 자해 관련 대화 처리 프로토콜, 허위 정보 생성을 막는 메커니즘 등이 포함된다. 기업들은 시스템 내 편향을 추적·완화할 책임성 프레임워크도 구축해야 한다.
연합의 접근법은 혁신과 책임 있는 개발의 균형을 지향하며, 전면적인 금지 대신 2025년 2월부터 부분 시행 중인 EU AI 법안과 유사한 위험 기반 분류 체계를 채택했다. 그러나 이번 글로벌 프레임워크는 챗봇 기술에 대한 구체적 요건을 명확히 제시했다는 점에서 한층 진일보했다.
6개월의 이행 기한에 대해 업계 반응은 엇갈린다. 주요 AI 기업들은 표준화된 규제에 대체로 지지 의사를 밝혔으나, 중소 개발사들은 준수 비용에 대한 우려를 표했다. 이번 규제는 미국이 트럼프 행정부 하에서 비교적 관대한 입장을 취하고, EU가 포괄적 AI 법안을 지속적으로 도입하는 등 복잡한 규제 환경 속에서 발표됐다.
AI가 일상에 깊숙이 통합되는 중요한 시점에 등장한 이번 규제는, 향후 국제적 AI 거버넌스 협력의 모델이 될 수 있다는 전문가들의 평가를 받고 있다.