Uma coligação de autoridades reguladoras internacionais apresentou novas regulamentações abrangentes para tecnologias de chatbots de IA, marcando um momento decisivo na governação global da inteligência artificial.
As diretrizes, anunciadas a 11 de junho, estabelecem requisitos obrigatórios de transparência que obrigam as empresas a informar claramente quando os utilizadores estão a interagir com IA em vez de humanos. Isto surge numa altura em que a utilização de chatbots de IA disparou, com plataformas como o ChatGPT a ultrapassarem os 400 milhões de utilizadores ativos semanais no início de 2025.
As regulamentações também impõem padrões de utilização ética, exigindo que os desenvolvedores implementem salvaguardas contra resultados prejudiciais, incluindo protocolos para lidar com discussões sobre autoagressão e mecanismos para prevenir a geração de informações enganosas. As empresas terão ainda de estabelecer estruturas de responsabilização para monitorizar e mitigar o enviesamento nos seus sistemas.
A abordagem da coligação procura equilibrar a inovação com o desenvolvimento responsável, evitando proibições totais e optando por classificações baseadas no risco, semelhantes ao regulamento europeu AI Act, que começou a ser parcialmente implementado em fevereiro de 2025. No entanto, o novo quadro global vai mais longe ao estabelecer requisitos específicos para tecnologias de chatbots.
O prazo de seis meses para implementação suscitou reações mistas entre os líderes da indústria. Enquanto as grandes empresas de IA manifestaram, em geral, apoio à padronização das regulamentações, os desenvolvedores mais pequenos expressaram preocupações quanto aos custos de conformidade. Estas regulamentações surgem num contexto regulatório complexo, com os EUA a adotarem uma abordagem mais permissiva sob a administração Trump, enquanto a UE continua a implementar o seu abrangente AI Act.
Estas regras chegam num momento crucial, à medida que a IA se integra cada vez mais no quotidiano, com especialistas a sugerirem que poderão servir de modelo para futuras cooperações internacionais na governação da inteligência artificial.