menu
close

Schmidt alerta que corrida armamentista de IA pode desencadear ataques a data centers

O ex-CEO do Google, Eric Schmidt, alertou que a crescente corrida armamentista de inteligência artificial entre os EUA e a China pode levar a um conflito global envolvendo data centers e recursos críticos. Em uma recente palestra no TED, Schmidt apresentou um cenário hipotético em que nações poderiam recorrer à sabotagem ou até mesmo a ataques físicos à infraestrutura de IA rival para evitar serem ultrapassadas na corrida pela superinteligência. Como alternativa a uma abordagem perigosa de 'Projeto Manhattan' para o desenvolvimento de IA, Schmidt e colegas propõem uma estrutura chamada Mau Funcionamento Mútuo Assegurado de IA (MAIM) para desencorajar a dominação unilateral.
Schmidt alerta que corrida armamentista de IA pode desencadear ataques a data centers

A corrida global para alcançar sistemas de IA superinteligentes está criando tensões geopolíticas que podem escalar de uma competição tecnológica para um conflito real, segundo alertas preocupantes do ex-CEO do Google, Eric Schmidt.

Em sua palestra no TED em maio de 2025, Schmidt detalhou como a corrida armamentista de IA entre os Estados Unidos e a China se assemelha cada vez mais ao impasse nuclear da era da Guerra Fria. Ele advertiu que, se uma nação começar a se destacar no desenvolvimento de sistemas superinteligentes, o país que estiver atrás pode recorrer a medidas cada vez mais desesperadas — incluindo sabotagem ou até mesmo bombardeio de data centers — para evitar ser permanentemente ultrapassado.

Schmidt destacou que a abordagem chinesa de desenvolvimento de IA open source representa um risco estratégico para os EUA, que atualmente favorecem modelos de IA fechados e proprietários. "Como a China compartilha abertamente seus avanços em IA, os EUA se beneficiam deles, mas correm o risco de ficar para trás em uma corrida global de código aberto", explicou Schmidt. Essa dinâmica pode intensificar a competição, onde o primeiro país a alcançar a superinteligência conquista uma dominação irreversível por meio de efeitos de rede.

Em vez de adotar uma abordagem perigosa de 'Projeto Manhattan' para o desenvolvimento de IA, Schmidt e os coautores Alexandr Wang e Dan Hendrycks propuseram, em seu artigo de março de 2025, uma estrutura chamada Mau Funcionamento Mútuo Assegurado de IA (MAIM). Esse modelo de dissuasão cibernética, inspirado em princípios da Guerra Fria, estabeleceria que qualquer tentativa agressiva de dominação unilateral em IA desencadearia medidas preventivas por parte dos rivais.

"O que começa como uma busca por uma superarma e controle global corre o risco de provocar contramedidas hostis e aumentar as tensões, minando assim a própria estabilidade que a estratégia pretende garantir", escreveram Schmidt e seus colegas. Os riscos são existenciais — os cenários variam desde sabotagem cibernética direcionada à infraestrutura de IA até ataques preventivos que lembram o jogo de nervos da Guerra Fria.

Embora alguns críticos, incluindo a Conselheira de Segurança Nacional Evelyn Green, argumentem que o MAIM carece de mecanismos executáveis em comparação com tratados de não proliferação nuclear, Schmidt sustenta que a dissuasão, combinada com transparência e cooperação internacional, oferece o melhor caminho para lidar com os riscos sem precedentes dos sistemas de IA superinteligentes.

Source: Naturalnews.com

Latest News