menu
close

Schmidt alerta que corrida armamentista de IA pode desencadear ataques a centros de dados

O antigo CEO da Google, Eric Schmidt, alertou que a crescente corrida armamentista de IA entre os EUA e a China pode conduzir a um conflito global em torno de centros de dados e recursos críticos. Numa recente palestra TED, Schmidt apresentou um cenário hipotético em que as nações poderiam recorrer à sabotagem ou até a ataques físicos à infraestrutura de IA rival para evitar serem ultrapassadas na corrida pela superinteligência. Como alternativa a uma perigosa abordagem de 'Projecto Manhattan' para o desenvolvimento de IA, Schmidt e colegas propõem um quadro chamado Disfunção Mútua Assegurada de IA (MAIM) para dissuadir a dominação unilateral.
Schmidt alerta que corrida armamentista de IA pode desencadear ataques a centros de dados

A corrida global para alcançar sistemas de IA superinteligentes está a criar tensões geopolíticas que podem escalar de uma competição tecnológica para um conflito real, segundo os alertas preocupantes do antigo CEO da Google, Eric Schmidt.

Na sua palestra TED de maio de 2025, Schmidt explicou como a corrida armamentista de IA entre os Estados Unidos e a China se assemelha cada vez mais ao impasse nuclear da era da Guerra Fria. Avisou que, se uma nação começar a ganhar vantagem no desenvolvimento de sistemas superinteligentes, o país em desvantagem poderá recorrer a medidas cada vez mais desesperadas — incluindo sabotagem ou mesmo bombardeamento de centros de dados — para evitar ser permanentemente ultrapassado.

Schmidt salientou que a abordagem de desenvolvimento de IA open-source da China representa um risco estratégico para os EUA, que atualmente privilegiam modelos de IA fechados e proprietários. "Como a China partilha abertamente os seus avanços em IA, os EUA beneficiam deles, mas correm o risco de ficar para trás numa corrida global de open-source", explicou Schmidt. Esta dinâmica pode intensificar a competição, onde o primeiro país a alcançar a superinteligência conquista uma dominação irreversível através dos efeitos de rede.

Em vez de seguir uma perigosa abordagem de 'Projecto Manhattan' para o desenvolvimento de IA, Schmidt e os coautores Alexandr Wang e Dan Hendrycks propuseram, no seu artigo de março de 2025, um quadro chamado Disfunção Mútua Assegurada de IA (MAIM). Este modelo de dissuasão centrado no ciberespaço, inspirado nos princípios da Guerra Fria, estabeleceria que qualquer tentativa agressiva de dominação unilateral de IA desencadearia medidas preventivas por parte dos rivais.

"O que começa como uma corrida por uma superarma e pelo controlo global corre o risco de provocar contra-medidas hostis e aumentar as tensões, minando assim a própria estabilidade que a estratégia pretende garantir", escreveram Schmidt e os seus colegas. Os riscos são existenciais — os cenários vão desde sabotagem cibernética dirigida à infraestrutura de IA até ataques preventivos semelhantes ao jogo de nervos da Guerra Fria.

Embora alguns críticos, incluindo a Conselheira de Segurança Nacional Evelyn Green, argumentem que o MAIM carece de mecanismos executáveis em comparação com tratados de não-proliferação nuclear, Schmidt defende que a dissuasão, combinada com transparência e cooperação internacional, oferece o melhor caminho para gerir os riscos sem precedentes dos sistemas de IA superinteligentes.

Source: Naturalnews.com

Latest News