Elon Musk, fundador da xAI e CEO da Tesla, alertou que a humanidade está à beira do que chama de 'Big Bang da Inteligência' — um período de avanços sem precedentes na IA que poderá transformar fundamentalmente a sociedade.
Durante o evento Grok 4 Live Demo da xAI, realizado a 10 de julho, Musk afirmou: 'Estamos no início de uma explosão imensa de inteligência.' Descreveu a era atual como 'o momento mais interessante da história para se estar vivo', sublinhando a importância crítica de desenvolver uma IA 'boa', com 'valores verdadeiros e honrados'.
A visão de Musk inclui a fusão de sistemas de IA com robôs físicos, nomeadamente a combinação do Grok da xAI com os robôs humanóides Optimus da Tesla. 'No fim de contas, o que fará a maior diferença será a capacidade de interagir com o mundo real através de robôs humanóides', explicou Musk. 'Portanto, combinamos o Grok com o Optimus, e este pode realmente interagir com o mundo real.'
No entanto, os alertas de Musk sobre a segurança da IA contrastam fortemente com críticas recentes às práticas da própria xAI. A empresa tem sido alvo de contestação por parte de investigadores de segurança em IA da OpenAI, Anthropic e outras organizações, por ter lançado o Grok 4 sem publicar os relatórios de segurança padrão. Esta omissão foi considerada 'imprudente' e 'irresponsável' por especialistas do setor, especialmente tendo em conta o histórico de Musk como defensor da segurança na IA.
Para além das preocupações com a segurança, Musk também alertou para limitações práticas ao avanço da IA, sugerindo que a falta de energia elétrica poderá restringir o desenvolvimento da IA até 2030. Um estudo de 2023 indicou que sistemas de IA como o Microsoft Copilot e o ChatGPT poderão consumir, até 2027, eletricidade suficiente para abastecer um pequeno país durante um ano.
À medida que as capacidades da IA continuam a acelerar, intensifica-se o debate entre quem vê um potencial imenso para avanços científicos e quem alerta para riscos existenciais. O investigador de segurança em IA Roman Yampolskiy afirmou existir uma 'probabilidade de 99,999999% de a IA acabar com a humanidade', enquanto Demis Hassabis, da Google DeepMind, avisa que a sociedade não está preparada para a inteligência artificial geral (AGI), que acredita estar a aproximar-se rapidamente.