Pela primeira vez, uma guerra coloca a Inteligência Artificial no centro do campo de batalha — não apenas como ferramenta de apoio, mas como infraestrutura decisória. Conflitos anteriores tiveram satélites, drones e ciberataques. Agora, modelos de IA e sistemas agentivos entram no jogo como processadores de inteligência, simuladores estratégicos e aceleradores de decisões militares em tempo real.
É aqui que o tabuleiro sobe para o nível 3.
No nível 1, a IA era produtividade.
No nível 2, virou infraestrutura econômica.
No nível 3, transforma-se em instrumento geopolítico.
E quando isso acontece, ética e governança passam a disputar espaço com urgência militar.
A tensão recente entre o Governo dos EUA e a Anthropic, empresa de IA que também atua como fornecedora de soluções para defesa militar, evidenciou essa mudança de fase. De um lado, a empresa sustentando limites claros: não ao monitoramento irrestrito em massa, não a armas letais operando sem supervisão humana. De outro, o interesse estratégico do Estado em garantir superioridade tecnológica em um cenário de conflito.
É a colisão entre capacidade técnica e necessidade geopolítica.
As big techs do Vale do Silício observam e se posicionam. Publicamente, reforçam compromissos com uso responsável, guardrails e supervisão humana. Paralelamente, se apresentam como alternativas contratuais quando há reconfiguração de fornecedores estratégicos. Não é simples incoerência. É pragmatismo de poder — uma espécie de realpolitik tecnológica, onde valores precisam coexistir com interesses nacionais e corrida por supremacia.
Já dentro das próprias empresas, engenheiros e pesquisadores dissidentes alertam para riscos sistêmicos: a normalização da automação letal, a erosão do controle humano e a corrida armamentista algorítmica. O precedente não é novo — desde 2018 há movimentos internos contra contratos militares —, mas agora o cenário é outro. A IA deixou de ser experimental.
O ponto crítico não é apenas “se” a tecnologia pode ser usada na guerra. É o que acontece com as discussões éticas quando interesses estratégicos entram em jogo. Elas são suspensas? Adaptadas? Ignoradas?
Ou elas apenas mudam de formato, tornam-se cláusulas técnicas e ajustes regulatórios que acomodam a urgência da guerra?
E há uma camada ainda mais sensível: a IA agentiva. Sistemas que não apenas respondem comandos, mas executam tarefas, tomam decisões em cadeia e interagem com outros sistemas com autonomia crescente. Mesmo sob supervisão humana hoje, a trajetória aponta para maior independência operacional. Em um ambiente de conflito, onde velocidade é vantagem, a pressão para reduzir camadas de intervenção humana tende a aumentar.
Quantos interesses novos surgirão nesse processo? Interesses de Estado. De mercado. De investidores. De segurança nacional. E, no limite, interesses otimizados por sistemas programados para maximizar objetivos estratégicos.
Governança global nunca foi tão urgente. Diferente da energia nuclear, a IA é replicável, distribuída e majoritariamente privada. Não há tratado consolidado que limite seu uso militar. A corrida tecnológica reduz o espaço para cautela.
Quem governará a Inteligência Artificial quando ela passar a influenciar decisões que impactam vidas, direitos e democracias?
Se a resposta não for coletiva, transparente e internacional, o nível 3 do tabuleiro pode redefinir não apenas a geopolítica — mas os próprios limites da ética no século XXI.