Troca de fornecedores no Pentágono
A administração do presidente Donald Trump ordenou que as agências federais parem de utilizar tecnologias desenvolvidas pela Anthropic. Poucas horas depois da determinação, a OpenAI comunicou um acordo para colocar seus modelos nas redes classificadas do Departamento de Defesa dos Estados Unidos. O movimento marca a consolidação da inteligência artificial como uma infraestrutura estratégica de poder, segundo análise do especialista Fernando Barra.
Divergências sobre uso ético
O Pentágono mantinha um contrato estimado em até US$ 200 milhões com a Anthropic antes da decisão. A parceria foi interrompida devido a diferenças sobre os limites éticos para o uso da tecnologia em operações de defesa. A empresa defendeu a proibição do uso da IA em armas totalmente autônomas e em sistemas de vigilância em massa de cidadãos.
O governo norte-americano discordou dessas restrições. A justificativa oficial foi de que o Estado deve ter liberdade para usar a tecnologia adquirida em qualquer finalidade legal para a segurança nacional. Sem um consenso entre as partes, a empresa passou a ser vista como um risco para a cadeia de suprimentos e o contrato foi cancelado.
Reação dos usuários
A mudança de fornecedor gerou impacto imediato no comportamento do público. Dados da Sensor Tower apontam que as desinstalações do aplicativo ChatGPT nos Estados Unidos cresceram 295% em um único dia após o anúncio do acordo com o Departamento de Defesa. A taxa média diária de remoção do aplicativo era de cerca de 9% nos 30 dias anteriores.
Fernando Barra avalia que o público começa a perceber que a inteligência artificial envolve questões de poder e valores sociais. “Quando um governo integra IA à sua infraestrutura militar, não estamos falando apenas de software. Estamos falando de capacidade estratégica, vantagem geopolítica e novas formas de exercer controle e tomada de decisão em escala inédita.”
Uso em conflitos reais
A aplicação prática dessas tecnologias já ocorre em cenários de guerra. Uma reportagem da Reuters indicou que os Estados Unidos realizaram ataques contra posições ligadas ao Irã com o suporte de sistemas de IA da Anthropic. A operação utilizou mísseis, aeronaves de combate e drones, mesmo após o fim do contrato oficial com o governo.
O episódio demonstra como a tecnologia funciona como um amplificador das estruturas que a utilizam. Fernando Barra explica que o impacto da IA reflete as prioridades de quem a controla. “Se o sistema dominante é científico, ela acelera a ciência. Se é empresarial, acelera os mercados. E se é militar, amplia a capacidade estratégica e de guerra.”
Definição de limites
O caso levanta uma discussão sobre quem deve estabelecer as regras para o uso de IA em contextos de segurança nacional e vigilância. A disputa envolve governos, empresas privadas e organismos internacionais sobre a governança dessas ferramentas. O especialista reforça que a resposta definirá o tipo de inteligência coletiva que será ampliada. “A tecnologia não determina o futuro sozinha. O futuro depende das estruturas humanas que escolhem como utilizá-la.”

