O exército dos Estados Unidos usa ferramentas de inteligência artificial para processar grandes volumes de dados de forma rápida nos conflitos do Oriente Médio. O general Brad Cooper do Comando Central explica que a tecnologia ajuda a interpretar informações estratégicas para apoiar as decisões militares.
A escolha final dos alvos ainda depende da avaliação humana mesmo com a velocidade dos sistemas. A confirmação do uso dessa ferramenta ocorre enquanto a comunidade internacional questiona o impacto das operações na população civil.
Empresas de tecnologia barram uso militar
A desenvolvedora Anthropic se recusou a flexibilizar as regras de segurança para liberar o uso do sistema Claude pelo exército americano. O governo desfez o acordo e bloqueou novos contratos federais após classificar a empresa como um risco para a cadeia de suprimentos.
A intenção das forças armadas envolvia aplicar a tecnologia em atividades de vigilância em massa e no controle de armas autônomas. O Ministério da Defesa da China alerta que o uso militar sem restrições pode levar a uma perda de controle tecnológico.
O país asiático propõe que a ONU crie regras globais para centralizar a governança da inteligência artificial. O objetivo é impedir que a automação transforme o campo de batalha em um ambiente sem intervenção humana.
Aceleração de ataques e controle em tempo real
A aplicação da tecnologia em operações começou em 2021 e hoje se estende por países como Rússia, Ucrânia, China e Israel. O Pentágono mantém o projeto JADC2 para integrar dados de todas as forças e planejar manobras em tempo real.
Os sistemas coordenam ataques ao processar informações em minutos em vez dos dias exigidos por um analista humano. O professor de Ciências Militares Sandro Teixeira Moita destaca o impacto dessa velocidade no cenário atual.
“O que a IA traz, efetivamente, talvez seja a aceleração do processo de decisão para atacar e, também, do controle das operações militares – impondo uma pressão muito grande sobre líderes políticos”
O especialista reforça que as armas autônomas devem ter capacidade limitada de operação e não podem depender de sistemas de inteligência artificial para combater. Ele aponta que a sociedade precisa cobrar um tratado para controlar a proliferação desses recursos no mundo.
“Aqui vai caber a pressão dos cidadãos e da comunidade internacional para que a gente chegue a um momento em que haja um tratado que controle a proliferação de sistemas de IA, assim como a gente teve o arcabouço para armas nucleares”

