Ultimato do governo exige acesso total ao modelo Claude
O governo dos Estados Unidos estabeleceu um prazo final para a Anthropic liberar o uso militar irrestrito de sua inteligência artificial. O secretário de Defesa, Pete Hegseth, exige que o modelo Claude esteja disponível para qualquer aplicação que a pasta considerar necessária. Caso a startup não aceite os termos até esta sexta-feira (27), ela pode sofrer sanções graves ou intervenção federal direta.
A empresa se recusa a mudar suas regras de segurança. A principal preocupação é evitar que a tecnologia controle armas sozinhas ou vigie cidadãos em massa. Dario Amodei, CEO da Anthropic, explicou que não pode autorizar o uso dos modelos em todos os casos sem limites.
O executivo reforçou a posição da companhia em comunicado. “Não pode, em sã consciência [permitir o uso] em todos os casos de uso lícito, sem limitação.”
Amodei destacou que as ameaças do governo não mudam a visão da empresa. “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”
Pentágono rejeita restrições operacionais
O Departamento de Defesa afirma que não tem interesse em criar armas totalmente autônomas ou espionar americanos. Mesmo assim, o órgão insiste que o contrato deve permitir qualquer fim legal e não aceita que uma empresa privada defina o que os militares podem fazer. Sean Parnell, porta-voz do departamento, defendeu a exigência nas redes sociais.
O representante do governo argumentou sobre a necessidade de controle total. “Este é um pedido simples e sensato que impedirá a Anthropic de comprometer operações militares críticas e potencialmente colocar nossos combatentes em risco. Não permitiremos que nenhuma empresa dite as regras de como tomamos decisões operacionais.”
Ameaça de intervenção e perda de contratos
Se a recusa continuar, a Anthropic pode ser classificada como um “risco da cadeia de suprimentos”. Isso tiraria a empresa de contratos públicos e impediria sua participação em setores vitais. Outra possibilidade levantada é o uso da Lei de Produção de Defesa (DPA). Essa regra, criada na época da Guerra Fria, dá ao presidente poderes para intervir na economia e obrigar o fornecimento da tecnologia em nome da segurança nacional.
As consequências da aplicação da lei podem ser severas:
- Multas e sanções criminais;
- Apreensão de bens;
- Intervenção federal direta na empresa;
- Perda de contratos governamentais.
O Pentágono já começou a se preparar para um possível rompimento. O departamento entrou em contato com outras grandes empresas do setor, como Boeing e Lockheed Martin, para avaliar o impacto da saída da Anthropic.
Uso polêmico e concorrência
Relatos indicam que militares americanos já usaram o Claude em operações recentes, como na ação que levou à captura do presidente venezuelano Nicolás Maduro. A empresa proíbe o uso de sua IA para violência, mas não comentou oficialmente como o sistema foi empregado nesse caso específico.
A pressão sobre a Anthropic aumenta porque suas rivais já cederam. Concorrentes como Google, Meta e xAI aceitaram permitir o uso de seus modelos para todas as aplicações legais exigidas pelo governo.

