Anthropic recusa liberar IA para armas e sofre pressão do Pentágono

4 Min Read
EAS Comunicação Digital | Tecnologia e Insights para o Mundo Moderno

Ultimato do governo exige acesso total ao modelo Claude

O governo dos Estados Unidos estabeleceu um prazo final para a Anthropic liberar o uso militar irrestrito de sua inteligência artificial. O secretário de Defesa, Pete Hegseth, exige que o modelo Claude esteja disponível para qualquer aplicação que a pasta considerar necessária. Caso a startup não aceite os termos até esta sexta-feira (27), ela pode sofrer sanções graves ou intervenção federal direta.

A empresa se recusa a mudar suas regras de segurança. A principal preocupação é evitar que a tecnologia controle armas sozinhas ou vigie cidadãos em massa. Dario Amodei, CEO da Anthropic, explicou que não pode autorizar o uso dos modelos em todos os casos sem limites.

O executivo reforçou a posição da companhia em comunicado. “Não pode, em sã consciência [permitir o uso] em todos os casos de uso lícito, sem limitação.”

Amodei destacou que as ameaças do governo não mudam a visão da empresa. “Nossa grande preferência é em continuar a servir o Departamento e nossos soldados — com nossas duas medidas de segurança implementadas.”

Pentágono rejeita restrições operacionais

O Departamento de Defesa afirma que não tem interesse em criar armas totalmente autônomas ou espionar americanos. Mesmo assim, o órgão insiste que o contrato deve permitir qualquer fim legal e não aceita que uma empresa privada defina o que os militares podem fazer. Sean Parnell, porta-voz do departamento, defendeu a exigência nas redes sociais.

O representante do governo argumentou sobre a necessidade de controle total. “Este é um pedido simples e sensato que impedirá a Anthropic de comprometer operações militares críticas e potencialmente colocar nossos combatentes em risco. Não permitiremos que nenhuma empresa dite as regras de como tomamos decisões operacionais.”

Ameaça de intervenção e perda de contratos

Se a recusa continuar, a Anthropic pode ser classificada como um “risco da cadeia de suprimentos”. Isso tiraria a empresa de contratos públicos e impediria sua participação em setores vitais. Outra possibilidade levantada é o uso da Lei de Produção de Defesa (DPA). Essa regra, criada na época da Guerra Fria, dá ao presidente poderes para intervir na economia e obrigar o fornecimento da tecnologia em nome da segurança nacional.

As consequências da aplicação da lei podem ser severas:

  • Multas e sanções criminais;
  • Apreensão de bens;
  • Intervenção federal direta na empresa;
  • Perda de contratos governamentais.

O Pentágono já começou a se preparar para um possível rompimento. O departamento entrou em contato com outras grandes empresas do setor, como Boeing e Lockheed Martin, para avaliar o impacto da saída da Anthropic.

Uso polêmico e concorrência

Relatos indicam que militares americanos já usaram o Claude em operações recentes, como na ação que levou à captura do presidente venezuelano Nicolás Maduro. A empresa proíbe o uso de sua IA para violência, mas não comentou oficialmente como o sistema foi empregado nesse caso específico.

A pressão sobre a Anthropic aumenta porque suas rivais já cederam. Concorrentes como Google, Meta e xAI aceitaram permitir o uso de seus modelos para todas as aplicações legais exigidas pelo governo.

Follow:
Jornalista, Redator, Editor e Social Mídia. Com experiência na administração de redes sociais, Designer Gráfico, elaboração e gerenciamento de sites CMS com especialização em WordPress e Web Service. SEO (Otimização de motores de busca). Mais de 10 anos de experiência com integração em Comunicação e Marketing