Empresa e governo discutem limites éticos após ameaça de banimento por risco à segurança
As negociações entre a Anthropic e o Departamento de Defesa dos Estados Unidos foram retomadas nesta quinta-feira (05) para definir o papel da inteligência artificial em operações militares. O retorno do diálogo acontece logo após o governo americano ameaçar classificar a startup como um risco para a cadeia de suprimentos, o que impediria o uso de suas ferramentas por agências federais.
O ponto principal da discussão envolve as travas de segurança exigidas pela empresa, que se recusa a liberar sua tecnologia para vigilância em massa ou controle de armas autônomas. Enquanto a concorrente OpenAI já fechou contratos para operar em redes confidenciais, a criadora do Claude exige garantias de que seus modelos não farão análises indiscriminadas de grandes volumes de dados.
A retomada das conversas foi acelerada pela pressão de investidores de peso, como Amazon e Nvidia. Essas companhias enviaram uma carta ao governo por meio de um conselho de tecnologia alertando que punir a Anthropic poderia prejudicar todo o mercado tecnológico americano.
O CEO da Anthropic, Dario Amodei, está em contato direto com Emil Michael, executivo do Pentágono responsável pela área de engenharia. A meta é desenhar um contrato que permita o uso militar da ferramenta sem violar os limites éticos estabelecidos pelos desenvolvedores.
Com a expectativa de faturar US$ 20 bilhões por ano, a startup vê o governo como um cliente estratégico e tenta evitar que concorrentes com menos restrições ocupem esse espaço. Oficiais militares criticam a postura da empresa há meses e alegam que o excesso de cautela com a segurança da IA atrapalha o desenvolvimento de ferramentas de defesa.
O impasse anterior ocorreu justamente porque o governo tentou remover uma cláusula que proibia a análise de dados coletados de forma massiva. O novo acordo definirá se o exército poderá voltar a usar o sistema Claude e se aceitará as regras de controle propostas.

