Uso militar de inteligência artificial gera preocupação global
O Ministério da Defesa da China fez um alerta direto aos Estados Unidos sobre os perigos de aplicar a inteligência artificial nas Forças Armadas sem restrições. A preocupação é que a falta de regras provoque uma perda de controle sobre as máquinas de guerra.
O porta-voz do ministério, coronel sênior Jiang Bin, detalhou o risco na quarta-feira (11). “Uma distopia retratada no filme americano O Exterminador do Futuro poderia um dia se tornar realidade.”
O governo americano tenta acelerar a adoção de algoritmos para automatizar ataques letais pelo mundo. As decisões mais recentes envolvem as seguintes ações militares
- Classificação da startup Anthropic como risco à segurança nacional por barrar o uso militar de sua tecnologia
- Proibição dos modelos Claude entre os fornecedores oficiais do país
- Autorização de uso do sistema Grok, de Elon Musk, para missões em ambientes sigilosos
A imprensa americana aponta que modelos de inteligência artificial já ajudaram a planejar ofensivas contra o Irã e a Venezuela. A China acusa os americanos de usar a tecnologia para vigilância em massa e para automatizar bombardeios.
Proposta de regras globais para armas autônomas
O governo chinês teme que os códigos matemáticos passem a decidir sozinhos quem vive e quem morre no campo de batalha. O país asiático propõe que a Organização das Nações Unidas crie regras globais para evitar a fuga tecnológica.
O comunicado oficial reforça a necessidade de manter a responsabilidade humana nas decisões militares. “A China trabalhará com outras nações para avançar na governança multilateral da IA com a centralidade da ONU, fortalecer a prevenção e o controle de riscos, e garantir que a IA sempre se desenvolva em uma direção favorável ao progresso da civilização humana.”
A base da proposta chinesa é o princípio da primazia humana. A ideia é garantir que as pessoas continuem no controle de qualquer sistema de armas e evitar que a humanidade perca o direito de intervir.
Jiang Bin defende a manutenção do controle humano nas guerras e a criação de limites éticos internacionais. “Defendendo uma abordagem centrada nas pessoas e o princípio da ‘IA para o bem’, a China acredita que a primazia humana deve ser mantida nas aplicações militares da IA, e que todos os sistemas de armas relevantes devem estar sob controle humano.”

