De acordo com o Wall Street Journal, o Claude teria sido usado diretamente na operação planeada pelo Pentágono para sequestrar Maduro, demonstrando a crescente presença de ferramentas de IA em atividades sensíveis do setor militar.
O jornal afirma: "O instrumento de inteligência artificial Claude, desenvolvido pela empresa Anthropic, foi empregado em uma operação militar norte-americana para capturar Nicolás Maduro, o que evidencia a crescente popularidade dos modelos de IA no Pentágono".
Tal gerou tensões envolvendo as condições de uso impostas pela própria Anthropic porque a empresa mantém restrições explícitas para impedir que seu sistema seja aplicado em contextos relacionados a violência, armamentos ou vigilância.
A Anthropic é uma empresa de pesquisa e segurança em IA que constroi sistemas de IA confiáveis, interpretáveis e controláveis.
Segundo a propria “Construímos sistemas mais seguros. O Nosso objetivo é construir sistemas de IA de ponta que sejam confiáveis, interpretáveis e controláveis. Realizamos pesquisas inovadoras, desenvolvemos e aplicamos diversas técnicas de segurança e implementamos os sistemas resultantes por meio de uma série de parcerias e produtos.”
Segundo o media citado essas limitações levaram o Pentágono a considerar o rompimento de um contrato estimado em US$ 200 milhões com a empresa Palantir, que funcionava como intermediária no acesso ao sistema de IA da Anthropic.
O caso reforça o debate sobre os limites éticos e operacionais da inteligência artificial no setor militar, especialmente diante da expansão acelerada dessas tecnologias dentro de estruturas de defesa e inteligência dos Estados Unidos.
Na realidade o caso Maduro põe a nu a forma como as visoes totalitaria-imperiais usam a evolução tecnologica o que exige uma rigorosa regulamentação de controlo destes abusos.