
O Pentágono, dos EUA, utilizou o modelo de inteligência artificial Claude, da empresa Anthropic, na operação realizada na Venezuela em 3 de janeiro que culminou na captura do agora ex-ditador venezuelano Nicolás Maduro.
Segundo informações do Wall Street Journal, citando fontes do governo, o modelo Claude foi utilizado na operação por meio da empresa Palantir Technologies, cuja plataforma de análise de dados é amplamente utilizada pelo Departamento de Guerra dos Estados Unidos e por outras agências federais de segurança. A Palantir atua como parceira da Anthropic para permitir o uso da tecnologia de IA em ambientes restritos, integrando o Claude às ferramentas já usadas nas forças armadas e no sistema de defesa americano.
O portal americano Axios informou que duas fontes do governo dos EUA confirmaram o uso do modelo de IA durante a operação na Venezuela. O portal disse ainda que o modelo não foi utilizado apenas na fase de preparação da operação, mas também no dia da execução. O veículo destacou, contudo, que não foi possível confirmar o papel exato desempenhado pela ferramenta de IA na captura do ditador venezuelano. As fontes ouvidas pelo portal citam que o histórico do uso militar do Claude pelos EUA inclui análise de imagens de satélite e processamento de inteligência.
Na operação de 3 de janeiro, Maduro e sua esposa, Cilia Flores, foram capturados e levados aos Estados Unidos para responder a acusações federais de narcoterrorismo, conspiração e tráfico de drogas. A imprensa americana citou que apenas sete militares dos EUA ficaram feridos na operação.
Procurada pela imprensa dos EUA, a Anthropic disse que não poderia comentar se sua ferramenta de IA teria sido utilizada na operação em Caracas.
“Não podemos comentar se o Claude, ou qualquer outro modelo de IA, foi usado em qualquer operação específica, classificada ou não”. A empresa acrescentou que “qualquer uso do Claude – seja no setor privado ou no governo – deve cumprir nossas Políticas de Uso, que regem como o Claude pode ser implantado. Trabalhamos de perto com nossos parceiros para garantir conformidade”.
A agência Reuters informou que a Anthropic mantém atualmente políticas que proíbem o uso do Claude para apoiar violência, desenvolvimento de armas ou vigilância. Ainda assim, a empresa é atualmente a única desenvolvedora de grandes modelos de linguagem com acesso a sistemas confidenciais do governo por meio de empresas parceiras.
📢 Belford Roxo 24h – Aqui a informação nunca para
📞 WhatsApp da Redação: (21) 97915-5787
🔗 Canal no WhatsApp: Entrar no canal
🌐 Mais notícias: belfordroxo24h.com







