Militares dos EUA usaram o modelo de IA da Anthropic, Claude, em ataque à Venezuela, diz relatório

Militares dos EUA usaram o modelo de IA da Anthropic, Claude, em ataque à Venezuela, diz relatório


Claude, o modelo de IA desenvolvido por Antrópicofoi usado pelos militares dos EUA durante sua operação para sequestrar Nicolás Maduro da Venezuela, segundo o Wall Street Journal revelado no sábado, um exemplo notável de como o departamento de defesa dos EUA está usando inteligência artificial em suas operações.

O ataque dos EUA em Venezuela envolveu bombardeios na capital, Caracas, e a morte de 83 pessoas, segundo o Ministério da Defesa da Venezuela. Os termos de uso da Antrópico proíbem o uso de Claude para fins violentos, para o desenvolvimento de armas ou para realização de vigilância.

A Anthropic foi a primeira desenvolvedora de IA conhecida a ser usada em uma operação secreta do Departamento de Defesa dos EUA. Não ficou claro como a ferramenta, que tem capacidades que vão desde o processamento de PDFs até a pilotagem de drones autônomos, foi implantada.

Um porta-voz da Anthropic se recusou a comentar se Claude foi usado na operação, mas disse que qualquer uso da ferramenta de IA era necessário para cumprir suas políticas de uso. O departamento de defesa dos EUA não comentou as alegações.

O WSJ citou fontes anônimas que disseram que Claude foi usado através da parceria da Anthropic com Palantir Technologies, uma contratada do departamento de defesa dos EUA e de agências federais de aplicação da lei. Palantir se recusou a comentar as alegações.

Os EUA e outros militares utilizam cada vez mais a IA como parte dos seus arsenais. Os militares de Israel usaram drones com capacidades autónomas em Gaza e usaram extensivamente a IA para preencher o seu banco de alvos em Gaza. O Militares dos EUA usou a segmentação por IA para ataques no Iraque e na Síria nos últimos anos.

Os críticos alertaram contra o uso de IA em tecnologias de armas e a implantação de sistemas de armas autónomos, apontando para erros de identificação criados por computadores que determinam quem deve ou não ser morto.

As empresas de IA têm lutado para saber como as suas tecnologias deveriam interagir com o setor de defesa, com o CEO da Anthropic, Dario Amodei, pedindo regulamentação para evitar danos decorrentes da implantação de IA. Amodei também expressou cautela quanto ao uso de IA em operações letais autônomas e vigilância nos EUA.

Esta postura mais cautelosa aparentemente irritou o departamento de defesa dos EUA, com o secretário da guerra, Pete Hegseth, a dizer em Janeiro que o departamento não “empregaria modelos de IA que não permitiriam travar guerras”.

O Pentágono anunciou em janeiro que trabalharia com a xAI, de propriedade de Elon Musk. O departamento de defesa também usa uma versão personalizada dos sistemas Gemini e OpenAI do Google para apoiar a pesquisa.


Previous Article

Relatório: Liverpool está ciente de que o clube deseja contratar uma estrela avaliada em € 50 milhões, mas ainda espera que ele escolha o LFC

Next Article

Programação e guia diário dos Jogos Olímpicos de Inverno de 2026

Write a Comment

Leave a Comment

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Subscribe to our Newsletter

Subscribe to our email newsletter to get the latest posts delivered right to your email.
Pure inspiration, zero spam ✨