Poder e Bastidores

Segurança Nacional vs. diretrizes éticas: o embate sobre o modelo Claude, da Anthropic no departamento de Defesa dos EUA

Mesmo sob ordem de suspensão e críticas do governo, as Forças Armadas utilizam tecnologia da Anthropic em operações logísticas e estratégicas, evidenciando o impasse sobre autonomia e vigilância

Compartilhar: WhatsApp X LinkedIn

A interseção entre inteligência artificial de ponta e operações de segurança nacional atingiu um novo patamar de tensão institucional nos Estados Unidos. Segundo fontes familiarizadas com as operações militares, o modelo de IA Claude, desenvolvido pela empresa Anthropic, foi utilizado pelo Departamento de Defesa (DoD) durante ações militares no Irã ocorridas no último final de semana. O uso persiste mesmo após o anúncio de restrições severas impostas pelo governo federal à tecnologia da companhia.

O núcleo do conflito reside em um impasse ético e contratual. A Anthropic, liderada pelo CEO Dario Amodei, buscou implementar “linhas vermelhas” (salvaguardas) que impediriam explicitamente o uso de sua tecnologia para vigilância em massa de cidadãos americanos ou para alimentar sistemas de armas totalmente autônomos. De acordo com Amodei, em entrevista à CBS News, tais limites são fundamentais para preservar os “valores americanos”.

“Discordar do governo é a coisa mais americana do mundo. E nós somos patriotas. Em tudo o que fizemos aqui, defendemos os valores deste país”, afirmou Dario Amodei.

A reação do Pentágono e do Executivo

Por outro lado, o Departamento de Defesa refutou as exigências, demandando a capacidade de utilizar o Claude para “todos os fins legais”. O argumento central da defesa, vocalizado pelo Chief Technology Officer (CTO) do Pentágono, Emil Michael, é de que as preocupações da empresa seriam redundantes, uma vez que a vigilância em massa já é ilegal e políticas internas já restringem armas autônomas.

“Em algum nível, você tem que confiar no seu exército para fazer a coisa certa”, declarou Emil Michael à CBS News.

A resposta política foi imediata. O Presidente Donald Trump ordenou que agências federais encerrem o uso da tecnologia da Anthropic, estabelecendo um prazo de seis meses para a descontinuação total. Paralelamente, o Secretário de Defesa, Pete Hegseth, classificou a empresa como um “risco para a cadeia de suprimentos”, sinalizando uma ruptura profunda entre o setor de tecnologia do Vale do Silício e a atual administração.

Impactos operacionais e logísticos

Apesar da retórica de substituição, o desligamento imediato da ferramenta é tecnicamente complexo. O portal de segurança nacional Defense One reportou que o Pentágono pode levar três meses ou mais para substituir as capacidades do Claude por outra plataforma de IA equivalente.

Atualmente, o modelo é empregado em tarefas críticas que incluem:

O episódio levanta um debate profundo sobre até onde empresas privadas podem ditar as regras de uso de suas ferramentas por parte do Estado e como a soberania tecnológica se choca com os princípios éticos das Big Techs.

O novo xadrez das big techs na defesa

Enquanto a Anthropic mantém sua postura de resistência ética, o cenário global de IA militar sofreu uma mudança sísmica nos últimos meses. A OpenAI, liderada por Sam Altman, adotou uma estratégia diametralmente oposta, consolidando-se como a principal parceira do Pentágono após o “imbróglio” com o modelo Claude.

No início de março de 2026, a OpenAI anunciou um acordo formal com o Departamento de Guerra (DoW) para implantar seus modelos mais avançados, como o GPT-4o, em redes militares classificadas. A empresa justificou o movimento como uma forma de “de-escalar” as tensões entre o governo e os laboratórios de IA, preenchendo a lacuna deixada pela saída da Anthropic.

Diferenças estratégicas e “linhas vermelhas”

A tabela abaixo compara o posicionamento das principais empresas de IA em relação ao uso de suas ferramentas pelas forças armadas

Meta e o poder do código aberto

Diferente das demais, a Meta, de Mark Zuckerberg, seguiu o caminho do “Open Source” (código aberto). Em setembro de 2025, a empresa disponibilizou o modelo Llama gratuitamente para agências federais e aliados estratégicos, incluindo OTAN, Reino Unido e Japão.

A vantagem estratégica da Meta é permitir que o exército rode a IA localmente (on-premise), sem depender da nuvem da empresa. Isso possibilita o uso em dispositivos no “front” (edge computing), auxiliando soldados na tradução de idiomas em tempo real ou na identificação de locais seguros para pouso, sem violar a privacidade de dados.

Google: o retorno silencioso

O Google, que enfrentou protestos internos massivos em 2018 devido ao Project Maven, mudou sua postura de forma discreta. Em fevereiro de 2025, a empresa removeu de seu site oficial o trecho que excluía o desenvolvimento de tecnologias para armas e vigilância de seus princípios éticos de IA. Atualmente, a empresa volta a ser peça-chave na análise de dados geoespaciais e inteligência de sinais para o Pentágono.

Impacto político e social

A mudança de tom das Big Techs ocorre em um momento de pressão da administração Trump para que os Estados Unidos mantenham a hegemonia tecnológica frente à China. No entanto, pesquisas de opinião de fevereiro de 2026 indicam que 79% dos americanos acreditam que um ser humano deve sempre tomar a decisão final sobre o uso de força letal, refletindo um ceticismo público persistente sobre a autonomia dessas máquinas no campo de batalha.


🔎 Verificação e confiabilidade


Qual a sua opinião sobre o controle ético de empresas de tecnologia sobre o uso militar? O governo deve ter liberdade total ou as “linhas vermelhas” são necessárias? Comente sua opinião abaixo e compartilhe esta matéria nas suas redes sociais para fomentar o debate!


Palavras-chave (SEO)

Inteligência Artificial, Pentágono, Anthropic, Claude AI, Donald Trump, Pete Hegseth, Segurança Nacional, Ética na IA, Tecnologia Militar.

#️⃣ #PainelPolitico #InteligenciaArtificial #Geopolitica #Defesa #EUA #Tecnologia #DonaldTrump


🌐 Contatos e Redes Sociais — Painel Político

📲 Links de Convite