Contrato prevê uso do ChatGPT em redes classificadas do Departamento de Defesa com três salvaguardas, enquanto Trump ordena que agências federais eliminem tecnologia da Anthropic em seis meses
A OpenAI fechou contrato de até US$ 200 milhões com o Departamento de Defesa dos Estados Unidos para implantar seus modelos de inteligência artificial em redes classificadas. O acordo foi anunciado horas depois de o presidente Donald Trump ordenar que todas as agências federais cessem o uso de tecnologia da Anthropic, empresa concorrente.
O contrato inclui três salvaguardas definidas pela OpenAI: proibição de uso para vigilância doméstica em massa, proibição de uso para direcionar armas autônomas e proibição de decisões automatizadas de alto risco sem controle humano. O Pentágono aceitou as condições, que são similares às exigidas pela Anthropic antes de ser banida.
A sequência de eventos — banimento da Anthropic seguido de acordo com a OpenAI no mesmo dia — gerou reação pública e impulsionou migração de usuários para o Claude, que alcançou a posição nº 1 na App Store dos EUA nos dias seguintes.
Pentágono exigiu uso de IA para todos os propósitos legais
A disputa entre o Pentágono e a Anthropic originou-se na exigência do Departamento de Defesa de que a empresa permitisse o uso de seus modelos de IA para “todos os propósitos legais” (all lawful purposes, em tradução livre). A Anthropic rejeitou o termo por considerar que a legislação vigente contém lacunas exploráveis.
Dario Amodei, CEO da Anthropic, argumentou que o governo poderia comprar bases de dados comerciais e analisá-las com IA sem que isso tecnicamente se configurasse como “vigilância doméstica em massa” sob a legislação atual. A empresa exigiu exclusões explícitas em vez de depender da interpretação das leis existentes.
A recusa da Anthropic levou o Pentágono a buscar alternativas. A OpenAI iniciou negociações e concluiu o acordo em questão de horas, aceitando a linguagem de “todos os propósitos legais” com a adição de salvaguardas técnicas específicas.
Trump ordena cessação imediata de tecnologia da Anthropic
O presidente Donald Trump publicou ordem determinando que “todas as agências federais do governo dos Estados Unidos cessem imediatamente todo uso da tecnologia da Anthropic”. A NPR reportou que a ordem inclui prazo de seis meses para a eliminação completa dos sistemas da empresa.
O secretário de Defesa Pete Hegseth complementou a medida ao designar a Anthropic como “risco à cadeia de suprimentos para a Segurança Nacional”. A designação proíbe contratados militares de realizar negócios com a empresa, ampliando o impacto para além das agências federais diretas.
A Anthropic, avaliada em US$ 380 bilhões e com receita anual de US$ 14 bilhões, contestou a designação judicialmente. A empresa argumentou que a classificação como risco de segurança é contraditória com o fato de o próprio Pentágono considerar o Claude essencial para operações de segurança nacional.
Acordo prevê implantação em redes classificadas com restrições
O contrato de até US$ 200 milhões abrange o fornecimento de modelos da OpenAI para uso em redes classificadas do Departamento de Defesa. A implantação será limitada a infraestrutura em nuvem, sem implantação em dispositivos de borda (edge computing, em tradução livre).
A OpenAI manterá engenheiros com credenciais de segurança trabalhando junto ao pessoal do Pentágono para garantir a implementação adequada e o monitoramento contínuo de segurança. A arquitetura preserva a capacidade da empresa de aplicar suas políticas de segurança aos modelos mesmo em ambiente classificado.
Além da OpenAI, a xAI de Elon Musk tornou-se a segunda empresa aprovada para operar em configurações classificadas do Departamento de Defesa. A presença de duas empresas sinaliza que o Pentágono diversifica seus fornecedores de IA para reduzir dependência de um único provedor.
Três linhas vermelhas definem limites do acordo
Sam Altman, CEO da OpenAI, definiu três linhas vermelhas que regem o acordo: nenhum uso para vigilância doméstica em massa, nenhum uso para direcionar sistemas de armas autônomas letais e nenhum uso para decisões automatizadas de alto risco que requeiram aprovação humana.
Altman declarou que “há muito acreditamos que a IA não deve ser usada para vigilância em massa ou armas letais autônomas, e que humanos devem permanecer no controle de decisões automatizadas de alto risco”. O executivo afirmou que o Departamento de Defesa concordou em refletir esses princípios em lei e política.
As salvaguardas da OpenAI se assemelham às condições exigidas pela Anthropic. A diferença central está na aceitação da linguagem “todos os propósitos legais” pela OpenAI, com as restrições implementadas como salvaguardas técnicas adicionais, enquanto a Anthropic exigiu exclusões explícitas no texto do contrato.
Reação pública impulsiona migração para o ChatGPT concorrente
O acordo gerou campanhas de boicote nas redes sociais. A hashtag CancelChatGPT ganhou tração no Reddit e no X, com usuários incentivando a migração para o Claude da Anthropic como forma de protesto contra o acordo militar da OpenAI.
O Claude alcançou a posição nº 1 na App Store dos EUA em 1º de março, superando o ChatGPT pela primeira vez. Os downloads do aplicativo da Anthropic atingiram 503 mil em um único dia, e os usuários gratuitos cresceram 60% desde janeiro de 2026.
Altman respondeu à reação pública declarando que pediu ao Pentágono para oferecer termos idênticos a todas as empresas de IA, incluindo a Anthropic. O executivo afirmou que sua intenção era “ajudar a desescalar” as tensões entre o governo e o setor de inteligência artificial.
Disputa redefine relação entre empresas de IA e governo
O episódio estabeleceu precedente sobre como empresas de inteligência artificial negociam com governos. A Anthropic demonstrou que restrições éticas podem gerar consequências comerciais severas, enquanto a OpenAI optou por um modelo de salvaguardas técnicas que preserva o relacionamento comercial.
Funcionários da OpenAI manifestaram publicamente apoio à posição da Anthropic, evidenciando tensões internas sobre a decisão de aceitar o contrato. A divergência dentro da própria OpenAI indica que o debate sobre limites éticos no uso militar de IA transcende a rivalidade entre empresas.
A sequência de eventos — exigência do Pentágono, recusa da Anthropic, banimento governamental e acordo da OpenAI no mesmo dia — condensou em horas um debate que o setor de tecnologia esperava que se estendesse por anos. O resultado prático é que o governo americano agora opera com IA de uso militar fornecida pela OpenAI e pela xAI, enquanto a Anthropic contesta a designação como risco de segurança nos tribunais.