Aplicativo de IA da Anthropic superou ChatGPT com 503 mil downloads em um único dia, enquanto CEO Dario Amodei reafirma recusa a fornecer tecnologia para armas autônomas e vigilância em massa
O Claude, assistente de inteligência artificial da Anthropic, alcançou a posição nº 1 na App Store dos Estados Unidos em 1º de março de 2026. O aplicativo superou o ChatGPT da OpenAI, que caiu para a segunda posição, após semanas de crescimento impulsionado pela disputa pública entre a Anthropic e o Departamento de Defesa dos EUA.
O aplicativo registrou 503.424 downloads em 28 de fevereiro, o maior volume em um único dia desde o lançamento. Os usuários gratuitos ativos cresceram 60% desde janeiro, e os assinantes pagos mais que dobraram no mesmo período. O Claude também liderou as paradas na Alemanha e no Canadá.
A ascensão coincide com a decisão do secretário de Defesa Pete Hegseth de classificar a Anthropic como “risco à cadeia de suprimentos para a Segurança Nacional” e com a ordem do presidente Donald Trump para que agências federais eliminem a tecnologia da empresa em seis meses.
Claude sobe da posição 131 para o topo da App Store em um mês
O aplicativo ocupava a posição 131 na App Store em 30 de janeiro de 2026. Após campanhas publicitárias durante o Super Bowl, o Claude subiu para a posição 42 e permaneceu entre os 20 mais baixados durante a maior parte de fevereiro.
A escalada final ocorreu na última semana do mês: posição 6 na quarta-feira, 4 na quinta-feira e 1 no sábado, 1º de março. No Google Play, o Claude alcançou a quinta posição, enquanto o Google Gemini ocupava a quarta.
A trajetória de crescimento acelerou depois que a disputa com o Pentágono ganhou repercussão nas redes sociais. O movimento ultrapassou o impulso inicial das campanhas publicitárias e se transformou em adoção orgânica sustentada por engajamento de usuários nas plataformas digitais.
Downloads batem recorde com 503 mil instalações em um dia
O dia 28 de fevereiro registrou 503.424 downloads do Claude, estabelecendo o recorde histórico do aplicativo. O volume representou o maior pico de instalações desde que a Anthropic lançou o aplicativo móvel.
A Fortune reportou que os cadastros diários quadruplicaram em relação ao período anterior à disputa. A Semafor registrou que os cadastros diários triplicaram desde novembro de 2025, indicando que a aceleração já estava em curso antes do pico de fevereiro.
O crescimento se estendeu além dos Estados Unidos. O Claude liderou as paradas de aplicativos na Alemanha e no Canadá, sinalizando que a repercussão da disputa gerou interesse global na plataforma.
Usuários gratuitos crescem 60% e assinantes pagos dobram no ano
Os usuários gratuitos ativos do Claude aumentaram 60% desde o início de 2026. Os assinantes pagos mais que dobraram no mesmo período. A Anthropic não divulgou números absolutos de usuários, apenas as taxas de crescimento relativas.
O aumento na base paga indica conversão efetiva do interesse gerado pela cobertura midiática. A diferença entre o crescimento de usuários gratuitos (60%) e pagos (mais de 100%) sugere que os novos usuários testaram o produto e optaram por assinar em proporção superior à média histórica.
A combinação de crescimento orgânico e conversão paga posiciona o Claude como alternativa consolidada no mercado de assistentes de IA, que até então era dominado pelo ChatGPT em volume de downloads e base de usuários.
Pentágono classifica Anthropic como risco à segurança nacional
O secretário de Defesa Pete Hegseth designou a Anthropic como “risco à cadeia de suprimentos para a Segurança Nacional” após a empresa recusar as condições do Departamento de Defesa para uso do Claude em operações militares. O presidente Trump assinou ordem executiva determinando que agências federais eliminem a tecnologia da Anthropic em seis meses.
A designação ocorreu após a Anthropic insistir em duas salvaguardas para o uso do Claude por militares: a proibição de aplicação em armas totalmente autônomas e em vigilância doméstica em massa. O Pentágono considerou as restrições incompatíveis com as necessidades operacionais.
Dario Amodei, CEO da Anthropic, classificou a designação como “retaliatória e punitiva” e afirmou que “ameaças não mudam nossa posição: não podemos, em boa consciência, ceder ao pedido deles”. O executivo observou que as ameaças do Pentágono são contraditórias: uma classifica a empresa como risco de segurança, outra classifica o Claude como essencial para a segurança nacional.
Dario Amodei reafirma limites sobre vigilância e armas autônomas
O CEO da Anthropic publicou posicionamento detalhado reafirmando que a empresa mantém duas linhas vermelhas inegociáveis: a proibição de uso em armas totalmente autônomas e em vigilância doméstica em massa. Amodei declarou que a preferência da Anthropic é continuar servindo o Departamento de Defesa — com as salvaguardas em vigor.
A posição da empresa gerou apoio público expressivo. A cantora Katy Perry publicou captura de tela do preço do Claude Pro acompanhada de um coração vermelho. Campanhas com a hashtag CancelChatGPT ganharam tração no Reddit e no X, com usuários incentivando a migração para o assistente de inteligência artificial da Anthropic.
O caso estabeleceu precedente no setor de IA sobre os limites éticos que empresas de tecnologia podem impor ao uso militar de seus produtos. A decisão da Anthropic de manter as restrições, mesmo sob pressão do governo, diferenciou a empresa de concorrentes que firmaram acordos sem condições semelhantes.
OpenAI firma contrato de US$ 200 milhões com Departamento de Defesa
Enquanto a Anthropic resistia às condições do Pentágono, a OpenAI assinou contrato de até US$ 200 milhões para fornecer o ChatGPT em redes classificadas do Departamento de Defesa. Sam Altman, CEO da OpenAI, declarou que “o Departamento de Defesa concorda com esses princípios, os reflete em lei e política, e nós os incorporamos ao nosso acordo”.
O contraste entre as duas empresas alimentou a migração de usuários. Enquanto a OpenAI expandia a parceria militar, a base de usuários do Claude crescia impulsionada por consumidores que declaravam preferência por uma empresa com limites éticos explícitos.
O acordo da OpenAI abrange o fornecimento de tecnologia de IA para operações em redes classificadas, um segmento do mercado de defesa que exige certificações de segurança específicas. A Anthropic afirmou que sua preferência é continuar servindo militares com as duas salvaguardas em vigor, sem abrir mão das restrições sobre armas autônomas e vigilância.