Matthew Prince, CEO da Cloudflare, projeta que o volume de tráfego gerado por bots na internet deve ultrapassar o de usuários humanos até 2027, impulsionado pelo crescimento de agentes de IA
O CEO da Cloudflare, Matthew Prince, declarou que o tráfego de bots na internet pode superar o volume gerado por humanos até 2027. A projeção foi apresentada em entrevista publicada em 20 de março de 2026 e se baseia na análise de dados processados pela infraestrutura global da empresa.
Atualmente, bots representam cerca de 20% do tráfego total da internet, segundo dados da própria Cloudflare. O crescimento é constante e, de acordo com Prince, não há sinais de desaceleração no horizonte próximo.
A previsão levanta questões sobre o futuro da monetização digital, das métricas de audiência e da própria estrutura de funcionamento da web para publishers e anunciantes.
Tráfego de bots representa 20% da internet e cresce sem desaceleração
A Cloudflare processa uma parcela significativa do tráfego global da internet, o que confere à empresa uma posição privilegiada para monitorar tendências de uso. Os dados internos indicam que bots já respondem por aproximadamente um quinto de todas as requisições processadas pela rede.
Esse volume inclui tanto bots legítimos, como crawlers de mecanismos de busca e agentes de IA, quanto bots maliciosos usados para ataques e scraping não autorizado. A distinção entre os dois tipos é cada vez mais difícil, segundo a empresa.
O ritmo de crescimento é consistente ao longo dos últimos trimestres. Prince afirmou que a curva de aumento não apresenta sinais de estabilização, o que sustenta a projeção de inversão na proporção entre tráfego automatizado e humano dentro dos próximos dois anos.
Agentes de IA visitam até mil vezes mais sites que humanos
A diferença de volume entre acessos humanos e automatizados se explica pela natureza dos agentes de IA. Enquanto um usuário humano realiza uma tarefa visitando em média cinco sites, um agente de IA programado para a mesma tarefa pode acessar até cinco mil páginas.
Prince exemplificou essa diferença de forma direta: “Se um humano estivesse realizando uma tarefa, você visitaria talvez cinco sites. Seu agente frequentemente visitará mil vezes o número de sites.” A escala de operação dos agentes amplifica o volume total de requisições de forma exponencial.
Além disso, cada interação de um agente tende a gerar múltiplas requisições simultâneas, incluindo chamadas de API, carregamento de recursos e verificação de dados. O efeito multiplicador torna o impacto no tráfego total ainda maior do que a simples contagem de visitas sugere.
Projeção indica inversão de proporção entre bots e humanos até 2027
A declaração central de Prince sintetiza a tendência identificada pela Cloudflare: “Suspeitamos que em 2027 o volume de tráfego de bots na internet vai superar o volume de tráfego humano.” A projeção considera a manutenção das taxas atuais de crescimento de agentes automatizados.
Para que a inversão ocorra, o tráfego de bots precisaria mais do que quadruplicar em relação ao patamar atual de 20%. No entanto, o lançamento contínuo de novos agentes de IA por empresas de tecnologia indica que esse crescimento é plausível.
A projeção não considera apenas crawlers tradicionais. Agentes de IA conversacionais, assistentes de compra automatizados e sistemas de pesquisa autônomos representam uma nova categoria de tráfego que não existia em escala há dois anos. Essa diversificação acelera o ritmo de expansão do tráfego automatizado.
Bots não clicam em anúncios e alteram modelo de monetização da web
O impacto econômico da predominância de bots é direto. Prince destacou um ponto crítico para a indústria de publicidade digital: “Bots não clicam em anúncios.” Quando agentes automatizados substituem a navegação humana, as impressões de anúncios perdem eficácia e o modelo de monetização baseado em cliques é comprometido.
A consequência para publishers é imediata. Sites que dependem de receita publicitária por visualização ou clique enfrentam uma erosão progressiva do valor de cada visita registrada. Métricas como pageviews e sessões perdem relevância quando uma parcela crescente do tráfego não gera conversões nem engajamento real.
Para plataformas de anúncios, o desafio é separar tráfego legítimo de tráfego automatizado com precisão suficiente para manter a confiança dos anunciantes. A sofisticação crescente dos agentes de IA torna essa distinção cada vez mais complexa e custosa.
Confiança do consumidor migra para agentes automatizados
Prince também identificou uma mudança comportamental relevante entre consumidores. Segundo o CEO da Cloudflare, “consumidores estão confiando na resposta do robô útil” em vez de navegar diretamente pelos sites para tomar decisões de compra ou pesquisa.
Essa transferência de confiança significa que a interação direta entre marca e consumidor final é intermediada por um agente de IA. O usuário recebe uma resposta consolidada sem necessariamente visitar o site original da marca, reduzindo a exposição direta ao conteúdo e à identidade visual do publisher.
No entanto, essa dinâmica também cria uma nova camada de influência. Marcas e publishers que conseguirem ser referenciados consistentemente por agentes de IA mantêm relevância indireta, mesmo sem visitas diretas. A otimização para IA se torna tão estratégica quanto a otimização para mecanismos de busca tradicionais.
Crescimento de bots redefine métricas de tráfego para publishers
A predominância crescente de tráfego automatizado exige revisão das métricas tradicionais de desempenho digital. Indicadores como visitantes únicos, tempo na página e taxa de rejeição perdem confiabilidade quando uma parcela significativa do tráfego não corresponde a comportamento humano real.
Para profissionais de SEO e marketing digital, a projeção da Cloudflare reforça a necessidade de monitorar a qualidade do tráfego além do volume. Ferramentas de analytics precisam evoluir para filtrar interações automatizadas e apresentar dados que reflitam exclusivamente o comportamento de usuários reais.
A tendência também impacta benchmarks setoriais. Comparações entre sites ou segmentos baseadas em volume total de tráfego se tornam menos confiáveis à medida que a proporção de bots varia entre setores e regiões. Publishers que não ajustarem suas métricas correm o risco de tomar decisões estratégicas baseadas em dados distorcidos por tráfego automatizado.