Wikipedia perde 8% do tráfego e exige uso de API paga para OpenAI e Google

A Wikipedia enfrenta o seu maior desafio em 24 anos de existência. Os dados da Fundação Wikimedia revelam uma queda de 8% no tráfego humano em 2025, enquanto os bots de inteligência artificial consomem o seu conteúdo em escala sem precedentes. 

A resposta da organização veio nesta segunda-feira: um apelo formal para que as empresas de IA paguem pelo acesso aos dados. O pedido direcionado aos gigantes como OpenAI, Google e Anthropic estabelece duas condições. 

Primeiro, a atribuição clara aos colaboradores humanos cujo trabalho alimenta as respostas das IAs. Segundo, o uso da API paga Wikimedia Enterprise em vez do scraping que sobrecarrega os servidores da enciclopédia. A organização descobriu que os bots sofisticados simulavam o comportamento humano para evitar a detecção.

Além disso, o movimento expõe uma contradição no ecossistema digital atual. Os modelos de linguagem dependem dos dados da Wikipedia para treinar e gerar respostas precisas. No entanto, ao fornecer as informações diretamente aos usuários, reduzem as visitas ao site original. Esse ciclo ameaça o modelo colaborativo que criou o conhecimento agora consumido pelas máquinas.

O paradoxo da sustentabilidade do conhecimento colaborativo

Marshall Miller, da Fundação Wikimedia, destaca que o conhecimento criado por voluntários continua sendo lido em toda a internet. No entanto, isso ocorre sem reconhecimento ou apoio financeiro para manter a infraestrutura. A Wikipedia depende de editores voluntários para verificar os fatos, atualizar as informações e garantir a neutralidade editorial — trabalho que não pode ser automatizado.

Quando os usuários obtêm respostas completas no ChatGPT ou nos AI Overviews do Google, deixam de visitar a fonte. Menos visitantes significam menos colaboradores potenciais e doadores. O modelo que sustentou duas décadas de conhecimento livre enfrenta uma pressão existencial causada pelas tecnologias que ajudou a criar.

Por outro lado, a atualização dos sistemas de detecção revelou a dimensão do problema. Grande parte do tráfego aparentemente elevado em maio e junho vinha de bots avançados. Após reclassificar esses acessos, a queda real no tráfego humano tornou-se inegável, confirmando as tendências observadas em outros sites de conteúdo.

O surgimento do GEO como resposta estratégica

O Generative Engine Optimization surge como uma expansão necessária do SEO tradicional nesse cenário. Enquanto o SEO busca o posicionamento em páginas de resultados, o GEO foca em garantir as citações diretas nas respostas de IA. Os dados mostram que 85,7% das empresas brasileiras já consideram investir nessa estratégia.

A técnica requer a estruturação específica de conteúdo para facilitar a extração por modelos de linguagem. As informações organizadas em blocos claros, com fontes definidas e contexto estruturado, aumentam as chances de referenciamento. O branding semântico torna-se essencial, estabelecendo as associações granulares nos embeddings das IAs.

As empresas precisam abandonar a competição por palavras-chave genéricas. Cada atributo adicional — localização, público-alvo, casos de uso — amplia as possibilidades de citação. A especificidade extrema aumenta a relevância quando os usuários fazem perguntas contextuais aos modelos de linguagem.

O modelo de API paga como solução intermediária

A Wikimedia Enterprise oferece três níveis de acesso estruturados. O plano gratuito Essentials permite até 15 requisições mensais com as atualizações quinzenais. O Plus, a 500 dólares mensais, inclui as atualizações diárias e o suporte prioritário. Já o Premium, a 2.500 dólares, adiciona os streams em tempo real e os recursos avançados.

O Google, a Amazon e a Apple já mantêm acordos para acessar os dados em escala através da plataforma. A API elimina a necessidade de scraping, oferecendo os formatos otimizados para o processamento automatizado. As startups e empresas menores, porém, argumentam que os custos são proibitivos para os modelos de negócio em desenvolvimento.

A estrutura de preços busca a sustentabilidade financeira onde quem lucra com o conhecimento contribui para a sua manutenção. Sem esse modelo, a infraestrutura que suporta milhões de artigos e bilhões de edições pode entrar em colapso. A Wikipedia processa mais de 350 edições por minuto, todas revisadas por voluntários.

A atribuição como questão ética e legal

A atribuição transcende os aspectos técnicos, representando um debate fundamental sobre a propriedade intelectual na era da IA. Quando os modelos geram respostas baseadas na Wikipedia, surge a questão: quem merece o crédito? Os editores originais, a plataforma ou a IA que sintetizou as informações?

A Fundação argumenta que a atribuição clara mantém a confiança no ecossistema informacional. Os usuários precisam conhecer as fontes para avaliar a credibilidade. O reconhecimento também incentiva os colaboradores, garantindo que o seu trabalho seja creditado mesmo quando processado por sistemas automatizados.

Algumas empresas implementaram os sistemas de citação. O Perplexity inclui os links para fontes; o Claude menciona quando usa as informações da Wikipedia. Porém, a implementação varia entre as plataformas, sem um padrão industrial estabelecido para a atribuição em conteúdo gerado artificialmente.

As implicações para o futuro do conhecimento digital

O confronto simboliza uma transformação profunda no ecossistema digital. Transitamos da navegação entre sites para respostas entregues por intermediários inteligentes. Os estudos mostram reduções de até 65% no CTR orgânico quando os AI Overviews aparecem nos resultados.

Para as empresas dependentes do tráfego orgânico, a adaptação torna-se imperativa. O SEO tradicional mantém a importância, mas requer a complementação por estratégias de GEO. O conteúdo precisa ser estruturado para rankear e para ser compreendido, extraído e citado por modelos de linguagem.

Além disso, a concentração de poder em poucas IAs levanta questões sobre o controle informacional. Se o ChatGPT, o Gemini e o Claude tornam-se os principais intermediários, o seu poder sobre o que é visto cresce exponencialmente. O precedente da Wikipedia pode influenciar as negociações futuras entre os criadores de conteúdo e os gigantes tecnológicos.

A adaptação em ecossistema em transformação

As empresas brasileiras já desenvolvem as metodologias específicas de GEO para o mercado nacional. A questão não é se adaptar, mas a velocidade da adaptação. Os competidores que estabelecerem o posicionamento dominante nos modelos de linguagem primeiro terão uma vantagem duradoura.

O tráfego direto continuará diminuindo, mas a qualidade e a estruturação tornam-se mais importantes do que nunca. Ser a fonte confiável citada por sistemas de IA garante a relevância mesmo sem os cliques diretos. O futuro será híbrido, com espaço para a descoberta tradicional e as interações mediadas por inteligência artificial.

As organizações bem-sucedidas dominarão ambos os paradigmas. Criarão o conteúdo servindo os humanos navegando websites e os algoritmos extraindo informação. A Wikipedia, símbolo do conhecimento colaborativo, agora testa se esse modelo sobrevive à era das máquinas que aprenderam com ele.

Foto de Escrito por Maurício Schwingel

Escrito por Maurício Schwingel

guest

0 Comentários
Inline Feedbacks
View all comments
Foto de Escrito por Maurício Schwingel

Escrito por Maurício Schwingel

Compartilhe este conteúdo

Curso de SEO

Gratuito e com certificado. Mais de 13.620 pessoas já participaram.
Preencha o formulário e assista agora!

Estamos processando sua inscrição. Aguarde...

Seus dados de acesso à sua Jornada no curso serão enviados no e-mail cadastrado.
Receba o melhor conteúdo de SEO & Marketing em seu e-mail.
Assine nossa newsletter e fique informado sobre tudo o que acontece no mercado
Receba o melhor conteúdo de SEO & Marketing em seu e-mail.
Assine nossa newsletter e fique informado sobre tudo o que acontece no mercado
Agende uma reunião e conte seus objetivos
Nossos consultores irão mostrar como levar sua estratégia digital ao próximo nível.