A Wikipedia enfrenta o seu maior desafio em 24 anos de existência. Os dados da Fundação Wikimedia revelam uma queda de 8% no tráfego humano em 2025, enquanto os bots de inteligência artificial consomem o seu conteúdo em escala sem precedentes.
A resposta da organização veio nesta segunda-feira: um apelo formal para que as empresas de IA paguem pelo acesso aos dados. O pedido direcionado aos gigantes como OpenAI, Google e Anthropic estabelece duas condições.
Primeiro, a atribuição clara aos colaboradores humanos cujo trabalho alimenta as respostas das IAs. Segundo, o uso da API paga Wikimedia Enterprise em vez do scraping que sobrecarrega os servidores da enciclopédia. A organização descobriu que os bots sofisticados simulavam o comportamento humano para evitar a detecção.
Além disso, o movimento expõe uma contradição no ecossistema digital atual. Os modelos de linguagem dependem dos dados da Wikipedia para treinar e gerar respostas precisas. No entanto, ao fornecer as informações diretamente aos usuários, reduzem as visitas ao site original. Esse ciclo ameaça o modelo colaborativo que criou o conhecimento agora consumido pelas máquinas.
O paradoxo da sustentabilidade do conhecimento colaborativo
Marshall Miller, da Fundação Wikimedia, destaca que o conhecimento criado por voluntários continua sendo lido em toda a internet. No entanto, isso ocorre sem reconhecimento ou apoio financeiro para manter a infraestrutura. A Wikipedia depende de editores voluntários para verificar os fatos, atualizar as informações e garantir a neutralidade editorial — trabalho que não pode ser automatizado.
Quando os usuários obtêm respostas completas no ChatGPT ou nos AI Overviews do Google, deixam de visitar a fonte. Menos visitantes significam menos colaboradores potenciais e doadores. O modelo que sustentou duas décadas de conhecimento livre enfrenta uma pressão existencial causada pelas tecnologias que ajudou a criar.
Por outro lado, a atualização dos sistemas de detecção revelou a dimensão do problema. Grande parte do tráfego aparentemente elevado em maio e junho vinha de bots avançados. Após reclassificar esses acessos, a queda real no tráfego humano tornou-se inegável, confirmando as tendências observadas em outros sites de conteúdo.
O surgimento do GEO como resposta estratégica
O Generative Engine Optimization surge como uma expansão necessária do SEO tradicional nesse cenário. Enquanto o SEO busca o posicionamento em páginas de resultados, o GEO foca em garantir as citações diretas nas respostas de IA. Os dados mostram que 85,7% das empresas brasileiras já consideram investir nessa estratégia.
A técnica requer a estruturação específica de conteúdo para facilitar a extração por modelos de linguagem. As informações organizadas em blocos claros, com fontes definidas e contexto estruturado, aumentam as chances de referenciamento. O branding semântico torna-se essencial, estabelecendo as associações granulares nos embeddings das IAs.
As empresas precisam abandonar a competição por palavras-chave genéricas. Cada atributo adicional — localização, público-alvo, casos de uso — amplia as possibilidades de citação. A especificidade extrema aumenta a relevância quando os usuários fazem perguntas contextuais aos modelos de linguagem.
O modelo de API paga como solução intermediária
A Wikimedia Enterprise oferece três níveis de acesso estruturados. O plano gratuito Essentials permite até 15 requisições mensais com as atualizações quinzenais. O Plus, a 500 dólares mensais, inclui as atualizações diárias e o suporte prioritário. Já o Premium, a 2.500 dólares, adiciona os streams em tempo real e os recursos avançados.
O Google, a Amazon e a Apple já mantêm acordos para acessar os dados em escala através da plataforma. A API elimina a necessidade de scraping, oferecendo os formatos otimizados para o processamento automatizado. As startups e empresas menores, porém, argumentam que os custos são proibitivos para os modelos de negócio em desenvolvimento.
A estrutura de preços busca a sustentabilidade financeira onde quem lucra com o conhecimento contribui para a sua manutenção. Sem esse modelo, a infraestrutura que suporta milhões de artigos e bilhões de edições pode entrar em colapso. A Wikipedia processa mais de 350 edições por minuto, todas revisadas por voluntários.
A atribuição como questão ética e legal
A atribuição transcende os aspectos técnicos, representando um debate fundamental sobre a propriedade intelectual na era da IA. Quando os modelos geram respostas baseadas na Wikipedia, surge a questão: quem merece o crédito? Os editores originais, a plataforma ou a IA que sintetizou as informações?
A Fundação argumenta que a atribuição clara mantém a confiança no ecossistema informacional. Os usuários precisam conhecer as fontes para avaliar a credibilidade. O reconhecimento também incentiva os colaboradores, garantindo que o seu trabalho seja creditado mesmo quando processado por sistemas automatizados.
Algumas empresas implementaram os sistemas de citação. O Perplexity inclui os links para fontes; o Claude menciona quando usa as informações da Wikipedia. Porém, a implementação varia entre as plataformas, sem um padrão industrial estabelecido para a atribuição em conteúdo gerado artificialmente.
As implicações para o futuro do conhecimento digital
O confronto simboliza uma transformação profunda no ecossistema digital. Transitamos da navegação entre sites para respostas entregues por intermediários inteligentes. Os estudos mostram reduções de até 65% no CTR orgânico quando os AI Overviews aparecem nos resultados.
Para as empresas dependentes do tráfego orgânico, a adaptação torna-se imperativa. O SEO tradicional mantém a importância, mas requer a complementação por estratégias de GEO. O conteúdo precisa ser estruturado para rankear e para ser compreendido, extraído e citado por modelos de linguagem.
Além disso, a concentração de poder em poucas IAs levanta questões sobre o controle informacional. Se o ChatGPT, o Gemini e o Claude tornam-se os principais intermediários, o seu poder sobre o que é visto cresce exponencialmente. O precedente da Wikipedia pode influenciar as negociações futuras entre os criadores de conteúdo e os gigantes tecnológicos.
A adaptação em ecossistema em transformação
As empresas brasileiras já desenvolvem as metodologias específicas de GEO para o mercado nacional. A questão não é se adaptar, mas a velocidade da adaptação. Os competidores que estabelecerem o posicionamento dominante nos modelos de linguagem primeiro terão uma vantagem duradoura.
O tráfego direto continuará diminuindo, mas a qualidade e a estruturação tornam-se mais importantes do que nunca. Ser a fonte confiável citada por sistemas de IA garante a relevância mesmo sem os cliques diretos. O futuro será híbrido, com espaço para a descoberta tradicional e as interações mediadas por inteligência artificial.
As organizações bem-sucedidas dominarão ambos os paradigmas. Criarão o conteúdo servindo os humanos navegando websites e os algoritmos extraindo informação. A Wikipedia, símbolo do conhecimento colaborativo, agora testa se esse modelo sobrevive à era das máquinas que aprenderam com ele.