Estudo Ahrefs com 1.885 URLs e 4.000 páginas controle mostra que adicionar JSON-LD não eleva citações no ChatGPT e no AI Mode, e pode até reduzir aparições no AI Overviews.
A Ahrefs publicou esta semana o estudo “We Tracked 1,885 Pages Adding Schema. AI Citations Barely Moved.”, que testou se adicionar schema markup eleva citações em respostas geradas por IA. O resultado contraria uma hipótese popular no mercado SEO.
Os dados mostram queda de 4,6% em citações no AI Overviews após adição de JSON-LD, variação positiva mas estatisticamente nula no AI Mode (+2,4%) e no ChatGPT (+2,2%). A diferença em AI Overviews é a única com significância estatística, com odds de 1 em 2.500 de ocorrer por acaso.
Por sua vez, um experimento paralelo da searchVIU, citado no relatório, testou cinco sistemas de IA — ChatGPT, Claude, Perplexity, Gemini e AI Mode — e nenhum usou dados estruturados em retrieval direto. Todos extraíram apenas conteúdo HTML visível, ignorando JSON-LD, Microdata e RDFa.
Estudo Ahrefs analisa 1.885 páginas em janela de 30 dias
O experimento foi conduzido por Louise Linehan e Xibeijia Guan, com revisão de Ryan Law, todos da Ahrefs. O time identificou 1.885 URLs que adicionaram JSON-LD entre agosto de 2025 e março de 2026 e cruzou com 4.000 páginas controle de comportamento similar.
Em seguida, a metodologia comparou citações nas três plataformas (AI Overviews, AI Mode e ChatGPT) em duas janelas: 30 dias antes da adição do schema e 30 dias depois. Para cada URL tratada, o time selecionou três páginas controle com nível de citação pré-tratamento equivalente, totalizando uma das maiores amostras públicas sobre o tema.
A análise inicial varreu seis milhões de URLs para mapear a prevalência de schema markup, antes de filtrar para a amostra final do experimento. Conforme a Ahrefs, esse rigor metodológico busca isolar o efeito do schema das demais variáveis de SEO.
AI Overviews registra queda de 4,6% após adição de schema
No agregado, as páginas que ganharam JSON-LD viram citações no Google AI Overviews caírem 4,6% no período pós-tratamento, quando comparadas ao grupo de controle. A queda é pequena em magnitude, porém estatisticamente significativa: a chance de o resultado ocorrer ao acaso é de 1 em 2.500.
Já no Google AI Mode, a variação foi de +2,4%, considerada estatisticamente nula pela própria Ahrefs. O mesmo cenário aparece no ChatGPT, com +2,2% — número dentro da margem de erro da amostra.
Em outras palavras, a Ahrefs interpreta os números do AI Mode e do ChatGPT como ruído. Para o AI Overviews, a empresa observa que a queda exige explicação adicional, mas não aponta causa direta no estudo.
Experimento da searchVIU detecta que IAs ignoram dados estruturados
Em paralelo, a Ahrefs cita um experimento da searchVIU que testou cinco sistemas de IA em modo de retrieval direto: ChatGPT, Claude, Perplexity, Gemini e Google AI Mode. Todos extraíram exclusivamente conteúdo HTML visível das páginas analisadas.
O resultado revela que JSON-LD, Microdata oculto e RDFa oculto foram simplesmente ignorados pelos cinco sistemas. Nenhum dos crawlers usados pelas plataformas leu o markup estruturado durante o fetch em tempo real.
Em complemento, esse achado ajuda a explicar o resultado da Ahrefs: se as IAs não leem JSON-LD durante a busca, o markup não tem como alterar diretamente a probabilidade de citação. A pesquisa, contudo, não fecha o tema em definitivo.
Estudo cita limitações relevantes na amostra e na metodologia
A Ahrefs reconhece limitações importantes no desenho do experimento. Páginas que adicionam JSON-LD frequentemente alteram outros elementos ao mesmo tempo, como links internos, conteúdo, performance técnica e correções diversas — o que dificulta isolar o efeito do schema.
Além disso, o estudo agrupou tipos de schema (Article, FAQ, Product, HowTo, Organization) em uma única análise, sem medir efetividade por tipo. A janela de 30 dias pós-tratamento e a exclusão de schema injetado via JavaScript também aparecem na lista de limitações.
Outra restrição é que as páginas da amostra já recebiam citações de IA de forma consistente antes do tratamento — cada uma com 100+ citações no AI Overviews em fevereiro de 2025. O efeito sobre páginas zeradas em citações não é coberto pelo estudo.
Recomendação prática é A/B test com Brand Radar
Para profissionais de SEO interessados em medir o impacto do schema na própria operação, a Ahrefs recomenda rodar testes A/B internos. A ferramenta sugerida é o Brand Radar, da própria empresa, que permite comparar páginas tratadas contra controles ao longo de 30 dias ou mais.
Conforme a Ahrefs, o teste só confirma impacto do schema quando os dois grupos seguem trajetórias claramente distintas. Em outras palavras, a leitura de “schema sempre ajuda” precisa de evidência específica do contexto e do tipo de schema aplicado.
Logo, a recomendação inverte o padrão atual de adicionar JSON-LD por padrão e sem teste. A consultoria defende um modelo orientado a dados, no qual cada implementação passa por validação antes de ser adotada como prática.
Resultado abre debate sobre prioridade do schema em estratégias AEO
O estudo entra em circulação em um momento de debate sobre Answer Engine Optimization (AEO) e Generative Engine Optimization (GEO). Times de SEO ao redor do mundo discutem se práticas tradicionais — como dados estruturados ricos — seguem efetivas para citações em respostas geradas por IA.
Nesse cenário, a pesquisa da Ahrefs aponta que, para páginas já citadas, o JSON-LD não é alavanca relevante. Contudo, o trabalho não esgota o tema. O comportamento em páginas sem histórico de citação, o efeito por tipo de schema e janelas de observação maiores ficam abertos para investigação futura.
Em síntese, para a Ahrefs, o achado central é prático: o markup estruturado pode continuar tendo valor para resultados ricos no Google clássico, mas não funciona como atalho para conquistar citações em ChatGPT, Gemini ou AI Mode.