Meta robots é uma tag HTML que fornece instruções aos mecanismos de busca sobre como rastrear, indexar e exibir o conteúdo de uma página nos resultados de pesquisa
O controle sobre como cada página de um site aparece nos resultados de busca depende de instruções enviadas aos mecanismos de pesquisa. A meta tag robots é o mecanismo padrão para comunicar essas instruções diretamente no código HTML, determinando se uma página deve ser indexada e como o conteúdo pode ser exibido.
Diferentemente do robots.txt — que atua no nível do rastreamento bloqueando acesso a URLs inteiras — a meta robots opera no nível da página individual, oferecendo controle granular sobre indexação e exibição. Essa distinção é central para a governança de visibilidade orgânica e para o SEO técnico de qualquer site com volume significativo de URLs.
A documentação do Google Search Central lista mais de uma dezena de diretivas disponíveis na meta tag robots, cada uma com função específica. Essas instruções cobrem desde o bloqueio completo de indexação até o controle do tamanho de snippets nos resultados. Dominar essas diretivas permite que profissionais de SEO configurem com precisão como cada página interage com os buscadores.
Este guia apresenta todas as diretivas suportadas pelo Google, explica a diferença entre meta robots e outras ferramentas de controle de rastreamento, e detalha os cenários de uso mais comuns para cada instrução disponível.
O que é a meta tag robots
A meta tag robots é um elemento HTML inserido na seção <head> de uma página que fornece diretivas específicas aos crawlers de mecanismos de busca. A sintaxe padrão é <meta name="robots" content="[diretivas]">, onde o atributo content aceita uma ou mais instruções separadas por vírgula.
O atributo name pode ser configurado como robots (instruções para todos os mecanismos de busca) ou como o nome de um crawler específico, como googlebot (apenas Google), bingbot (apenas Bing) ou yandex (apenas Yandex). Essa granularidade permite que a mesma página tenha comportamentos diferentes em buscadores distintos.
Na ausência da meta tag robots, o comportamento padrão dos mecanismos de busca é equivalente à diretiva index, follow — ou seja, a página será indexada e todos os links nela contidos serão seguidos. A meta tag só precisa ser adicionada quando o comportamento padrão não é desejado para aquela página específica.
Segundo a documentação oficial do Google Search Central, a meta tag robots é processada durante o rastreamento da página. O Googlebot acessa a URL, lê o HTML completo (incluindo a meta tag na seção <head>) e então aplica as diretivas encontradas. Essa sequência significa que a página precisa ser acessível para que as instruções sejam lidas corretamente.
Como funciona a meta tag robots
O processamento da meta tag robots ocorre em três etapas sequenciais. Primeiro, o crawler acessa a página por meio de links, do sitemap ou de uma solicitação direta via Search Console. Em seguida, o mecanismo de busca analisa o HTML completo e identifica as meta tags presentes na seção <head> do documento.
Após identificar a meta tag robots, o mecanismo de busca interpreta cada diretiva contida no atributo content. As diretivas são processadas individualmente, e o comportamento resultante é a combinação de todas as instruções presentes. Se houver conflito entre diretivas (como index e noindex na mesma tag), o Google tende a seguir a diretiva mais restritiva.
Um aspecto essencial do funcionamento é que múltiplas meta tags robots podem coexistir na mesma página. O Google combina todas as diretivas encontradas em todas as tags, independentemente de estarem em tags separadas ou em uma única tag com valores separados por vírgula. O resultado final é sempre a união de todas as instruções presentes no documento.
A tag também suporta a variante X-Robots-Tag como cabeçalho HTTP, que funciona de forma idêntica mas é aplicada no nível do servidor. Essa alternativa é especialmente útil para recursos não-HTML (PDFs, imagens, documentos) que não possuem uma seção <head> onde a meta tag possa ser inserida.
Diretivas de indexação
As diretivas de indexação controlam se uma página aparece nos resultados de pesquisa e como o mecanismo de busca trata o conteúdo indexado. Essas são as diretivas mais utilizadas na prática e as que produzem maior impacto na visibilidade orgânica do site.
noindex
A diretiva noindex instrui o mecanismo de busca a não incluir a página nos resultados de pesquisa. A URL pode continuar sendo rastreada, mas não aparecerá quando usuários realizarem buscas. Essa é a diretiva mais utilizada em auditorias de SEO técnico e a ferramenta padrão para controlar quais páginas do site devem permanecer fora do índice.
O noindex é indicado para páginas de filtro, resultados de busca interna, ambientes de staging, áreas administrativas e qualquer conteúdo que não agregue valor nos resultados orgânicos. A implementação é feita com <meta name="robots" content="noindex"> na seção <head> da página.
all e none
A diretiva all é o valor padrão e equivale a index, follow — a página será indexada e todos os links serão seguidos. Na prática, não é necessário incluir explicitamente essa diretiva, já que o comportamento padrão dos mecanismos de busca já é equivalente quando a meta tag não está presente.
Em contrapartida, a diretiva none funciona como atalho para noindex, nofollow, bloqueando tanto a indexação da página quanto o acompanhamento dos links. Essa diretiva é utilizada em páginas completamente irrelevantes para mecanismos de busca, como áreas de teste interno ou páginas administrativas que não contêm links úteis.
indexifembedded
A diretiva indexifembedded permite que o conteúdo de uma página seja indexado apenas quando está incorporado em outra página via iframe. Se a página for acessada diretamente, a diretiva noindex prevalece; porém, quando o conteúdo é exibido dentro de outra página, o mecanismo de busca pode indexar o trecho incorporado.
Essa diretiva é particularmente útil para conteúdos como vídeos ou widgets que são produzidos em uma URL própria mas exibidos exclusivamente dentro de outras páginas do site. A sintaxe combina as duas instruções: <meta name="robots" content="noindex"> na página original e <meta name="googlebot" content="indexifembedded"> para permitir a indexação quando incorporado.
Diretivas de link
As diretivas de link controlam como os mecanismos de busca tratam os links presentes na página, afetando a distribuição de autoridade (link equity) para as URLs de destino e o padrão de rastreamento do site inteiro.
nofollow
A diretiva nofollow na meta tag robots instrui o mecanismo de busca a não seguir nenhum link presente na página. Diferentemente do atributo rel="[nofollow](/blog/links-nofollow/)" em links individuais, a diretiva na meta tag aplica o comportamento a todos os links simultaneamente, sem exceção.
Na prática, essa diretiva é utilizada em páginas com grande volume de links não editoriais — como seções de comentários, fóruns ou diretórios — onde o controle individual de cada link seria inviável. A implementação é <meta name="robots" content="nofollow"> no <head> da página.
Contudo, a diretiva nofollow na meta tag robots é uma ferramenta ampla que afeta todos os links da página. Para controle mais granular, onde apenas alguns links específicos devem ter o atributo nofollow, a abordagem recomendada é utilizar o atributo rel="nofollow" diretamente nos links individuais em vez da diretiva na meta tag.
Diretivas de exibição (snippets)
Além do controle sobre indexação e links, a meta tag robots oferece diretivas que determinam como o conteúdo é exibido nos resultados de pesquisa. Essas diretivas controlam tamanho de snippets, exibição de imagens, previews de vídeo e outras funcionalidades de apresentação.
nosnippet
A diretiva nosnippet impede que o mecanismo de busca exiba qualquer trecho de texto da página nos resultados de pesquisa. A URL continua indexada e aparece nos resultados, mas sem a descrição textual que normalmente acompanha o título. Essa diretiva também bloqueia a exibição de previews de vídeo.
Para controle mais granular, o Google suporta o atributo HTML data-nosnippet que pode ser aplicado a trechos específicos do conteúdo. Ao envolver um parágrafo ou seção com <span data-nosnippet>, apenas aquele trecho é excluído do snippet, enquanto o restante da página permanece elegível para exibição nos resultados.
max-snippet
A diretiva max-snippet:[número] define o número máximo de caracteres que o mecanismo de busca pode exibir no snippet textual do resultado. O valor -1 permite snippets de qualquer tamanho, o valor 0 desabilita snippets textuais, e valores positivos definem o limite em caracteres.
Essa diretiva é útil para sites que desejam controlar quanta informação é revelada diretamente nos resultados de pesquisa, incentivando o clique para acessar a página completa. Na prática, valores entre 100 e 160 caracteres cobrem a maioria dos cenários e mantêm o snippet informativo sem revelar o conteúdo integral da página.
max-image-preview e max-video-preview
A diretiva max-image-preview:[tamanho] controla o tamanho máximo da prévia de imagem exibida nos resultados de pesquisa. Os valores aceitos são none (nenhuma prévia), standard (tamanho padrão) e large (tamanho grande, necessário para aparecer no Discover e em resultados com imagens destacadas).
Da mesma forma, max-video-preview:[número] define a duração máxima em segundos do preview de vídeo que o Google pode exibir. O valor -1 permite previews de qualquer duração, e 0 desabilita previews de vídeo. Ambas as diretivas são especialmente relevantes para sites de conteúdo visual que desejam controlar a exposição de seus ativos nos resultados de busca.
Outras diretivas de exibição
A diretiva notranslate impede que o Google ofereça tradução automática da página nos resultados de pesquisa. Essa opção é relevante para sites multilíngues que já possuem traduções próprias e desejam evitar que versões traduzidas automaticamente concorram com as traduções oficiais nos resultados.
A diretiva noimageindex impede a indexação das imagens da página no Google Images, sem afetar a indexação da página em si. Essa diretiva é indicada quando o conteúdo textual deve ser indexado, mas as imagens não devem aparecer nos resultados de busca por imagem — cenário comum em páginas com imagens protegidas por direitos autorais.
Por fim, a diretiva unavailable_after:[data] permite definir uma data após a qual a página não deve mais aparecer nos resultados de pesquisa. Essa funcionalidade é útil para páginas com conteúdo temporário — como promoções, eventos ou vagas de emprego — que perdem relevância após determinada data e devem ser automaticamente removidas do índice.
Cenários práticos de uso da meta robots
A aplicação correta da meta tag robots depende do tipo de página e do objetivo estratégico para cada seção do site. Os cenários a seguir cobrem as situações mais frequentes em auditorias de SEO técnico e representam as configurações que geram maior impacto na qualidade do índice.
Páginas de filtro e busca interna
Lojas virtuais com filtros de produto geram centenas ou milhares de URLs com conteúdo duplicado ou de baixo valor. A recomendação é aplicar noindex, follow nessas páginas para evitar que poluam o índice do Google, mantendo os links para produtos individuais funcionais para distribuição de autoridade.
Da mesma forma, páginas de resultados de busca interna devem receber noindex. O Google desencoraja explicitamente a indexação dessas páginas, pois oferecem experiência inferior ao usuário que busca diretamente no Google e chega em uma listagem genérica do site em vez de um conteúdo dedicado ao tema.
Páginas de paginação
As páginas de paginação (página 2, página 3 e posteriores) de listagens e categorias são candidatas a noindex quando não adicionam valor único nos resultados. A configuração noindex, follow mantém os links da paginação funcionais enquanto evita que dezenas de páginas de listagem concorram com as páginas de conteúdo nas buscas.
Ambientes de staging e homologação
Ambientes de teste e homologação devem receber meta robots noindex para evitar indexação acidental. A prática recomendada é configurar o noindex diretamente no template do ambiente de staging, garantindo que nenhuma página desse ambiente apareça nos resultados mesmo que o robots.txt esteja temporariamente desabilitado.
Páginas de agradecimento e confirmação
Páginas de agradecimento após envio de formulário (thank-you pages) e páginas de confirmação de compra devem receber noindex. Essas URLs não oferecem valor nos resultados de busca e podem expor informações de fluxo de conversão que não devem ser públicas.
Conteúdo protegido e áreas administrativas
Áreas de login, painéis administrativos e conteúdo restrito a assinantes devem utilizar noindex para evitar que apareçam nos resultados de pesquisa. Além de não oferecer valor ao público geral, a indexação dessas páginas pode representar um risco de segurança ao revelar a estrutura interna do site.
Meta robots vs robots.txt
A meta tag robots e o arquivo robots.txt são ferramentas complementares que atuam em camadas diferentes do processo de rastreamento e indexação. O robots.txt bloqueia o rastreamento no nível do servidor, impedindo que crawlers acessem determinadas URLs. A meta robots atua no nível da página, controlando o que acontece após o rastreamento — indexação, links e exibição.
| Aspecto | Meta robots | Robots.txt |
|---|---|---|
| Nível de atuação | Página individual | Servidor/diretório |
| O que controla | Indexação, links, snippets | Rastreamento |
| Crawler precisa acessar? | Sim | Não (lido antes) |
| Granularidade | Diretiva por diretiva | URL ou padrão de URL |
| Formato | HTML ou HTTP header | Arquivo texto na raiz |
Um conflito frequente ocorre quando robots.txt bloqueia o rastreamento de uma página que deveria ter meta robots noindex. Se o crawler não consegue acessar a página, nunca lerá a meta tag, e a página pode permanecer nos resultados indefinidamente com informações desatualizadas ou limitadas.
A regra prática é: use robots.txt para bloquear rastreamento de recursos que não precisam ser acessados pelos crawlers (como arquivos CSS, JS ou diretórios de mídia). Use meta robots para controlar indexação e exibição de páginas que devem ser rastreadas mas não indexadas, como filtros de e-commerce ou áreas administrativas.
Combinações de diretivas
A meta tag robots aceita múltiplas diretivas separadas por vírgula, permitindo configurações compostas que atendem cenários específicos. As combinações mais comuns são noindex, follow e noindex, nofollow, cada uma com comportamento distinto sobre a distribuição de autoridade via links.
A combinação noindex, follow é a mais utilizada em páginas que não devem aparecer nos resultados mas contêm links valiosos para outras páginas do site. Exemplos incluem páginas de listagem, hubs de navegação e páginas de tags — estruturas que organizam links internos sem oferecer conteúdo original para indexação.
A canonical tag não deve ser combinada com noindex na mesma página, pois gera conflito de sinais. A canonical indica que existe uma versão preferencial para indexação, enquanto noindex instrui a exclusão do índice — o Google tende a priorizar noindex nesses casos, tornando a canonical inútil.
Para controle avançado de snippets, combinações como noindex, nosnippet são redundantes — o noindex já remove a página dos resultados. No entanto, index, max-snippet:150, max-image-preview:large é uma configuração prática que mantém a indexação enquanto controla a apresentação do resultado.
| Combinação | Uso típico | Resultado |
|---|---|---|
| noindex, follow | Filtros, tags, paginação | Não indexa, mantém links ativos |
| noindex, nofollow | Staging, áreas de teste | Bloqueia indexação e links |
| index, nofollow | Fóruns, comentários | Indexa página, ignora links |
| index, max-snippet:150 | Conteúdo premium | Limita prévia textual |
| index, max-image-preview:large | Blog, notícias | Habilita Discover e imagens |
A escolha entre noindex, follow e noindex, nofollow depende da presença de links valiosos na página. Se a página contém links internos para conteúdo relevante, manter o follow preserva a distribuição de autoridade entre as páginas do site.
X-Robots-Tag (HTTP header)
O X-Robots-Tag é a versão em cabeçalho HTTP da meta tag robots, suportando todas as mesmas diretivas mas aplicável a qualquer tipo de recurso servido pelo servidor. A configuração é feita diretamente no servidor web (Apache, Nginx) ou no código do aplicativo, adicionando o cabeçalho à resposta HTTP.
Em servidores Apache, a configuração utiliza a diretiva Header set X-Robots-Tag "noindex" no arquivo .htaccess. No Nginx, a instrução é add_header X-Robots-Tag "noindex" no bloco location correspondente. Ambas as plataformas permitem aplicar o cabeçalho seletivamente por tipo de arquivo, diretório ou padrão de URL.
O X-Robots-Tag é a única forma de aplicar diretivas de indexação a recursos não-HTML, como arquivos PDF, imagens, vídeos e documentos para download. A meta tag HTML não está disponível nesses formatos, tornando o cabeçalho HTTP a alternativa obrigatória para controlar a indexação desses tipos de conteúdo.
Um caso comum é o bloqueio de indexação de PDFs e documentos internos servidos pelo site. A configuração X-Robots-Tag: noindex aplicada seletivamente a extensões .pdf e .doc impede que documentos internos apareçam nos resultados de busca, sem afetar as páginas HTML do site.
Quando ambos — meta tag e X-Robots-Tag — estão presentes para a mesma URL, o Google combina as diretivas de ambas as fontes. O resultado é a união de todas as instruções, e em caso de conflito, a diretiva mais restritiva prevalece. Essa comportamento torna essencial a verificação de consistência entre ambas as configurações.
O X-Robots-Tag também aceita diretivas direcionadas a crawlers específicos, utilizando a mesma sintaxe de agente da meta tag. A configuração X-Robots-Tag: googlebot: noindex aplica a restrição apenas ao Googlebot, mantendo a página indexável por outros mecanismos de busca.
Implementação em WordPress e CMS
No WordPress, plugins de SEO como Yoast SEO e Rank Math oferecem interfaces gráficas para configurar a meta tag robots em cada post ou página individualmente. A opção de controle de indexação está na aba de configurações avançadas de cada conteúdo, onde é possível selecionar noindex, nofollow e outras diretivas sem editar código.
Ambos os plugins também permitem configuração global por tipo de conteúdo — categorias, tags, páginas de arquivo e páginas de autor podem receber noindex automaticamente nas configurações gerais do plugin. Essa funcionalidade é especialmente útil para sites com centenas de taxonomias que individualmente geram páginas de baixo valor para buscadores.
Em plataformas como Shopify, a configuração de meta robots requer edição do código Liquid do tema. O lojista pode incluir condicionais no arquivo theme.liquid para aplicar noindex seletivamente em tipos de página específicos, como resultados de busca interna ou páginas de coleção com filtros ativos.
Para sites que utilizam frameworks JavaScript (React, Vue, Angular), a meta tag deve ser inserida durante a renderização no servidor (SSR) para garantir que o Googlebot a leia corretamente. Aplicações que dependem exclusivamente de JavaScript no lado do cliente podem ter problemas na detecção da meta tag, tornando o X-Robots-Tag via cabeçalho HTTP a opção mais confiável.
Como auditar a meta robots do site
A auditoria das diretivas meta robots requer ferramentas de crawling que acessem todas as URLs do site e extraiam as configurações presentes no HTML de cada página. Screaming Frog, Sitebulb e DeepCrawl são as opções mais utilizadas para essa verificação, oferecendo filtros específicos para páginas com noindex ativo.
O relatório de cobertura do Google Search Console é complementar à auditoria por crawling. Na seção “Páginas não indexadas”, o motivo “Excluída pela tag noindex” lista todas as URLs onde o Google detectou a diretiva. Essa lista deve ser comparada com a intenção do site — se páginas estratégicas aparecerem ali, a correção deve ser imediata.
Para sites com muitas URLs, a auditoria deve priorizar as páginas mais importantes: landing pages, categorias principais e conteúdo que gera tráfego orgânico. A verificação pode ser automatizada com scripts que acessam cada URL e verificam a presença da meta tag robots no código HTML retornado, alertando sobre configurações inesperadas.
A frequência recomendada para auditorias de meta robots é trimestral em sites com menos de mil páginas e mensal em sites com volume maior de URLs. Migrações de domínio, mudanças de CMS e atualizações de plugins são momentos críticos que exigem verificação imediata das diretivas configuradas.
Erros comuns com meta robots
O erro mais frequente é aplicar noindex em páginas estratégicas acidentalmente, geralmente durante migrações de site ou publicação de ambientes de staging. A verificação periódica via Google Search Console — no relatório de páginas excluídas com motivo “Excluída pela tag ‘noindex'” — é a forma mais eficiente de detectar esse tipo de problema antes que cause impacto significativo.
Outro erro recorrente é combinar robots.txt e meta robots na mesma URL de forma conflitante. Se o robots.txt bloqueia o rastreamento de uma página que contém meta robots noindex, o crawler nunca lerá a diretiva, e a página poderá permanecer nos resultados. Páginas que dependem de meta robots para controle de indexação devem sempre ser acessíveis para rastreamento.
A duplicação de meta tags robots no mesmo documento também causa problemas. Quando o template do site já inclui uma meta tag e o plugin de SEO insere outra, o Google combina ambas — e a diretiva mais restritiva prevalece. Auditorias do código-fonte devem verificar que apenas uma fonte gera a tag por página.
Um quarto erro é ignorar as diretivas de snippet, perdendo oportunidades de controlar a apresentação nos resultados. Sites que não configuram max-image-preview:large podem estar perdendo elegibilidade para o Google Discover e para resultados com imagens em destaque — formatos que geram volumes significativos de tráfego adicional.
Meta robots e SEO
A meta tag robots é uma ferramenta de SEO técnico com impacto direto na governança de indexação do site. A configuração correta dessas diretivas garante que apenas páginas com valor orgânico apareçam nos resultados de busca, enquanto conteúdo de baixo valor permanece acessível para usuários mas invisível para buscadores.
O impacto mais significativo ocorre na qualidade geral do índice do site. Domínios que acumulam centenas de páginas indexadas sem valor orgânico — filtros, tags, paginações, áreas administrativas — diluem a percepção de qualidade do site pelo Google. A meta robots noindex nessas páginas concentra os sinais de qualidade nas URLs que efetivamente geram tráfego.
Para sites com mais de mil páginas, a auditoria periódica das diretivas meta robots é uma prática recomendada de SEO técnico. Ferramentas como Screaming Frog e Sitebulb rastreiam o site inteiro e geram relatórios de todas as páginas com meta robots ativo, permitindo identificar configurações incorretas ou oportunidades de otimização antes que afetem o desempenho orgânico.
Embora a meta robots noindex não bloqueie o rastreamento, ela afeta indiretamente o orçamento de rastreamento do site. O Googlebot continua visitando páginas com noindex para verificar se a diretiva permanece ativa, consumindo parte do crawl budget que poderia ser direcionado a páginas novas ou atualizadas.
A diretiva max-image-preview:large merece atenção especial porque afeta a elegibilidade para o Google Discover — canal que gera volumes significativos de tráfego para sites de conteúdo. Sem essa diretiva (ou com valor standard ou none), o conteúdo não aparece no Discover, perdendo uma fonte relevante de visitantes.
A relação entre meta robots e Core Web Vitals também é relevante. Páginas com noindex não são excluídas do relatório de experiência da página no Search Console, mas não impactam diretamente o rankeamento. Para sites com problemas de performance, aplicar noindex em páginas desnecessárias reduz o volume de URLs monitoradas pelo Google.
Perguntas frequentes
As dúvidas sobre meta robots abrangem desde questões de implementação técnica até o impacto nas métricas de visibilidade orgânica. A seguir, as respostas para as perguntas mais recorrentes sobre essa tag HTML.
Meta robots afeta o SEO diretamente?
Sim. A meta robots é uma ferramenta de SEO técnico que controla quais páginas aparecem nos resultados de busca e como são exibidas. A configuração correta de noindex em páginas sem valor orgânico melhora a qualidade geral do índice do site, enquanto diretivas de snippet como max-image-preview controlam a elegibilidade para formatos especiais de resultado.
Meta robots bloqueia o rastreamento?
Não. A meta robots controla indexação e exibição, não rastreamento. O crawling (rastreamento) é controlado pelo robots.txt. Mesmo com noindex, o Googlebot continua visitando a página para verificar se a diretiva permanece ativa, consumindo orçamento de rastreamento. Para bloquear o rastreamento, use robots.txt.
Preciso adicionar meta robots em todas as páginas?
Não. O comportamento padrão sem a meta tag é index, follow, que é adequado para a maioria das páginas de um site. A meta robots só precisa ser adicionada em páginas que devem ter comportamento diferente do padrão — como noindex para filtros ou nosnippet para conteúdo que não deve exibir snippet.
Qual a diferença entre meta robots e X-Robots-Tag?
A meta robots é uma tag HTML no <head> da página, aplicável apenas a documentos HTML. O X-Robots-Tag é um cabeçalho HTTP configurado no servidor, aplicável a qualquer tipo de recurso (PDF, imagem, vídeo). Ambos suportam as mesmas diretivas e, quando presentes simultaneamente, o Google combina as instruções de ambas as fontes.
Meta robots noindex é igual a robots.txt disallow?
Não. O noindex remove a página do índice mas permite que o Googlebot acesse e leia o conteúdo. O disallow no robots.txt bloqueia o acesso do crawler à URL, impedindo que diretivas sejam lidas. A combinação dos dois — disallow em URL com noindex — impede que o noindex funcione, pois o crawler nunca acessa a página.