O Que é Indexação e Por Que Ela é Essencial

Indexação é o processo pelo qual o Google descobre, rastreia e armazena o conteúdo do seu site em seu banco de dados — o chamado índice do Google. Só depois de indexada uma página pode aparecer nos resultados de busca para qualquer termo.

O fluxo completo funciona assim:

  1. Descoberta: o Googlebot encontra sua URL por meio de um link externo, sitemap XML ou submissão manual no Google Search Console.
  2. Rastreamento (crawling): o bot acessa a página, lê o HTML, renderiza o JavaScript e segue os links internos.
  3. Indexação: o Google analisa o conteúdo, determina sobre o que é a página e a armazena no índice.
  4. Ranqueamento: apenas depois de indexada a página compete por posições nas buscas.

Se qualquer etapa desse fluxo for bloqueada, a página simplesmente não existe para o Google — independentemente de quão bom seja o conteúdo.

💡
Verifique rapidamente

Para checar se uma página específica está indexada, pesquise site:seudominio.com.br/url-da-pagina diretamente no Google. Se não aparecer nenhum resultado, aquela URL não está no índice.

As 4 Causas Mais Comuns de Site Fora do Índice

1. Meta tag noindex ativada acidentalmente

Esta é a causa número um — e a mais frustrante porque é 100% invisível para o visitante comum. Durante o desenvolvimento de um site WordPress, é prática padrão marcar a opção "Desestimular mecanismos de busca de indexar este site" (em Configurações > Leitura). O problema acontece quando o desenvolvedor esquece de desmarcar essa opção ao publicar o site.

Essa configuração adiciona a seguinte tag no <head> de todas as páginas:

<meta name="robots" content="noindex, nofollow">

Plugins SEO como Yoast e RankMath também têm configurações individuais por página que podem ativar o noindex. Uma página marcada como "rascunho" ou "não indexar" no plugin continua inacessível ao Google mesmo que o restante do site esteja corretamente configurado.

2. Robots.txt bloqueando o rastreamento

O arquivo robots.txt, acessível em seusite.com.br/robots.txt, instrui os robôs de busca sobre quais partes do site podem ou não ser rastreadas. Uma configuração incorreta pode bloquear o Google inteiro:

User-agent: *
Disallow: /

Essa regra diz: "todos os robôs estão proibidos de rastrear qualquer URL deste domínio". É uma configuração comum em ambientes de desenvolvimento que, quando copiada para produção, deixa o site invisível para o Google.

Importante: o robots.txt bloqueia o rastreamento, não a indexação em si. O Google pode indexar uma URL que viu em outros sites mesmo sem conseguir acessá-la — mas sem rastrear o conteúdo, a página aparece como vazia no índice.

3. Sitemap XML ausente ou com erros

O sitemap XML é um arquivo que lista todas as URLs do seu site que você quer que o Google indexe. Sem um sitemap, o Googlebot depende exclusivamente de seguir links para descobrir páginas — o que é lento e menos eficiente, especialmente em sites novos sem links externos apontando para eles.

Erros comuns em sitemaps: URLs com domínio errado (ex: sitemap gerado em staging com URL de staging.seusite.com), URLs de páginas noindex incluídas no sitemap (contradição que confunde o Google), e sitemap não submetido no Google Search Console.

4. Site novo sem autoridade — Google ainda não priorizou o rastreamento

O Google não rastreia todos os sites com a mesma frequência. Sites com muitos links externos de qualidade (autoridade de domínio alta) são rastreados com mais frequência do que sites novos sem backlinks. Um site recém-lançado pode levar de 2 a 8 semanas para ser indexado organicamente, mesmo sem nenhum bloqueio técnico.

⚠️
Não confunda rastreamento com indexação

Um site pode ser rastreado sem ser indexado (conteúdo fraco, conteúdo duplicado) e pode ter URLs no índice mesmo sem ser rastreado recentemente. O Google Search Console diferencia essas situações no relatório de Cobertura.

Passo a Passo: Como Diagnosticar e Corrigir

Passo 1 — Verificar meta robots no código-fonte

Acesse a página em questão no navegador e use Ctrl+U (ou Cmd+U no Mac) para ver o código-fonte. Pressione Ctrl+F e busque por noindex. Se encontrar <meta name="robots" content="noindex"> ou variações, essa é a causa.

No WordPress: vá em Configurações > Leitura e certifique-se de que "Desestimular mecanismos de busca" está desmarcado. No Yoast, verifique em SEO > Pesquisa > Aparência na Pesquisa > guia Avançado > Noindex.

Passo 2 — Verificar o robots.txt

Acesse seudominio.com.br/robots.txt diretamente no navegador. Verifique se há alguma linha Disallow: / com User-agent * ou Googlebot. Um robots.txt correto para um site público deve ter:

User-agent: *
Disallow:

Sitemap: https://seudominio.com.br/sitemap.xml

Disallow vazio significa "nenhuma restrição". Se precisar bloquear apenas pastas específicas, liste apenas essas (ex: Disallow: /wp-admin/).

Passo 3 — Criar e submeter o sitemap no Google Search Console

Se não tiver um sitemap, instale o plugin Yoast SEO ou RankMath — ambos geram automaticamente em seusite.com.br/sitemap_index.xml. Depois, no Google Search Console:

  1. Acesse search.google.com/search-console e selecione sua propriedade
  2. Clique em Sitemaps no menu lateral esquerdo
  3. Digite a URL do sitemap e clique em Enviar
  4. Aguarde o processamento (geralmente minutos a horas)

Passo 4 — Solicitar indexação manual via URL Inspection

No Google Search Console, use a ferramenta Inspeção de URL (menu lateral) para checar o status de indexação de qualquer página. Cole a URL, aguarde a análise e, se a página estiver fora do índice por razões corrigíveis, clique em "Solicitar indexação". Isso enfileira a URL para rastreamento prioritário.

💡
Leva quanto tempo?

Após solicitação manual no GSC, o Google geralmente rastreia a URL em 1 a 3 dias. A indexação efetiva (aparecer nos resultados) pode levar mais alguns dias além disso. Para sites novos, aguarde ao menos 7 dias após solicitação antes de concluir que há um problema persistente.

Checklist de Indexação

  • Pesquisar site:seudominio.com.br no Google para ver quantas páginas estão indexadas
  • Verificar código-fonte (Ctrl+U) e buscar por "noindex" em páginas importantes
  • Acessar seudominio.com.br/robots.txt e confirmar ausência de Disallow: / global
  • Submeter sitemap XML no Google Search Console
  • Usar a ferramenta de Inspeção de URL no GSC para páginas estratégicas
  • Verificar relatório de Cobertura no GSC para entender URLs excluídas e o motivo

Erros Comuns a Evitar

Erro 1 — Aguardar sem agir

Muitos acreditam que basta publicar o site e aguardar o Google encontrá-lo por conta própria. Para sites novos sem backlinks externos, isso pode levar meses. A submissão ativa do sitemap e a solicitação de indexação manual no GSC reduzem esse tempo para dias. Não espere passivamente.

Erro 2 — Múltiplas versões da mesma URL sem canonical

Se seu site está acessível em http://, https://, www. e sem www., o Google enxerga 4 URLs diferentes com conteúdo duplicado. Isso dilui a autoridade e pode resultar em nenhuma versão sendo indexada como principal. Configure a tag canonical (<link rel="canonical" href="...">) e redirecione todas as variantes para a versão canônica com 301.

Erro 3 — Bloquear CSS e JS no robots.txt

O Google renderiza páginas como um navegador — ele precisa acessar os arquivos CSS e JavaScript para entender o conteúdo visual da página. Bloquear a pasta /wp-content/ ou /assets/ no robots.txt impede essa renderização. O resultado: o Google vê uma versão incompleta da página e pode não indexá-la corretamente.

Perguntas Frequentes sobre Indexação no Google

Quanto tempo leva para o Google indexar um site novo?

Sem nenhum bloqueio técnico e com sitemap submetido, a maioria dos sites é parcialmente indexada em 1 a 2 semanas. Sites com backlinks de qualidade podem ser indexados em 24 a 72 horas. Sites completamente novos sem links externos podem levar de 4 a 8 semanas para indexação orgânica completa. A solicitação manual no Google Search Console acelera significativamente esse processo para páginas específicas.

Meu site aparece no Google mas não para as palavras-chave certas — é problema de indexação?

Não — se o site aparece no Google (mesmo que na décima página), a indexação está funcionando. O que você está descrevendo é um problema de ranqueamento, não de indexação. Ranqueamento depende de outros fatores: relevância do conteúdo, autoridade de domínio, experiência do usuário (Core Web Vitals) e concorrência pelas palavras-chave alvo. Esses problemas têm soluções diferentes das abordadas neste artigo.

Devo usar noindex em alguma página do meu site?

Sim — algumas páginas se beneficiam do noindex: páginas de obrigado (após formulário), área do cliente, carrinho, checkout, resultados de busca interna, páginas de paginação de tags/categorias com conteúdo escasso. O objetivo é evitar que o Google gaste tempo de rastreamento em páginas sem valor para o usuário que busca. Mas essas devem ser exceções, não a regra.

Conclusão: Próximos Passos

A indexação no Google é a fundação de qualquer estratégia de SEO. Sem ela, todo o trabalho de conteúdo e otimização é invisível. O caminho de diagnóstico é direto:

  1. Confirme que não há noindex ativo no código-fonte das páginas principais
  2. Verifique o robots.txt e remova bloqueios globais indevidos
  3. Crie ou submeta o sitemap XML no Google Search Console
  4. Use a Inspeção de URL no GSC para solicitar indexação das páginas mais importantes
  5. Monitore o relatório de Cobertura semanalmente até atingir o número esperado de páginas indexadas

Seu site ainda está fora do Google?

A Fluxando diagnostica problemas técnicos de SEO e resolve desde noindex acidental até arquitetura de crawling para sites de qualquer porte. A primeira consulta é gratuita.

Falar com especialista agora
YC
Yuri César Fundador — Fluxando | Goiânia, GO

Especialista em soluções digitais estratégicas para empresas em Goiânia e todo o Brasil.

WhatsApp