O Que é Indexação e Por Que Ela é Essencial
Indexação é o processo pelo qual o Google descobre, rastreia e armazena o conteúdo do seu site em seu banco de dados — o chamado índice do Google. Só depois de indexada uma página pode aparecer nos resultados de busca para qualquer termo.
O fluxo completo funciona assim:
- Descoberta: o Googlebot encontra sua URL por meio de um link externo, sitemap XML ou submissão manual no Google Search Console.
- Rastreamento (crawling): o bot acessa a página, lê o HTML, renderiza o JavaScript e segue os links internos.
- Indexação: o Google analisa o conteúdo, determina sobre o que é a página e a armazena no índice.
- Ranqueamento: apenas depois de indexada a página compete por posições nas buscas.
Se qualquer etapa desse fluxo for bloqueada, a página simplesmente não existe para o Google — independentemente de quão bom seja o conteúdo.
Para checar se uma página específica está indexada, pesquise site:seudominio.com.br/url-da-pagina diretamente no Google. Se não aparecer nenhum resultado, aquela URL não está no índice.
As 4 Causas Mais Comuns de Site Fora do Índice
1. Meta tag noindex ativada acidentalmente
Esta é a causa número um — e a mais frustrante porque é 100% invisível para o visitante comum. Durante o desenvolvimento de um site WordPress, é prática padrão marcar a opção "Desestimular mecanismos de busca de indexar este site" (em Configurações > Leitura). O problema acontece quando o desenvolvedor esquece de desmarcar essa opção ao publicar o site.
Essa configuração adiciona a seguinte tag no <head> de todas as páginas:
<meta name="robots" content="noindex, nofollow">
Plugins SEO como Yoast e RankMath também têm configurações individuais por página que podem ativar o noindex. Uma página marcada como "rascunho" ou "não indexar" no plugin continua inacessível ao Google mesmo que o restante do site esteja corretamente configurado.
2. Robots.txt bloqueando o rastreamento
O arquivo robots.txt, acessível em seusite.com.br/robots.txt, instrui os robôs de busca sobre quais partes do site podem ou não ser rastreadas. Uma configuração incorreta pode bloquear o Google inteiro:
User-agent: *
Disallow: /
Essa regra diz: "todos os robôs estão proibidos de rastrear qualquer URL deste domínio". É uma configuração comum em ambientes de desenvolvimento que, quando copiada para produção, deixa o site invisível para o Google.
Importante: o robots.txt bloqueia o rastreamento, não a indexação em si. O Google pode indexar uma URL que viu em outros sites mesmo sem conseguir acessá-la — mas sem rastrear o conteúdo, a página aparece como vazia no índice.
3. Sitemap XML ausente ou com erros
O sitemap XML é um arquivo que lista todas as URLs do seu site que você quer que o Google indexe. Sem um sitemap, o Googlebot depende exclusivamente de seguir links para descobrir páginas — o que é lento e menos eficiente, especialmente em sites novos sem links externos apontando para eles.
Erros comuns em sitemaps: URLs com domínio errado (ex: sitemap gerado em staging com URL de staging.seusite.com), URLs de páginas noindex incluídas no sitemap (contradição que confunde o Google), e sitemap não submetido no Google Search Console.
4. Site novo sem autoridade — Google ainda não priorizou o rastreamento
O Google não rastreia todos os sites com a mesma frequência. Sites com muitos links externos de qualidade (autoridade de domínio alta) são rastreados com mais frequência do que sites novos sem backlinks. Um site recém-lançado pode levar de 2 a 8 semanas para ser indexado organicamente, mesmo sem nenhum bloqueio técnico.
Um site pode ser rastreado sem ser indexado (conteúdo fraco, conteúdo duplicado) e pode ter URLs no índice mesmo sem ser rastreado recentemente. O Google Search Console diferencia essas situações no relatório de Cobertura.
Passo a Passo: Como Diagnosticar e Corrigir
Passo 1 — Verificar meta robots no código-fonte
Acesse a página em questão no navegador e use Ctrl+U (ou Cmd+U no Mac) para ver o código-fonte. Pressione Ctrl+F e busque por noindex. Se encontrar <meta name="robots" content="noindex"> ou variações, essa é a causa.
No WordPress: vá em Configurações > Leitura e certifique-se de que "Desestimular mecanismos de busca" está desmarcado. No Yoast, verifique em SEO > Pesquisa > Aparência na Pesquisa > guia Avançado > Noindex.
Passo 2 — Verificar o robots.txt
Acesse seudominio.com.br/robots.txt diretamente no navegador. Verifique se há alguma linha Disallow: / com User-agent * ou Googlebot. Um robots.txt correto para um site público deve ter:
User-agent: *
Disallow:
Sitemap: https://seudominio.com.br/sitemap.xml
Disallow vazio significa "nenhuma restrição". Se precisar bloquear apenas pastas específicas, liste apenas essas (ex: Disallow: /wp-admin/).
Passo 3 — Criar e submeter o sitemap no Google Search Console
Se não tiver um sitemap, instale o plugin Yoast SEO ou RankMath — ambos geram automaticamente em seusite.com.br/sitemap_index.xml. Depois, no Google Search Console:
- Acesse search.google.com/search-console e selecione sua propriedade
- Clique em Sitemaps no menu lateral esquerdo
- Digite a URL do sitemap e clique em Enviar
- Aguarde o processamento (geralmente minutos a horas)
Passo 4 — Solicitar indexação manual via URL Inspection
No Google Search Console, use a ferramenta Inspeção de URL (menu lateral) para checar o status de indexação de qualquer página. Cole a URL, aguarde a análise e, se a página estiver fora do índice por razões corrigíveis, clique em "Solicitar indexação". Isso enfileira a URL para rastreamento prioritário.
Após solicitação manual no GSC, o Google geralmente rastreia a URL em 1 a 3 dias. A indexação efetiva (aparecer nos resultados) pode levar mais alguns dias além disso. Para sites novos, aguarde ao menos 7 dias após solicitação antes de concluir que há um problema persistente.
Checklist de Indexação
- Pesquisar
site:seudominio.com.brno Google para ver quantas páginas estão indexadas - Verificar código-fonte (Ctrl+U) e buscar por "noindex" em páginas importantes
- Acessar
seudominio.com.br/robots.txte confirmar ausência deDisallow: /global - Submeter sitemap XML no Google Search Console
- Usar a ferramenta de Inspeção de URL no GSC para páginas estratégicas
- Verificar relatório de Cobertura no GSC para entender URLs excluídas e o motivo
Erros Comuns a Evitar
Erro 1 — Aguardar sem agir
Muitos acreditam que basta publicar o site e aguardar o Google encontrá-lo por conta própria. Para sites novos sem backlinks externos, isso pode levar meses. A submissão ativa do sitemap e a solicitação de indexação manual no GSC reduzem esse tempo para dias. Não espere passivamente.
Erro 2 — Múltiplas versões da mesma URL sem canonical
Se seu site está acessível em http://, https://, www. e sem www., o Google enxerga 4 URLs diferentes com conteúdo duplicado. Isso dilui a autoridade e pode resultar em nenhuma versão sendo indexada como principal. Configure a tag canonical (<link rel="canonical" href="...">) e redirecione todas as variantes para a versão canônica com 301.
Erro 3 — Bloquear CSS e JS no robots.txt
O Google renderiza páginas como um navegador — ele precisa acessar os arquivos CSS e JavaScript para entender o conteúdo visual da página. Bloquear a pasta /wp-content/ ou /assets/ no robots.txt impede essa renderização. O resultado: o Google vê uma versão incompleta da página e pode não indexá-la corretamente.
Perguntas Frequentes sobre Indexação no Google
Quanto tempo leva para o Google indexar um site novo?
Sem nenhum bloqueio técnico e com sitemap submetido, a maioria dos sites é parcialmente indexada em 1 a 2 semanas. Sites com backlinks de qualidade podem ser indexados em 24 a 72 horas. Sites completamente novos sem links externos podem levar de 4 a 8 semanas para indexação orgânica completa. A solicitação manual no Google Search Console acelera significativamente esse processo para páginas específicas.
Meu site aparece no Google mas não para as palavras-chave certas — é problema de indexação?
Não — se o site aparece no Google (mesmo que na décima página), a indexação está funcionando. O que você está descrevendo é um problema de ranqueamento, não de indexação. Ranqueamento depende de outros fatores: relevância do conteúdo, autoridade de domínio, experiência do usuário (Core Web Vitals) e concorrência pelas palavras-chave alvo. Esses problemas têm soluções diferentes das abordadas neste artigo.
Devo usar noindex em alguma página do meu site?
Sim — algumas páginas se beneficiam do noindex: páginas de obrigado (após formulário), área do cliente, carrinho, checkout, resultados de busca interna, páginas de paginação de tags/categorias com conteúdo escasso. O objetivo é evitar que o Google gaste tempo de rastreamento em páginas sem valor para o usuário que busca. Mas essas devem ser exceções, não a regra.
Conclusão: Próximos Passos
A indexação no Google é a fundação de qualquer estratégia de SEO. Sem ela, todo o trabalho de conteúdo e otimização é invisível. O caminho de diagnóstico é direto:
- Confirme que não há noindex ativo no código-fonte das páginas principais
- Verifique o robots.txt e remova bloqueios globais indevidos
- Crie ou submeta o sitemap XML no Google Search Console
- Use a Inspeção de URL no GSC para solicitar indexação das páginas mais importantes
- Monitore o relatório de Cobertura semanalmente até atingir o número esperado de páginas indexadas
Seu site ainda está fora do Google?
A Fluxando diagnostica problemas técnicos de SEO e resolve desde noindex acidental até arquitetura de crawling para sites de qualquer porte. A primeira consulta é gratuita.
Falar com especialista agora
fluxando