Por que apenas algumas das páginas do meu site estão sendo rastreadas?
Se você notou que apenas 4 a 6 páginas do seu site estão sendo rastreadas (sua página inicial, URLs de sitemaps e robots.txt), provavelmente é porque nosso bot não conseguiu encontrar links internos de saída na página inicial. Confira abaixo as possíveis razões para esse problema.
Talvez não haja links internos de saída na página principal, ou eles podem estar incluídos no JavaScript. Se você tiver uma assinatura do Pro, nosso bot não analisará conteúdo JavaScript; portanto, se os links na sua página inicial para o restante do seu site estiverem ocultos em elementos de JavaScript, não poderemos lê-los e rastrear essas páginas.
Embora o rastreamento de conteúdo em JavaScript esteja disponível somente para usuários do Guru e Business, podemos rastrear o HTML de uma página com elementos de JS e podemos analisar os parâmetros de seus arquivos JS e CSS com nossas verificações de Desempenho, independentemente do tipo de assinatura (Pro, Guru ou Business).
Em ambos os casos, há uma maneira de garantir que nosso bot rastreie suas páginas. Para fazer isso, você precisa alterar a Fonte de rastreamento de "Site" para "Sitemaps" ou "URLs do arquivo" nas configurações da campanha:
“Site” é a fonte padrão. Isso significa que vamos rastrear seu site usando um algoritmo de pesquisa em largura (breadth-first) e navegando pelos links que encontrarmos no código da sua página, começando pela página inicial.
Se você escolher uma das outras opções, rastrearemos os links encontrados no sitemap ou no arquivo enviado.
Nosso rastreador pode ter sido bloqueado em algumas páginas no robots.txt do site ou por tags noindex/nofollow. Você pode verificar se esse é o caso no relatório de páginas rastreadas:
Você pode inspecionar o arquivo robots.txt em busca de quaisquer comandos de disallow que impeçam rastreadores como o nosso de acessar seu site.
Se o código abaixo estiver presente na página principal de um site, ele indica ao nosso rastreador que não temos permissão para indexar/seguir links nele e que nosso acesso está bloqueado. Ou uma página contendo pelo menos uma das tags "nofollow" ou "none" levará a um erro de rastreamento.
<meta name="robots" content="noindex, nofollow">
Confira mais informações sobre esses erros em nosso artigo de solução de problemas.
O limite para outras páginas do seu site é de 2 MB. Caso uma página tenha um HTML de tamanho muito grande, será exibido o seguinte erro:
- What Issues Can Site Audit Identify?
- How many pages can I crawl in a Site Audit?
- Quanto tempo leva um rastreamento de um site? Parece que minha auditoria travou
- Como faço para auditar um subdomínio?
- Posso Gerenciar o Agendamento de Reexecução Automática da Auditoria do Site?
- Can I set up a custom re-crawl schedule?
- Como é calculada a pontuação Site Health na ferramenta Auditoria do site?
- How Does Site Audit Select Pages to Analyze for Core Web Vitals?
- How do you collect data to measure Core Web Vitals in Site Audit?
- Why is there a difference between GSC and Semrush Core Web Vitals data?
- Por que apenas algumas das páginas do meu site estão sendo rastreadas?
- Por que as páginas ativas do meu site aparecem como quebradas
- Why can’t I find URLs from the Audit report on my website?
- Why does Semrush say I have duplicate content?
- Why does Semrush say I have an incorrect certificate?
- What are unoptimized anchors and how does Site Audit identify them?
- What do the Structured Data Markup Items in Site Audit Mean?
- Can I stop a current Site Audit crawl?
- Using JS Impact Report to Review a Page
- Configurando a Auditoria do site
- Solução de problemas de auditoria de site
- Site Audit Overview Report
- Relatórios temáticos da Auditoria do site
- Reviewing Your Site Audit Issues
- Relatório Páginas rastreadas da Auditoria do site
- Site Audit Statistics
- Compare Crawls and Progress
- Exporting Site Audit Results
- Como otimizar a velocidade de rastreamento de Auditoria do site
- Como integrar Zapier à Auditoria do Site
- JS Impact Report