Por que apenas algumas páginas do meu site estão sendo rastreadas?
Se você notou que apenas 4-6 páginas do seu site estão sendo rastreadas (sua página inicial, URLs de sitemaps e robots.txt), provavelmente é porque nosso bot não conseguiu encontrar links internos em sua página inicial. Abaixo você encontrará possíveis razões para este problema.
Pode não haver links internos de saída na página principal ou eles podem estar incluídos em JavaScript. Nosso bot não consegue analisar conteúdo JavaScript agora, portanto, se a sua página inicial tiver links para o resto do seu site ocultos em elementos JavaScript, não poderemos lê-los e rastrear essas páginas.
Embora não possamos rastrear conteúdo JavaScript, podemos rastrear o HTML de uma página que contém alguns elementos JS e podemos revisar os parâmetros de seus arquivos JS e CSS com nossas verificações de Desempenho.
Em ambos os casos, há uma maneira de garantir que nosso bot rastreie suas páginas. Para fazer isso, você precisa alterar a origem de rastreamento de "site" para "sitemap" ou "URLs do arquivo" nas configurações da sua campanha:
“Website” é a fonte padrão. Isso significa que rastreamos seu site usando um algoritmo de pesquisa abrangente e navegamos pelos links que vemos no código da sua página - começando na página inicial.
Se você escolher uma das outras opções, rastrearemos os links encontrados no mapa do site ou no arquivo enviado.
Nosso rastreador pode ter sido bloqueado em algumas páginas no robots.txt do site ou por tags noindex/nofollow. Você pode verificar se esse é o caso em seu relatório de páginas rastreadas:
Você pode inspecionar seu Robots.txt em busca de quaisquer comandos de proibição que impeçam rastreadores como o nosso de acessar seu site.
O código a seguir na página principal de um site informa ao nosso rastreador que não temos permissão para indexar/seguir links nele e nosso acesso está bloqueado. Ou, uma página contendo pelo menos um dos dois: "nofollow", "none", levará a um erro de rastreamento.
<meta name="robots" content="noindex, nofollow">
Você encontrará mais informações sobre esses erros em nosso artigo de solução de problemas.
A ferramenta de Auditoria do Site está atualmente equipada para analisar páginas iniciais não maiores que 4 Mb.
O limite para outras páginas do seu site é de 2 Mb. Caso uma página tenha um tamanho HTML muito grande, você verá o seguinte erro:
- What Issues Can Site Audit Identify?
- How many pages can I crawl in a Site Audit?
- Quanto tempo leva um rastreamento de um site? Parece que minha auditoria travou
- How do I audit a subdomain?
- Posso Gerenciar o Agendamento de Reexecução Automática da Auditoria do Site?
- Can I set up a custom re-crawl schedule?
- How is Site Health Score calculated in the Site Audit tool?
- How Does Site Audit Select Pages to Analyze for Core Web Vitals?
- How do you collect data to measure Core Web Vitals in Site Audit?
- Why is there a difference between GSC and Semrush Core Web Vitals data?
- Por que apenas algumas páginas do meu site estão sendo rastreadas?
- Por que as páginas ativas do meu site aparecem como quebradas
- Why can’t I find URLs from the Audit report on my website?
- Why does Semrush say I have duplicate content?
- Why does Semrush say I have an incorrect certificate?
- What are unoptimized anchors and how does Site Audit identify them?
- What do the Structured Data Markup Items in Site Audit Mean?
- Can I stop a current Site Audit crawl?
- How to Disable JS Rendering and Inspect a Page
- Configurando a Auditoria do site
- Solução de problemas de auditoria de site
- Site Audit Overview Report
- Site Audit Thematic Reports
- Reviewing Your Site Audit Issues
- Site Audit Crawled Pages Report
- Site Audit Statistics
- Compare Crawls and Progress
- Exporting Site Audit Results
- Como otimizar a velocidade de rastreamento de Auditoria do site
- Como integrar Zapier à Auditoria do Site
- JS Impact Report