Atualização Google Fred otimiza diretrizes de qualidade do buscador

O mercado de SEO e marketing digital de todo o mundo ficaram bem agitados no começo de março deste ano. Isso por que, de acordo com ferramentas desenvolvidas por diversas agências especializadas em marketing de busca detectaram grandes oscilações de posicionamentos para milhares de termos de pesquisa. Além do mais, a versão americana do fórum para webmasters da Google tem inúmeros relatos a curto prazo de usuários preocupados ou animados com quedas ou crescimento de acessos, consecutivamente.

Fonte: Algoroo

Conforme podemos observar, em fevereiro deste ano houve breve atualização detectada em google.com (EUA). Destaca-se principalmente março. Essa ferramenta monitora posicionamentos de milhões de sites e quando ocorre oscilações consideráveis, o gráfico exibe. Se a análise estiver correta, de fato uma atualização recente foi habilitada. Ainda não há confirmação sobre alterações de posicionamentos em buscas realizadas no Brasil (google.com.br).

Gary Illyes, analista de tendências de webmaster do Google, disse à SMX West que a companhia não dará detalhes mais aprofundados a respeito, mas revelou que esta atualização é direcionada a técnicas específicas documentadas nas diretrizes para webmasters do Google.

Inicialmente, havia suspeitas de que a atualização afetaria novamente abusos de spam na geração de backlinks em canais da internet ou alvejou páginas de destino com conteúdo de baixo valor que visa apenas a geração de renda para afiliados com a promoção de conteúdos pouco úteis aos usuários.

Essas duas hipóteses não devem ser descartáveis, entretanto, considerando a informação declarada por Gary Illyes, podemos acrescentar mais a respeito, crendo nas seguintes hipóteses a essa nova atualização.

Por que atualização é chamada de Fred?

A Google tem a mania de adotar nomes para as principais atualizações. Quem não se lembra do Penguin Update, ou Hummingbird? Fato é que esse nome surgiu após uma brincadeira no Twitter portada pelo próprio analista de tendências de webmaster do Google.

Brincadeiras à parte, a atualização é séria e está afetando milhões de sites ao redor do mundo, sendo que alguns ganham mas muitos perdem.

Maior prioridade para o conteúdo visível do HTML

Um dos temas abordados na diretriz de qualidade da Google diz:

Make your site's important content visible by default. Google is able to crawl HTML content hidden inside navigational elements such as tabs or expanding sections, however we consider this content less accessible to users, and believe that you should make your most important information visible in the default page view”.

Tradução literal:

Faça com que o conteúdo mais importante do seu site seja visível como padrão. Google é capaz de indexar conteúdo HTML oculto dentro dos elementos de navegação como abas ou seções expansivas, porém, consideramos – o Google – que este conteúdo é menos acessível pelos usuários, e acreditamos que deveria fazer com que o conteúdo mais importante seja visível.

Vamos exemplificar para a nossa realidade. Algumas lojas virtuais brasileiras tendem a deixar descrição mais importante e completa de uma página de produto dentro de uma aba ou elemento expansível para economizar ou compactar espaço em dispositivos móveis. Entretanto, seguindo a ótica da Google, a descrição seria considerada menos importante para o algoritmo, um caminho perigoso que pode evitar bons posicionamentos nos mecanismos de buscas. Esse recurso deve ser usado com cautela e apenas para conteúdo menos importante da página de destino.

Também é prática em páginas de FAQ empregar o recurso de respostas das perguntas dentro de elementos expansíveis. Talvez, o algoritmo pode entender que grande quantidade de conteúdo não seja tão relevante assim para o usuário. Apesar do efeito interessante e limpo, pode causar problemas em relação ao buscador.

 Como o Google identifica conteúdo oculto?

Dentro do próprio Search Console (antigo Webmaster Tools) tem uma função chamada Buscar como Google e dentro dela pode pedir a “renderização”. A ferramenta exibirá como o Google lê a página, interpretando os estilos CSS, funções JavaScript, entre outros. É dessa maneira que o mecanismo consegue entender e até avalizar a qualidade estrutural e visual de um site.

Por isso que jamais pode-se bloquear o acesso do robô de busca aos arquivos CSS e Java do seu site. Caso contrário, não será possível avaliar esse mérito, algo que prejudica a avaliação do Google e consequentemente posicionamento nos resultados de buscas. É comum, por exemplo, que configurações do Robots.txt venha a evitar o acesso dos robôs.

Para avaliar se o Google tem dificuldades para acessar tais arquivos, basta analisar o relatório de “Recursos Bloqueados”, presente na ferramenta Search Console da Google, como no exemplo a seguir.

Neste caso, o Google não consegue acessar elementos de JavaScript das referências do selo de segurança do site, promovido por um módulo externo. Na ocasião não é um problema, por que o próprio módulo externo determinou o bloqueio. Importante que elementos internos do seu site seja indexável.

HTTPS ganha maior prioridade para o mecanismo

Um dos apontamentos da diretriz de qualidade da Google afirma:

Se possível, mantenha as conexões do seu site seguras com HTTPS. Criptografar interações entre o usuário e seu website é uma prática recomendada para a comunicação na Web.

Desde janeiro, a versão 56 do Google Chrome, assim como a versão mais recente do Firefox, exibem mensagens de maior destaque para alertar usuários quando uma página não é criptografada. Essa ação foi vista como um ponta pé inicial para que o Google finalmente cumpra um objetivo antigo de tornar o HTTPS como um dos critérios mais importantes para posicionamentos de buscas.

Em agosto de 2014, juntamente com outras gigantes da tecnologia, como Microsoft e Mozzila Firefox, a Google lançou um projeto chamado "HTTPS Everywhere", traduzindo, "HTTPS em todo lugar", prometendo que o recurso de navegação segura seria um dos fatores de classificação nos resultados de pesquisas. Em 2015 tratei a respeito em uma palestra online da SEM Rush. Na época, apenas 2% dos resultados e pesquisa foram afetados. Hoje, estima-se que essa porcentagem seja muito maior.

É comum que o Google não forneça informações detalhadas a respeito das atualizações promovidas no algoritmo. Mas em todos os casos, a indústria de SEO investe em pesquisa e testes para decifrar uma resposta lógica. Por ser tão recente, ainda não temos uma resposta objetiva a respeito dessa atualização, mas as hipóteses levantadas aqui podem ser pontos de partida para maiores esclarecimentos sobre o tema.

Esse tema é alvo de críticas por webmasters e analistas de SEO. Faz jus, pois nem todo site existe a necessidade de ter criptografia para todos os endereços. A exemplo, um simples blog pessoal que tem como finalidade apenas postar conteúdo relevante sem a oferta de cadastros, compras, entre outros. Não faz muito sentido ter gasto anual com a criptografia, sendo que o blog em questão não proporcionaria riscos à segurança dos usuários. A única coisa que pode-se concordar é que talvez eventuais ataques virtuais contra o blog podem ser evitados.

Quer tirar suas dúvidas sobre HTTPS e aprender com principais especialistas da área de SEO? No dia 27/04 convidamos Pedro Dias, consultor SEO e ex-Google; Felipe Bazon, gerente de SEO e Content Marketing na Agência SEO Marketing e John Martin, consultor de SEO e Marketing Digital para compartilhar as dicas e as melhores estratégias de transferência. Inscreva-se agora!

Comentários

Add a comment
Ola Paulo Augusto Sebin, Eu sempre pensei ao contrario que o HTTPS piorava o resultado de busca, mas confesso que ainda tenho duvida e evito usar na hora de otimizar um site
Muito bom seu post não estava sabendo a respeito do conteúdo expansível recurso que costumo usar com frequência.
Marcio
Pois é Márcio. Mas até faz sentido no ponto de vista da qualidade da indexação. De fato, os conteúdos ocultos por abas ou elementos expansivos são menos propensos a abertura e leitura pelo usuário. Uso esse recurso com prudência.