Táticas avançadas de SEO: como chegar e se manter no topo (WEBINAR)

Felipe Bazon

Nov 27, 201948 min de leitura
Táticas avançadas de SEO: como chegar e se manter no topo (WEBINAR)

ÍNDICE

Sem dúvida um dos maiores artigos que já escrevi, ou melhor, transcrevi. Caso não esteja com paciência para ler, o webinar foi gravado e você pode assisti-lo na íntegra aqui mesmo.

Youtube video thumbnail

Transcrição adaptada do webinar "táticas avanças de SEO: como chegar e se manter no topo" realizado no dia 10 de outubro de 2019.

Bom pessoal, para quem já me conhece, eu sou o Felipe Bazon. Para quem não me conhece, eu também sou o Felipe Bazon! Estou sempre aqui na SEMrush, compartilhando um pouco de conhecimento, e hoje a gente vai elevar um pouquinho o nível e falar de algumas técnicas avançadas de SEO.

Então, a gente vai passar sobre o básico, mas eu vou elevar um pouquinho o nível, então algumas coisas básicas vão ficar bem superficiais mesmo, e vamos ao que interessa, né. 

Então a gente vai falar hoje de táticas avançadas de SEO: como chegar e se manter no topo, porque às vezes a gente faz tudo, garante todo o básico, e aí a gente chega ali na primeira página e não consegue sair daquela posição do meio da primeira página para chegar até o topo.

Às vezes, falta aquele pouquinho mais de nível, então é isso o que a gente vai ver aqui hoje.

Então, nós vamos cobrir aí os 6 tópicos:

  1. O Crawl Rate Optimisation, que nada mais é, talvez o Rate, o Budget, é um termo muito pesado, a gente vai ver que é como otimizar o rastreamento do bot, ou seja, garantir que ele chegue até as principais páginas e visite elas.
  2. Algumas otimizações avançadas de performance, focadas em algumas análises de User Experience direto do Chrome, vai ter algumas coisinhas legais, Lighthouse também.
  3. Vamos falar um pouquinho de Javascript SEO, para quem já está migrando para a evolução do desenvolvimento web, que é trabalhar com frameworks em Java. A gente sabe que tem alguns probleminhas ainda que a gente precisa superar, e eu vou trazer algumas soluções bem avançadas, porém vocês vão ver que são simples de ser implementadas.
  4. Vamos falar um pouquinho do Mobile-First Index. A gente teve a última onda aí de rollout chegando aqui no Brasil no final de agosto, dia 31, mais precisamente, e a gente viu algumas movimentações em clientes nossos daqui da Hedgehog, do mercado, então, trazer alguns pontos para vocês analisarem aí e, quem sabe, até melhorar a performance do seu site que já está no Mobile-First Index.
  5. Otimização on-page avançada. Não vamos falar de título, descrição, a gente vai falar de alguns pontos mais avançados.
  6. Para complementar, o Link Earning né, que é a forma da gente pensar em Link Building daqui para frente: não tentar pedir links e sim atrair esses links. Eu já falei disso algumas vezes aqui, hoje eu vou entrar um pouquinho mais em detalhes.

Então eu procurei, assim, dentro desses seis tópicos, trazer os principais pontos de SEO que vão ajudar a gente a melhorar de posicionamento, trazer mais tráfego, mais conversão e por aí vai.

1. Crawl Budget Optimisation: otimizando o rastreamento do bot

A primeira coisa que a gente vai falar hoje, né, de Crawl Budget, Crawl Rate Optimisation. Então, como resumir? É otimizar o rastreamento do bot.

Robots.txt

O que a gente tem que fazer? Eu elenquei aqui seis pontos que eu considero bem importantes, e aí vocês podem me falar: po#@a Bazon, vamos falar de SEO avançado e você vem falar de robots.txt?

Cara, eu sempre falo uma coisa: o básico é avançado, e o avançado tem que ser bem-feito, tem que cobrir o básico. Então, quando a gente está falando de otimização de rastreamento, o robots é muito importante, porque a gente sabe que é o primeiro arquivo que o Google solicita quando chega ao nosso site.

Então, a gente precisa ter as configurações corretas ali dentro dele, que aí isso é o básico: é o disallow, o allow, o noindex (que não é mais utilizado, então o Google não dá mais suporte a isso), o caminho do sitemap, qual User Agent que a gente quer bloquear. Então, aquele basicão.

Sitemap.xml

O sitemap também é importante para a otimização de rastreamento. Por que? Porque é por meio dele que o Google vai conseguir encontrar novas páginas um pouco mais rápido. A gente vai conseguir identificar problemas de rastreamento, quando a gente tem um site muito grande e a gente cria índices de sitemap.

Então, fica a dica pra quem trabalha com e-commerces muito grandes, onde é recomendado que você segmente os seus sitemaps em categorias de produtos, para que você identifique possíveis problemas de indexação e, consequentemente, de rastreamento.

Outra coisa básica, porém muito importante, que é a arquitetura e estrutura de links internos. Hoje, a gente vê muitos sites, principalmente no mobile, sacrificando alguns elementos que são importantes, tanto para a navegação do usuário quanto para o rastreamento do bot.

Um exemplo são os breadcrumbs. A gente vê aí muitos sites que, quando vão para o responsivo ou usam uma versão mobile, onde a estrutura de links é muito sacrificada, removendo os breadcrumbs, por exemplo.

Aí, o pessoal de UX vai falar: p#&a Bazon, mas o breadcrumb fica horrível no mobile!

Então, concordo, mas há maneiras de a gente colocar esse cara de uma maneira mais estilosa, que faça sentido para o usuário, que faça sentido para o bot, porque se a gente pensar bem, cara, uma das grandes dificuldades hoje, que eu vejo, pelo menos na minha opinião, é a navegação do site mobile.

A gente tá sempre dependendo do botão “voltar” do nosso celular, ou do navegador que a gente tá usando no nosso smartphone, e essa navegação fica um pouco prejudicada.

Minha dica aqui é: pensar de uma maneira mais inteligente na estrutura de links internos, pensando em como adicionar o breadcrumb aí nessa jogada, que eu vejo muita diferença.

Cadeias de redirecionamento

Mas, elevando um pouco o nível agora: cadeias de redirecionamento e dados estruturados. Vou entrar um pouquinho mais em detalhes agora.

Cadeias de redirecionamento, basicamente, são quando a gente teve uma reestruturação de URL, ou a gente está saindo de um HTTP para um HTTPS, mas basicamente quando a gente teve uma migração, uma reestruturação de URLs, e aquela URL passa por vários redirecionamentos.

Isso consome, de certa forma, vamos dizer assim, o nosso budget de rastreamento. A gente faz o Google passar por vários loops até chegar na página final.

Então, primeira coisa: eliminem as cadeias de redirecionamento dos seus sites. O Site Audit, da SEMrush, tem uma das análises, que fica lá nas notificações, para vocês identificarem isso.

Aqui eu trago um exemplo de uma site que uma página de produto estava com 7 redirecionamentos. Esse length é o tamanho da cadeia. Então, isso aqui é gigantesco, ou seja, a gente está perdendo muita eficiência do bot. Ele está encontrando o link e ele está passando por 7 redirecionamentos até chegar à versão final desta página.

O que acontece com isso? Você perde performance! Consequentemente, o bot vai entender que aquela página não é tão importante, vai perder relevância também. Você não vai conseguir ranquear muito bem com ela.

Então, eliminem as suas cadeias de redirecionamentos. Vai lá no relatório da SEMrush, ou seu Site Audit, para quem está utilizando já. Notificações, se você tiver esta indicação, como neste caso, que foram duas páginas, tenta remover, tenta colocar o destino final de onde foi encontrado o link que vocês terão que eliminar, de certa forma, essas cadeias de redirecionamento.

Dados estruturados

Outro ponto muito importante que a gente vem falando bastante, já falei em conversas básicas, mas é avançado também, que é a questão dos dados estruturados.

Hoje, a maior parte das plataformas já oferece esse suporte. Para quem trabalha com WordPress, por exemplo, o Yoast fez um trabalho que, ao meu ver, é um dos mais completos em termos de uma documentação para estruturação de dados. Basicamente, eles cobrem tudo.

Hoje, ainda mais com a chegada do Gutenberg, você consegue colocar qualquer tipo de estruturação de dados devido à API que eles criaram que disponibiliza a você habilitar, por exemplo, na sua página de artigos, na sua página de FAQ, na sua página de how to, enfim.

Mas, porque os dados estruturados são tão importantes, pessoal? Porque eles ajudam o bot a compreender com mais facilidade o conteúdo daquela página, onde está a informação importante, consequentemente ele vai rastrear aquela página mais rápido.

Tamanha a importância disso que, hoje, a gente tem uma seção dedicada a isso no painel do Search Console. Toda vez que vocês entrarem no seu Search Console, vocês verão ali “enhancements”, ou se estiver em português é “melhoramentos”, onde o Google está mostrando para a gente os erros que temos dentro dos nossos dados estruturados, e aí também entra essa parte da otimização.

Não basta implementar, a gente tem que garantir que ele está implementado correto, que o Google está conseguindo ler sem nenhum tipo de erro.

E aqui no Search Console ainda, você consegue ver os erros de cada um dos dados estruturados que o Google identificou dentro do seu site, que vai desde o mais famoso, né, o “products”, que a gente está vendo aí.

print com relatório de dados estruturado do google search console em destaque

Apesar deste site estar com a estruturação de dados, tem vários campos que estão faltando. Alguns erros, mas alguns campos que devem ser preenchidos, como, por exemplo, de reviews, o SKU, brand, imagem, ou seja, os produtos deste site, em termos de estruturação de dados, não estão bem otimizados.

Consequentemente, o bot terá que rastrear toda a página para coletar essa informação, uma vez que se a gente compilar tudo isso certinho no nosso JSON, que é como o Google recomenda que seja implementado, a gente vai dar a informação já mastigada para o bot e ele vai rastrear mais rápido. 

Consequentemente, vai visitar mais páginas e, a partir daí, a gente terá uma melhor performance, sem contar que os dados estruturados, sim, têm influência direta no posicionamento do nosso site. Então, dados estruturados para otimização de rastreamento é muito importante.

E aí, vocês me perguntam: “Mas Bazon, como é que você sabe de todas essas informações, de que o bot está rastreando mais páginas, isso e aquilo outro?”

Análises de log de servidor

Entra em análises de log do servidor. Aí, a gente vai voltar para a SEMrush, tem a ferramenta lá, “ Log File Analyzer”, onde você pode pegar os logs do seu servidor.

dashboard to log file analyser da semrush

Para quem não tem acesso a isso, fala com o pessoal de infra, fala com o pessoal da hospedagem, e tenta solicitar essa informação, que nada mais é do que um arquivinho de texto que vocês vão subir para essa ferramenta e ela vai fazer essas análises para vocês.

Então, eu trouxe um sample bem pequenininho, uma amostragem bem pequena de um blog que a gente analisou, e logo de cara a gente já identificou uma série de problemas. Apesar dos 200 hits que esse log teve, praticamente todos os status são 301.

Então, a gente identificou que tinha um redirecionamento. Quando tem a solicitação no servidor, passava por um redirecionamento para, daí, carregar a página. O que a gente fez? Eliminou esse cara para aumentar a eficiência de rastreamento.

Mas, além disso, a gente consegue ver informações super interessantes: 

  • Quais são as páginas que estão recebendo mais hits do Googlebot;

  • Qual é a frequência de rastreamento, como vocês podem ver aqui, a porcentagem de hits, que está destacada embaixo, nessa tabelinha;

  • A frequência, olha que interessante. Nesse caso, no dia 06, a cada 13 minutos, o bot voltava para consumir conteúdo dentro desse diretório /imovel, entender que é uma imobiliária, que tem vários sites, enfim.

Isso é importante para vocês entenderem. Às vezes, muita gente me pergunta, pô Bazon, publiquei, mas meu site não está subindo, e tal, já otimizei, fiz tudo”. Se você entender se o bot está chegando até aquela página ou não, porque nem sempre so indexar é a solução.

Ah, beleza, produzi e já indexou. OK, mas quando foi a última vez que o bot visitou a sua página? Será que ele está chegando até ela com frequência? Porque ele precisa passar várias vezes por ela para conseguir absorver melhor as informações. Não é uma vez, passou, espera e vai subir. 

Então, análise de log de servidor ajuda muito vocês a entenderem esse comportamento, e essa ferramenta da SEMrush, como existem outras também, elas simplificam essa nossa análise. Até então, a gente tinha que usar ferramentas como Splunk, e algumas outras que não me lembro de cabeça agora, que eram mais complexas, eram caras, eram pagas, assim, eram coisas para enterprise.

Hoje, com essas ferramentas, a SEMrush simplifica isso e torna mais acessível para a gente poder analisar o que, ao meu ver, é uma informação muito importante: o comportamento do bot dentro do nosso site. Então, análise de log de servidor é extremamente importante para a gente otimizar o rastreamento do bot.

2. Otimizações avançadas de performance: Critical Rendering, CrUX Reports e mais

Vamos ao nosso segundo tópico. Otimizações de performance um pouquinho mais avançadas. Vamos sair um pouquinho do básico, mas ainda assim ele é importante.

lista com otimizações básicas de performance

Então, o que eu listei aqui como sendo básico? Percebam que eu sempre vou colocar e trazer três pontos que eu considero que são básicos e depois os três mais avançados, que eu vou entrar mais em detalhes.

Common Sense Optimisations

Esse Common Sense Optimisations é uma coisa que eu prego muito dentro dos nossos projetos, que é a otimização de senso comum.

Tem muito site que tem coisa que não serve rigorosamente para nada e só gasta tempo de carregamento, só pesa, na verdade, aquele peso nas costas que não tem necessidade, sabe?

Que nem bolsa de mulher, carrega aquele monte de peso que, se tirar tudo o que tem ali, só precisava da carteira e talvez do óculos [risos]. Eu falo isso por causa da minha mulher, ela sabe que eu brigo com ela por causa disso.

Mas, voltando aqui à otimização de senso comum. A gente pega e-commerces, por exemplo, que têm todo aquele monte de filtros, ordenar por lista, por grid, por preço, por ordem alfabética…

Na maioria dos sites, a gente testa e vê que ninguém usa aquele filtro. A gente monitora isso por evento. O que a gente recomenda para o cliente? Vai lá e remove. Com isso, você ganha tempo, você tira aquele elemento que ninguém está utilizando, que só serve para dar mais peso à sua página, consequentemente você tem um tempo de carregamento mais leve, mais rápido, tá?

Então, esse é só um exemplo. Olhe para as suas páginas com um olhar um pouco mais crítico e vejam, testem, coloquem trackeamento de eventos para que vocês entendam o comportamento do usuário.

Outro exemplo: sliders. Sliders é uma coisa que, assim, a gente testou, em vários estudos também, que mostram que ninguém clica nesses caras! Eles ficam passando ali, vão para o mobile, é só peso.

Hoje em dia, se vocês olharem os sites mais modernos e mais enterprise, digamos assim, no mundo, quase ninguém está usando carrossel mais, entendeu?

Então, otimizações de senso comum ajudam bastante e são simples.

Servidor mais parrudo

Aí, outro ponto: um servidor mais parrudo. Isso aí é básico. “Poxa, Bazon, mas eu não tenho grana”. Então, guarda, faz um fundo de servidor aí para vocês, uma poupancinha. Isso faz muita diferença.

Hoje a gente vê aí, tem servidores com VPS, que são mais robustos, em que a gente consegue reduzir tempo de resposta do servidor, o TTFB, enfim. Vale a pena considerar isso, tá pessoal.

Utilize uma CDN

E a utilização de uma CDN, que para quem já está em um nível mais avançado, também não é nenhuma novidade, não é. Mas, tem alguns pontos que a gente precisa entender: como que a gente otimiza, quais são as métricas que o Google está utilizando hoje, além do tempo total de carregamento?

Lighthouse Speed Metrics

O Lighthouse traz essa informação. Eu tenho usado muito o Web.dev, do Google, que é a ferramenta de mensuração que utiliza o Lighthouse, porque ele traz um detalhamento muito refinado do que é importante a gente olhar hoje.

O primeiro que a gente tem que olhar é o tempo de carregamento da primeira tela, ou seja, o First Contentful Paint e o First Meaningful Paint. O que quer dizer isso? É o quanto tempo demora para carregar a primeira tela e o quanto tempo essa primeira tela fica interativa, ou disponível, melhor dizendo, para o usuário.

relatorio de performance to lighthouse via web dev

Aí, outros elementos também, como o Speed Index; o First CPU Idle, tempo que demora de resposta; o tempo de interatividade, enfim, todos esses são elementos que a gente precisa trabalhar dentro da otimização.

E o Lighthouse traz um detalhamento do que precisa ser feito. Então, essa ferramenta tem sido de grande valia para a gente otimizar essas novas métricas, né, ou seja, esses novos pontos que o Google vem analisando em termos de performance de carregamento.

CrUX Reports

E a gente tem usado bastante, e eu recomendo para todo mundo, os relatórios de CrUX dentro do Data Studio, que é o Chrome User Experience Report.

Por que isso é importante para a gente hoje? Porque o Googlebot passou a analisar... Vamos um passinho atrás, rapidinho. Ele rastreia o site com Usage Mobile utilizando o Chrome.

crux chrome user experience reports

Ele simula como se os usuários estivessem utilizando o site. Ele usa esses dados para ter uma noção de qual é a média de tempo de carregamento de um determinado site, em um determinado segmento, para, daí, atribuir essa nota de estar muito devagar, estar dentro da média ou se está rápido.

Então, as métricas que a gente viu ali no Lighthouse, a gente consegue monitorar de uma forma mensal, de uma forma evolutiva, dentro dos relatórios do CrUX. Então, todos aqueles que a gente viu ali, o First Contentful, o carregamento completo do DOM, que é o DOM Content Loaded.

Tudo isso são informações que ajudam a gente a monitorar nossa evolução e também saber como a gente está em relação ao mercado, em relação aos outros sites da Web.

Isso é muito importante, é a forma como o Google utiliza o tempo de carregamento como fator de ranqueamento, ou seja, ele faz esse comparativo, entende como está a média, aí determina quem são os sites mais rápidos e atribui essa influência ao seu posicionamento.

Então, o CrUX Reports ajuda a gente a medir essa evolução, tem vários elementos que a gente consegue ver. É um dashboardzinho super fácil de criar, tem o link aí para vocês. Clicou nele, ele já vai te redirecionar para o Data Studio, onde você cria a base de informação e já tem os seus relatórios para o seu site.

Você pode monitorar seus concorrentes também, pode monitorar qualquer site que quiser. Então, esse relatório é bem interessante.

Critical Rendering Path

E aqui, para fechar, o Critical Rendering Path. Basicamente, é a gente otimizar a entrega do conteúdo, do CSS, do JS, de forma controlada para o bot, para os usuários e, consequentemente, com isso, aumentar o tempo de carregamento.

Basicamente, a gente só vai entregar o CSS e o JS que for utilizado naquele momento e naquela localização em que o usuário estiver na página. Então, com técnicas como preload, onload e nulling, a gente consegue entrar só o que vai ser utilizado e, consequentemente, evitar que bytes que seriam carregados, que aumentariam nosso tempo de carregamento, influenciem no tempo total.

Então, essas técnicas de preload, de onload, nulling e noscript ajudam a gente a entregar o CSS crítico e o JS crítico naquele momento e, com isso, a gente salva alguns bytes, reduzindo o tamanho da página, consequentemente reduzindo o tempo de carregamento.

Para não aprofundar muito nessa frente aqui, quando a gente está trabalhando com CSS e Javascripts externos, ele vai fazer a requisição daquele arquivo e aí ele vai entregar, ou seja, ao invés de fazermos o cara, o bot esperar carregar todo aquele arquivo, que serve para a página toda, a gente vai entregando pouquinho a pouquinho para ele.

Consequentemente, a gente vai otimizando a entrega no caminho que o bot vai seguindo dentro da página e, com isso, damos uma percepção de carregamento mais rápido para o bot, consequentemente ganhando, no geral, tempo de carregamento.

critical rendering path optimisation

3. Javascript SEO: o que ainda é importante

Bom, o próximo passo, pessoal: Javascript SEO, um dos mitos dos últimos anos. A gente teve muita mudança na forma como o Google rastreia sites, a gente teve atualização do Googlebot agora em março, que finalmente saiu da versão 41 do Chrome e pulou para a 71, se não me engano.

Saiu uma notícia, essa semana, de que o bot vai passar a ser evergreen, né, ou seja, ele vai se atualizar de acordo com as atualizações do Chrome, então ele será como se fosse o Chrome mesmo, na versão atual. A gente está na 76, migrando para a 77, e o bot vai seguir essa atualização.

O que isso quer dizer? Quer dizer que, cada vez mais, o bot vai ter facilidade de processar as novas tecnologias, as novas linguagens de desenvolvimento de sites, como, por exemplo, o Javascript.

Mas, mesmo passando por essa evolução de atualização de WRS (Web Rendering Service) do Googlebot, ainda assim há alguns pontos que a gente precisa de atenção. Então, são eles:

Testar a renderização

A primeira coisa que a gente tem que fazer, para quem está trabalhando com sites que sejam em Angular, React ou qualquer outro framework, é testar a renderização, e eu quero mostrar para vocês a ferramenta oficial de testes, confirmada até pelo John Mueller, para vermos se o nosso framework está sendo renderizado corretamente pelo bot ou não.

Server Side Rendering

Outro básico, quem trabalha com framework sabe, que a gente tem que trabalhar com Server Side Rendering. Cuidado com algumas tecnologias de prerendering, podemos dizer assim, porque algumas delas não compilam o HTML de forma correta e acaba entregando para o bot só o straight down do HTML com os links, consequentemente o bot não consegue renderizar o conteúdo.

Então, ao meu ver, uma das melhores, como dizer, não sei se ferramentas seria o termo correto aqui... Vamos chamar de ferramentas de Server Side Rendering, ao meu ver, hoje, é o Node, que compila todo o DOM, que é o que a gente vai falar daqui a pouco, e ele garante essa entrega do conteúdo total, tanto para o bot quanto para o usuário.

Usar Polyfill

Considerem a utilização de Polyfill, que é, para pessoas que estão utilizando navegadores desatualizados, para aquele pessoal que ainda insiste no Internet Explorer ou no Edge.

Essa técnica, vamos dizer assim, faz com que o framework detecte a versão do site e, consequentemente, entregue um conteúdo que vai carregar normalmente naquele tipo de navegador.

Em suma, é mais ou menos assim que funciona um Polyfill: ele detecta a versão do navegador e vai tentar entregar um conteúdo compilado que funcione naquela versão. Então, é como se fosse um detector de versões que identifica a versão do navegador e tenta compilar um conteúdo que faça sentido, que funcione naquele tipo de browser.

Compilar o DOM via SSR

E a outra coisa é compilar o DOM via SSR. Por que eu falo DOM? O DOM é composto pelo HTML, pelo CSS e pelo JS.

Como eu estava dizendo, em alguns serviços de SSR, de Server Side Rendering, que compilam só o HTML e não traz o processamento do CSS e do JS na pré-renderização, ele deixa isso para acontecer do lado do usuário.

Quando você tem isso, esse prerender, na verdade ele não está pré-renderizando nada, né? Então, ele está entregando basicamente o mesmo como se não houvesse um serviço de prerendering.

Ou seja, a gente tem que garantir que estamos entregando o DOM compilado em SSR. Considere utilizar técnicas como Shadow DOM e coloque seu conteúdo no Light DOM sempre que possível.

Com isso, a gente garante que o bot vai receber o nosso conteúdo tal como a gente espera que seja carregado para o usuário, evitando qualquer problema de o Google não encontrar o nosso conteúdo.

Teste de renderização

Então, só para eu mostrar para vocês a ferramenta oficial de teste de renderização. Alguns de vocês vão ficar surpresos, mas é a oficial, tá? É o Mobile Friendly Test.

teste de renderizacao com mobile friendly test tool

Hoje, a maior parte dos sites já está dentro do Mobile-First, que é o que a gente vai falar daqui a pouco. O User Agent é o mobile, tá? Então, se a gente rodar nosso teste na ferramenta de compatibilidade com dispositivos móveis, com nosso site em Java, tá pessoal, Javascript. Sempre me corrigem quando eu falo isso, meus programadores me puxam a orelha quando falo só Java [risos].

Ao rodar o teste em um site em Javascript e aparecer essa tela em branco, vocês têm um problema de renderização. O Google não está enxergando seu conteúdo. 

Pode chamar o seu pessoal de infra, os seus desenvolvedores, que tem problema na forma como vocês estão compilando e pré-renderizando seu conteúdo, se é que estão pré-renderizando, tá?

Então, jogou aí, testou, apareceu tela branca, não é a tela azul do Windows, é a tela branca [risos], vocês têm um problema com o seu Javascript ou, melhor dizendo, o Google não está conseguindo processá-lo, tá?

JavaScript SEO: Guia de Recursos

Então, eu uso esse guia do Google, né, tem aí desde como consertar, como identificar, explicando como trabalhar com Shadow DOM, dentro do Shadow DOM, como trabalhar com Light DOM, ou seja, tem bastante coisinha aí. Esse é o nosso guia para garantir que um site vai performar bem utilizando um framework, tá?

4. Mobile-First Index Optimisation: seu site é realmente Mobile Friendly?

Bom, como eu disse, o próximo ponto é o Mobile-First Index Optimisation, otimização para o Mobile-First.

Então, a primeira coisa que eu pergunto é a seguinte: seu site é realmente Mobile-Friendly?

Por que eu digo isso? Porque tem muitos sites, hoje, que se adaptam à tela. Isso é apenas o começo da nossa história, tá? A gente vai ver porque.

Vocês vão ver que um dos pontos aqui é garantir que o conteúdo mobile do seu site é melhor ou igual que o do desktop, tá?

Dê preferência ao responsivo

Mas, antes disso, uma das coisas que o Google recomenda: dê preferência ao responsivo. Se você estiver usando um “m.”, um adaptativo, também funciona, não existe penalização, vai performar bem também. Mas garanta que ele é responsivo mesmo, tá?

Tem muita plataforma aí hoje que diz que é responsiva mas na verdade é adaptativa, ela tem outra versão quando identifica que é um User Agent mobile, e ela entrega outro código, outro conteúdo, que você acha que é responsivo, mas não é. Então, toma cuidado.

Eu chamo atenção para algumas plataformas de e-commerce que tem por aí, que não tá errado, tá gente? Não tô dizendo que a plataforma está fazendo coisa errada nem nada, é uma opção de desenvolvimento que está correta, só que isso pode causar problema quando a gente olha para esse universo Mobile-First.

Por quê? Como eu disse: às vezes, alguns conteúdos serão sacrificados, e eu vou mostrar para vocês o que eu quero dizer com isso.

Verifique se já está mesmo no MFI

A primeira coisa que a gente tem que fazer, já entrando nas minhas dicas, é garantir que o seu site já está no MFI, Mobile-First Index.

Como eu disse, mais precisamente no final do mês de agosto, como teve mais uma leva de rollouts, ou seja, o Google migrar sites para o Mobile-First Index. Então, tinha muita gente que achava, eu mesmo tinha muitos clientes que eu achava que já estavam no Mobile-First Index, e quando a gente recebeu a notificação, a gente levou uma pauladinha em alguns deles.

Por quê? Porque alguns deles usavam o site “m.”, e o “m.” não estava bem otimizado, como eu vou até mostrar para vocês. Então, a primeira coisa: garante que o seu site está ali.

confirmação via google search de um site no mobile first index

“Pô Bazon, mas eu entrei no meu Search Console aqui, não aparece mais essa mensagem para mim”. Utiliza a inspeção de URL que você vai ver.

Você vai lá na inspeção de URL, coloca sua URL e dá um inspecionar. Ele vai mostrar para vocês como eu destaquei aqui: rastreada como Googlebot para smartphone. Isso quer dizer que o seu site já está no Mobile-First Index.

inspeção de URL para identificar googlebot smartphone

O Google só está rastreando o seu site com um User Agent mobile, um User Agent de smartphone. Consequentemente, o que importa para a sua otimização SEO daqui para frente é a forma como seu site carrega em dispositivos móveis, tá?

Conteúdo mobile é melhor ou igual que o do desktop

Então, aqui eu vou mostrar um exemplo. Este site tem duas versões: o site desktop e o “m.”, que era o mobile. Aí, o que aconteceu? A gente já havia identificado este problema, mas, trabalhando em cima deles, vimos que o site não tinha H1 na versão mobile, não tinha texto de apoio, não tinha breadcrumb, não tinha nada!

O que aconteceu? A partir do momento que a gente foi pro Mobile-First, a gente levou aquela rasteira, porque existe um déficit de otimização da versão desktop para a versão mobile. 

Mas isso só acontece com sites “m.”, digamos assim, sites mobile? Não! O responsivo também. Às vezes, dependendo dos breakpoints, a programação vai tirando alguns elementos, como uma imagem, aquele conteúdo de apoio e mais alguns outros elementos, como os dados estruturados, que a gente vai ver daqui a pouco.

Então, testem o site de vocês sempre num emulador mobile para vocês entenderem o que o bot está vendo. No Google Search Console aqui, voltando, o inspeção de URL ajuda bastante, porque vocês podem ver o que foi renderizado, o que foi rastreado e, com isso, identificar possíveis déficits de otimização.

comparação do conteúdo desktop versus mobile

Comparem mesmo a sua versão mobile que carrega no desktop com a que aparece no smartphone e, se vocês identificarem que alguma coisa está faltando (e às vezes isso acontece), vocês terão um déficit de otimização.

Se vocês estão notando uma queda de agosto para cá, não foi core update, não foi nada disso. Pode ser um problema com a sua versão mobile.

Tempo de carregamento mobile

Teste sempre o tempo de carregamento dentro de uma conexão 3G, pois é assim que o Google analisa o seu tempo de carregamento.

Às vezes, a gente está usando um GTmetrix da vida, um Web Page Test, o próprio Chrome DevTools, e a gente está em uma conexão normal, uma conexão de cabo, e isso dá uma percepção errada do nosso tempo de carregamento. Consequentemente, a gente vai achar que o nosso site está rápido, mas para o Google não está.

Sempre testem em uma conexão 3G mobile. Já foi confirmado que é assim que, entre aspas, o nosso amigo Googlebot trabalha: ele sempre emula uma conexão 3G. Para ser mais preciso, essa é a configuração que ele utiliza: um smartphone Nexus em uma conexão 3G.

E aqui, dentro do Chrome DevTools, quando vocês vão em performance, vocês conseguem ver esse detalhamento. Eu utilizo muito essa ferramenta para identificar pontos de melhoria de performance.

tempo de carregamento mobile via chromedev tools

Por exemplo, eu, conduzindo esses testes recentemente, vi que tem alguns chamados de imagens, dentro do site da Hedgehog, que estão no HTTP/1.1 ainda. 

O que eu tenho que fazer? Migrar tudo isso pro HTTP/2. Eu tenho que entender de onde estão vindo esses chamados, essas entregas de imagens, e porque está respondendo com o HTTP/1.1 ainda. Só aqui, eu posso ter um ganho de performance.

Então, usem bastante essa ferramenta aqui. O Chrome DevTools, hoje, é uma das principais ferramentas de otimização de performance e de código que, ao meu ver, existem, sabe. Tem muita informação gratuita, um detalhamento que a gente pode testar e identificar problemas, sem contar que é como se fosse o Googlebot, né. Ele utiliza um navegador Chrome para navegar pelo site.

Então, a probabilidade de que os erros que a gente identifica aqui são os mesmos que o bot está identificando é muito alta. Consequentemente, corrigindo isso e trabalhando, olhando para esse tempo de carregamento, a gente tem mais chances de que o nosso site seja mais querido pelo nosso amigo Googlebot.

Semântica do código e Dados Estruturados

E, a semântica do código, também muito importante quando a gente vai para o mobile, mesmo sendo responsivo, pessoal.

Aqui, eu trouxe o exemplo de um site “m.” onde, na versão desktop tinha os dados estruturados, na versão mobile não. A mesma rasteira, pessoal!

A gente estava bem, o Google conhecia um site, que era o desktop. Quando ele passa para o mobile, ele só vai receber a versão mobile do site, que não tem heading tag, não tem dado estruturado, não tem conteúdo, é ladeira abaixo! Por que? Houve um déficit de otimização.

Ele vai falar: “Pô, esse site estava tão bem otimizado e agora ele está assim? Não vai mais ficar no topo não! Ele vai cair, porque está faltando coisa aqui”.

Então, muita atenção até para sites responsivos. A gente já viu muitos casos de sites que não tinha dados estruturados, e quando vai para o responsivo, alguns elementos, dependendo dos breakpoints, eles vão retirando alguns elementos, e aí a gente acaba sofrendo as consequências.

5. Otimização on-page avançada: E-A-T, TF-IDF & Reasonable Surfer

Vamos agora deixar um pouquinho menos técnico, mas não menos avançado. Vamos falar um pouco de otimização on-page avançada.

Novamente, vamos começar pelo básico:

Estrutura semântica e contextual

Muito importante para termos um conteúdo que vai performar bem.

Legibilidade

Ajuda bastante também: ter um conteúdo que é fácil de ler. Aí, não estou dizendo só com base na análise de um Yoast da vida, tá pessoal? Estou dizendo do conteúdo que tenha uma linguagem fácil de ser consumida pelo seu público-alvo, frases mais curtas.

A questão dos parágrafos também é relativa, mas acho que ajuda um pouco na leitura, fica mais suave, principalmente quando a gente está olhando para telas de dispositivos móveis, que são menorzinhas, e tal. Quanto mais light, mais legível, digamos assim, mais escaneável for o nosso conteúdo, mais fácil é de ser consumido. Acho que isso contribui também para uma melhora de engajamento.

Mas vamos falar aqui de alguns pontos que acabam sendo relevados.

Todo mundo sabe que os links internos são muito importantes, assim como os links externos. Então, uma boa estrutura de linkagem interna ajuda sim a melhorar o posicionamento de páginas mais estratégicas, mais importantes para o nosso site.

Mas, tem um algoritmo que pouca gente fala sobre ele, que é esse cara chamado Reasonable Surfer. Aí, eu vou ler essa descrição, vocês vão entender [risos]. Brincadeira. Essa é a descrição do conceito do Reasonable Surfer. Eu peguei todas essas informações e simplifiquei.

reasonable surfer é a probabilidade que o usuário tem de clicar em um link

Evite anchor texts exatos

Então, aqui eu não vou falar: “apontem 5 links com anchor text XPTO para aquela página”. Não, a minha dica aqui é: os links dentro do seu site são visíveis? Eles atraem a atenção do usuário dentro do seu texto, dentro do contexto? Pense nisso.

Também não é só colocar, como vou dizer aqui, o link em amarelo piscante, que nem um neon, parecendo um outdoor, super atraente [risos]. Não, na verdade, também tem a ver com a forma com a qual você trabalha o seu texto-âncora.

Dê preferência a trabalhar com frases que contextualizem com aquele parágrafo, que atraiam mais a atenção do usuário, que incentive ele a clicar, sabe? Que ele fale: “Puxa, eu preciso clicar aqui para complementar essa informação deste conteúdo que eu estou lendo”.

É isso o que o Google está analisando, entendeu.

Utilize estilos

Não é só, como vou colocar aqui abaixo, dar destaque para o link. É importante, também, sempre dar um estilo diferente a ele, deixar ele em destaque para o usuário entender que aquilo é um link, que ele pode clicar, tá?

Use o atributo title

E, também, trabalhar com o atributo title, que ajuda na acessibilidade e ajuda também o bot.

São três pontinhos, com base neste algoritmo Reasonable Surfer, para vocês melhorarem a otimização dos seus links internos, sabe.

O básico é o que a gente continua fazendo, sabe: apontar X links para uma determinada página. Só que agora, para vocês elevarem um pouco o nível, a qualidade desses seus links, às vezes alguma dessas coisas (melhorar o estilo, trabalhar como atributo title) é uma coisa que pode ser feita em larga escala, se vocês não fazem, e aí, consequentemente, coletar esses benefícios.

“Ah, Bazon, fiz isso, vou para a primeira posição e tal?” Não! Tudo o que a gente está falando aqui, pessoal, é a parte avançada do SEO. São pouquinhos e pouquinhos que vamos juntando para conseguir chegar no topo.

É aquilo que eu falei: a gente está no meio da primeira página. Para chegarmos ao topo, não é só mais links, tem muitas coisinhas que a gente pode fazer, esses detalhezinhos que a gente vem fazendo.

Eu vejo o SEO avançado muito focado em detalhes, sabe? São coisas que a gente tem que ir refinando no que a gente já faz para conseguir ter aquele diferencial, para conseguir ter aquela relevância extra, e chegar até o topo.

Bom, falando em otimização on-page avançada, não tem como não falarmos de otimizar para os featured snippets. Para quem não sabe, o resultado em destaque é, agora, o nosso outdoor orgânico, que a gente tem conforme as pesquisas.

featured snippet para como jogar jogo da vida

É possível otimizar para esse tipo de resultado, tá? São vários elementos que a gente tem que trabalhar dentro do nosso texto, desde a estruturação de dados, que é importante, até o tamanho dos parágrafos, o tamanho das imagens, para conquistarmos esse resultado de destaque, que é o início da nossa preparação para o que vem por aí, né: o aumento das buscas por voz.

Tem até um estudo da própria SEMrush, que eu não vou lembrar de cabeça os números, mas mostrou que uma grande porcentagem dos resultados de busca por voz dos home assistants, dos personal assistants e até mesmo dos smartphones, vem dos featured snippets.

Então, pensando em um cenário não tão futurístico, a gente tem que pensar na otimização de featured snippets. Aí, vão me dizer: “Pô, mas é uma posição só, Bazon”. Aí é que a guerra vai ficar um pouco mais acirrada, sabe.

Identifique essas oportunidades, comecem a trabalhar o seu conteúdo de uma maneira mais estruturada, pensando na conquista desses snippets. E aí, tem algumas dicas:

Snippets com listas

Tem vários tipos de snippets. Um deles é o de lista. Uma coisa que a gente viu é que, nos resultados de lista, o Google exibe até 7 resultados. Então, para otimizarmos o clique, o CTR do nosso featured snippet, do nosso resultado zero, se identificamos que para aquela busca nós temos um featured snippet de lista, eu vou criar uma lista de pelo menos 10 itens.

Por quê? O Google vai truncar os resultados, exibir esse link de “mais itens” e, consequentemente, incentivar o clique, entende.

Muita gente pensa, “poxa, o featured snippet está roubando meu CTR”. Muito pelo contrário! Estudos mostram que não, que ele atrai mais tráfego. A gente mostra isso para os clientes que conquistamos esse tipo de resultado, e os estudos realmente mostram isso. E, essas oportunidades, de identificar essas nuances nos snippets, para incentivar o clique.

Então, lista: tá falando de lista, tem featured snippet? Sempre mais do que 8 para vocês abrirem essa possibilidade desse linkzinho aí, “mais itens”, e incentivar o usuário. Ninguém quer ver uma lista incompleta, né pessoal? Tá aí uma dica.

Outro ponto: existe um tamanho certo de imagens para a gente trabalhar. Olha que, de certa forma, inconveniente, né. Você conquista um featured snippet para um possível cliente seu e aí o cara aparece com a imagem do blog do concorrente.

Cara, não tem coisa mais desagradável do que isso! Como que você reporta isso para o cliente? A primeira coisa que ele vai te perguntar é “meu, e aí?”

Então, aqui há uma oportunidade de otimização. Otimizem isso, monitorem os snippets do seu site ou dos seus concorrentes e trabalhem com o tamanho correto de imagem.

“Ah, Bazon, o que é o tamanho correto de uma imagem para featured snippet?”

A nossa querida SEMrush, dentro desse estudo que eles fizeram de busca por voz e correlacionando com os featured snippets, também analisou um padrão de qual o tipo de conteúdo, qual a formatação que a gente precisa no nosso conteúdo, para que o nosso conteúdo seja elegível para esse tipo de resultado zero.

Parágrafos

Quando a gente está falando de parágrafo, quando são exibidos nos featured snippets, a média é de 44 e o máximo é de 108 palavras, ou 297 e 691 caracteres.

Então, se vocês têm um conteúdo que está bem segmentado e tem subtópicos, pensem em ter o subtópico e os parágrafos entre 44 e 108 palavras para que seja elegível a aparecer no featured snippet e para que a informação apareça bacana.

Listas

Em média 5, no máximo 8. Então, se você identificou que para aquela palavra que você está buscando conquistar o featured snippet existe uma lista, faça uma lista de 10, para aparecer o resultado truncado.

Tabelas

O mesmo se aplica para tabelas, tá? São entre 3,7 a 5 linhas e de 2,6 a 7 colunas. Então, se apareceu um resultado de tabelas, que geralmente são resultados de comparação, trabalhem uma tabela um pouco maior, para também aparecer o resultado truncado, para que o usuário seja incentivado a clicar e visite o seu site.

Imagens

E aqui, as imagens! Então, a imagem dentro do seu conteúdo tem uma média. Um máximo de 600 de altura por 800 de comprimento. Então, este é o tamanho ideal.

Quando a gente trabalha com este tamanho de imagem dentro do nosso conteúdo, o Google sempre o trará para o nosso snippet, consequentemente garantindo que não aparecerá o resultado do concorrente ou de um blog que a gente não quer, de um site que a gente não queira que apareça ali.

guia de trabalho para conquista de featured snippets

Então, aí está uma tabelinha para vocês seguirem na formatação do seu conteúdo, para que ele seja elegível para os resultados destacados do Google, OK?

E-A-T - Expertise, Authoritativeness and Trustworthiness

E-A-T, pessoal. Otimização on-page sem falar de E-A-T, hoje, não dá, né. Eu peguei esse artigo falando sobre as atualizações do Google, que fala muito sobre o Expertise, Authoritativeness and Trust do seu conteúdo, expertise, autoridade e confiabilidade do conteúdo.

Blog Central para Webmasters 

Olhando para este artigo, você fala: “poxa, mas ele está falando só sobre as atualizações do Google”. Mas, quando eu comecei a ler, e quem já leu vai saber do que estou falando.

Ele tem uma série de perguntas dentro deste artigo que nos ajudam a nortear o nosso trabalho de produção de conteúdo. Ajudam a gente a atender as diretrizes que o Google está buscando para que o nosso conteúdo seja mais completo.

Então, eu coloquei aqui as perguntas, não vou ler todas, mas gente, olha, isso aqui para mim é ouro, cara. Eu olho para isso, a minha equipe de conteúdo olha para isso e fala “cara, se você não responder essas perguntas, não precisa ser todas, mas você tem que se orientar a partir disso. O seu conteúdo vai ficar mais elaborado, mais autoritário, passar mais confiança!”

Algumas delas são:

O conteúdo mostra informações, relatos, pesquisas ou análises originais?

O que é isso? Você está colocando o seu ponto de vista, a sua opinião, ou você está simplesmente replicando notícias, replicando matérias, entendeu? 

A gente começou com uma série agora, no blog, sobre SEO News. Todo mundo tem acesso ao Search Engine Roundtable, ao SEMrush, tal. O que a gente começou a fazer? Eu comecei a trazer a notícia e dar a minha opinião sobre ela. Então, a gente está tentando dar uma diferenciação, tentando agregar valor ao conteúdo, sabe.

É isso o que vocês têm que pensar em fazer. Não é só “ah, vou pegar um tópico aqui e produzir, porque quem está na primeira posição tem 2.000 palavras, vou produzir com 3.000 palavras.” Não é bem isso, tá?

Então, usem essas perguntinhas aqui para nortear o seu trabalho. São várias.

Tem aqui pergunta sobre nível de especialização, como a citada acima. Gente, nunca foi tão importante mostrar quem é o autor do seu conteúdo. É importantíssimo vocês trabalharem com isso, independentemente da área, principalmente área médica, fitness, tudo isso.

Tenham um profissional da área escrevendo, então provem que esse cara é, realmente, um profissional da área, sei lá, mostrando o CRM dele, o CRECI, o que seja. Tem que mostrar que realmente é alguém com conhecimento.

E, essa questão de indicação clara da fonte, fica aí a dica para quem trabalha com portais de notícias, vamos dizer assim. Tem muitos portais que não apontam o link, enfim. Cara, você precisa referenciar suas fontes, sabe? É óbvio que você não vai sair linkando para qualquer blog, para qualquer site que te pedir, mas é importantíssimo fazer essa referência.

Então, aqui é uma via de mão dupla, tá? Tanto para quem trabalha com Link Building criar uma fonte de recursos de informação que seja autoritária e que, com isso, aumente a chance de você ser mencionado e você ser referenciado (a gente vai falar sobre isso daqui a pouco).

Mas é legal vocês entenderem essas nuances porque muita gente acha que “ah, vou linkar pra fora, vou perder autoridade”. Muito pelo contrário! Aqui está dizendo que você tem que fazer isso para você confirmar a fonte do seu conteúdo, entendeu?

Aqui tem mais alguns, outro que me chamou a atenção aqui, e é uma coisa que eu bato muito na tecla, que é:

Há problemas de ortografia ou estilo?

Há problemas de ortografia, ou estilo, ou semântica de seu conteúdo?

O Google analisa isso, tá claro pra mim agora. Se a gente tinha dúvida, é isso. Então, o seu texto tem que ser perfeito, e quanto mais alto for o nível da sua escrita, o grau de sofisticação do seu conteúdo, isso também vai contribuir.

Na língua inglesa, existe uma métrica chamada Flesch-Kincaid Score, que analisa o nível do seu conteúdo. Por exemplo, você escreveu um artigo, ele faz essa avaliação e fala assim: “Isso aqui é nível de colegial”. “Isso aqui é nível universitário”.

No Brasil, eu não encontrei nenhuma ferramenta em relação a isso, mas é como se o Google entendesse o grau de qualidade do seu conteúdo. É uma métrica que ele analisa, vou chamar de grau de sofisticação, do seu do seu texto, sabe?

Então, é muito importante, não só os erros ortográficos, mas isso também.

O que significa TF-IDF? Term Frequency, Inverted Document Frequency

E agora, o mais complicado de toda essa nossa conversa aqui, que é o TF-IDF. Meu Deus, o que significa isso, né?

É uma sigla que vem do inglês, que é o Term Frequency, Inverted Document Frequency.

Há quem diga que o Google e os buscadores hoje não utilizam mais isso, mas não tem nenhuma prova. Então, as técnicas que a gente aplica com base nesse algoritmo de otimização continuam dando seus resultados.

Mas, o que isso quer dizer em humano, né gente? Falei ali um monte de coisa, nem eu entendo às vezes o que quer dizer isso.

O TF-IDF é um fator de ranqueamento utilizado pelos buscadores, incluindo o nosso amigo Google, para determinar a importância de um termo com base na frequência de repetição em um documento, ou seja, na nossa página, em comparação com o que existe na web.

Ou seja, ele vai analisar quantas vezes a gente trabalhou aquele determinado termo dentro do nosso conteúdo e vai comparar com as outras páginas que ele tem indexadas para, daí, ele atribuir o que a gente chama de TF-IDF Score: quanto mais alto for, mais rara é a palavra, mais potencial de trazer tráfego ela tem.

Então, continua muito complicado, né? Vocês sabiam que dentro da SEMrush tem uma ferramenta que analisa isso? Para quem não sabia e estava quase dormindo em cima do teclado, falando “Nossa, não tô entendendo nada que o Bazon tá falando, acho que nem ele deve estar entendendo o que está falando” [risos].

Então, a gente tem aqui, dentro da SEMrush, uma ferramenta que vai ajudar a gente a identificar termos com alto volume de buscas e baixa concorrência com base no TF-IDF, na pontuação do TF-IDF deles.

analise tf idf no semrush

Observem que ela dá o Score e também mostra como que está a concorrência, qual que é a frequência de repetição daquele termo nos concorrentes que estão posicionados à nossa frente, se ele trabalha no título, ou se ele trabalha na H1, na descrição, no corpo, enfim.

A gente consegue ter uma análise rápida de qual é a probabilidade de chegar a ter um bom relacionamento, atrair bastante tráfego, mas o que a gente precisa fazer para melhorar a relevância, a frequência, em relação ao que tem na web, entre aspas, e com isso aprimorar a nossa otimização.

Aí você fala “Poxa, mas e aí, eu não tô vendo os concorrentes e nem nada!”

Se a gente clicar na SERP aqui embaixo, a SEMrush também mostra pra gente quem são os 10 primeiros resultados para aquele termo que a gente está buscando um bom posicionamento e nos dá um overview, tá vendo?

Os concorrentes para esse termo, “biquíni infantil”, estão trabalhando, em média, 9 vezes a palavra no corpo, no título, na H1 e na descrição e eu não estou trabalhando quase em lugar nenhum.

O que a gente tem que fazer? Aprimorar isso, tentar ser um pouquinho melhor que esses caras, para conseguir um TF-IDF Score mais alto, entre aspas, de novo aqui e, consequentemente, aumentar as chances de a gente chegar no topo para esse tempo.

Então, utilizem essa ferramentinha aqui que, cara, Quem não utilizou ela ainda e nem sabia da existência dela, isso aqui é ouro nos dias de hoje, sabe. Ajuda a dar muita dinâmica no nosso trabalho, a gente ganha muito tempo otimizando ou analisando as páginas e aprimorando a otimização delas com essa ferramenta aqui.

E assim, gente, não é jabá porque estou aqui não! A gente testa várias ferramentas, e essa é mais fácil de entender, a mais fácil de utilizar e de ganhar tempo. Eu avalio muito as ferramentas pelo fator “o quanto ela me economiza de tempo”. É óbvio, qualidade, tudo isso tem a ver, mas o quanto ela economiza de tempo é o principal fator de ranqueamento para minhas análises de ferramenta [risos].

Enfim, pra gente fechar, o último tópico: Link Earning. A gente tem que parar de pedir links e começar a atraí-los.

“Ah, poxa, não vou mais fazer Guest Blog em troca de link?”

Até saiu um artigo, essa pesquisa da SEMrush, eu fiquei surpreso em ver que, aqui no Brasil, a técnica mais utilizada e determinada como a mais efetiva ainda é Guest Blog.

Eu diria que eu discordo totalmente disso, porque Guest Blogging, hoje, não é que não deve ser feito, não é que eu não faça, mas ele não tem tanta força como tinha antes e o risco de aquele link perder qualidade e perder força é muito alto. Então por isso que a gente pensa em estratégias para atrair o link.

Como que a gente pode fazer isso?

Construção de marca

Gente assim, a gente está falando de marketing, de marca. A primeira coisa, então: para começar a ter notoriedade, para vocês começarem a atrair links, você tem que trabalhar a construção das suas marcas e dos seus clientes.

É isso o que vocês têm que fazer: pensar nisso. Pensar em “o que a minha marca pode fazer?” “Como que a gente constrói a marca?” “Como a gente ganha notoriedade no segmento em que estamos atuando?”

Presença online

Uma delas é, por exemplo, a presença online. Então, hoje, a sua presença nas redes sociais, o que você faz em parceria com outro site, enfim, tudo isso ajuda a construir a sua presença online e, consequentemente, você ser reconhecido por isso, ou ser referenciado, melhor dizendo, tá?

Outros pontos que eu acho muito importante, esses são os básicos, né, construção de marca e presença online.

“Beleza, Bazon, todo mundo fala disso, eu já estou fazendo”, mas tem que fazer mesmo, tá?

Empoderamento de público-alvo

Outro ponto que a gente vai entrar em detalhe agora é o empoderamento do público-alvo.

De novo, eu destaco a SEMrush e aí, realmente, não tem nada a ver com estar aqui ou não, mas o trabalho que é feito com o público-alvo que somos nós, os entre aspas experts ou influências dentro de um determinado nicho, chamar a gente para fazer um webinar como esse, para contribuir para algum estudo, para participar do blog, tudo isso está empoderando o nosso público, e a gente começa a ter a SEMrush como uma referência.

A gente conhece muito do universo, e sempre que a gente está fazendo algum trabalho, alguma pesquisa ou vai escrever algum artigo, a gente acaba referenciando a empresa e isso ajuda muito. Então pense nesse modelo, sabe? Olha para o seu público e pensem como vocês podem empoderá-los.

Aí, você fala “mas pô, meu público está sempre offline, Bazon”, mas alguém vai ter essa presença online, alguém vai acabar ajudando você. Então, empoderar o seu público, dar mais voz a ele, ajuda sim você a atrair mais links, a você ser referenciado.

Então, pensem nisso como uma maneira “fácil”, utilizando o seu público para tentar ganhar notoriedade, para tentar ser mais referenciado.

Pesquisas de mercado com dados primários

Aí, já entrando um pouco mais a fundo, né: pesquisas de mercado com dados primários. 

Aqui eu eu trago um exemplo que eu sempre gosto de utilizar. Não foi a gente que criou, tá, mas estamos sempre estudando o mercado, vendo essas referências. Essa pesquisa da Robert Half, do Guia Salarial. Todo ano eles atualizam isso, eles foram os pioneiros a criar isso, e olha a quantidade de links que isso atrai para eles em uma única página.

Tem site que não tem nem isso nem no domínio como um todo, e olha que perfil de backlinks mais saudável, pessoal: são 285 backlinks no total, provenientes de 101 domínios de referência.

Olha que relaçãozinha boa, sabe? Quase de 2 para 1, bem simples, por quê? Porque tem muito site que todo ano, quando eles lançam o novo guia, já referencia eles. E olha, todos os links de texto, praticamente tudo nofollow.

Então, assim, criem ativos linkáveis para o seu site. Não pensem em ficar toda hora “ah, vou escrever um artigo aqui e vou mandar lá para 15 pessoas de um blog, ou para um portal”. Cara, isso aí ajuda? Ajuda, a gente ainda conquista link assim também, mas muito pouco, não dá escala, você não consegue sair daquela mesmice, entendeu?

Eu estou falando de uma técnica de Link Building pensando em larga escala, pessoal. Na hora em que você entra em um nicho mais concorrido, não é meia dúzia de link que vai fazer a diferença, você precisa colocar isso de certa forma no automático, você precisa começar a criar ativos que vão atrair link.

Assim que a gente trabalha com, podemos dizer assim, Link Building para grandes empresas, porque aí vai para o nível Enterprise, você está competindo com grandes marcas. Como é que você vai gerar? Vai ficar mandando, vai ter que contratar 30 estagiários, 30 link builders, para ficar mandando e-mail, produzindo artigos para todo mundo fazer Guest Blog e mesmo assim esses links não vão ter força.

Então pensem em criar ativos linkáveis, ter um conteúdo único. Pesquisas de mercado com dados primários, como esse guia salarial, por exemplo, cara, é o que os jornalistas querem e o que os portais de notícias estão querendo: conteúdo único, exclusivo, que tenha validação social, que tenha força, entendeu? Que seja notícia.

Pensem nisso quando vocês estiverem pensando em estratégias de Link Building de larga escala. Isso ajuda bastante.

10X Content

Outro que também funciona - é óbvio que funciona, senão eu não estaria falando aqui, né gente [risos], é o 10X Content, ou seja, o conteúdo dez vezes melhor do que já existe indexado no Google hoje.

Você vai falar “pô, mas isso aí é aquela técnica do Skyscraper, do Brian Dean!” Não. É um nível a mais do que ela, entendeu? O Fishkin, ex-Moz, que está agora na SparkToro, que é a startup dele, cunhou esse termo em 2016, não é nada tão novo assim, que consiste em criar um conteúdo que é 10 vezes melhor do que o que já existe hoje.

Por exemplo, um determinado tópico, sei lá, “distúrbios alimentares”. Você quer chegar na primeira posição, mas você não quer só chegar na primeira posição, quer que aquele conteúdo seja referência para outras matérias, seja o conteúdo mais completo sobre distúrbio alimentar que existe.

Consequentemente, esse conteúdo vai atrair mais links. Comprovadamente, esse conteúdo 10X atrai mais links para esse recurso que você criou. Está dentro do conceito de criar ativos linkáveis, tá, mas é um conteúdo super completo, que vai servir como referência para outros sites.

Então, utilizem, pensem nessa técnica. Tem o linkzinho aí, tem 119 exemplos que o Rand Fishkin listou pra gente.

https://sparktoro.com/blog/resources/10x-content-by-rand-fishkin

Eu falei “não vou me aprofundar muito nisso, até acho que pode ser um tema para um próximo webinar, falar de Link Earning. Até agora não vi nenhum aqui, já fica o convite aí, tá Daria? Me convidando, como sempre [risos]. Tô brincando.

Ações sociais

Mas enfim, para fechar, ações sociais. Pensem em contribuir com sua comunidade, pense em ajudar associações, e isso atrai bastante links, ou seja, você dá notoriedade para a sua marca.

Você pode até economizar um pouquinho com impostos [risos], mas você está fazendo bem ao mesmo tempo, e acaba atraindo alguns links.

A Pampili é uma empresa que faz muito bem. Eles têm várias ações sociais voltadas para o empoderamento das meninas. Eles têm essa, me fugiu a palavra aqui agora, esse posicionamento de marca, sabe? Há anos eles já vêm fazendo isso e isso dá uma grande notoriedade para eles.

Olha, saindo em Catraca Livre, Paraná Portal dentro do UOL, Diário Digital, então não é só grandes sites, mas são todos sites, portais de notícias onde o link veio naturalmente, onde as empresas acabaram mencionando a Pampili por essa notoriedade que ela tem dentro das ações sociais, dentro dessa preocupação com o próximo.

É uma coisa que, assim, eu vejo que qualquer empresa pode fazer, e são links que às vezes acabam vindo de sites de ONGs, né, organizações não governamentais, que é “.org”, tem mais força, enfim, pensem nisso.

Não são apenas essas ações de Link Earning, procurei trazer algumas aqui só pra abrir um pouco a cabeça de vocês.

Como disse, acho que vale uma discussão mais aprofundada, um trabalho para a gente mostrar o processo que a gente utiliza para criar tudo isso, mas como a gente estava falando de várias técnicas, eu procurei sintetizar em uma só, em alguns pontos mais importantes, para a gente poder abrir um pouco a cabeça de vocês e mostrar um nível um pouco mais elevado, diferente, de como fazer Link Building além de ficar pensando em Guest Blog, troca de links e por aí vai.

E lembrem-se, pessoal... O básico é avançado!

Quem quiser dar um Google no meu nome e se conectar comigo nas redes sociais, tem o blog do Bazon agora, eu dei uma parada nas atualizações dele, mas a gente está retomando; também tem o blog da Hedgehog Brasil; e nas redes sociais, quem quiser, estou sempre à disposição.

É isso! Obrigado.

Assista o Webinar "State of Search Portugal"

Compartilhar
Author Photo
CSO (chief SEO officer) at Hedgehog Digital, a digital marketing agency based in Cornwall UK, with offices in Bedford UK, and São Paulo Brasil. Since 2015 Felipe Bazon is listed as one the top 3 SEOs in Brazil, having won the title in the same year. With over 10 years of experience in SEO and Content Marketing, Felipe managed over 100 SEO projects for multinational companies in Brasil, UK and Europe. CSO na agência de Marketing Digital Hedgehog Digital. Desde 2015 listado entre os top 3 SEOs do Brasil, tendo ganho o prêmio no mesmo ano. Há mais de 10 anos apaixonado por SEO, Content Marketing e Marketing Digital em geral. Já liderou mais de 100 projetos de SEO e Content Marketing em empresas no Brasil, Reino Unido e Europa.
Mais sobre isso