Conheça os bichos do Google

 

Os robôs do Google,  mais conhecidos, foram batizados pela própria empresa com nomes de animais e inspiraram grande parte dos webmasters atuais.

Os robôs do Google, Panda, Penguin, Hummingbird, Possum e outras atualizações importantes do buscador de pesquisa, provocaram grandes modificações nas Serps e no SEO.

Como prometi, vamos fazer um review nas mudanças e atualizações que o Google fez desde 2011.

Principalmente nas modificações que tiveram maior impacto na forma como fazemos SEO atualmente.

Acho que é importante conhecê-las, pois elas podem ajudar você tomar decisões sobre quais estratégias de SEO evitar.

Primeiramente, vamos começar pela alterações dos algoritmos em  2011.

 

Os robôs do Google – 2011

 

Este foi um grande ano em termos de SEO, impactando muitos webmasters.

Aliás, foi o ano que eliminou muitos negócios online.

Assim sendo,  a maioria desses negócios estavam burlando de alguma forma os princípios do Google e mereceram as penalizações.

Contudo, algumas vítimas inocentes foram apanhadas na “carnificina”, para nunca mais se recuperar.

No começo do ano, o Google atingiu os sites que usavam bots para roubar e postar conteúdo de outros sites (sites scrapers).

Tratava-se de tentar atribuir a propriedade do conteúdo ao proprietário original e, assim, penalizar “os espertos”.

 

Panda

 

 

Em fevereiro, a atualização do Panda foi lançada nos EUA.

O Panda visava essencialmente conteúdo de baixa qualidade e as “fazendas de links“, (farmers).

Essas “fazendas de links” eram basicamente coleções de blogs de baixa qualidade configurados para criar links para outros sites.

O termo “conteúdo superficial” tornou-se popular nessa época; descrevendo páginas que realmente não diziam muito e estavam lá apenas para hospedar anúncios.

O objetivo do Panda era a compactação do conteúdo, e muitos sites sofreram com isso.

 

Em março do mesmo ano, o Google lançou o botão + 1

 

Logo do Google plus

 

Isso provavelmente era esperado por alguns profissionais de SEO, que tinham em mente que o Google já tinha sinalizado em algumas oportunidades que usava sinais sociais em seu algoritmo de classificação.

Em abril, o Panda 2.0 foi lançado, expandindo seu alcance para todos os países do mundo, mas ainda direcionando apenas para páginas em inglês.

Ainda mais sinais foram incluídos no Panda 2.0.

Talvez pelo feedback dos próprios usuários por meio do seu navegador Google Chrome.

Nesse época os usuários tinham a opção de bloquear nas Serps as páginas que não gostavam.

Ainda em 2011 o Google lançou mais umas 6 versões do Panda, ajudando a eliminar ainda mais conteúdo de baixa qualidade das Serps.

A cada novo lançamento, os webmasters se preocupavam, entravam em “pânico” e reclamavam em fóruns e mídias sociais.

Muitos sites foram penalizados, embora nem todos merecessem o inevitável “dano colateral” foi como Google denominou.

Em junho de 2011, vimos o nascimento do primeiro projeto de rede social do Google, o Google Plus.

 

Criptografia de consulta

 

Outra mudança que irritou os webmasters foi a criptografia de consulta a partir de outubro.

O Google declarou que foi por motivos de privacidade, mas os profissionais do SEO não acreditaram no argumento do Google.

Antes da criptografia de consulta, sempre que alguém pesquisava algo no Google, o termo da pesquisa digitado era repassado ao site quando o visitante clicava na página.

Isso significava que os webmasters podiam ver quais termos de pesquisa os usuários estavam digitando para encontrar suas páginas usando alguma ferramenta de análise de tráfego.

Entretanto, a criptografia de consulta mudou tudo isso.

Qualquer pessoa que estivesse logado em sua conta do Google quando executou uma pesquisa, teria sua pesquisa criptografada.

Decerto, isso evitou que seus termos de pesquisa fossem conhecidos pelos sites visitados.

Assim, o resultado disso foi que cada vez mais os webmasters não tinham ideia de quais termos as pessoas estavam usando para encontrar seus sites.

Em novembro uma nova atualização permitiu aos sites de notícias e eventos, que forneciam notícias atualizadas e eventos urgentes tivessem acesso aos termos pesquisados pelos seus consumidores.

 

Os robôs do Google – 2012

 

Em contraste com 2011, o ano de 2012 foi um grande ano para SEOs e webmasters.

Houve muitas mudanças importantes, começando com uma chamada “Search + Your World” em janeiro.

Esta foi uma medida agressiva do Google para integrar seus dados sociais Google + e perfis de usuário nas Serps.

As nossas postagens no Google plus apareciam na Serp com  foto e tudo, era bastante interessante e ajudava um pouco o SEO.

Contudo, ao longo do ano, pelo menos uma dúzia de atualizações do Panda foram lançadas, todas destinadas a reduzir a exibição de páginas de baixa qualidade.

Em janeiro, o Google anunciou uma mudança no algoritmo para o layout das páginas.

O objetivo era penalizar páginas com muitos anúncios, muito pouco valor, ou ambos, posicionados acima da dobra.

O termo acima da dobra vem do jornal impresso, que fica em exposição nas bancas dobrado, permitindo apenas a visão da manchete principal.

Ao passo que, na web refere-se à parte visível de uma página de um site quando um visitante pela primeira vez pousa nela, a parte que não aparece está abaixo da dobra.

Em outras palavras, tudo o que você pode ver sem a necessidade de rolar a barra lateral para baixo está acima da dobra.

Alguns SEOs se referiram a essa alteração de algoritmo do layout de página como uma atualização muito importante.

Em fevereiro, o Google anunciou outras 17 alterações em seu algoritmo, incluindo correção ortográfica.

O Google não parou por aí, e antes que o mês terminasse, anunciou outras 40 mudanças.

Em março, foram anunciadas mais 50 modificações, incluindo uma que alterou a pontuação do texto âncora (anchor text “scoring”).

 

Pinguim

 

Googlebot Penguim imagem

 

Em abril, a atualização chamada Pinguim foi lançada.

Os profissionais do SEO e os webmasters presumiram que esse upgrade penalizaria a otimização excessiva.

A princípio, o pessoal do Google chamou o update de atualização de spam da Web, mas logo foi chamada de Pinguim.

Esta atualização analisou uma grande variedade de técnicas de spam, incluindo preenchimento de palavras-chave.

Também analisou o texto âncora usado em links externos que apontavam para sites.

Posteriormente, mais um conjunto de atualizações foi anunciado, 52 desta vez.

 

Mapa do Conhecimento

 

Em maio, o Google começou a lançar o Mapa do Conhecimento (“Knowledge Graph”).

Inegavelmente, foi um grande passo em direção à pesquisa semântica (a tecnologia que o Google usa para entender melhor o contexto dos termos de pesquisa).

A nova versão do Pinguim 1.1 divulgada durante este mês junto com mais 39 mudanças, incluiu uma melhor detecção da estratégia de link.

A constatação do esquema de link ajudou a identificar sites que construíram seus próprios links para obter melhores classificações.

Em julho, o Google enviou avisos sobre os links não naturais por meio do Google Search Console para qualquer site onde havia sido detectados links artificiais.

Para evitar uma penalidade, o Google deu aos webmasters a oportunidade de remover esses links.

Pense em links artificiais como qualquer link que o webmaster controla, e aqueles que eles próprios provavelmente criaram ou pediram que outros criassem para eles.

Isso incluiria links em redes de blog e outros sites de baixa qualidade.

 

Backlinks

 

o que envolve o SEO

 

Os backlinks de qualidade são importantíssimo para o SEO posicionar sites ou páginas nas primeiras posições da Serp.

Entretanto os backlinks de que estamos falando, são aqueles que usavam normalmente uma alta porcentagem de frases-chave específicas em seu texto âncora.

O Google queria que os webmasters fossem responsáveis ​​por esses links que apontavam para seus sites.

O Google esperava que os profissionais da web entrassem em contato com os proprietários do site e solicitassem a remoção dos links artificiais.

Entretanto, o próprio Google sabia que entrar em contato com um webmaster para solicitar a remoção de um link, seria uma tarefa quase impossível.

Contudo, para muitos deles, essa era uma tarefa impraticável porque os avisos de links não naturais costumavam ser o resultado de dezenas ou centenas de links ruins para um único site.

Então, o Google acabou retrocedendo e disse que esses avisos de link artificiais podem não resultar em penalidade, afinal.

Posteriormente, surgiu o boato de que o Google lançaria uma ferramenta para ajudar os webmasters a limpar esses backlinks forçados.

A mudança do Google sobre essa política era necessária, compreensível e justa.

Sobretudo, se os sites fossem penalizados por terem muitos links de spam apontando para suas páginas, isso abriria uma grande oportunidade para infratores.

Webmasters mais agressivos poderiam prejudicar seus concorrentes simplesmente apontando milhares de links de baixa qualidade para suas páginas, apenas usando um software de criação de links automatizados.

 

DMCA

 

Em agosto, o gigante dos mecanismos de busca começou a penalizar sites que violaram repetidamente direitos autorais.

Possivelmente por meio de solicitações de remoção da Digital Millennium Copyright Act (DMCA).

Para quem não está familiarizado com isso, o DMCA é uma controversa lei de gerenciamento de direitos digitais (DRM) dos Estados Unidos.

A intenção por trás do DMCA era criar uma versão atualizada das leis de direitos autorais.

O objetivo era lidar com os desafios especiais da regulamentação do material digital.

 

EMD

 

Em setembro de 2012, outra grande atualização ocorreu, desta vez chamada de atualização EMD.

EMD significa domínio de correspondência exata e se refere a um domínio que corresponde exatamente a uma frase de palavra-chave que o proprietário do site deseja classificar.

Os EMDs tiveram uma enorme vantagem de classificação simplesmente porque usaram a frase de palavra-chave no nome de domínio.

Esta atualização removeu essa vantagem na calada da noite.

Em outubro, além das 65 mudanças no algoritmo feitas nos dois meses anteriores, houve uma grande atualização do Pinguim.

Provavelmente expandindo sua influência para conteúdo criado em outros idiomas.

 

Disavow

 

A propósito, ainda nesse mesmo mês, o Google anunciou a ferramenta Disavow.

Esta foi a resposta do Google para o problema dos links antinaturais.

Assim sendo, a responsabilidade dos links artificiais ficou para o webmaster, dando-lhes uma ferramenta para excluir ou negar qualquer responsabilidade ou suporte para esses links.

Em síntese, os links externos de sites de baixa qualidade apontando para o seu site que você não conseguia remover, porém com a ferramenta Disavow os webmasters poderiam rejeitá-los, tornando-os de fato inofensivos.

Ainda houve outras atualizações até o final do ano que atingiram o Layout de Página e o Mapa de Conhecimento.

 

Os robôs do Google – 2013

 

Hummingbird (Beija-flor) foi o nome dado ao novo algoritmo de pesquisa do Google.

 

Foto de de um Beija-flor

 

Esse passarinho é conhecido na natureza como um animal rápido e preciso.

Não era parte de um algoritmo existente ou de uma pequena atualização de algoritmo.

Acima de tudo era um algoritmo inteiramente novo que foi retirado da caixa e colocado em prática

Essa foi uma grande mudança na maneira como o Google classificava as informações em seu índice.

Na verdade, uma mudança nesta escala provavelmente não ocorria há mais de uma década.

O Panda e o Pinguim foram alterações em partes do algoritmo antigo, enquanto o Hummingbird era um algoritmo completamente novo, embora ainda usasse componentes do antigo.

Os algoritmos do Google são as equações matemáticas usadas para determinar as páginas mais relevantes a serem retornadas nos resultados da pesquisa.

A equação usa mais de 200 componentes, incluindo coisas como PageRank e Backlinks, para citar apenas dois.

Aparentemente, o nome Beija-flor foi escolhido devido à rapidez e precisão dessas aves.

Embora muitos webmasters discordassem, o Google obviamente pensou na época que isso refletia seus resultados de pesquisa – rápidos e precisos.

 

Pesquisa por voz

 

O Google queria introduzir uma grande atualização no algoritmo por causa da evolução na forma como as pessoas usavam o Google para pesquisar coisas.

Um exemplo que o Google deu foi na pesquisa por voz, em que as pessoas agora podem falar no seu celular, tablet ou até mesmo no navegador do desktop para encontrar informações.

O Google não conseguia lidar muito bem com a busca por fala, nem sempre entendia as frases ditadas por voz na pesquisa.

Entretanto o novo Hummingbird foi projetado para fazer exatamente isso.

O antigo Google procurava páginas no índice que incluíam algumas ou todas as palavras da frase usada na pesquisa.

Uma página que incluísse a frase exata teria a melhor chance de aparecer no topo do Google.

Se nenhuma página for encontrada com a frase exata, o Google irá procurar por páginas que incluam as palavras mais importantes dela.

A ideia por trás do Hummingbird era que ele deveria ser capaz de interpretar o que o pesquisador estava realmente procurando.

Em outras palavras, o Hummingbird deveria determinar a intenção do pesquisador e retornar as páginas que melhor correspondiam a essa intenção, em oposição às melhores palavras-chave correspondentes a frase da pesquisa.

Hoje, o Google tenta entender exatamente o que o usuário deseja, em vez de apenas considerar as palavras usadas no termo de pesquisa.

 

Os robôs do Google -2014

 

Em primeiro lugar, o Google renovou sua atualização do layout de página e o Payday Loan 2.0.

Esta foi uma atualização do algoritmo do Payday Loan original e o alcance desse algoritmo foi estendido para consultas internacionais.

Também nesse ano, o Panda foi atualizado. Era chamado de Panda 4.0.

 

Os robôs do Google – 2015

 

Os dispositivos móveis começam a dominar as buscas

Em abril, o Google lançou uma atualização para impulsionar páginas da web compatíveis com dispositivos móveis nos resultados de pesquisa para os aparelhos móveis.

Para ajudar os webmasters a se prepararem para a atualização, o Google forneceu uma página da web onde os profissionais poderiam testar seu site para ver se era compatível com dispositivos móveis ou não.

Você pode encontrar a ferramenta de teste para dispositivos móveis clicando aqui:

Para usar esta ferramenta, basta inserir o URL da sua página web e aguardar o resultado. Com sorte, você verá algo assim:

 

robôs do Google

 

A atualização compatível com dispositivos móveis:

  1. Afeta apenas as pesquisas realizadas em dispositivos móveis.
  2. Aplica-se a páginas individuais, não a sites inteiros.
  3. Afeta TODOS os idiomas globalmente.

Esta atualização feita nesse momento faz todo sentido.

Se alguém estiver pesquisando em uma tela pequena, o Google só mostrará as páginas que serão exibidas corretamente nos dispositivos móveis.

 

Os robôs do Google – 2016

 

Em fevereiro, o Google fez algumas grandes mudanças nas Serps, removendo a coluna direita de anúncios e colocando um bloco de 4 anúncios no topo da Serp.

Assim, para qualquer termo de pesquisa, os resultados orgânicos foram empurrados para baixo na página.

Dessa forma, acima da dobra, a maioria dos usuários só encontrariam links de anúncios pagos.

Em seguida, o Google lançou uma segunda atualização compatível com dispositivos móveis que reforçou a primeira e melhorou o desempenho dos sites para dispositivos móveis nas plataformas de busca móvel.

 

Possum

 

Posteriormente mais um animal se juntou às fileiras do Google.

A atualização Possum (Gambá) foi pensada para atingir as classificações de pesquisa local.

Esse update, aumentava o número de busca dos resultados locais e,  também prometia que spam fosse classificado.

As empresas locais que antes achavam difícil classificar os resultados de uma cidade, porque estavam fora dos limites urbano, agora acharam mais fácil.

Em setembro, o Google anunciou o Pinguim 4.0.

Esta foi uma atualização muito esperada (e antecipada) pela comunidade SEO.

O Pinguim 4.0 funcionando em tempo real tornou-se uma parte essencial do algoritmo.

Isso significa que todas as páginas capturadas pelo Pinguim podem ser corrigidas e essas penalidades revertidas assim que a página é reindexada e reavaliada.

Com as interações anteriores do Pinguim, os webmasters tiveram que esperar meses (ou até anos) para ver se suas correções de SEO realmente reverteram as penalidades do Pinguim.

 

Os robôs do Google – 2017

 

Em janeiro, o Google lançou uma atualização que afetaria as páginas que tinham pop-upsintrometidos“, atrapalhando a experiência do usuário em dispositivos móveis.

Principalmente, qualquer coisa que cobrisse o conteúdo principal na tela desses dispositivos e, que exigissem atenção (por exemplo, um clique) era considerado interferência.

Em abril, parecia que os sites HTTPS eram preferidos aos sites HTTP inseguros.

Em outubro, o Google apresentou avisos no Google Chrome para usuários sobre sites inseguros.

Também vimos uma redução no número de snippets em destaque nos resultados da pesquisa, com um aumento nos painéis de conhecimento (knowledge panels).

 

Os robôs do Google – 2018

 

Em março, o Google lançou o índice Mobile-First.

Essa mudança significava que, em vez de indexar as versões de desktop das páginas para os resultados da pesquisa.

O Google começou a usar as versões móveis das páginas em suas buscas.

Por que?

Por causa dos problemas que os usuários encontravam nos dispositivos móveis quando as versões para desktop e celular de uma página eram muito diferentes.

Em julho, desse mesmo ano, o Google começou a mostrar todos os sites não HTTPS como não seguros no navegador Chrome.

 

Medic Update

 

No mês seguinte, foi lançada uma grande atualização que foi apelidada de Medic Update.

Esta atualização afetou muitos sites relacionados à saúde (daí o nome), especialmente aqueles focados em medicina alternativa.

Aliás, esta atualização visa os sites que ganham dinheiro com a recomendação de produtos que podem ser perigosos para a saúde ou a subsistência.

Se você estiver construindo sites, principalmente de afiliado, o Medic Update é um bom motivo para você se manter atento aos nichos relacionados à saúde e finanças.

Na verdade, qualquer coisa que possa ser considerada arriscada para um visitante.

Se você tem um site em um desses nichos e foi atingido pelo Medic, é problema.

Não existe uma solução simples.

Contudo, você pode procurar no Google por sites que afirmam ter se recuperado, acho que esta seria a melhor maneira para começar.

 

Os robôs do Google – 2019

 

Em 2019, o Google lançou uma série de atualizações essenciais.

Essas atualizações afetam uma série de fatores de classificação de uma só vez, portanto, nenhuma informação foi fornecida sobre alvos específicos desses upgrades.

Apenas para mostrar que todos podem cometer erros, o Google relatou alguns bugs.

O primeiro era um bug que causava a desindexação não intencional das páginas.

O segundo impedia que novas páginas fossem indexadas corretamente.

 

BERT

 

Talvez a maior novidade de 2019 tenha sido a atualização do BERT.

BERT significa Bidirectional Encoder Representations from Transformers e é um modelo de processamento de linguagem natural, (NLP – natural language processing).

Esta atualização teve como objetivo entender melhor a linguagem natural usada pelos usuários para perceber, de fato, a intenção e o contexto da pesquisa.

Como você pode concluir, o Google tem sido muito ativo na tentativa de combater o spam.

As duas principais atualizações que mudaram tudo foram Panda e Pinguim.

Juntas, essas duas tecnologias eliminaram páginas de baixa qualidade e páginas que foram projetadas para obter uma classificação elevada nos mecanismos de pesquisa.

Qualquer pessoa que constrói um site deseja que ele tenha uma boa classificação na Serp do Google.

Sem ter uma presença nas primeiras colocações nas pesquisas, um site não terá muito tráfego.

Se isso acontecer, os webmasters tentarão aumentar seus rankings, e a forma tradicional é trabalhando no SEO On-page e nos links internos.

 

Webmasters X Google

 

O Google quer que as melhores páginas sejam classificadas no topo das Serps por razões óbvias.

Portanto, ele recompensa as páginas que merecem estar no topo, ao invés das páginas que os webmasters querem classificar usando SEO ( denominado pelo Google como spam da Web).

Isso significa que você deve entregar o conteúdo da melhor qualidade possível.

Você precisa criar conteúdo que mereça estar no topo das buscas e que possa atrair links de sites de alta qualidade em seu nicho.

O conteúdo não é apenas rei agora, mas sempre foi rei.

A diferença agora é que os algoritmos do Google são muito melhores na identificação de bons conteúdos

Não é mais fácil pegar atalhos e usar táticas dissimuladas para enganar os algoritmos como antigamente.

Felizmente para você, o Google oferece muitos conselhos sobre como criar o tipo de conteúdo que deseja exibir nas Serps.

Na verdade, ele criou “Diretrizes para webmasters”.

Essas páginas dizem exatamente o que o Google deseja e, tão importante quanto, o que não deseja.

De todas as atualizações do Google, a que teve a maior influência no meu SEO foi a Pinguim.

 

Onde todas essas atualizações nos levam

 

Hoje, a otimização para  palavras-chave específicas não se tornou difícil apenas por causa do Panda e do Pinguim.

Também se tornou menos eficaz em direcionar o tráfego se essas palavras / frases não corresponderem à intenção do pesquisador na pesquisa.

Hoje, o SEO é muito diferente do que era há apenas alguns anos.

O Google adotou uma série de medidas para combater as estratégias dos webmasters para manipular o posicionamento dos sites nas Serps.

O SEO antes do Google introduzir a atualização do Panda era fácil.

Após a atualização do Panda, ainda era relativamente fácil, mas você precisava ter certeza de que seu conteúdo era bom.

Depois que o Google lançou a atualização Pinguim, o SEO ficou muito mais difícil.

 

Os robôs do Google – 2020

 

Nesse ano de 2020,  os especialistas em SEO e os webmasters estão comentando bastante sobre:

  1. SEO on-page
  2. SEO off-page
  3. Link building, autoridade e confiança
  4. White hat (chapéu branco)
  5. Gray hat (chapéu cinza)
  6. Black hat (chapéu preto)

Vimos os três primeiros itens, então vamos definir rapidamente os três últimos usando gráficos.

 

diagramd dos robôs do Google sobre SEO

 

No diagrama acima, você pode ver que temos três formas de SEO:

  1. O White Hat – é a melhor e mais segura estratégia de SEO aprovada pelo Google para conseguir uma boa classificação da sua página na Serp.

O Google oferece diretrizes aprovadas para estratégia de SEO.

  1. Black Hat – são as brechas que permitem que os webmasters manipulem criativamente o algoritmo do Google para posicionar seus sites nas primeiras posições.

O Google está ativamente trabalhando para encontrar essas brechas e quem está burlando suas regras para penalizá-los.

Os profissionais do SEO, que são pessoas altamente qualificadas, incluem toda uma gama de estratégias, desde o preenchimento de palavras-chave na página até a criação de backlinks usando software para gerar dezenas de milhares deles apontando links para uma página do site que desejam ranquear.

  1. Gray Hat – São aquelas estratégias que se encontram entre os dois extremos.

São estratégias que o Google não aprova, mas com menor probabilidade de ter seu site penalizado do que fazendo black hat.

As táticas Gray Hat são certamente mais arriscadas do que o White hat, mas não tão arriscadas quanto o Black hat.

Se você pensar nisso como uma escala móvel em que uma estratégia de SEO totalmente segura como a White hat e uma totalmente arriscada como Black hat.

Então, você pode perceber que, à medida que se move para a direita com seu plano de SEO, é mais provável que você entre numa zona incerta do algoritmo do Google (pelo menos a longo prazo).

Do mesmo modo quando você se move mais para a esquerda, é possível que você esteja mais seguro em relação as penalidades do Googlebot.

O nível de tolerância do Google está em algum lugar na área cinza, mas sendo empurrado cada vez mais para a esquerda a cada mês que passa.

Vamos redesenhar esse diagrama:

 

diagram dos robôs do Google blackt hat

 

A seta horizontal cada vez mais arriscada foi substituída por uma linha móvel de tolerância do Google.

Esta linha de tolerância pode se mover da esquerda para a direita dependendo do site que está sendo classificado.

Geralmente, para todos os novos sites, o nível de tolerância está muito próximo do limite do White hat e você precisa ficar atento para não ultrapassá-lo.

Sites mais estabelecidos e confiáveis verão essa linha de tolerância se movendo para a direita.

Os webmasters que usam técnicas mais à direita de sua linha de tolerância correm o risco de perder suas classificações.

Vamos considerar a importância da confiança versus não confiança

A linha de tolerância do Google “deslizará” para a esquerda ou direita, dependendo do site que está sendo classificado.

Para um site que provou seu valor, o que significa que o Google confia muito nele; podemos ver o diagrama parecido com este:

 

robõs do google diagrama seo

 

Ainda assim, para um novo site ou um que não tem histórico, o diagrama provavelmente será muito mais parecido com este.

 

Linha de tolerância do robô do google

 

A única diferença aqui está na localização da “linha de tolerância”.

 

Autoridade e Confiança

 

Em outras palavras, o Google é muito mais tolerante com sites que construíram autoridade e confiança do que com novos sites ou sites que não conseguiram atingir um nível decente de autoridade ou confiança.

Um site de alta autoridade com muita confiança pode suportar uma certa quantidade de spam sem sofrer penalidades.

Em outras palavras, quanto mais autoridade o site tem, mais ele pode se safar.

Um novo site, por outro lado, pode ser rapidamente penalizado mesmo com pouca quantidade de spam.

 

Seos e Webmasters

 

Muitos webmasters (ou empresas de SEO que competem) podem discordar sobre a evolução dos algoritmos do Google.

Tenho certeza de que muitos dirão que tudo isso não é verdade e que podem classificar suas páginas de acordo com seus termos de pesquisa (dependendo do nível de concorrência, é claro), ligando a página através de texto âncora rico em palavras-chave.

Inclusive, em alguns blogs de teste, faço estratégias Black hat, com resultados cada vez mais discretos e difíceis de serem realizados.

Exigem cada vez mais ferramentas, hospedagens, domínios, proxies e clusters para manter tudo de maneira independente aos olhos do Google.

Portanto, a estratégia Black hat , além de ser dispendiosa , é muito difícil ser efetiva no longo prazo.

Contudo, em outros blogs, procuro publicar conteúdos relevantes para minha audiência e tenho obtido resultados interessantes.

Algumas estratégias usadas antes de 2010 para classificar as páginas de um site tiveram sucesso .

  1. Pesquisa de palavras-chave para encontrar frases com alto número de buscas e baixa competição.
  2. Escrever no post várias vezes a palavra-chave ou frase, inclusive colocando todas em negrito.
  3. Criando vários backlinks usando o mesmo texto âncora em outros sites apontando para a sua página ou seu site que você quer classificar. (hiperlink).
  4. E assim, sua página, tinha grandes possibilidades de subir nas Serps.

Aliás, nessa época era tudo mais simples e fácil.

Se você não se preocupa com seu negócio, siga essa estratégia ou contrate alguém para fazer isso por você.

Você pode obter ganhos de curto prazo, mas acabará sendo penalizado e perderá todas as suas classificações.

Provavelmente o Google irá alcançá-lo mais cedo ou mais tarde.

Eu vi táticas de criação de links “spam” alavancarem uma página para a terceira posição da primeira página da pesquisa do Google, para descobrir que em apenas 24 horas ela tinha sumido do mapa.

Para perder todas as suas classificações no Google não é necessária uma revisão humana, embora o Google conte com esses revisores.

O processo que o Google criou para punir spam é automatizado demais desde a introdução do Panda e do Pinguim.

Entretanto, acho que o Google excede, vai além do limite do que é aceitável.

Afinal, a penalidade é determinada e aplicada por algoritmos.

Em contrapartida, as penalidades algorítmicas podem ser facilmente suspensas removendo o spam e limpando o site.

No entanto, se sua estratégia inclui backlinks de baixa qualidade – (especialmente para a página inicial), as coisas se tornam um pouco mais complicadas.

 

Como você pode remover esses backlinks?

 

Na maioria dos casos, você não pode.

O Google fornece a ferramenta Disavow que pode ajudar em muitos casos.

Em circunstâncias extremas, você pode mover o site para um domínio novo e começar do zero.

Talvez possa ser sua única opção.

Só você pode saber se vale a pena arriscar seu negócio de longo prazo para ganhar no curto prazo?

error: Content is protected !!