SEO é uma sigla para Search Engine Optimization (Otimização de Mecanismos de Busca). É um conjunto de técnicas aplicada à estrutura e ao conteúdo de um site para melhorar o posicionamento dele nas páginas de resultado dos principais mecanismos de pesquisa da internet (Google, Bing e Yahoo, por exemplo).
Para aplicar o SEO, é necessário conhecer o algoritmo de cada buscador, ou seja, o conjunto de regras definido por cada ferramenta para entregar o melhor resultado ao seu usuário. Além disso, é necessário identificar as principais palavras-chave que o atual ou potencial cliente de uma empresa utiliza para pesquisar na internet algum assunto, produto ou serviço relacionado a essa empresa. A partir daí, a estratégia de SEO pode ser planejada.
Quando o SEO foi criado?
Search Engine Optimization (SEO) foi mencionado pela primeira vez em 1997 no livro Net Results – Best Practices for Web Marketing, escrito por Bob Heyman, Leland Harden e Ricky Bruner. O termo surgiu em uma conversa entre os autores sobre o posicionamento do site da banda Jefferson Starship em páginas de resultado dos principais mecanismos de pesquisa daquela época, principalmente do Google.
Entre os resultados observados, eles perceberam que o site da banda ficava na primeira posição do Google quando o nome dela era mencionado diversas vezes no conteúdo do site. Foi neste momento que os autores cunharam o termo Search Engine Optimization. E, ao publicar a conclusão que eles tiveram, vários profissionais de marketing naquele ano começaram a observar, estudar e a praticar estratégias focadas apenas em destacar o posicionamento dos sites em ferramentas online de pesquisa. Naquela época não era considerado, por exemplo, a qualidade e a relevância do conteúdo.
Com o avanço nos estudos e práticas de SEO, surgiram também técnicas de manipulação de resultados, conhecidas como black hat. Elas posicionavam os sites entre os primeiros resultados das pesquisas, mas com um conteúdo ruim, tanto na relevância quanto na experiência de leitura do usuário. Foi então que os mecanismos de busca tiveram que mudar as regras (algoritmos) com o objetivo de entregar qualidade àquele que pesquisava. E essa mudança de regras é realizada constantemente até hoje, sempre com o intuito de aprimorar a entrega de resultados.
Algoritmo e atualizações do Google
O uso correto das regras definidas por cada buscador colabora para o posicionamento do site entre as primeiras colocações nas páginas de resultado para diversas palavras-chave pesquisadas. Por isso, é necessário ficar atento às constantes atualizações de cada buscador. No caso do Google, as principais atualizações do algoritmo são:
- Florida (2003): Esta foi a primeira grande atualização do algoritmo do Google. Combateu páginas de baixa qualidade que manipulavam o algoritmo para subir o posicionamento de sites sem relevância.
- Panda (2011): Penalizou sites com conteúdo de baixa qualidade, principalmente aqueles com muitos anúncios em suas páginas. A partir dele, todas as atualizações que vieram em seguida focaram na qualidade do conteúdo.
- Penguin (2012): Responsável por conter o excesso de otimizações no conteúdo.
- Hummingbird (2013): Considerou a semântica do conteúdo. Ou seja, os sinônimos e o contexto em que os termos estão inseridos. Também aumentou a importância da localização do usuário, pesquisas feitas anteriormente, entre outros fatores.
- HTTPS/SSL Update (2014): Anunciou que, agora, o HTTPS é um fator de ranqueamento. Essa foi uma forma de ampliar o incentivo para uma internet mais segura.
- Mobile Friendly Update – Mobilegeddon (2015): priorizou sites amigáveis para os mecanismos de busca em dispositivos móveis.
- Rankbrain (2015): incorporou a inteligência artificial ao algoritmo, ajudando na interpretação e apresentação dos resultados de busca (semântica).
- Fred (2017): lançada para identificar sites com conteúdo de baixa qualidade e muitos banners de propaganda.
- Medical Update (2018): A partir dessa mudança, a autoridade dos autores para falar sobre o assunto de um conteúdo publicado será um diferencial para o ranqueamento.
- EAT (2019): Deixou ainda mais claro que as credenciais e a formação dos autores, além da relevância das empresas, possuem relação direta com o resultado orgânico dos conteúdos.
- Atualização de diversidade (2019): agora, os sites terão apenas dois resultados distintos na primeira página de resultados. Ou seja, não terão vários resultados aparecendo para uma mesma pesquisa.
- Favicon e posição 0 (2020): Antes a página de resultados apresentava o conteúdo em destaque e repetia ele na sua posição original. A partir da mudança, não há mais essa repetição.
Como funciona o rastreamento do Google
Todo mecanismo online de pesquisa possui robôs (programa de computador) para monitorar a internet em busca de páginas publicadas e, assim, classificá-las conforme as próprias regras (algoritmos). É um processo denominado rastreamento.
No caso do Google, o buscador mais utilizado do mundo, o rastreamento é realizado pelos Googlebots. Também chamados de crawler, spider ou bot, eles identificam as páginas, utilizam o algoritmo para qualificar o conteúdo e, em seguida, definem a indexação para oferecer os melhores resultados aos seus usuários.
Leia também: