Por que sites não otimizados podem ter uma boa classificação nos mecanismos de pesquisa?

Como sites não otimizados podem ter uma boa classificação no Google?

Na era da nova busca do Google SGE (Search Generative Experience), muitos profissionais de SEO ficam perplexos ao ver sites aparentemente não otimizados conquistarem posições superiores nas páginas de resultados de pesquisa (SERPs).

A pergunta natural que surge é: como esses sites, com pouco conteúdo ou backlinks, conseguem superar concorrentes bem otimizados? A resposta não é simples, e envolve uma série de fatores que vão além da mera otimização técnica.

Eu Claudio Gomes já aviso não é algo 100% exato as respostas que vou passar, pois cada um pode ter retorno diferentes nos testes e nas serps.

Conteúdo
  1. Sites não otimizados podem ter uma boa classificação e a complexidade do algoritmo de busca
    1. Autoridade e confiança do site (EEAT)
    2. Sinais sociais e engajamento
    3. Páginas de baixa concorrência e conteúdos de nicho
    4. Exemplos do mundo real

Sites não otimizados podem ter uma boa classificação e a complexidade do algoritmo de busca

Depois do tal vazamento do Google Leak ainda encontro muitos que são contra e outros a favor, mas isso trouxe uma luz e informações que ninguém tinha certeza foram reveladas.

O Google utiliza uma combinação de fatores para determinar a classificação de um site. Embora a otimização técnica e o uso de palavras-chave continuem sendo aspectos importantes com a intenção de busca, o algoritmo valoriza diversos outros sinais. Entre eles estão a qualidade do conteúdo, o tempo de permanência dos usuários no site, a autoridade da página e até mesmo sinais de interação social.

Quantos backlinks eu posso criar para meu site no mês?

Experiência do usuário (UX) tem se tornado um dos fatores principais para o algoritmo. Isso inclui o tempo que o visitante passa em uma página, o engajamento com o conteúdo e a navegação eficiente. Sites que proporcionam uma boa experiência de usuário — mesmo que tecnicamente não otimizados em termos de "SEO tradicional" — podem se destacar. Uma navegação intuitiva, tempos de carregamento rápidos e a capacidade de fornecer respostas rápidas às perguntas dos usuários são grandes diferenciais.

Autoridade e confiança do site (EEAT)

A diretriz de EEAT (Expertise, Authoritativeness, Trustworthiness), introduzida pelo Google, enfatiza que sites precisam demonstrar autoridade e confiança, especialmente em tópicos que envolvem saúde, finanças e outros assuntos sensíveis. Alguns sites, mesmo não otimizados para SEO, podem se classificar bem porque são considerados autoridades em seu campo. Instituições acadêmicas, governos e grandes organizações são exemplos de fontes que o Google pode priorizar por sua confiabilidade, independentemente da otimização.

Por exemplo, backlinks de sites com alta autoridade podem ter um impacto significativo. Mesmo que um site tenha poucos backlinks, se esses links vierem de fontes de confiança, como universidades ou sites de notícias de alto nível, o Google valoriza essa qualidade acima da quantidade.

Sinais sociais e engajamento

Um fator que muitas vezes passa despercebido é a atividade em redes sociais. Sites que mantêm uma presença ativa nas redes, com postagens frequentes e engajamento com os usuários, podem obter benefícios indiretos nas classificações. Quando o conteúdo é amplamente compartilhado, comentado ou curtido, e já percebemos que o Google interpreta isso como um sinal de relevância e engajamento com o público, o que pode ajudar na classificação.

Muitos usuários podem acessar diretamente esses sites a partir de plataformas sociais, gerando um tráfego orgânico robusto. Esse tráfego é valorizado pelo visto no algoritmo, que prioriza páginas com maior interação de usuários.

Dificuldade de palavras-chave (KD) do Ahrefs realmente importa?

Páginas de baixa concorrência e conteúdos de nicho

Outro ponto que pode explicar por que sites não otimizados conseguem boas classificações é o foco em nichos específicos e em palavras-chave de cauda longa, onde a concorrência é baixa. Quando um site se especializa em um tópico muito específico, mesmo que não seja tecnicamente otimizado, pode se destacar por falta de concorrência direta. O Google valoriza a relevância do conteúdo para consultas específicas, e sites que abordam temas de nicho podem facilmente conquistar boas posições.

Mesmo sites com conteúdo limitado ou menos backlinks podem se sair melhor em consultas muito direcionadas, onde o conteúdo principal é alinhado diretamente com as necessidades dos usuários.

Exemplos do mundo real

Há muitos casos em que, mesmo com a nova busca do Google SGE, encontramos sites aparentemente "fracos" bem posicionados. Um exemplo notável são sites com backlinks ruins que, após passar por um processo de disavow, subiram nas classificações. Isso mostra que uma limpeza cuidadosa de backlinks pode ter um impacto positivo, independentemente de quão otimizado seja o site.

Existem alguns exemplos de sites que, apesar de terem pouco conteúdo ou backlinks, conseguiram boas classificações devido a sua rede social ativa. Essas plataformas sociais geram tráfego e interações que sinalizam ao Google que o site está em alta, resultando em uma melhor posição nas SERPs.

Em outro teste com um colega percebemos que os comentários no blog em algumas serps mesmo com SGE, ainda conseguem fazer diferença no posicionamento.

Alterações no código e estrutura das páginas tem impacto nas posições junto aos buscadores?

Espero que tenha curtido o conteúdo sobre:
Por que sites não otimizados podem ter uma boa classificação nos mecanismos de pesquisa?
Em SEO temos diversos artigos sobre este tema. Recomendo :)

Claudio Gomes

Criei o Blog Marketing Online para falar sobre negócios online e offline. Trabalho com internet marketing e negócios online alguns anos e consegui acumular muitas informações e formas de ganhar dinheiro online.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Go up