O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog

6

O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog? Aprenda agora como resolver essa mensagem.

Recentemente muitos blogueiros estão recebendo uma dessas mensagens surpresa no e-mail.

O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog

O Googlebot não acessa arquivos CSS e JS em seu blog

Quando eu recebi o e-mail logo pensei que era spam e estava quase apagando quando resolvi abrir e olhar o conteúdo e para minha surpresa não era spam e estava escrito em caixa alta O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog.

Atualmente tenho seis blogs e recebi essa mensagem de dois blogs e vou fazer as mesmas alterações nos outros já deixando preparados.

Boa parte dos blogueiros vem recebendo essa mensagem abaixo.

Para: Webmaster do site

Para: webmaster de . Os sistemas do Google detectaram recentemente um problema com a sua página inicial que afeta a qualidade com que os nossos algoritmos processam e indexam o seu conteúdo. Em particular, o Googlebot não consegue aceder aos seus ficheiros JavaScript e/ou CSS devido a restrições no ficheiro robots.txt. Estes ficheiros ajudam o Google a perceber que o seu Website funciona corretamente, pelo que bloquear o acesso a estes recursos pode resultar em classificações menos favoráveis.

googlebot

Existem algumas variações nas mensagens de e-mails como:

O Googlebot não consegue acessar seus arquivos JavaScript e/ou CSS

O Googlebot não acessa arquivos CSS e JS em seu blog

O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog

Se receber com algumas dessas variações todas tem o mesmo sentido.

Logo pensei o Google mais uma vez mudou alguma coisa e vou ter que alterar um monte de coisas e olhei com calma a mensagem para entender.

O Google agora requer acesso aos arquivos CSS e JS que tens no site e foi publicado no Blog do Google.

Após ler e entender o e-mail fui resolver o problema e pode resolver de duas formas simples.

A primeira é um pouco mais demorada.

Entrar no Search Console do Google que é o antigo Ferramentas para webmasters.

– Entra no seu Search Console

Se tiver cadastrado mais de um blog clica em cima do que recebeu a mensagem por e-mail.

– Clica em Índice do Google

– Clica em Recursos bloqueados e verifica o que esta sendo bloqueado.

No meu caso estava:

Host: harmonianatureza.com.br – Páginas afetadas 231

Cliquei em cima do link harmonianatureza.com.br e mostrou tudo que estava sendo bloqueado pelo robots.txt que o Google não estava conseguindo acessar.

Nesse processo é necessário clicar em cima de cada uma das URLS bloqueadas e vai abrir uma nova janela.

Basta clicar na opção Testar robots.txt e vai direcionar para outra página com uma marcação em negrito avisando o que precisa remover do seu robots.txt.

Eu apaguei a linha que estava sendo acusada como bloqueada e logo abaixo cliquei na opção ENVIAR e também alterei no meu robots.txt e fiz upload novamente para o meu serviço de hospedagem.

Segunda opção bem rápido e fácil.

Uso WordPress nos meus blogs e uso o plugin SEO By Yoast.

Caso você use o plugin SEO Yoast Acesse a área administrativa do seu blog cliquei no plugin SEO Yoast e clique na opção Ferramentas e clique na opção EDITOR DE ARQUIVOS e vai aparecer essa tela abaixo com as suas configurações do robots.

robots

Um grande detalhe que na primeira dica que eu passo e vai acusar se você estiver bloqueando /wp-includes/ precisa remover essa linha do seu robots.txt e salvar no Search Console e no seu blog.

No meu caso ele acuso essas 3 linhas no Search Console e vai acusar quem estiver bloqueando no robots e logo removi.

Disallow: /wp-includes/
Disallow: /wp-content/
Disallow: /wp-content/plugins/

Com essa linha Disallow: /wp-includes/ estava bloqueando os bots de acessar o meu site CSS & arquivo JS.

Voltando ao plugin SEO Yoast remova toda linha que estiver sendo bloqueada e mostrou no Search Console conforme o primeiro teste que expliquei e altere o seu sitemap para:

Sitemap: http://xxxxxx/sitemap_index.

Onde está xxxx coloque a URL do seu blog.

Se tiver dúvida veja como ficou o meu robots

No próprio plugin SEO Yoast conforme explicação acima você pode alterar tudo que precisar do seu robots automaticamente logo após verifique se o robots do seu site também mudou e caso não tenha sido alterado precisa fazer o upload novamente do robots.txt para o serviço de hospedagem.

Outra situação que também poderá acontecer com lojas virtuais com serviços (hospedagem) compartilhadas.

Normalmente lojas virtuais com serviços compartilhados você não tem acesso ao FTP e Robots e precisa pedir ao suporte da hospedagem para resolver (atualizar) para as novas regras do Google e caso o suporte não resolva faça as mudanças direto no Google Webmaster Tools como ensinei e veja se vai ser aceito pelo Google, pois você vai ter um Robots.txt atualizado no Google e um desatualizado na sua loja virtual caso a hospedagem não faça as alterações necessárias.

Esse é um caso real de um Robots antigo com vários bloqueios de uma loja virtual com serviço compartilhado.

# Directories

Disallow: /404/

Disallow: /app/

Disallow: /cgi-bin/

Disallow: /downloader/

Disallow: /includes/

Disallow: /js/

Disallow: /lib/

Disallow: /magento/

Disallow: /pkginfo/

Disallow: /report/

Disallow: /skin/

Disallow: /stats/

Disallow: /var/

# Paths (clean URLs)

Disallow: /index.php/

Disallow: /catalog/product_compare/

Disallow: /catalog/category/view/

Disallow: /catalog/product/view/

Disallow: /catalogsearch/

Disallow: /checkout/

Disallow: /control/

Disallow: /contacts/

Disallow: /customer/

Disallow: /customize/

Disallow: /newsletter/

Disallow: /poll/

Disallow: /review/

Disallow: /sendfriend/

Disallow: /tag/

Disallow: /wishlist/

# Files

Disallow: /cron.php

Disallow: /cron.sh

Disallow: /error_log

Disallow: /install.php

Disallow: /LICENSE.html

Disallow: /LICENSE.txt

Disallow: /LICENSE_AFL.txt

Disallow: /STATUS.txt

# Paths (no clean URLs)

Disallow: /*.js$

Disallow: /*.css$

Disallow: /*.php$

Disallow: /*?p=*&

Disallow: /*?SID=

O primeiro passo foi testar a loja virtual no site Page Speed para ver se era compatível com serviço mobile e na hora descobri que não era e já tinha um ponto negativo e não poderia fazer nada por depender nesse caso da hospedagem para atualizar a loja virtual.

Se precisar de mais informações para saber se o site, blog ou loja virtual é compatível leia o artigo Mobile o seu blog esta preparado?

Próximo passo foi descobrir onde era o bloqueio acusado pelo Google.

Nesse caso era no /media/js/ e /skin/frontend/ removi do Robots do Google e pedi para a cliente informar a hospedagem e ver se resolveria (atualizar) o que estava sendo usado na hospedagem.

E de qualquer forma removi algumas outras linhas do Robots por não serem mais necessários os bloqueios que era usado alguns anos.

Por que o Google bots precisa acessar CSS e JS?

Antes o Google não acessava os arquivos CSS e JS, porém não é tipicamente uma parte do conteúdo.

Conforme o próprio site do Google deu como resposta sobre CSS e JS fiz uma tradução.

Uma página web depende da disponibilidade de my_script.js , que normalmente é executado por navegadores da web para fornecer o conteúdo textual da página. Se o my_script.js é bloqueado o Google, não será capaz de obter o conteúdo do texto quando o Googlebot processa a página web.

Abaixo deixo um vídeo de Matt Cutts onde compartilhou porque você não deve bloquear o Javascript e CSS o vídeo esta em inglês.


Após ter feito qualquer uma das dicas que passei dou uma dica final.

Entre novamente no seu Search Console.

– Clique em Rastreamento
– Clica em Buscar como o Google

Na próxima tela deixe somente a sua URL exemplo clique na opção Buscar e Reinderizar.

Quanto tempo o Google leva para corrigir e tira essa mensagem?

Agora tudo depende do Google em alguns casos poderá até ser rápido.

Você também recebeu esse e-mail ou similar? Poste a sua dúvida ou como resolveu.

5/5 - (8 votes)
6 Comentários
  1. Priscila Diz

    Olá.
    Pode me ajudar?

    Tenho paginas bloqueadas por robôs e deve ser exatamente por este erro que comentou, mas não consigo saber quais são. Onde verifico dentro do Google webmaster? Para mim não aparece. O meu blog é no blogger.

    obrigada

    1. Claudio Gomes Diz

      Priscila
      Recebeu um email do Google avisando do erro?
      Qual foi a mensagem?
      Você cadastrou o seu blog no G. Webmaster Tools?
      Se cadastrou abra o G. Webmaster Tools (Search Console) e terá alguma mensagem avisando sobre o erro no robots.txt.
      Para encontrar o robots abra opção “Rastreamento” – “Testar robots.txt”.
      Qualquer dúvida faça contato.

  2. mario Diz

    Boa tarde, fiz o procedimento conforme foi publicado. Segui o modelo do site que você publicou (harmonia natureza) mas fiquei com uma dúvida: No procedimento você indica para alterar no robots o endereço do sitemap. É somente no robots que devo fazer esta alteração? Pergunto pois, no caso, no google console consta comowww.xxxx/sitemap.xml. Não ocorrerá conflito? será alterado automaticamente? Obrigado.

    1. Claudio Gomes Diz

      Mario Não entendi muito bem a sua pergunta. Vou responder conforme entendi. Se você usa algum plugin para criar o seu sitemap vai colocar no robots esse link criado pelo plugin ou mesmo se foi criado manualmente esse link é o que vai colocar no robots.

      A mudança do link é somente no robots.

      O que estiver atual no Search Console apaga e coloca esse novo.

  3. Henrique Diz

    Boa, gostei do artigo mas tenho uma duvida.
    Estou a ter o mesmo problema no blog senhorfaztudo.pt que está no blogspot.
    Entretanto com a nova search console não consigo ir aos recursos bloqueados.
    Que posso fazer ?
    Actualmente para além do Google não aceder ao robots txt (senhorfaztudo.pt/robots.txt), também não consegue ler os meus sitemaps (senhorfaztudo.pt/sitemap.xml) e não consigo adicionar novas páginas ou posts manualmente, dando erro que o Google não reconhece o url.
    Alguma ideia do que possa ser ?
    Agradecia muito sua ajuda !
    Obrigado

    1. Claudio Gomes Diz

      Henrique já testou com outro plugin de sitemap? Não precisa ir até os recursos bloqueados (antigo) basta somente mandar rastrear novamente a url depois da mudança feita. E o seu sitemap não esta abrindo esta mandando fazer downline.

Deixe uma resposta

Seu endereço de email não será publicado.

Este site usa cookies para melhorar sua experiência. Presumiremos que você está ok com isso, mas você pode cancelar se desejar. Aceitar Consulte mais informações