googlebot-nao-consegue-acessar-ficheiros-css-js

O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog

O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog? Aprenda agora como resolver essa mensagem.

Recentemente muitos blogueiros estão recebendo uma dessas mensagens surpresa no e-mail.

O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog

O Googlebot não acessa arquivos CSS e JS em seu blog

Quando eu recebi o e-mail logo pensei que era spam e estava quase apagando quando resolvi abrir e olhar o conteúdo e para minha surpresa não era spam e estava escrito em caixa alta O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog.

Atualmente tenho seis blogs e recebi essa mensagem de dois blogs e vou fazer as mesmas alterações nos outros já deixando preparados.

Boa parte dos blogueiros vem recebendo essa mensagem abaixo.

Para: Webmaster do site http://harmonianatureza.com.br/

Para: webmaster de http://harmonianatureza.com.br/. Os sistemas do Google detectaram recentemente um problema com a sua página inicial que afeta a qualidade com que os nossos algoritmos processam e indexam o seu conteúdo. Em particular, o Googlebot não consegue aceder aos seus ficheiros JavaScript e/ou CSS devido a restrições no ficheiro robots.txt. Estes ficheiros ajudam o Google a perceber que o seu Website funciona corretamente, pelo que bloquear o acesso a estes recursos pode resultar em classificações menos favoráveis.

googlebot

Existem algumas variações nas mensagens de e-mails como:

O Googlebot não consegue acessar seus arquivos JavaScript e/ou CSS

O Googlebot não acessa arquivos CSS e JS em seu blog

O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog

Se receber com algumas dessas variações todas tem o mesmo sentido.

Logo pensei o Google mais uma vez mudou alguma coisa e vou ter que alterar um monte de coisas e olhei com calma a mensagem para entender.

O Google agora requer acesso aos arquivos CSS e JS que tens no site e foi publicado no Blog do Google.

Após ler e entender o e-mail fui resolver o problema e pode resolver de duas formas simples.

A primeira é um pouco mais demorada.

Entrar no Search Console do Google que é o antigo Ferramentas para webmasters.

– Entra no seu Search Console

Se tiver cadastrado mais de um blog clica em cima do que recebeu a mensagem por e-mail.

– Clica em Índice do Google

– Clica em Recursos bloqueados e verifica o que esta sendo bloqueado.

No meu caso estava:

Host: harmonianatureza.com.br – Páginas afetadas 231

Cliquei em cima do link harmonianatureza.com.br e mostrou tudo que estava sendo bloqueado pelo robots.txt que o Google não estava conseguindo acessar.

Nesse processo é necessário clicar em cima de cada uma das URLS bloqueadas e vai abrir uma nova janela.

Basta clicar na opção Testar robots.txt e vai direcionar para outra página com uma marcação em negrito avisando o que precisa remover do seu robots.txt.

Eu apaguei a linha que estava sendo acusada como bloqueada e logo abaixo cliquei na opção ENVIAR e também alterei no meu robots.txt e fiz upload novamente para o meu serviço de hospedagem.

Segunda opção bem rápido e fácil.

Uso WordPress nos meus blogs e uso o plugin SEO By Yoast.

Caso você use o plugin SEO Yoast Acesse a área administrativa do seu blog cliquei no plugin SEO Yoast e clique na opção Ferramentas e clique na opção EDITOR DE ARQUIVOS e vai aparecer essa tela abaixo com as suas configurações do robots.

robots

Um grande detalhe que na primeira dica que eu passo e vai acusar se você estiver bloqueando /wp-includes/ precisa remover essa linha do seu robots.txt e salvar no Search Console e no seu blog.

No meu caso ele acuso essas 3 linhas no Search Console e vai acusar quem estiver bloqueando no robots e logo removi.

Disallow: /wp-includes/
Disallow: /wp-content/
Disallow: /wp-content/plugins/

Com essa linha Disallow: /wp-includes/ estava bloqueando os bots de acessar o meu site CSS & arquivo JS.

Voltando ao plugin SEO Yoast remova toda linha que estiver sendo bloqueada e mostrou no Search Console conforme o primeiro teste que expliquei e altere o seu sitemap para:

Sitemap: http://xxxxxx/sitemap_index.

Onde está xxxx coloque a URL do seu blog.

Se tiver dúvida veja como ficou o meu robots http://harmonianatureza.com.br/robots.txt

No próprio plugin SEO Yoast conforme explicação acima você pode alterar tudo que precisar do seu robots automaticamente logo após verifique se o robots do seu site também mudou e caso não tenha sido alterado precisa fazer o upload novamente do robots.txt para o serviço de hospedagem.

Outra situação que também poderá acontecer com lojas virtuais com serviços (hospedagem) compartilhadas.

Normalmente lojas virtuais com serviços compartilhados você não tem acesso ao FTP e Robots e precisa pedir ao suporte da hospedagem para resolver (atualizar) para as novas regras do Google e caso o suporte não resolva faça as mudanças direto no Google Webmaster Tools como ensinei e veja se vai ser aceito pelo Google, pois você vai ter um Robots.txt atualizado no Google e um desatualizado na sua loja virtual caso a hospedagem não faça as alterações necessárias.

Esse é um caso real de um Robots antigo com vários bloqueios de uma loja virtual com serviço compartilhado.

# Directories

Disallow: /404/

Disallow: /app/

Disallow: /cgi-bin/

Disallow: /downloader/

Disallow: /includes/

Disallow: /js/

Disallow: /lib/

Disallow: /magento/

Disallow: /pkginfo/

Disallow: /report/

Disallow: /skin/

Disallow: /stats/

Disallow: /var/

# Paths (clean URLs)

Disallow: /index.php/

Disallow: /catalog/product_compare/

Disallow: /catalog/category/view/

Disallow: /catalog/product/view/

Disallow: /catalogsearch/

Disallow: /checkout/

Disallow: /control/

Disallow: /contacts/

Disallow: /customer/

Disallow: /customize/

Disallow: /newsletter/

Disallow: /poll/

Disallow: /review/

Disallow: /sendfriend/

Disallow: /tag/

Disallow: /wishlist/

# Files

Disallow: /cron.php

Disallow: /cron.sh

Disallow: /error_log

Disallow: /install.php

Disallow: /LICENSE.html

Disallow: /LICENSE.txt

Disallow: /LICENSE_AFL.txt

Disallow: /STATUS.txt

# Paths (no clean URLs)

Disallow: /*.js$

Disallow: /*.css$

Disallow: /*.php$

Disallow: /*?p=*&

Disallow: /*?SID=

O primeiro passo foi testar a loja virtual no site Page Speed para ver se era compatível com serviço mobile e na hora descobri que não era e já tinha um ponto negativo e não poderia fazer nada por depender nesse caso da hospedagem para atualizar a loja virtual.

Se precisar de mais informações para saber se o site, blog ou loja virtual é compatível leia o artigo Mobile o seu blog esta preparado?

Próximo passo foi descobrir onde era o bloqueio acusado pelo Google.

Nesse caso era no /media/js/ e /skin/frontend/ removi do Robots do Google e pedi para a cliente informar a hospedagem e ver se resolveria (atualizar) o que estava sendo usado na hospedagem.

E de qualquer forma removi algumas outras linhas do Robots por não serem mais necessários os bloqueios que era usado alguns anos.

Por que o Google bots precisa acessar CSS e JS?

Antes o Google não acessava os arquivos CSS e JS, porém não é tipicamente uma parte do conteúdo.

Conforme o próprio site do Google deu como resposta sobre CSS e JS fiz uma tradução.

Uma página web depende da disponibilidade de my_script.js , que normalmente é executado por navegadores da web para fornecer o conteúdo textual da página. Se o my_script.js é bloqueado o Google, não será capaz de obter o conteúdo do texto quando o Googlebot processa a página web.

Abaixo deixo um vídeo de Matt Cutts onde compartilhou porque você não deve bloquear o Javascript e CSS o vídeo esta em inglês.


Após ter feito qualquer uma das dicas que passei dou uma dica final.

Entre novamente no seu Search Console.

– Clique em Rastreamento
– Clica em Buscar como o Google

Na próxima tela deixe somente a sua URL exemplo http://harmonianatureza.com.br/ clique na opção Buscar e Reinderizar.

Quanto tempo o Google leva para corrigir e tira essa mensagem?

Agora tudo depende do Google em alguns casos poderá até ser rápido.

Você também recebeu esse e-mail ou similar? Poste a sua dúvida ou como resolveu.

O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog
1 (20%) 1 vote
-->Aproveite e cadastre seu email abaixo para receber novas atualizações do site. Após colocar o seu email abaixo vai receber um email de confirmação de cadastro não esqueça de clicar.<--

Receba novidades no seu email:

Delivered by FeedBurner

Claudio Gomes

Empreendedor online e offline. Empreendimentos e negócios. Trabalho com Internet Marketing/Negócios Online alguns anos e consegui acumular muitas informações sobre negócios e formas de ganhar dinheiro online. Trabalho com informática e represento uma empresa de perfumaria e cosméticos.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *


*

4 comentários em “O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog

  1. Olá.
    Pode me ajudar?

    Tenho paginas bloqueadas por robôs e deve ser exatamente por este erro que comentou, mas não consigo saber quais são. Onde verifico dentro do Google webmaster? Para mim não aparece. O meu blog é no blogger.

    obrigada

    1. Priscila
      Recebeu um email do Google avisando do erro?
      Qual foi a mensagem?
      Você cadastrou o seu blog no G. Webmaster Tools?
      Se cadastrou abra o G. Webmaster Tools (Search Console) e terá alguma mensagem avisando sobre o erro no robots.txt.
      Para encontrar o robots abra opção “Rastreamento” – “Testar robots.txt”.
      Qualquer dúvida faça contato.

  2. Boa tarde, fiz o procedimento conforme foi publicado. Segui o modelo do site que você publicou (harmonia natureza) mas fiquei com uma dúvida: No procedimento você indica para alterar no robots o endereço do sitemap. É somente no robots que devo fazer esta alteração? Pergunto pois, no caso, no google console consta comowww.xxxx/sitemap.xml. Não ocorrerá conflito? será alterado automaticamente? Obrigado.

    1. Mario Não entendi muito bem a sua pergunta. Vou responder conforme entendi. Se você usa algum plugin para criar o seu sitemap vai colocar no robots esse link criado pelo plugin ou mesmo se foi criado manualmente esse link é o que vai colocar no robots.

      A mudança do link é somente no robots.

      O que estiver atual no Search Console apaga e coloca esse novo.