O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog
O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog? Aprenda agora como resolver essa mensagem.
Recentemente muitos blogueiros estão recebendo uma dessas mensagens surpresa no e-mail.
O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog
O Googlebot não acessa arquivos CSS e JS em seu blog
Quando eu recebi o e-mail logo pensei que era spam e estava quase apagando quando resolvi abrir e olhar o conteúdo e para minha surpresa não era spam e estava escrito em caixa alta O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog.
Atualmente tenho seis blogs e recebi essa mensagem de dois blogs e vou fazer as mesmas alterações nos outros já deixando preparados.
Boa parte dos blogueiros vem recebendo essa mensagem abaixo.
Para: Webmaster do site
Para: webmaster de . Os sistemas do Google detectaram recentemente um problema com a sua página inicial que afeta a qualidade com que os nossos algoritmos processam e indexam o seu conteúdo. Em particular, o Googlebot não consegue aceder aos seus ficheiros JavaScript e/ou CSS devido a restrições no ficheiro robots.txt. Estes ficheiros ajudam o Google a perceber que o seu Website funciona corretamente, pelo que bloquear o acesso a estes recursos pode resultar em classificações menos favoráveis.
Existem algumas variações nas mensagens de e-mails como:
O Googlebot não consegue acessar seus arquivos JavaScript e/ou CSS
O Googlebot não acessa arquivos CSS e JS em seu blog
O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog
Se receber com algumas dessas variações todas tem o mesmo sentido.
Logo pensei o Google mais uma vez mudou alguma coisa e vou ter que alterar um monte de coisas e olhei com calma a mensagem para entender.
O Google agora requer acesso aos arquivos CSS e JS que tens no site e foi publicado no Blog do Google.
Após ler e entender o e-mail fui resolver o problema e pode resolver de duas formas simples.
A primeira é um pouco mais demorada.
Entrar no Search Console do Google que é o antigo Ferramentas para webmasters.
- Entra no seu Search Console
Se tiver cadastrado mais de um blog clica em cima do que recebeu a mensagem por e-mail.
- Clica em Índice do Google
- Clica em Recursos bloqueados e verifica o que esta sendo bloqueado.
No meu caso estava:
Host: harmonianatureza.com.br – Páginas afetadas 231
Cliquei em cima do link harmonianatureza.com.br e mostrou tudo que estava sendo bloqueado pelo robots.txt que o Google não estava conseguindo acessar.
Nesse processo é necessário clicar em cima de cada uma das URLS bloqueadas e vai abrir uma nova janela.
Basta clicar na opção Testar robots.txt e vai direcionar para outra página com uma marcação em negrito avisando o que precisa remover do seu robots.txt.
Eu apaguei a linha que estava sendo acusada como bloqueada e logo abaixo cliquei na opção ENVIAR e também alterei no meu robots.txt e fiz upload novamente para o meu serviço de hospedagem.
Segunda opção bem rápido e fácil.
Uso WordPress nos meus blogs e uso o plugin SEO By Yoast.
Caso você use o plugin SEO Yoast Acesse a área administrativa do seu blog cliquei no plugin SEO Yoast e clique na opção Ferramentas e clique na opção EDITOR DE ARQUIVOS e vai aparecer essa tela abaixo com as suas configurações do robots.
Um grande detalhe que na primeira dica que eu passo e vai acusar se você estiver bloqueando /wp-includes/ precisa remover essa linha do seu robots.txt e salvar no Search Console e no seu blog.
No meu caso ele acuso essas 3 linhas no Search Console e vai acusar quem estiver bloqueando no robots e logo removi.
Disallow: /wp-includes/
Disallow: /wp-content/
Disallow: /wp-content/plugins/
Com essa linha Disallow: /wp-includes/ estava bloqueando os bots de acessar o meu site CSS & arquivo JS.
Voltando ao plugin SEO Yoast remova toda linha que estiver sendo bloqueada e mostrou no Search Console conforme o primeiro teste que expliquei e altere o seu sitemap para:
Sitemap: http://xxxxxx/sitemap_index.
Onde está xxxx coloque a URL do seu blog.
Se tiver dúvida veja como ficou o meu robots
No próprio plugin SEO Yoast conforme explicação acima você pode alterar tudo que precisar do seu robots automaticamente logo após verifique se o robots do seu site também mudou e caso não tenha sido alterado precisa fazer o upload novamente do robots.txt para o serviço de hospedagem.
Outra situação que também poderá acontecer com lojas virtuais com serviços (hospedagem) compartilhadas.
Normalmente lojas virtuais com serviços compartilhados você não tem acesso ao FTP e Robots e precisa pedir ao suporte da hospedagem para resolver (atualizar) para as novas regras do Google e caso o suporte não resolva faça as mudanças direto no Google Webmaster Tools como ensinei e veja se vai ser aceito pelo Google, pois você vai ter um Robots.txt atualizado no Google e um desatualizado na sua loja virtual caso a hospedagem não faça as alterações necessárias.
Esse é um caso real de um Robots antigo com vários bloqueios de uma loja virtual com serviço compartilhado.
# Directories
Disallow: /404/
Disallow: /app/
Disallow: /cgi-bin/
Disallow: /downloader/
Disallow: /includes/
Disallow: /js/
Disallow: /lib/
Disallow: /magento/
Disallow: /pkginfo/
Disallow: /report/
Disallow: /skin/
Disallow: /stats/
Disallow: /var/
# Paths (clean URLs)
Disallow: /index.php/
Disallow: /catalog/product_compare/
Disallow: /catalog/category/view/
Disallow: /catalog/product/view/
Disallow: /catalogsearch/
Disallow: /checkout/
Disallow: /control/
Disallow: /contacts/
Disallow: /customer/
Disallow: /customize/
Disallow: /newsletter/
Disallow: /poll/
16 dicas para escrever títulos criativos para blogs e crescerDisallow: /review/
Disallow: /sendfriend/
Disallow: /tag/
Disallow: /wishlist/
# Files
Disallow: /cron.php
Disallow: /cron.sh
Disallow: /error_log
Disallow: /install.php
Disallow: /LICENSE.html
Disallow: /LICENSE.txt
Disallow: /LICENSE_AFL.txt
Disallow: /STATUS.txt
# Paths (no clean URLs)
Disallow: /*.js$
Disallow: /*.css$
Disallow: /*.php$
Disallow: /*?p=*&
Disallow: /*?SID=
O primeiro passo foi testar a loja virtual no site Page Speed para ver se era compatível com serviço mobile e na hora descobri que não era e já tinha um ponto negativo e não poderia fazer nada por depender nesse caso da hospedagem para atualizar a loja virtual.
Se precisar de mais informações para saber se o site, blog ou loja virtual é compatível leia o artigo Mobile o seu blog esta preparado?
Próximo passo foi descobrir onde era o bloqueio acusado pelo Google.
Nesse caso era no /media/js/ e /skin/frontend/ removi do Robots do Google e pedi para a cliente informar a hospedagem e ver se resolveria (atualizar) o que estava sendo usado na hospedagem.
E de qualquer forma removi algumas outras linhas do Robots por não serem mais necessários os bloqueios que era usado alguns anos.
Por que o Google bots precisa acessar CSS e JS?
Antes o Google não acessava os arquivos CSS e JS, porém não é tipicamente uma parte do conteúdo.
Conforme o próprio site do Google deu como resposta sobre CSS e JS fiz uma tradução.
Uma página web depende da disponibilidade de my_script.js , que normalmente é executado por navegadores da web para fornecer o conteúdo textual da página. Se o my_script.js é bloqueado o Google, não será capaz de obter o conteúdo do texto quando o Googlebot processa a página web.
Abaixo deixo um vídeo de Matt Cutts onde compartilhou porque você não deve bloquear o Javascript e CSS o vídeo esta em inglês.
Após ter feito qualquer uma das dicas que passei dou uma dica final.
Entre novamente no seu Search Console.
- Clique em Rastreamento
- Clica em Buscar como o Google
Na próxima tela deixe somente a sua URL exemplo clique na opção Buscar e Reinderizar.
Quanto tempo o Google leva para corrigir e tira essa mensagem?
Agora tudo depende do Google em alguns casos poderá até ser rápido.
Página de Captura Grátis – Aprenda Criar a Sua Passo a PassoVocê também recebeu esse e-mail ou similar? Poste a sua dúvida ou como resolveu.
Espero que tenha curtido o conteúdo sobre:
O Googlebot não consegue aceder a ficheiros CSS e JS em seu blog
Em DICAS BLOGS temos diversos artigos sobre este tema. Recomendo :)
Boa tarde, fiz o procedimento conforme foi publicado. Segui o modelo do site que você publicou (harmonia natureza) mas fiquei com uma dúvida: No procedimento você indica para alterar no robots o endereço do sitemap. É somente no robots que devo fazer esta alteração? Pergunto pois, no caso, no google console consta comowww.xxxx/sitemap.xml. Não ocorrerá conflito? será alterado automaticamente? Obrigado.
Boa, gostei do artigo mas tenho uma duvida.
Estou a ter o mesmo problema no blog senhorfaztudo.pt que está no blogspot.
Entretanto com a nova search console não consigo ir aos recursos bloqueados.
Que posso fazer ?
Actualmente para além do Google não aceder ao robots txt (senhorfaztudo.pt/robots.txt), também não consegue ler os meus sitemaps (senhorfaztudo.pt/sitemap.xml) e não consigo adicionar novas páginas ou posts manualmente, dando erro que o Google não reconhece o url.
Alguma ideia do que possa ser ?
Agradecia muito sua ajuda !
Obrigado
Deixe um comentário
Olá.
Pode me ajudar?
Tenho paginas bloqueadas por robôs e deve ser exatamente por este erro que comentou, mas não consigo saber quais são. Onde verifico dentro do Google webmaster? Para mim não aparece. O meu blog é no blogger.
obrigada