bandicam 2018-03-14 21-54-41-214.jpg
「Robots: robots.txt にアクセスできない」とアドセンス画面に表示されたり
Search Console(サーチコンソール)のメッセージに
「サイトの robots.txt ファイルにアクセスできなかったため、
サイトをクロールすることができませんでした。」と
エラーになってしまう時の一つの解決法を紹介したいと思います。

今回はワードプレスでAdSenseブログを運営している人向けです。
僕が実行した解決策は
robots.txt ファイルを作成して
FTPでドメイン直下に robots.txt ファイルを置く。
ということをしました。


クローラーエラーだと広告が表示されない!?


まず環境を説明しますね。
サーバーはロリポップ
独自ドメインをワードプレスで運営
最近SSL化した。
このような状況で
robots.txt にアクセスできない
というエラーメッセージがでました。
すると広告も表示されなくなり
アクセスもどんどん下がっていったので
あわてて調べて何とか解決した感じです。

なので実際のところよくわかっていません^^;
備忘録的にまとめたので一応自己責任でお願いします。


【問題の流れ】
AdSenseが何か表示されていない。
収益がどんどん下がっている・・と思ったらクローラーエラーが。。。。

【管理画面のメッセージからの流れ↓】
広告クローラのエラーが生じており、収益の損失が発生する可能性があります。

「操作」

クローラが [ブロックされた URL] 列に記載されたページにアクセスできず、
コンテンツを分析して広告を表示することができません。
各ドメインの横のプラス アイコンをクリックして、
ブロックされている URL の詳しいリストをご覧ください。
クローラがコンテンツにアクセスできないと、
広告が表示されないため、広告の収益と掲載率は低下します。
[エラー] 列のリンクをクリックしてエラーを修正する方法をご確認ください

ブロックされたURL
https://○○
ブロックURLは100個以上

エラー
Robots: robots.txt にアクセスできない


【解決策】
クローラのページへのアクセスを許可するように robots.txt ファイルを更新するには、
robots.txt ファイルから次の 2 行のテキストを削除します。

User-agent: Mediapartners-Google
Disallow: /


bandicam 2018-03-11 22-17-59-011.jpg
とまぁ、
Googleさんの提示する解決策は
何を言っているのか全然わからないのですが
お金が関わると必死になるものですね・・・


最初はサイトのURLを更新サービスに送信したり
サーチコンソールにサイトを登録したりみましたが
サーチコンソールでも
「サイトの robots.txt ファイルにアクセスできなかったため、
サイトをクロールすることができませんでした。」
と表示されたので、結局のところ
Google のクローラが robots.txt にアクセスできるようにする
方法を探し出さなければなりませんでした。


仮想robots.txtが自動生成されているらしい?


何でもワードプレスのインストール時に
robots.txtは仮想robots.txtとして自動生成されているみたいです。
robots.txtはクローラーに対して制限をかけたりする役割で
さっきの

User-agent: Mediapartners-Google
Disallow: /

というのは
Googleのクローラーを巡回させないという指示なんです。
そのコードを消して。ということなんですね。
でも仮想なのでtxtファイルがないのです。


robots.txtの確認の仕方は
ブラウザからhttps://ドメイン名/robots.txt


で確認できるのですが
ワードプレスのパーマメント設定がデフォルト状態だと
404エラーになってしまうので
パーマメントの設定を一番上のデフォルト状態から下のどれか、
カスタムにでもすれば解消します。
bandicam 2018-03-22 12-15-41-783.jpg

ちなみに僕はそれでも確認できませんでした。
どうも仮想robots.txtがないみたいです。
もうね、全然意味がわからない(泣)


robots.txt の作成と設置


無い物は作れ!
ということで仮想robots.txtがないのなら
robots.txtファイルをつくりましょうか。
ということになりまして
調べてみるとテキストファイル(メモ帳)に
robots.txtという名前でドメインに置けばいいみたいです。

例え仮想robots.txt があっても
実際のrobots.txtファイルが優先されるみたいなので
じゃあやるかと。

User-agent:
Disallow: /ワードプレスのファイル

と一部クロールさせない指示を入れてみました。
一旦解消されたんですが1日後再びエラーになったので
全部許可するという意味の

User-agent: *
Allow: /

にするかと迷いましたが
空のファイルでもいいという記事を見かけましたので
空のrobots.txtファイルを置きました。


メモ帳開いて保存時に
ファイル名robots.txtにするだけです。


【ロリポップでrobots.txtをドメインに置く流れ】
ロリポップにログインしてロリポップ!FTPへ
bandicam 2018-03-14 21-06-23-843.jpg

該当するドメイン直下へアクセスする
bandicam 2018-03-14 21-06-48-750.jpg

メモ帳で作成したrobots.txtをアップロードする
bandicam 2018-03-22 12-23-41-767.jpg

robots.txtが設置されました。
bandicam 2018-03-14 21-07-27-681.jpg


1日後AdSense画面を確認してみるとエラーが解消されてました。
サーチコンソールの方も
”Google が Search Console で
お客様のウェブサイトの Google 検索でのインプレッション数の収集を
開始したことを Google のシステムが確認しました。”
という通知がきてエラーが解消されたみたいです。多分。

如何でしたでしょうか?
・ロリポップで
・SSL化してから
・AdSense画面で
・サーチコンソールで
クローラーエラーの表示が出たら参考にしてみて下さい。
備考
今度は新たにサーチコンソールで
「インデックス カバレッジ」の問題が新たに 検出されました
というエラーがでました。うんざり。
これの対処法はプラグインのXML Sitemap の設定の
HTML形式でのサイトマップを含めるの
チェックを外すことらしいのですが・・・どうなることやら^^;