クローラーがrobots.txtを巡回しないため、毎回手動で再送信をしています。 robots.txtの内容はマスターツールで確認してもエラーもなく正常に表示されています。 あとは制限などをしている可能性があるのはhtaccessくらいですが、robots.txtの巡回を妨げるようなものはあるのでしょうか? 何か理由がお分かりの方がいましたらアドバイスをお願いします。
↧