2016-08-18 65 views

回答

0

找到了答案,如果有X-Robots-Tag中集,我必須刪除所有爬行不允許robots.txt中:

機器人元標記和X-Robots-Tag中的HTTP頭被發現時 網址已被抓取。如果不允許某個網頁抓取robots.txt文件,則任何有關索引或提供 指令的信息將不會被發現,因此將被忽略。如果必須遵循 索引或服務指令,則不能禁止那些包含 這些指令的URL進行爬網。

via:https://developers.google.com/webmasters/control-crawl-index/docs/robots_meta_tag#combining-crawling-with-indexing--serving-directives

相關問題