Q
谷歌爬蟲時間限制
0
A
回答
0
不要這樣想,但Googlebot便相當頻繁地重新讀取您的robots.txt,所以我不知道它是否會,如果你在一個替代的robots.txt在這些時間交換,例如工作用腳本?
0
您可以建議Googlebots更喜歡較慢的抓取速度(如果您的網站的抓取速度快於最低速率),但這種情況會在90天后生效(請參閱http://www.google.com/support/webmasters/bin/answer.py?hl=en&answer=48620)。
如由谷歌緩存,所以不允許爬行可能導致不被抓取遠遠長於預期該網站更改的robots.txt可能是有問題的。
谷歌有一個以上的機器人類型,這樣你可以有選擇性在該網站的部分適合他們每個人的抓取,使用robots.txt因爲它的目標。見http://www.google.com/support/webmasters/bin/answer.py?answer=40360。
2
您可以使用XML sitemap給予有關適當的抓取頻率提示,但它只是一個提示,並要求特定的日子是不可能的。
相關問題
- 1. PHP網絡爬蟲休息時間,用完了時間限制?
- 2. .htaccess和谷歌爬蟲錯誤
- 3. 自動登錄谷歌網頁爬蟲
- 4. 谷歌爬蟲,cron和笨會議
- 5. 谷歌爬蟲和新聞股票
- 6. 困惑 - html5歷史api和谷歌爬蟲?
- 7. 谷歌爬蟲沒有看到分段的角產生
- 8. 谷歌爬蟲怎麼看jQuery的鏈接重定向
- 9. 谷歌網站管理員API - 將爬蟲標記爲固定
- 10. 用於檢索谷歌搜索結果的Java Web爬蟲
- 11. disqus SEO谷歌爬蟲不加載評論
- 12. 如何構建一個像谷歌一樣強大的爬蟲?
- 13. 如何使用htaccess檢測谷歌,bing,yahoo爬蟲
- 14. 什麼是HTML快照(適用於谷歌爬蟲)
- 15. Appengine Apps VS谷歌機器人網絡爬蟲
- 16. 谷歌爬蟲發現robots.txt,但無法下載
- 17. 谷歌爬行AJAX
- 18. 爲什麼谷歌停止爬行後限制
- 19. Python爬蟲 - html.fromstring
- 20. 網絡爬蟲
- 21. Python的爬蟲?
- 22. 爬蟲實例
- 23. 臨時阻止谷歌爬蟲,它會阻止未來的索引?
- 24. 谷歌索引我的測試文件夾在我的網站:(我如何限制網絡爬蟲!
- 25. Python簡單的網絡爬蟲錯誤(無限循環爬行)
- 26. 多線程網絡爬蟲線程限制
- 27. 限制從網絡爬蟲提取的行
- 28. 瀏覽器限制是否影響網絡爬蟲?
- 29. 谷歌爬行的JavaScript?
- 30. 開源C++爬蟲?
這裏的交換替代,你指的開啓和關閉的Googlebot取決於一天? – pang 2009-07-07 08:21:15