-1
A
回答
0
你不禁止任何事情。 robots.txt只是webcrawlers的一套準則,可以選擇是否遵循它們。
粗魯的爬蟲當然應該被禁止IP。但是你無法避免webcrawler可能會遇到該頁面。無論如何,你可以將它添加到你的robots.txt和谷歌webcrawler可能服從。
相關問題
- 1. 鏈接忽略我的oauth_callback
- 2. 忽略網站
- 3. 忽略列中的鏈接
- 4. 如何忽略網站某些部分的CSS img樣式?
- 5. UITapGestureRecognizer忽略網頁鏈接請求
- 6. 忽略我重寫規則的鏈接
- 7. 鏈接我的網站
- 8. 如何將移動網站鏈接到我的PC版網站
- 9. 我如何從Python網站抓取網站上的pdf鏈接
- 10. 如何讓Git忽略符號鏈接?
- 11. 如何讓mercurial忽略符號鏈接?
- 12. 我們如何忽略Java中的一些SonarQube規則?
- 13. 我該如何忽略Xcode中的一些錯誤?
- 14. 春忽略某些網址
- 15. 如何將我的網站鏈接與cname鏈接?
- 16. 我如何忽略在UIWebView中按住鏈接一秒的actionSheet的動作
- 17. 我如何鏈接到我的網站中的.mp4視頻?
- 18. 使用Tab鍵導航時,我可以忽略一些網站元素嗎?
- 19. 我有一個網站的鏈接如何從網站下載所有文件?
- 20. 網站的鏈接,從我的網頁
- 21. 如何讓pyflakes忽略一些錯誤?
- 22. 如何忽略一些Tkinter碰撞?
- 23. git status:如何忽略一些變化
- 24. 傑克遜,如何忽略一些值
- 25. 如何忽略一些rails_best_practices gem警告?
- 26. SVN - 忽略符號鏈接
- 27. 如何通過鏈接更改我網站的一部分?
- 28. 忽略包含在鏈接中的@mentions
- 29. 忽略TortoiseHG中的符號鏈接
- 30. 忽略.gitignore中的符號鏈接