0
A
回答
1
報價Wikipedia:
機器人排除標準沒有提及在不允許的字符「*」任何東西:語句。一些抓取工具如Googlebot和Slurp可以識別包含「*」的字符串,而MSNbot和Teoma則以不同的方式對其進行解釋。
可在cited source中找到其他的研究。
相關問題
- 1. robots.txt的使用
- 2. 如何使用Python 2.7遵守robots.txt?
- 3. 如何使用Nokogiri來尊重Robots.txt?
- 4. 如何使用Perl Dancer服務robots.txt
- 5. 如何使用PHP解析robots.txt文件?
- 6. 如何用.htaccess替換robots.txt
- 7. 如何在robots.txt中禁用$ disallow指令?
- 8. robots.txt中
- 9. 如何在gitlab和apache +子域中使用robots.txt?
- 10. 如何使用robots.txt禁止Codeigniter中的某個控制器
- 11. 不允許在robots.txt中使用Cobrand嗎?
- 12. 在Yii框架中使用robots.txt
- 13. 如何抓住robots.txt禁止?
- 14. 我如何服從robots.txt
- 15. 如何路由到robots.txt?
- 16. 如何修改Plone中的robots.txt?
- 17. 如何禁用着陸頁使用robots.txt文件?
- 18. 座robots.txt中
- 19. 如何使用robots.txt停止漫遊器爬行分頁?
- 20. 如何使用robots.txt僅允許抓取工具訪問index.php?
- 21. 如何在服務器上禁止的目錄使用robots.txt
- 22. 如何禁止使用robots.txt爲所有子域指定索引?
- 23. AppEngine中的Robots.txt Java
- 24. 通配符robots.txt中
- 25. 使用導軌呈現動態robots.txt
- 26. 使用robots.txt來阻止/?param = X
- 27. Nginx的:服務的robots.txt使用別名
- 28. Robots.txt,禁止使用多語言URL
- 29. 使用robots.txt阻止一個域
- 30. 使用「禁止:/ *?」在robots.txt文件