1
A
回答
3
這取決於機器人。
遵循原始robots.txt規範的機器人不會給*
任何特殊含義。這些漫遊器會阻止以/*
開頭的任何URL,緊接着是?
,例如http://example.com/*?foo
。
一些機器人,包括Googlebot,給*
人物帶來了特殊的含義。它通常代表任何字符序列。這些漫遊器會阻止你似乎打算:任何URL與?
。
Google’s robots.txt documentation包括這個非常情況下:
爲了阻止訪問包括問號(
?
)的所有URL。例如,示例代碼會禁止訪問以您的域名開頭,後接任意字符串,然後是問號,並與任意字串:User-agent: Googlebot Disallow: /*?
相關問題
- 1. 允許和禁止在robots.txt文件中
- 2. robots.txt禁止哪些文件夾 - SEO?
- 3. 禁止特定的文件夾中使用通配符的robots.txt
- 4. Robots.txt,禁止使用多語言URL
- 5. 使用robots.txt禁止或禁止子域名
- 6. 如何抓住robots.txt禁止?
- 7. 的robots.txt禁止:蜘蛛
- 8. 將Drupal robots.txt禁止仍記錄在Apache日誌文件?
- 9. 我可以使用robots.txt禁止電子郵件地址嗎?
- 10. 禁止在robots.txt中使用動態網頁
- 11. 如何在服務器上禁止的目錄使用robots.txt
- 12. 禁止MVC中的robots.txt文件的操作
- 13. 如何禁用着陸頁使用robots.txt文件?
- 14. 在html文件中禁止使用javascript
- 15. 的robots.txt和通配符OD禁止
- 16. 如何禁止從robots.txt搜索頁面
- 17. 禁止robots.txt中的特定網址
- 18. 如何使用robots.txt禁止Codeigniter中的某個控制器
- 19. robots.txt中應該禁止使用sitemap嗎?和robot.txt本身?
- 20. 如何禁止使用robots.txt爲所有子域指定索引?
- 21. 是否需要在robots.txt中單獨禁止相關的子文件夾?
- 22. 得到禁止使用robots.txt:scrapy
- 23. 禁用robots.txt檢查nutch
- 24. robots.txt文件
- 25. 如何使用PHP解析robots.txt文件?
- 26. 如何在robots.txt中禁用$ disallow指令?
- 27. robots.txt:如何禁止所有子目錄,但允許父文件夾
- 28. Nginx塊robots.txt文件
- 29. 使用robots.txt來阻止/?param = X
- 30. 使用robots.txt阻止一個域