2012-12-04 97 views

回答

2

您是否嘗試刪除*/ads_count之前的(*)? 至於SEO谷歌文檔說,如果你想阻止所有的機器人,它就像ü沒有:

User-agent: * // (to whom? (*) means all bots! 
Disallow: /ads_count 

請注意,指令區分大小寫。例如,Disallow:/junk_file.asp會阻止http://www.example.com/junk_file.asp,但允許http://www.example.com/Junk_file.asp。 Googlebot會忽略robots.txt中的空格(特別是空行)和未知指令。

+0

防爆我的網址:http://www.abc.com/ads_count/?u=213&a=9 所以我儘量禁止所有機器人遵守所有的URL */ADS_COUNT/* 難道我做錯了什麼? –

+0

嘗試添加User-agent:* Disallow:/ ads_count * /(它應該阻止ads_count的所有子目錄 – periback2

+0

請查看以下網址:http://support.google.com/webmasters/bin/answer.py? hl = zh-CN&hlrm = pt-BR&answer = 156449 – periback2

0

AllowDisallow通配符*不是原來的robots.txt規範的一部分,因此並非所有的robots.txt解析器會知道/注意這些規則。

如果你想阻止開始/ads_count/所有頁面,你只需要:

User-agent: * 
Disallow: /ads_count/ 

但是:不是所有的機器人尊重的robots.txt。所以你仍然可以通過忽略robots.txt的糟糕機器人獲得點擊量。

相關問題