0
我發現我的谷歌應用程序引擎的網站正在被大量的機器人(如Baido和Ahrefs)的抓取,而且他們吃的都是我的帶寬和數據存儲讀取的OPS 。停止機器人
我知道只是一個普通的自託管的網站,我會把一個robots.txt在我的基地文件夾,但究竟怎麼做,我告訴漫遊器不要抓取我的網站在谷歌應用程序引擎?如果這有所作爲,我正在運行python和jinja 2。
謝謝。
我發現我的谷歌應用程序引擎的網站正在被大量的機器人(如Baido和Ahrefs)的抓取,而且他們吃的都是我的帶寬和數據存儲讀取的OPS 。停止機器人
我知道只是一個普通的自託管的網站,我會把一個robots.txt在我的基地文件夾,但究竟怎麼做,我告訴漫遊器不要抓取我的網站在谷歌應用程序引擎?如果這有所作爲,我正在運行python和jinja 2。
謝謝。
在app.yaml
- url: /robots.txt
static_files: static/robots.txt
upload: static/robots.txt
這樣做,那麼,只要你在你的項目中static/robots.txt
,你是好去。
謝謝。只是添加(因爲這對我來說是錯誤的),這必須在' - url:/.*'之上,否則它會被跳過。 – 2014-12-08 19:09:45
點(」。‘)需要在‘URL’和‘上傳’,因爲他們是正則表達式(’反斜槓轉義 - 網址:/robots\.txt static_files:靜態/ robots.txt的 上傳:靜態/ robots \ .txt「) – Chris 2015-02-01 16:17:07
從技術上講,這是正確的。但在這種情況下,這不太可能導致問題。在這裏平衡一下,我精確地講清楚了。 – 2015-02-01 17:28:25