2014-12-08 76 views
0

我發現我的谷歌應用程序引擎的網站正在被大量的機器人(如Baido和Ahrefs)的抓取,而且他們吃的都是我的帶寬和數據存儲讀取的OPS 。停止機器人

我知道只是一個普通的自託管的網站,我會把一個robots.txt在我的基地文件夾,但究竟怎麼做,我告訴漫遊器不要抓取我的網站在谷歌應用程序引擎?如果這有所作爲,我正在運行python和jinja 2。

謝謝。

回答

3

app.yaml

- url: /robots.txt 
    static_files: static/robots.txt 
    upload: static/robots.txt 

這樣做,那麼,只要你在你的項目中static/robots.txt,你是好去。

+1

謝謝。只是添加(因爲這對我來說是錯誤的),這必須在' - url:/.*'之上,否則它會被跳過。 – 2014-12-08 19:09:45

+0

點(」。‘)需要在‘URL’和‘上傳’,因爲他們是正則表達式(’反斜槓轉義 - 網址:/robots\.txt static_files:靜態/ robots.txt的 上傳:靜態/ robots \ .txt「) – Chris 2015-02-01 16:17:07

+0

從技術上講,這是正確的。但在這種情況下,這不太可能導致問題。在這裏平衡一下,我精確地講清楚了。 – 2015-02-01 17:28:25