2010-04-29 35 views
1

我有我的服務器上的目錄,我不希望搜索引擎抓取和我已經設置robots.txt中什麼是使某些目錄保密的最佳安全措施?

這個規則我想已經登錄的人能夠訪問該目錄,而不必須輸入密碼或任何東西。

我在考慮在登錄後放入用戶計算機上的cookie是最好的,如果他們有cookie,他們可以訪問該目錄。這是可能的,還是有更好的方法?

我希望人們沒有這個cookie來無權訪問該目錄 - 會員只有

在這個最好的設計任何建議訪問?

+0

谷歌是否仍然允許搜索'inurl:robots.txt'。發佈目錄的位置以保密它並不是世界上最好的舉措。 – 2010-04-29 21:38:09

回答

1

答案取決於所使用的網絡服務器以及服務器端語言(如果有的話)。判斷你的問題歷史,我敢打賭它是Apache HTTPD

如果這是真的,那麼你可以在文件夾中放一個.htaccess文件來控制訪問HTTP basic authentication。如果你想要更多的靈活性,你需要使用服務器端語言進行控制。基本上你只需要將登錄用戶存儲在會話中,並檢查每個請求,如果用戶在那裏,並且它是否被允許執行請求。也就是說,既然你也標記了Javascript,那麼知道JS是一種客戶端語言,因此可以被客戶端完全控制/禁用/欺騙/黑客入侵可能是一件好事。在談論安全性時忘記它。 JS通常只對逐步增強網頁有好處。