2012-01-30 148 views
-3

所以,我有一個網站。該鏈接具有以下結構:http://example.com/1,http://example.com/2,http://example.com/3等。每個頁面都有一個簡單的表格。那麼我怎樣才能自動下載我電腦上的每一頁?謝謝。解析網站

P.S.我知道你們中的一些人可能會告訴我要谷歌。但我不知道我在找什麼(我指的是在搜索字段中鍵入的內容)。

+0

Google for「screen scraping」。你在問如何編寫一個程序來下載這些頁面? – 2012-01-30 18:46:00

+0

應該發佈在超級用戶上 – Quamis 2012-01-30 19:34:30

回答

3

使用wget (http://www.gnu.org/software/wget/)刮網站

2

退房的wget命令行工具。它會讓你下載和保存網頁。

除此之外,你的問題是太寬泛的堆棧溢出社區有很大的幫助。

+0

「broad」是什麼意思? – 2012-01-30 18:44:46

+0

今天使用的幾乎所有的編程語言都能夠下載一個HTML文件,即使在一種語言下,通常也有很多種方法可以做到。 「我如何下載網站?」的問題只是......太廣泛了。請查看如何提出問題:http://meta.stackexchange.com/questions/18584/how-to-ask-a-smart-question – cdeszaq 2012-01-30 18:46:58

+0

謝謝您的建議 – 2012-01-30 18:51:11