所以,我有一個網站。該鏈接具有以下結構:http://example.com/1
,http://example.com/2
,http://example.com/3
等。每個頁面都有一個簡單的表格。那麼我怎樣才能自動下載我電腦上的每一頁?謝謝。解析網站
P.S.我知道你們中的一些人可能會告訴我要谷歌。但我不知道我在找什麼(我指的是在搜索字段中鍵入的內容)。
所以,我有一個網站。該鏈接具有以下結構:http://example.com/1
,http://example.com/2
,http://example.com/3
等。每個頁面都有一個簡單的表格。那麼我怎樣才能自動下載我電腦上的每一頁?謝謝。解析網站
P.S.我知道你們中的一些人可能會告訴我要谷歌。但我不知道我在找什麼(我指的是在搜索字段中鍵入的內容)。
使用wget (http://www.gnu.org/software/wget/)
刮網站
退房的wget
命令行工具。它會讓你下載和保存網頁。
除此之外,你的問題是太寬泛的堆棧溢出社區有很大的幫助。
「broad」是什麼意思? – 2012-01-30 18:44:46
今天使用的幾乎所有的編程語言都能夠下載一個HTML文件,即使在一種語言下,通常也有很多種方法可以做到。 「我如何下載網站?」的問題只是......太廣泛了。請查看如何提出問題:http://meta.stackexchange.com/questions/18584/how-to-ask-a-smart-question – cdeszaq 2012-01-30 18:46:58
謝謝您的建議 – 2012-01-30 18:51:11
你可以寫一個簡單的應用程序並遍歷所有的url並下拉html。對於Java的例子,看看:http://docs.oracle.com/javase/tutorial/networking/urls/readingWriting.html
Google for「screen scraping」。你在問如何編寫一個程序來下載這些頁面? – 2012-01-30 18:46:00
應該發佈在超級用戶上 – Quamis 2012-01-30 19:34:30