2009-10-24 72 views
0

我正在將一堆網站移動到一臺新服務器上,並確保我不會錯過任何內容,希望能夠爲程序提供一個網站列表,併爲其下載每個網頁/圖像。有沒有可以做到這一點的軟件?我也可以用它來下載一些WordPress的網站的副本,所以我可以上傳靜態文件(我的一些WP網站永遠不會更新,所以很難設置新的數據庫等)最佳網站蜘蛛?

+0

屬於superuser.com – 2009-10-24 15:39:58

+0

您是否無法通過FTP連接到該站點並下載文件?如果你能做到這一點,它會容易得多,而且你不必擔心文件被遺漏,因爲當前沒有鏈接到它們。 – David 2009-10-25 06:14:00

回答

0

wget是你的工具。

在unix/linux系統上,它可能已經安裝。對於Windows系統,請從http://gnuwin32.sourceforge.net/packages/wget.htm下載。

它是一個命令行工具,有一堆命令行選項用於控制它抓取目標網站的方式。使用「wget --help」列出所有可用的選項。