2010-02-04 72 views
0

我想找到一個自動的方式來下載整個網站頁面(不是整個網站只是一個頁面)和頁面上的所有元素,然後總結這些文件的大小。網站性能和下載

當我說文件時,我想知道HTML,CSS,圖像,本地和遠程JS文件以及任何CSS背景圖像的總大小。基本上是給定頁面的整個頁面權重。

我想過使用CURL,但不知道如何使它能夠抓取遠程和本地JS文件以及CSS文件中引用的圖像。

+0

您是否需要下載資料?或者將firebug/webdev工具欄/ Yslow給你提供那些信息? – 2010-02-04 16:48:16

回答

1

嘗試wget

  • 使其下載所有必需的文件與-p--page-requisites選項
  • 下載腳本和圖像本地的網站,而不是進一步比2個跳以外(這應該讓本地圖片和代碼)與-l 2--level=2
  • 並更改代碼文件以鏈接到您的本地文件,而不是其原始路徑與-k對於--convert-links
 
    wget -p -l 2 -k http://full_url/to/page.html 
+0

關閉,但它似乎沒有抓取遠程JS文件,例如Google分析。 – meme 2010-02-04 17:29:24

+0

@meme嘗試添加'-r -l 2'。這是在約1320年 – 2010-02-04 17:37:04

+0

這個手冊頁這似乎只適用於本地網站的鏈接,而不是遠程網址 – 2010-02-04 17:47:31