我想找到一個自動的方式來下載整個網站頁面(不是整個網站只是一個頁面)和頁面上的所有元素,然後總結這些文件的大小。網站性能和下載
當我說文件時,我想知道HTML,CSS,圖像,本地和遠程JS文件以及任何CSS背景圖像的總大小。基本上是給定頁面的整個頁面權重。
我想過使用CURL,但不知道如何使它能夠抓取遠程和本地JS文件以及CSS文件中引用的圖像。
我想找到一個自動的方式來下載整個網站頁面(不是整個網站只是一個頁面)和頁面上的所有元素,然後總結這些文件的大小。網站性能和下載
當我說文件時,我想知道HTML,CSS,圖像,本地和遠程JS文件以及任何CSS背景圖像的總大小。基本上是給定頁面的整個頁面權重。
我想過使用CURL,但不知道如何使它能夠抓取遠程和本地JS文件以及CSS文件中引用的圖像。
嘗試wget
:
-p
或--page-requisites
選項-l 2
爲--level=2
-k
對於--convert-links
:wget -p -l 2 -k http://full_url/to/page.html
關閉,但它似乎沒有抓取遠程JS文件,例如Google分析。 – meme 2010-02-04 17:29:24
@meme嘗試添加'-r -l 2'。這是在約1320年 – 2010-02-04 17:37:04
這個手冊頁這似乎只適用於本地網站的鏈接,而不是遠程網址 – 2010-02-04 17:47:31
您是否需要下載資料?或者將firebug/webdev工具欄/ Yslow給你提供那些信息? – 2010-02-04 16:48:16