2012-10-18 30 views
0

我試圖從網站上下載大量圖像到我的Mac上。我可以使用DownloadThemAll,SiteSucker等下載更小的圖像,但是它們不夠深入。所以我不得不跳入終端,這有點遠離我的舒適區,我的技能有點生疏。使用curl通過終端下載站點圖像

我已經與下面的腳本一試:

curl -O http://www.domain.co.uk/system/images/[1-1000]/original/*.jpg 

這個腳本工作,我可以看到終端下載圖像文件但是我遇到的問題是,文件被改寫* .jpg,而不是按順序生成它們,例如1.jpg,2.jpg,3.jpg等,甚至是原來的名字。原始的jpg名稱使用隨機數字/字母(例如LIC0145_websource.jpg),這就是爲什麼我試圖用* .jpg補充它。我想知道我錯過了哪一段代碼來告訴終端下載這些圖像。

我也累調用shell腳本以下,但碰上

#!/bin/bash 
for i in `seq 1 1000`; 
do 
input=http://www.domain.co.uk/system/images/$i/original/*.jpg 
output=$i.jpg 
# echo $input, $output 
curl --output $output --remote-name $input 
done 

我認爲,捲曲的選擇可能仍然是一個更好的選擇了「意外的文件結尾」,但如果任何人有任何修補程序或其他解決方案讓我知道。

回答

-1

你可以做這樣的事情與wget(我知道這不是curl):

wget --no-parent --accept=jpg,jpeg,htm,html --mirror http://somedomain/ 

然後到該目錄,併發出

find ./ \(-iname '*.htm' -o -iname '*.html' \) -exec rm {} \; 
+0

感謝您的快速反應。當我在網站上運行wget時,它試圖鏡像該網站,但似乎沒有從該目錄中獲取圖像http://www.domain.co.uk/system/images/$i/original/ The從上面的捲曲腳本工作,但我的問題是,我不得不告訴終端不要調用每個文件* .jpg並寫下每個下載的JPG。 – David