2012-07-29 63 views
4

我真的想從網站下載圖片,但我不知道很多wget要這樣做。他們在一個獨立的網站上託管圖像,我如何通過使用cat或其他東西從網站上拉鍊圖像鏈接,因此我可以使用wget將它們全部下載。我所知道的是wget部分。例子是Reddit.com如何從網站中拉出圖片鏈接並使用wget下載它們?

wget -i download-file-list.txt 
+0

您只能使用wget。你將不得不編寫一個使用管道和正則表達式的shell腳本。 – 2012-07-29 04:16:02

+0

這有如何使用wget下載整個網站,其中將包含圖像:http://www.thegeekstuff.com/2009/09/the-ultimate-wget-download-guide-with-15-awesome-examples/ – 2012-07-29 04:18:54

+0

可能的重複http://stackoverflow.com/questions/4602153/how-do-i-use-wget-to-download-all-images-into-a-single-folder – 2014-02-21 16:38:19

回答

8

試試這個:

wget -r -l 1 -A jpg,jpeg,png,gif,bmp -nd -H http://reddit.com/some/path 

這將遞歸1級深起價http://reddit.com/some/path頁,它不會創建一個目錄結構(如果你想要的目錄,刪除-nd),它只會下載以「jpg」,「jpeg」,「png」,「gif」或「bmp」結尾的文件。它將跨越主機。

+0

唯一的是,圖像是承載了不同的網站。這是一大堆圖像網址。 – c0rruptbytes 2012-07-29 08:23:55

+0

@ user1560474然後你想'-H'跨越主機 – 2012-07-29 09:06:33

2

我會使用perl模塊WWW::Mechanize。下面堆放的所有鏈接stdout

use WWW::Mechanize; 

$mech = WWW::Mechanize->new(); 
$mech->get("URL"); 
$mech->dump_links(undef, 'absolute' => 1); 

替換URL你想要的實際的URL。

+0

不錯的方法。但是,您是否可以更改此設置,以便從文本文件中一次只讀取一個鏈接? – 2015-05-26 14:28:16

相關問題