我想從具有完整網址的服務器上獲取文件列表。例如,我想從這裏獲得所有的TIFF。
http://hyperquad.telascience.org/naipsource/Texas/20100801/ *
我可以下載所有的wget的.TIF文件,但我期待的就是完整的URL這樣每個文件。
http://hyperquad.telascience.org/naipsource/Texas/20100801/naip10_1m_2597_04_2_20100430.tif http://hyperquad.telascience.org/naipsource/Texas/20100801/naip10_1m_2597_04_3_20100424.tif http://hyperquad.telascience.org/naipsource/Texas/20100801/naip10_1m_2597_04_4_20100430.tif http://hyperquad.telascience.org/naipsource/Texas/20100801/naip10_1m_2597_05_1_20100430.tif http://hyperquad.telascience.org/naipsource/Texas/20100801/naip10_1m_2597_05_2_20100430.tif
有關如何使用curl或wget之類的方法將所有這些文件加入列表的想法?
亞當
但是,這將下載的文件。 ..我只是想在列表中的URL引用。關於這個的想法? – aeupinhere
我誤讀了。最簡單的方法是解析wget的結果。 Wget似乎有你需要的一切,比如在TIFF上進行過濾,除了沒有真正獲取文件。你有什麼工具/平臺?對於那個特定的站點,PERL或者SED可以用來提取tif,尋找模式href =「(。* \。tif)」,其中()分組操作符以選擇你想要的結果。 –