我試圖下載每週添加到網站的最新文件。問題在於文件url有一些不是很複雜的散列,準確地說是10^5到10^6之間的數字。我已經寫了一個簡單的bash腳本來嘗試所有的組合。這就是爲什麼我得到的錯誤參數列表太長。但99%的鏈接無效,所以也許有辦法繞過這個。 這是我的腳本看起來像: #!/bin/bash
for i in `seq 1 10`;
do
fileno="0$i"
w
由於無法在我的工作中安裝wget庫,因此需要使用txt文件中列出的URL下載文件的解決方法。我有一個名爲urls.txt的txt文件,其中包含大約一千個鏈接,每個鏈接指向需要下載的文件。到目前爲止,我有這樣的東西,但不幸的是,它不會下載任何文件,儘管腳本正在執行。 import urllib.request
with open("urls.txt", "r") as file:
li
作爲自動構建的一部分,我們從github運行下載一些代碼。小例子: wget github.com
近日,命令開始證書錯誤而失敗: URL transformed to HTTPS due to an HSTS policy
--2017-10-05 11:43:45-- https://github.com/
Resolving github.com (github.com)... 19
嘗試從網站獲取內容:www.arrow.com但我的程序被凍結。我根本找不到任何迴應。 我已經使用了curl,wget和相同的問題。我得到: <head><title>Document Moved</title></head>
<body><h1>Object Moved</h1>This document may be found <a HREF="https://www.arrow.com/