我一直在練習使用Mechanize和Nokogiri編寫一些Ruby scrapers。例如在這裏(但是,似乎在發出一定數量的請求(在這種情況下約爲14000)之後,出現錯誤提示我有連接超時錯誤:Ruby機械化連接超時
/var/lib/gems/1.8/gems /net-http-persistent-2.5.1/lib/net/http/persistent/ssl_reuse.rb:90:in`initialize':連接超時 - connect(2)(Errno :: ETIMEDOUT)
我有我可以得到的最好答案是,我向服務器發出太多請求,有沒有辦法通過限制或其他方法來解決這個問題?
請參閱此主題有關節流:http://stackoverflow.com/questions/9241625/regulating-rate-limiting-ruby-mechanize也考慮回落到版本1.0,它不使用持久http連接 – pguardiario 2012-03-10 06:01:09
版本1.0 for機械化還是Nokogiri? – ZenBalance 2012-03-16 06:46:23
機械化,對不起 – pguardiario 2012-03-16 08:28:25