2013-04-18 142 views
3

我需要從sftp服務器下載文件並解析它們並將內容插入數據庫。我目前使用rCurl如下使用R從安全FTP服務器下載文件

library(RCurl) 
url<-c("sftp://data.ftp.net/incomining.data.txt") 
x<-getURL(url, userpwd="<id>:<passwd>") 
writeLines(x, incoming.data.txt")) 

我也看了download.file和我沒有看到在download.file SFTP sufpport。有沒有人做過類似的工作?由於我會得到多個文件,我注意到rcurl有時會超時。我喜歡先從sftp服務器下載所有文件,然後再進行處理。有任何想法嗎?

回答

2

這聽起來像問題是「我如何避免在rcurl中超時?」

增加CURLOPT_CONNECTTIMEOUT的值。這實際上與Setting Curl's Timeout in PHP的問題相同。

編輯,從下面的評論:

x<-getURL(url, userpwd="<id>:<passwd>", connecttimeout=60) // 60 seconds, e.g. 
+0

你知道在哪裏設置在R上的RCurl超時? – user1471980

+0

@ user1471980查看'curlOptions()' –

+0

60秒,http://www.omegahat.org/RCurl/philosophy.html建議追加** connecttimeout = 60 **,如下所示:'x <-getURL(url ,userpwd =「」,connecttimeout = 60)' –

相關問題