2011-12-22 32 views
1

我正在用ffmpeg處理一些視頻,然後用aws_s3 gem將視頻發射到S3。我使用下面的代碼:AWS_S3 ruby​​ gem超時錯誤執行過期

S3Object.store("testme.mp4", open(file), 'blah', :access => :public_read) 

一切都很正常,但有1GB的文件,並在收到以下錯誤:

"Timeout::Error: execution expired". 

的ffmpeg已處理的文件後,然而,這只是發生。如果我自己發送文件,而不進行處理,那麼一切都很好。

有沒有人遇到類似的問題?

感謝,

SLothistype

回答

5

我遇到了這個問題,可惜不得不猴子修補AWS :: S3 ::連接:: create_connection方法,所以我可能會增加read_timeout。

如果你自己實現的方法,你會設置

http.read_timeout = 300 # or something else higher 

我最初發現這個從樞紐Labs公司他們是非常受人尊敬的,基本上都在說「這不是一個很好的解決方案,但aws_s3寶石不會暴露更好的東西。「

+0

試過了,但收效甚微......我可能會破解寶石。謝謝回覆。 – slotishtype 2011-12-22 22:43:36

+0

'黑客'又名Monkeypatching,正是我所要做的。問題在於上傳大文件時發生超時,發生在您的最後。這不是最優雅的解決方案,但除非你想要推出自己的服務並陪伴寶石,否則它可能是必要的邪惡:( – andrewpthorp 2011-12-22 23:39:06

相關問題