2014-07-15 122 views
2

所以我有一個調度程序運行,它使用「insertAll」流式API每500秒將500行推送到bigquery。它成功地插入了最初幾批,但它接收到以下異常
com.google.api.client.googleapis.json.GoogleJsonResponseException一段時間後:500內部服務器錯誤
{ "code" : 500, "errors" : [ { "domain" : "global", "message" : "Backend Error", "reason" : "backendError" } ], "message" : "Backend Error" }500流媒體API的後端錯誤

任何想法可能是什麼原因?

感謝, 韋達

+0

您是否有工作ID? – Pentium10

+0

唉,'insertAll'不會創建一個作業ID,所以insertAll問題可能會更加難以追蹤。你可以發送你的項目ID和大約發生最後一個錯誤的時間?此外,500錯誤是bigquery的錯誤,所以你也可以在這裏報告它們:https://code.google.com/p/google-bigquery/ –

+0

嗨,謝謝你的迅速反應。剛剛發生上述情況。它在每2秒鐘以500行的速度推動大約4000行後出現此錯誤。我的項目編號是「靈巧美德628」。這恰恰發生在美國東部時間上午10點(美國東部時間上午12:00)。也將在上述鏈接上報告,但如果可能的話,請告訴我們,如果我們可以擺脫它,就像我們的情景一樣,它需要以24x7以上的速度推送數據,這對我們來說可能是一個阻礙。謝謝。 – ved

回答

0

是的,我們有同樣的問題。因爲我認爲在這個錯誤得到解決之前需要一段時間,我想知道我們現在可以採取什麼建議的解決方法?現在我把數據放回到我的請求隊列中,並憎恨它們直到我獲得成功。這會導致數據重複嗎?

+1

在重新發送backendErrors的情況下,tabledata.insertAll調用允許您提供唯一的insertIds以啓用重複數據刪除:請參閱[Troubleshooting](https://developers.google.com/bigquery/streaming-data- into-bigquery#疑難解答)部分流媒體文檔。 – shollyman

+0

是的,但它表示它基於最佳嘗試,並且它記住insertId至少一分鐘。所以我想它不會確保沒有重複 – foxwendy

+0

正確。它對最近緩衝的行執行重複數據刪除,而不是目標表中的全部數據。 – shollyman