我最近開始使用Apache beam。我相信我在這裏失去了一些東西。我有一個要求從一個非常龐大的數據庫加載到bigquery。這些表是巨大的。我寫了樣本束作業來從簡單表中加載最小的行。Beam - 在bigquery的巨大數據加載期間處理失敗
- 我該如何從表中使用JDBCIO加載n個行?無論如何,我可以像傳統數據遷移作業那樣,批量加載這些數據。
我可以批量讀取數據庫並批量寫入bigquery嗎?
另外我也看到,將數據加載到bigquery的建議方法是將文件添加到數據存儲桶。但是,在自動化環境中,要求將其編寫爲數據流作業以從數據庫加載並將其寫入bigquery。我的設計方法應該使用apache beam來解決這個問題?
請幫忙。