2016-02-15 96 views
6

人們,我工作的公司在AWS(Amazon RDS)上有一些MySQL數據庫。我們正在用BigQuery做POC,現在我正在研究的是如何將基礎複製到BigQuery(現有的寄存器和未來的新的寄存器)。我的疑惑是:將Amazon RDS與Google BigQuery同步

  • 如何將MySQL表和行復制到BigQuery。有沒有什麼工具可以做到這一點(我正在閱讀亞馬遜數據庫遷移服務)?我應該複製到Google Cloud SQL並輸出到BigQuery嗎?
  • 如何複製未來的寄存器?是否可以在MySQL內部創建一個作業,以便在預定義的編號之後發送新的寄存器?例如,在插入1,000個新行(或時間已過)後,某些事件會「觸發」,並且新寄存器將複製到Cloud SQL/BigQuery?

我最初的想法是轉儲原始基礎,將其加載到另一個,並使用腳本來聆聽新寄存器並將它們發送到新基地。

我說得對嗎?這是可以理解的嗎?

+0

我使用xplenty將基本鏡像從MySQL AWS RDS到BQ的表。 Xplenty可以刪除並重新創建表格。你必須付錢,但非常快捷。註冊足跡以便將其用於poc可能會有用。這就是我所做的,並且仍然在使用它,讓我更專注於更有用的僵硬,比如我在BQ中如何使用數據。可能是一個快速的解決方案,如果它真的只是你這樣做,並需要快速。 – andrewm4894

回答

2

除了什麼瓦迪姆說,你可以嘗試:

  • 的mysqldump到CSV文件到S3(我相信RDS允許)
  • 運行「的gsutil」谷歌雲存儲工具將數據從S3複製到GCS
  • 運行「BQ負荷FILE.CSV」將文件加載至BigQuery

我很想聽聽你的經驗,所以請隨時在私下裏給我打電話。