2017-03-11 31 views
1

我目前正在評估Google Cloud Dataflow。根據documentation,you may run up to 25 concurrent Dataflow jobs per Cloud Platform project.Cloud Dataflow上的25個作業限制是否可以擴展?

這似乎很低。在運行100箇中小型作業時,我可以看到很多價值,能夠支持並行部署,測試和模塊化管道(許多小型作業似乎可以更容易更新/升級,即使Dataflow具有一些支持就地管道昇級)。

這個限制能否以某種方式增加,就像許多配額可以在GCP上一樣?解決此限制的常見做法是什麼?

回答

0

是的,你可以要求增加你的項目的限制。您可以寫信給[email protected]並提供您的項目ID嗎?