1
我目前正在評估Google Cloud Dataflow。根據documentation,you may run up to 25 concurrent Dataflow jobs per Cloud Platform project.
。Cloud Dataflow上的25個作業限制是否可以擴展?
這似乎很低。在運行100箇中小型作業時,我可以看到很多價值,能夠支持並行部署,測試和模塊化管道(許多小型作業似乎可以更容易更新/升級,即使Dataflow具有一些支持就地管道昇級)。
這個限制能否以某種方式增加,就像許多配額可以在GCP上一樣?解決此限制的常見做法是什麼?