我們利用Ingress創建HTTPS負載均衡器,這些負載均衡器直接轉發到我們的(通常是nodejs)服務。但是,最近我們希望更多地控制Google負載均衡器未提供的nodejs前面的流量。如何在Kubernetes(GKE)和Google HTTPS負載平衡器上使用nginx
- 標準化,自定義錯誤頁
- 標準重寫規則(例如重定向HTTP到HTTPS)
- 從負載均衡的健康檢查解耦莢readinessProbes(所以我們仍然可以提供自定義錯誤頁時,有沒有健康的豆莢)。
我們在堆棧的其他部分使用nginx的所以這似乎是一個不錯的選擇,我已經看到了nginx的幾個例子被用於前服務Kubernetes,通常以兩種配置之一。
- 每個pod中的nginx容器將流量直接轉發到本地主機上的應用程序。
- 單獨的nginx部署&服務,獨立擴展並將流量轉發到相應的Kubernetes服務。
每種方法的優缺點是什麼?我應該如何確定哪種方法最適合我們的用例?
是的,這是一個很好的觀點。感謝您幫助澄清我的想法 - 我發現自己尋找來自以前做過這些的人的許多東西的驗證。主要是爲了檢查我在設計這些系統時不會錯過一些非常明顯的事情。 :) –