我把芹菜放在GCP的碼頭集裝箱上,並裝上Kubernetes。它的工作人員最近開始獲得kill -9
'd - 這看起來與OOMKiller有關。有沒有OOM事件kubectl get events
,這是如果這些事件只出現在一個吊艙已經擅自闖入resources.limits.memory
值可以預期的東西。GCP容器中可能的OOM - 如何調試?
所以,我的理論是被殺芹菜過程Linux的自己OOMKiller的工作。然而這並沒有任何意義:如果OOMKiller進入舞臺會消耗太多的內存,那麼這個吊艙怎麼可能安排在第一位呢? (假設如果resources.limits.memory
的總和超過系統可用內存量,Kubernetes不允許調度新的豆莢)。
不過,我不知道有任何其他合理的原因,這些SIGKILLs比OOMKiller。
芹菜錯誤的一個例子(有一個用於每個工人):
[2017-08-12 07:00:12,124: ERROR/MainProcess] Process 'ForkPoolWorker-7' pid:16 exited with 'signal 9 (SIGKILL)'
[2017-08-12 07:00:12,208: ERROR/MainProcess] Task handler raised error: WorkerLostError('Worker exited prematurely: signal 9 (SIGKILL).',)
這是否引發任何光線'grep的-i「殺進程」的/ var /日誌/ messages' –
@TarunLalwani容器內和節點本身沒有這樣的路徑。 –
您正在使用哪個主機操作系統? –