2016-04-10 30 views
0

我目前有一個羣集運行在我用3個節點創建的GCloud上。 這是我所得到的,當我運行kubectl describe nodesKubernetes - 什麼是kube系統吊艙,可以安全刪除它們嗎?

Name:   node1 
Capacity: 
cpu:  1 
memory: 3800808Ki 
pods:  40 
Non-terminated Pods:  (3 in total) 
Namespace   Name         CPU Requests CPU Limits Memory Requests Memory Limits 
─────────   ────         ──────────── ────────── ─────────────── ───────────── 
default   my-pod1         100m (10%) 0 (0%)  0 (0%)  0 (0%) 
default   my-pod2        100m (10%) 0 (0%)  0 (0%)  0 (0%) 
kube-system   fluentd-cloud-logging-gke-little-people-e39a45a8-node-75fn  100m (10%) 100m (10%) 200Mi (5%) 200Mi (5%) 
Allocated resources: 
(Total limits may be over 100%, i.e., overcommitted. More info: http://releases.k8s.io/HEAD/docs/user-guide/compute-resources.md) 
CPU Requests CPU Limits Memory Requests Memory Limits 
──────────── ────────── ─────────────── ───────────── 
300m (30%) 100m (10%) 200Mi (5%) 200Mi (5%) 

Name:   node2 
Capacity: 
cpu:  1 
memory: 3800808Ki 
pods:  40 
Non-terminated Pods:  (4 in total) 
Namespace   Name         CPU Requests CPU Limits Memory Requests Memory Limits 
─────────   ────         ──────────── ────────── ─────────────── ───────────── 
default   my-pod3        100m (10%) 0 (0%)  0 (0%)  0 (0%) 
kube-system   fluentd-cloud-logging-gke-little-people-e39a45a8-node-wcle  100m (10%) 100m (10%) 200Mi (5%) 200Mi (5%) 
kube-system   heapster-v11-yi2nw       100m (10%) 100m (10%) 236Mi (6%) 236Mi (6%) 
kube-system   kube-ui-v4-5nh36       100m (10%) 100m (10%) 50Mi (1%) 50Mi (1%) 
Allocated resources: 
(Total limits may be over 100%, i.e., overcommitted. More info: http://releases.k8s.io/HEAD/docs/user-guide/compute-resources.md) 
CPU Requests CPU Limits Memory Requests Memory Limits 
──────────── ────────── ─────────────── ───────────── 
400m (40%) 300m (30%) 486Mi (13%) 486Mi (13%) 

Name:   node3 
Capacity: 
cpu:  1 
memory: 3800808Ki 
pods:  40 
Non-terminated Pods:  (3 in total) 
Namespace   Name         CPU Requests CPU Limits Memory Requests Memory Limits 
─────────   ────         ──────────── ────────── ─────────────── ───────────── 
kube-system   fluentd-cloud-logging-gke-little-people-e39a45a8-node-xhdy  100m (10%) 100m (10%) 200Mi (5%) 200Mi (5%) 
kube-system   kube-dns-v9-bo86j       310m (31%) 310m (31%) 170Mi (4%) 170Mi (4%) 
kube-system   l7-lb-controller-v0.5.2-ae0t2      110m (11%) 110m (11%) 70Mi (1%) 120Mi (3%) 
Allocated resources: 
(Total limits may be over 100%, i.e., overcommitted. More info: http://releases.k8s.io/HEAD/docs/user-guide/compute-resources.md) 
CPU Requests CPU Limits Memory Requests Memory Limits 
──────────── ────────── ─────────────── ───────────── 
520m (52%) 520m (52%) 440Mi (11%) 490Mi (13%) 

現在,你可以看到,我有3個吊艙,2節點1和1個節點2上。我想要做的是移動node1上的所有窗格並刪除其他兩個節點。但是,似乎有一些Pod屬於kube-system命名空間,我不知道刪除它們可能會產生什麼效果。

我可以告訴大家,名爲fluentd-cloud-logging...heapster..豆莢用於記錄和計算機資源的用法,但我真的不知道,如果我能kube-dns-v9-bo86jl7-lb-controller-v0.5.2-ae0t2移動莢到另一個節點沒有影響。

任何人都可以幫助一些見解,我應該如何繼續?

非常感謝。

回答

1

如果您想縮小集羣的大小,只需刪除三個節點中的兩個,然後讓系統重新安排在刪除節點時丟失的任何豆莢。如果剩餘節點上沒有足夠的空間,您可能會看到吊艙永久掛起。將kube-system掛接掛起並不理想,因爲它們中的每一個都爲您的集羣執行「系統功能」(例如DNS,監視等),如果沒有它們運行您的集羣將無法正常運行。

如果您不需要使用gcloud container clusters update命令的功能,則也可以禁用某些系統窗格。

2

殺死它們以便它們重新安排在另一個節點上是非常好的。它們都可以重新安排,除了流暢的豆莢,它們綁定到每個節點。

+0

謝謝你的回答,Alex。我有兩個問題:1)你有任何鏈接到某種類型的文件,這解釋了每個這些豆莢是什麼?在繼續並刪除它們之前,我想嘗試並理解所有內容。 2)另外,當我殺死一個pod時,我如何確保它在我想要的節點上重新創建?再次感謝。 – AdelaN

+2

1)您可以查看[獨立附件的[自述文件]](https://github.com/kubernetes/kubernetes/tree/dae5ac482861382e18b1e7b2943b1b7f333c6a2a/cluster/addons)。 2)在殺死豆莢之前,可以將其他兩個節點標記爲「不可調度的」,並在所有豆莢調度後重置「不可調度」。有關將ndoe設置爲不可調整的內容,請參閱https://github.com/kubernetes/kubernetes/blob/c6e995a824094a96f7d43a25e897283f83a12997/docs/user-guide/kubectl/kubectl_patch.md#examples –

+1

@ Yu-JuHong,這太棒了!非常感謝,這對我幫助很大! – AdelaN

相關問題