cordon、drain和delete三个命令都会使node停止被调度,后期创建的pod不会继续被调度到该节点上,但操作的暴力程度却不一样。

一、cordon 停止调度(不可调度,临时从K8S集群隔离)

  • 影响最小,只会将node标识为SchedulingDisabled不可调度状态。
  • 之后K8S再创建的pod资源,不会被调度到该节点。
  • 旧有的pod不会受到影响,仍正常对外提供服务。
  • 禁止调度命令"kubectl cordon node_name"。
  • 恢复调度命令"kubectl uncordon node_name"。(恢复到K8S集群中,变回可调度状态)

二、drain 驱逐节点(先不可调度,然后排干)

  • 首先,驱逐Node上的pod资源到其他节点重新创建。
  • 接着,将节点调为SchedulingDisabled不可调度状态。
  • 禁止调度命令"kubectl drain node_name --force --ignore-daemonsets --delete-local-data"
  • 恢复调度命令"kubectl uncordon node_name"。(恢复到K8S集群中,变回可调度状态)
  • drain方式是安全驱逐pod,会等到pod容器应用程序优雅停止后再删除该pod。
  • drain驱逐流程:先在Node节点删除pod,然后再在其他Node节点创建该pod。所以为了确保drain驱逐pod过程中不中断服务(即做到"无感知"地平滑驱逐),必须保证要驱逐的pod副本数大于1,并且采用了"反亲和策略"将这些pod调度到不同的Node节点上了!也就是说,在"多个pod副本+反亲和策略"的场景下,drain驱逐过程对容器服务是没有影响的。

需要注意:

  • 对节点执行维护操作之前(例如:内核升级,硬件维护等),您可以使用 kubectl drain 安全驱逐节点上面所有的 pod。
  • drain安全驱逐方式将会允许 pod 里面的容器遵循指定的 PodDisruptionBudgets 执行优雅中止。也就是说,drain安全驱逐可以做到:优雅地终止pod里的容器进程。
  • kubectl drain 返回成功表明所有的 pod (除了排除的那些)已经被安全驱逐(遵循期望优雅的中止期,并且没有违反任何应用程序级别的中断预算)。
  • 然后,通过对物理机断电或者在云平台上删除节点所在的虚拟机,都能安全的将节点移除。

一般线上K8S的PDB(PodDisruptionBudgets)配置的也是符合Pod驱逐的理想情况的,即maxUnavailable设置为0,maxSurge设置为1:

1

2

3

4

5

6

replicas: 3

 strategy:

   rollingUpdate:

     maxSurge: 1          

     maxUnavailable: 0

   type: RollingUpdate

 

默认情况下,kubectl drain 会忽略那些不能杀死的系统类型的 pod。drain命令中需要添加三个参数:--force、--ignore-daemonsets、--delete-local-data

  • --force 当一些pod不是经 ReplicationController, ReplicaSet, Job, DaemonSet 或者 StatefulSet 管理的时候就需要用--force来强制执行 (例如:kube-proxy)
  • --ignore-daemonsets 无视DaemonSet管理下的Pod。即--ignore-daemonsets往往需要指定的,这是因为deamonset会忽略unschedulable标签(使用kubectl drain时会自动给节点打上不可调度标签),因此deamonset控制器控制的pod被删除后可能马上又在此节点上启动起来,这样就会成为死循环.因此这里忽略daemonset。
  • --delete-local-data 如果有mount local volumn的pod,会强制杀掉该pod。

drain禁止调度的操作步骤:

1

2

3

4

5

6

7

8

9

10

11

确定要排空的节点的名称

# kubectl get nodes

 

查看pod

# kubectl get po

命令node节点开始释放所有pod,并且不接收新的pod进程

# kubectl drain [node-name] --force --ignore-daemonsets --delete-local-data

此时可以对该node节点进行平滑维护,后续需要恢复到k8s集群中:

# kubectl uncordon [node-name]

  

三、delete 删除节点

  • 首先,驱逐Node节点上的pod资源到其他节点重新创建。
  • 驱逐流程:先在Node节点删除pod,然后再在其他Node节点上创建这些pod。
  • node节点删除,master失去对其控制,该节点从k8s集群摘除。
  • delete是一种暴力删除node的方式。在驱逐pod时是强制干掉容器进程,做不到优雅终止Pod。相比较而言,显然drain更安全。

恢复调度(即重新加入到K8S集群中)

  • delete删除后,后续如果需重新加入K8S集群。则需要重启node节点的kubelet服务,重启后,基于node的自注册功能,该节点才能重新加入到K8S集群,并且恢复使用(即恢复可调度的身份)。
  • 另外:如果kubelet服务重启后,node节点系统时间跟其他节点不一致,则导致该节点证书会失效!kubelet注册后,还需要手动approve签发TLS认证操作了。如下示例:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

k8s-vm02节点重启后,系统时间变了,跟其他node节点系统时间不一致,导致该节点的集群证书失效!

[root@k8s-vm01 ingress]# kubectl exec -ti test-finhub-app-56df548879-ghlb2 -n wiseco -- /bin/bash

Error from server: error dialing backend: x509: certificate is valid for k8s-vm01, not k8s-vm02

[root@k8s-vm01 ingress]# kubectl get csr

NAME        AGE     REQUESTOR              CONDITION

csr-7zt2w   50m     system:node:k8s-vm02   Pending

csr-8sw6k   36m     system:node:k8s-vm02   Pending

csr-9jv7z   21m     system:node:k8s-vm02   Pending

需要手动approve签发TLS认证

[root@k8s-vm01 ingress]# kubectl certificate approve csr-7zt2w

[root@k8s-vm01 ingress]# kubectl certificate approve csr-8sw6k

[root@k8s-vm01 ingress]# kubectl certificate approve csr-9jv7z

  

四、Node节点平滑维护

通常情况下,如果要对K8S集群中的一台Node节点进行平滑维护,如升级或调整配置。正确的操作:

  • cordon临时从K8S集群隔离出来,标识为SchedulingDisabled不可调度状态。
  • drain排干该节点上的pod资源到其他node节点上。
  • 对该节点展开平滑维护操作,如升级或调整配置。
  • uncordon恢复,重新回到K8S集群,变回可调度状态。

同时注意:为了确保drain驱逐pod的时候,容器应用服务不中断,必须满足:

  • 要驱逐的pod副本数量必须大于1
  • 要配置"反亲和策略",确保被驱逐的pod被调度到不同的Node节点上
  • deployment采用滚动更新,设置maxUnavailable为0,maxSurge为1

Node节点禁止调度(平滑维护)方式- cordon,drain,delete相关推荐

  1. kubernetes学习之cordon/drain/delete辨析

    最近在进行k8s的学习,有关停止节点调度的三个命令进行一下辨析: 一.cordon(停止调度) 影响最小,只会将node调为SchedulingDisabled 之后再发创建pod,不会被调度到该节点 ...

  2. kubernetes node节点失效 调度

    kubernetes 配置: 测试node挂 机,发布需要等几分才会 在其它 的node机器 启动,这个明显不合理,对于大多数业务 kube-controller-manager配置: /etc/sy ...

  3. kubernetes节点维护命令——cordon, drain, uncordon

    https://blog.csdn.net/stonexmx/article/details/73543185

  4. K8S集群中Node节点资源不足导致Pod无法运行的故障排查思路

    K8S集群中Node节点资源不足导致Pod无法运行的故障排查思路 文章目录 K8S集群中Node节点资源不足导致Pod无法运行的故障排查思路 1.Node节点资源不足可能会产生的故障 2.Node节点 ...

  5. kubernetes 节点维护 cordon, drain, uncordon

    这三个命令是正式release的1.2新加入的命令,三个命令一起介绍,是因为三个命令配合使用可以实现节点的维护.在1.2之前,因为没有相应的命令支持,如果要维护一个节点,只能stop该节点上的kube ...

  6. k8s之Pod驱逐迁移和Node节点维护

    本篇是基于k8s-v1.18.0版本,参考https://cloud.tencent.com/developer/article/1552452. 一.环境说明 主机名 ip 系统版本 docker版 ...

  7. K8S_Google工作笔记0013---通过二进制方式_部署node节点_安装docker

    技术交流QQ群[JAVA,C++,Python,.NET,BigData,AI]:170933152 上一节,咱们安装了,api server controller-manager scheduler ...

  8. k8s node节点停机维护,pod如何迁移?

    需求 k8s集群中的node节点要升级内存,以应对服务迁入.pod扩缩容导致的资源短缺,需要对node节点进行停机维护,那么此时node节点上的pod应该如何处理呢? 下面我们来看一下. 默认迁移 当 ...

  9. k8s pod 在节点间调度控制

    博客作为学习笔记记录,若有理解,表述错误,欢迎指出. k8s起pod时,会通过调度器scheduler选择某个节点完成调度,选择在某个节点上完成pod创建. 当需要在指定pod运行在某个节点上时,可以 ...

最新文章

  1. python按日期排序_你如何在python中获得按创建日期排序的目录列表?
  2. 遥感图像场景分类常用数据集
  3. visio中公式太小_时间序列问题中三种常见的计量模型
  4. linux命令:ln
  5. cpu使用率_单片机里面的CPU使用率是什么鬼?
  6. Silverlight访问Web Service报System.Security.SecurityException: 安全性错误的处理
  7. python3+Neo4j+flask,汽车行业知识图谱项目实战
  8. 4.MySQL优化---多表查询优化
  9. 在win7的操作系统下安装Oracle11R2
  10. (转)AssetBundle系列——游戏资源打包(二)
  11. 通过UDP广播实现Android局域网Peer Discovering
  12. bat代码如何处理中文目录
  13. XSS跨站脚本攻击和预防措施
  14. html怎么设置内存当缓存,前端浏览器缓存怎么使用
  15. 李一男造车失败;马云卸任浙商总会会长;特斯拉或将迎来华人CEO | 每日大事件...
  16. over partition by ... order by ...用法汇总
  17. 2018电视剧行业调研报告-趋势篇
  18. MacbookPro中 Idea快捷建(记录中)
  19. Oracle 21版Database In-Memory LivaLabs实验(上)
  20. 阿里云时空数据库实战(一):数据入库与导出

热门文章

  1. 圈圈教你玩USB学习总结
  2. executors与threadPoolExecutor区别
  3. 以CVPR顶会论文为例,探讨AI论文的阅读方法
  4. 如何使用餐饮互动游戏进行拓客?餐饮加盟h5线下互动游戏能收获什么?
  5. C语言指针详解(补充中)
  6. 使用浏览器传感器工具测试手机陀螺仪效果
  7. 第四扩展fs_四个fs
  8. @keyup.enter失效问题
  9. 【NLP自然语言处理】文本特征提取
  10. getchar函数的用法