[TOC]
整体思路:
- 升级master节点
- 第一个控制节点
- 其他master
- 升级node节点
- 验证集群状态
# 升级master节点
## 第一个控制节点
0. 摘除流量
这里使用的haproxy做流量负载,所以该文章只演示haproxy的移除负载负载
前提条件:
- HAproxy 启动监控统计页面
![](https://img.kancloud.cn/1a/36/1a36ef5a2c1f66b6ae817af6abb38782_1920x700.png)
>[danger] 注意:访问的地址必须是 负载IP(VIP)地址。将 `status` 参数从 `READY` 改成 `MAINT`
1. 升级kubeadm
```shell
yum upgrade -y kubeadm-1.20.15-0 --disableexcludes=kubernetes
```
> 通过 `yum list --showduplicates kubeadm` 命令,确认集群版本。
> **注意**: 升级 `kubeadm` 低于 1.20.x 版本,会有依赖提示安装 `kubelet` 和 `kubectl` 最新版本。需要特别留意再输入 y 继续安装
2. 验证 kubeadm 版本正确
```shell
$ kubeadm version -o short
v1.19.16
```
3. 验证升级计划
```shell
kubeadm upgrade plan
```
> **说明**:
> 1. 此命令检查你的集群是否可被升级,并取回你要升级的目标版本。 命令也会显示一个包含组件配置版本状态的表格。
> 2. 如果 `kubeadm upgrade plan` 给出任何需要手动升级的组件配置, 用户必须通过 `--config` 命令行标志向 `kubeadm upgrade apply` 命令提供替代的配置文件。 如果不这样做,`kubeadm upgrade apply` 会出错并退出,不再执行升级操作。
4. 升级集群
```shell
kubeadm upgrade apply v1.19.16
```
5. [可选]升级 CNI 驱动插件
这里使用calico网络插件。
- 第一步:确认当前使用calico的版本。
- 第二步:查看 [官网](https://projectcalico.docs.tigera.io/archive/v3.18/getting-started/kubernetes/requirements#kubernetes-requirements) 是否支持这个版本的kubernetes集群版本。
>[info] 如果官网反馈是没有测试过的话,建议升级calico插件。
6. 设置第一个控制面节点维护状态
```shell
kubectl drain <node-to-drain> --ignore-daemonsets
```
7. 升级 kubelet 服务
```shell
yum upgrade kubectl-1.20.15-0 kubelet-1.20.15-0 --disableexcludes=kubernetes
systemctl daemon-reload
systemctl restart kubelet
```
8. 取消第一个控制面节点维护状态
```shell
kubectl uncordon <node-to-uncordon>
```
9. 将流量切换到第一个控制节点
1. 将第一个控制节点 status 从 `MAINT` 改成 `READY` 状态
2. 将其他控制节点 `status` 参数从 `READY` 改成 `MAINT`
10. [可选]运行测试容器到第一个控制面节点
```shell
# 创建deployment
kubectl create deployment alpine --image=alpine:3.16 -- sleep 3600
# 容忍任何污点 以及 调度到指定节点
kubectl patch deployment alpine -p '{"spec": {"template": {"spec": {"tolerations": [{"operator": "Exists"}], "nodeSelector": {"kubernetes.io/hostname": "master03"}}}}}'
# 查看pod运行情况
$ kubectl get pod -owide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
alpine-5f7998d889-8kzpg 1/1 Running 0 9s 10.244.235.11 master03 <none> <none>
# 测试与pod的连通性
$ kubectl -n kube-system get pod -owide -l k8s-app=kube-dns
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
coredns-7f89b7bc75-hw4pt 1/1 Running 0 158m 10.244.241.68 master01 <none> <none>
coredns-7f89b7bc75-pz9zb 1/1 Running 0 158m 10.244.59.198 master02 <none> <none>
$ kubectl exec -it alpine-5f7998d889-8kzpg -- ping -c4 10.244.241.68
PING 10.244.241.68 (10.244.241.68): 56 data bytes
64 bytes from 10.244.241.68: seq=0 ttl=62 time=0.550 ms
64 bytes from 10.244.241.68: seq=1 ttl=62 time=0.485 ms
64 bytes from 10.244.241.68: seq=2 ttl=62 time=0.520 ms
64 bytes from 10.244.241.68: seq=3 ttl=62 time=0.589 ms
--- 10.244.241.68 ping statistics ---
4 packets transmitted, 4 packets received, 0% packet loss
round-trip min/avg/max = 0.485/0.536/0.589 ms
# 测试service连通性
$ kubectl exec -it alpine-5f7998d889-8kzpg -- wget --no-check-certificate -q -O - https://kubernetes:443/version
{
"major": "1",
"minor": "20",
"gitVersion": "v1.20.15",
"gitCommit": "8f1e5bf0b9729a899b8df86249b56e2c74aebc55",
"gitTreeState": "clean",
"buildDate": "2022-01-19T17:23:01Z",
"goVersion": "go1.15.15",
"compiler": "gc",
"platform": "linux/amd64"
}
# 清理deployment
$ kubectl delete deploy alpine
```
> 如果容器正常运行且与其他 `podIP` 和 `serverIP` 可以正常通讯即可
## 其它控制面节点
1. 升级控制面组件 及 kubelet配置文件
```shell
yum upgrade kubeadm-1.20.15-0 --disableexcludes=kubernetes
kubeadm upgrade node
```
2. 升级 kubelet 服务
```shell
kubectl drain <node-to-drain> --ignore-daemonsets
yum upgrade kubectl-1.20.15-0 kubelet-1.20.15-0 --disableexcludes=kubernetes
systemctl daemon-reload
systemctl restart kubelet
kubectl uncordon <node-to-uncordon>
```
3. 流量恢复其他节点
将其他控制节点 status 从 `MAINT` 改成 `READY` 状态
# 升级node节点
1. 修改配置kubelet配置文件以及更新证书
```shell
yum upgrade kubeadm-1.20.15-0 --disableexcludes=kubernetes
kubeadm upgrade node
```
2. 升级 kubelet 服务
```shell
kubectl drain <node-to-drain> --ignore-daemonsets
yum upgrade kubectl-1.20.15-0 kubelet-1.20.15-0 --disableexcludes=kubernetes
systemctl daemon-reload
systemctl restart kubelet
kubectl uncordon <node-to-uncordon>
```
# 验证集群状态
```shell
$ kubectl get nodes
NAME STATUS ROLES AGE VERSION
master01 Ready control-plane,master 2d v1.20.15
master02 Ready control-plane,master 2d v1.20.15
master03 Ready control-plane,master 2d v1.20.15
```
# 参考文档
kubeadm升级集群:https://kubernetes.io/zh-cn/docs/tasks/administer-cluster/kubeadm/kubeadm-upgrade/
- 前言
- 架构
- 部署
- kubeadm部署
- kubeadm扩容节点
- 二进制安装基础组件
- 添加master节点
- 添加工作节点
- 选装插件安装
- Kubernetes使用
- k8s与dockerfile启动参数
- hostPort与hostNetwork异同
- 应用上下线最佳实践
- 进入容器命名空间
- 主机与pod之间拷贝
- events排序问题
- k8s会话保持
- 容器root特权
- CNI插件
- calico
- calicoctl安装
- calico网络通信
- calico更改pod地址范围
- 新增节点网卡名不一致
- 修改calico模式
- calico数据存储迁移
- 启用 kubectl 来管理 Calico
- calico卸载
- cilium
- cilium架构
- cilium/hubble安装
- cilium网络路由
- IP地址管理(IPAM)
- Cilium替换KubeProxy
- NodePort运行DSR模式
- IP地址伪装
- ingress使用
- nginx-ingress
- ingress安装
- ingress高可用
- helm方式安装
- 基本使用
- Rewrite配置
- tls安全路由
- ingress发布管理
- 代理k8s集群外的web应用
- ingress自定义日志
- ingress记录真实IP地址
- 自定义参数
- traefik-ingress
- traefik名词概念
- traefik安装
- traefik初次使用
- traefik路由(IngressRoute)
- traefik中间件(middlewares)
- traefik记录真实IP地址
- cert-manager
- 安装教程
- 颁布者CA
- 创建证书
- 外部存储
- 对接NFS
- 对接ceph-rbd
- 对接cephfs
- 监控平台
- Prometheus
- Prometheus安装
- grafana安装
- Prometheus配置文件
- node_exporter安装
- kube-state-metrics安装
- Prometheus黑盒监控
- Prometheus告警
- grafana仪表盘设置
- 常用监控配置文件
- thanos
- Prometheus
- Sidecar组件
- Store Gateway组件
- Querier组件
- Compactor组件
- Prometheus监控项
- grafana
- Querier对接grafana
- alertmanager
- Prometheus对接alertmanager
- 日志中心
- filebeat安装
- kafka安装
- logstash安装
- elasticsearch安装
- elasticsearch索引生命周期管理
- kibana安装
- event事件收集
- 资源预留
- 节点资源预留
- imagefs与nodefs验证
- 资源预留 vs 驱逐 vs OOM
- scheduler调度原理
- Helm
- Helm安装
- Helm基本使用
- 安全
- apiserver审计日志
- RBAC鉴权
- namespace资源限制
- 加密Secret数据
- 服务网格
- 备份恢复
- Velero安装
- 备份与恢复
- 常用维护操作
- container runtime
- 拉取私有仓库镜像配置
- 拉取公网镜像加速配置
- runtime网络代理
- overlay2目录占用过大
- 更改Docker的数据目录
- Harbor
- 重置Harbor密码
- 问题处理
- 关闭或开启Harbor的认证
- 固定harbor的IP地址范围
- ETCD
- ETCD扩缩容
- ETCD常用命令
- ETCD数据空间压缩清理
- ingress
- ingress-nginx header配置
- kubernetes
- 验证yaml合法性
- 切换KubeProxy模式
- 容器解析域名
- 删除节点
- 修改镜像仓库
- 修改node名称
- 升级k8s集群
- 切换容器运行时
- apiserver接口
- 其他
- 升级内核
- k8s组件性能分析
- ETCD
- calico
- calico健康检查失败
- Harbor
- harbor同步失败
- Kubernetes
- 资源Terminating状态
- 启动容器报错