/k8s

Deploying Kubernetes High Availability Cluster with Ansible Playbook

Primary LanguageJinja

使用Ansible Playbook进行生产级别高可用kubernetes集群部署,包含初始化系统配置、自动签发集群证书、安装配置etcd集群、安装配置haproxy及keepalived、calico、coredns、metrics-server等,并使用bootstrap方式认证以及kubernetes组件健康检查。另外支持集群节点扩容、替换集群证书、kubernetes版本升级等。本Playbook使用二进制方式部署。

配合kubernetes剔除dockershim,本Playbook将运行时修改为containerd。

一、配置Playbook

1.1、拉取Playbook代码

git clone https://github.com/k8sre/k8s.git

1.2、配置inventory

请按照inventory模板格式修改对应资源

#本组内填写etcd服务器及主机名
[etcd]
172.16.90.201 hostname=sh-etcd-01
172.16.90.202 hostname=sh-etcd-02
172.16.90.203 hostname=sh-etcd-03

#本组内填写master服务器及主机名
[master]
172.16.90.204 hostname=sh-master-01
172.16.90.205 hostname=sh-master-02
172.16.90.206 hostname=sh-master-03

[haproxy]
172.16.90.198 hostname=sh-haproxy-01 type=MASTER priority=100
172.16.90.199 hostname=sh-haproxy-02 type=BACKUP priority=90

#本组内填写node服务器及主机名
[worker]
172.16.90.207 hostname=sh-worker-01
172.16.90.208 hostname=sh-worker-02
172.16.90.209 hostname=sh-worker-03
  • 当haproxy和kube-apiserver部署在同一台服务器时,请确保端口不冲突。

1.3、配置集群安装信息

编辑group_vars/all.yml文件,填入自己的配置。

请注意:

  • 请尽量将etcd安装在独立的服务器上,不建议跟master安装在一起。数据盘尽量使用SSD盘。
  • Pod 和Service IP网段建议使用保留私有IP段,建议(Pod IP不与Service IP重复,也不要与主机IP段重复,同时也避免与docker0网卡的网段冲突。):
    • Pod 网段
      • A类地址:10.0.0.0/8
      • B类地址:172.16-31.0.0/12-16
      • C类地址:192.168.0.0/16
    • Service网段
      • A类地址:10.0.0.0/16-24
      • B类地址:172.16-31.0.0/16-24
      • C类地址:192.168.0.0/16-24

二、安装步骤

2.1、安装Ansible

CentOS7等系统需安装以下依赖才能安装ansible

yum -y install python36-PyYAML python36-asn1crypto python36-cffi python36-cryptography python36-idna python36-jinja2 python36-jmespath python36-markupsafe python36-paramiko python36-ply python36-pyasn1 python36-pycparser python36-six sshpass
  • 需要配置epel源

在单独的Ansible控制机执行以下命令安装Ansible

pip3 install ansible==2.9.21
pip3 install netaddr -i https://mirrors.aliyun.com/pypi/simple/

2.2、格式化并挂载数据盘

如已经自行格式化并挂载目录完成,可以跳过此步骤。

etcd数据盘

ansible-playbook fdisk.yml -i inventory -l etcd -e "disk=sdb dir=/var/lib/etcd"

containerd数据盘

ansible-playbook fdisk.yml -i inventory -l master,worker -e "disk=sdb dir=/var/lib/containerd"

2.3、部署集群

ansible-playbook cluster.yml -i inventory

如是公有云环境,使用公有云的负载均衡即可,无需安装haproxy和keepalived。

ansible-playbook cluster.yml -i inventory --skip-tags=haproxy,keepalived

三、扩容节点

3.1、扩容master节点

扩容时,请不要在inventory文件master组中保留旧服务器信息,仅保留扩容节点的信息。

格式化挂载数据盘

ansible-playbook fdisk.yml -i inventory -l ${SCALE_MASTER_IP} -e "disk=sdb dir=/var/lib/containerd"

执行节点初始化

ansible-playbook cluster.yml -i inventory -l ${SCALE_MASTER_IP} -t verify,cert,init

执行节点扩容

ansible-playbook cluster.yml -i inventory -l ${SCALE_MASTER_IP} -t master,containerd,cri-tools,cni-plugins,worker --skip-tags=bootstrap,create_worker_label

3.2、扩容node节点

扩容时,请不要在inventory文件worker组中保留旧服务器信息,仅保留扩容节点的信息。

格式化挂载数据盘

ansible-playbook fdisk.yml -i inventory -l ${SCALE_WORKER_IP} -e "disk=sdb dir=/var/lib/containerd"

执行节点初始化

ansible-playbook cluster.yml -i inventory -l ${SCALE_WORKER_IP} -t verify,cert,init

执行节点扩容

ansible-playbook cluster.yml -i inventory -l ${SCALE_WORKER_IP} -t containerd,cri-tools,cni-plugins,worker --skip-tags=bootstrap,create_master_label

四、替换集群证书

先备份并删除证书目录{{cert.dir}},然后执行以下步骤重新生成证书并分发证书。

ansible-playbook cluster.yml -i inventory -t cert,dis_certs

然后依次重启每个节点。

重启etcd

ansible -i inventory etcd -m systemd -a "name=etcd state=restarted"

验证etcd

etcdctl endpoint health \
        --cacert=/etc/etcd/pki/etcd-ca.pem \
        --cert=/etc/etcd/pki/etcd-healthcheck-client.pem \
        --key=/etc/etcd/pki/etcd-healthcheck-client.key \
        --endpoints=https://172.16.90.201:2379,https://172.16.90.202:2379,https://172.16.90.203:2379

逐个删除旧的kubelet证书

ansible -i inventory master,node -l ${IP} -m shell -a "rm -rf /etc/kubernetes/pki/kubelet-*"
  • -l参数更换为具体节点IP。

逐个重启节点

ansible-playbook cluster.yml -i inventory -l ${IP} -t restart_apiserver,restart_controller,restart_scheduler,restart_kubelet,restart_proxy,healthcheck
  • 如calico、metrics-server等服务也使用了etcd,请记得一起更新相关证书。
  • -l参数更换为具体节点IP。

五、升级kubernetes版本

请先编辑group_vars/all.yml,修改kubernetes.version为新版本。

安装kubernetes组件

ansible-playbook cluster.yml -i inventory -t install_kubectl,install_master,install_worker

更新配置文件

ansible-playbook cluster.yml -i inventory -t dis_master_config,dis_worker_config

然后依次重启每个kubernetes组件。

ansible-playbook cluster.yml -i inventory -l ${IP} -t restart_apiserver,restart_controller,restart_scheduler,restart_kubelet,restart_proxy,healthcheck
  • -l参数更换为具体节点IP。