企业🤖AI智能体构建引擎,智能编排和调试,一键部署,支持私有化部署方案 广告
# ***kubernetes 基于Jenkins的动态应用实部署实践*** ## # 自我介绍 - 光荣的武警战士 - 红帽RHCA讲师 - 知道创宇高级运维工程师 - 点融网资深运维工程师 ![点融金融](https://box.kancloud.cn/0d59f507459443658eef16bec9fcd27d_247x362.png) # 胡毅 yi.hu@dianrong.com ## # 目录 - Kubernetes Arch - Why install jenkins in kubernetes - 在kubernetes中使用Jenkins部署一个应用 ## kubernetes Arch - kubespray - k8s-cluser :v1.10.4 - docker: docker-ce-17.03.2.ce-1.el7.centos - nginx-ingress : - coresdns - kube-proxy(IPVS) ![](http://on-img.com/chart_image/5ad55cefe4b04721d61f6f0b.png?_=1535249246166) ## Cluster HA-mode ![image](https://raw.githubusercontent.com/kubernetes-incubator/kubespray/master/docs/figures/loadbalancer_localhost.png) ### kubernets 集群管理策略(一) - Taints and Tolerations master 所有主机添加Taints 规则 kubectl taint nodes dl-demo-k8s-master-01 node.kubernetes.io=unschedulable:NoSchedule kubectl taint nodes dl-demo-k8s-master-02 node.kubernetes.io=unschedulable:NoSchedule kubectl taint nodes dl-demo-k8s-master-03 node.kubernetes.io=unschedulable:NoSchedule 设置效果 Name: dl-demo-k8s-master-01 Roles: ingress,master,node Labels: beta.kubernetes.io/arch=amd64 beta.kubernetes.io/os=linux kubernetes.io/hostname=dl-demo-k8s-master-01 node-role.kubernetes.io/ingress=true node-role.kubernetes.io/master=true node-role.kubernetes.io/node=true Annotations: alpha.kubernetes.io/provided-node-ip=10.34.11.12 flannel.alpha.coreos.com/backend-data={"VtepMAC":"e6:20:4c:cf:4f:2b"} flannel.alpha.coreos.com/backend-type=vxlan flannel.alpha.coreos.com/kube-subnet-manager=true flannel.alpha.coreos.com/public-ip=10.34.11.12 node.alpha.kubernetes.io/ttl=0 volumes.kubernetes.io/controller-managed-attach-detach=true CreationTimestamp: Tue, 10 Jul 2018 15:06:51 +0800 Taints: node.kubernetes.io=unschedulable:NoSchedule master组件Deployment添加Tolerations 规则 tolerations: - key: node.kubernetes.io value: unschedulable effect: NoSchedule ### kubernetes 集群管理策略(二) - LimitRange 给一个namespace 设置全局资源限制规则 apiVersion: v1 kind: LimitRange metadata: name: ftc-demo-limit namespace: ftc-demo spec: limits: - max : # 在一个pod 中最高使用资源 cpu: "2" memory: "6Gi" min: # 在一个pod中最低使用资源 cpu: "100m" memory: "2Gi" type: Pod - default: # 启动一个Container 默认资源规则 cpu: "1" memory: "4Gi" defaultRequest: cpu: "200m" memory: "2Gi" max: #匹配用户手动指定Limits 规则 cpu: "1" memory: "4Gi" min: cpu: "100m" memory: "256Mi" type: Container 限制规则说明 * Container 资源限制总量必须 <= Pod 资源限制总和 * 在一个pod 中最高使用2 核6G 内存 * 在一个pod中最低使用100m核 2G 内存 * 默认启动一个Container服务 强分配cpu 200m,内存2G。Container 最高使用 1 cpu 4G 内存。 * 如果用户私有指定limits 规则。最高使用1 CPU 4G内存,最低使用 cpu 100m 内存 256Mi ## Why install jenkins in kubernetes ### 传统的 Jenkins Slave 一主多从方式会存在一些痛点? * 主 Master 发生单点故障时,整个流程都不可用了 * 每个 Slave 的配置环境不一样,来完成不同语言的编译打包等操作,但是这些差异化的配置导致管理起来非常不方便,维护起来也是比较费劲 * 资源分配不均衡,有的 Slave 要运行的 job 出现排队等待,而有的 Slave 处于空闲状态 * 资源有浪费,每台 Slave 可能是物理机或者虚拟机,当 Slave 处于空闲状态时,也不会完全释放掉资源。 正因为上面的这些种种痛点,我们渴望一种更高效更可靠的方式来完成这个 CI/CD 流程,而 Docker 虚拟化容器技术能很好的解决这个痛点,又特别是在 Kubernetes 集群环境下面能够更好来解决上面的问题,下图是基于 Kubernetes 搭建 Jenkins 集群的简单示意图 ![](https://blog.qikqiak.com/img/posts/k8s-jenkins-slave.png) 从图上可以看到 Jenkins Master 和 Jenkins Slave 以 Pod 形式运行在 Kubernetes 集群的 Node 上,Master 运行在其中一个节点,并且将其配置数据存储到一个 Volume 上去,Slave 运行在各个节点上,并且它不是一直处于运行状态,它会按照需求动态的创建并自动删除。 这种方式的工作流程大致为:当 Jenkins Master 接受到 Build 请求时,会根据配置的 Label 动态创建一个运行在 Pod 中的 Jenkins Slave 并注册到 Master 上,当运行完 Job 后,这个 Slave 会被注销并且这个 Pod 也会自动删除,恢复到最初状态。 那么我们使用这种方式带来了哪些好处呢? * 服务高可用,当 Jenkins Master 出现故障时,Kubernetes 会自动创建一个新的 Jenkins Master 容器,并且将 Volume 分配给新创建的容器,保证数据不丢失,从而达到集群服务高可用。 * 动态伸缩,合理使用资源,每次运行 Job 时,会自动创建一个 Jenkins Slave,Job 完成后,Slave 自动注销并删除容器,资源自动释放,而且 Kubernetes 会根据每个资源的使用情况,动态分配 Slave 到空闲的节点上创建,降低出现因某节点资源利用率高,还排队等待在该节点的情况。 * 扩展性好,当 Kubernetes 集群的资源严重不足而导致 Job 排队等待时,可以很容易的添加一个 Kubernetes Node 到集群中,从而实现扩展。 # 光说不练假把式 (实验演示一) ## # 在Jenkins中部署一个应用 - Pipeline VS Scripte ### 部署 Kubernetes 应用 如何来部署一个原生的 Kubernetes 应用呢? 部署一个kubernetes 应用流程如下: ![](http://on-img.com/chart_image/5b84ad40e4b0d4d65be96283.png?_=1535509752205) 1. pull代码 2. 测试registry,并登陆registry. 3. 编写应用 Dockerfile 4. 构建打包 Docker 镜像 5. 推送 Docker 镜像到仓库 6. 更改 Deployment YAML 文件中参数 7. 利用 kubectl 工具部署应用 8. 检查应用状态 ### 第一步,Pull 代码及全局环境变量申明 #!/bin/bash # Filename: k8s-deploy_v0.2.sh # Description: jenkins CI/CD 持续发布脚本 # Author: yi.hu # Email: yi.hu@dianrong.com # Revision: 1.0 # Date: 2018-08-10 # Note: prd # zookeeper基础服务,依照环境实际地址配置 init() { local lowerEnv="$(echo ${AppEnv} | tr '[:upper:]' 'lower')" case "${lowerEnv}" in dev) CFG_ADDR="10.34.11.186:4181" DR_CFG_ZOOKEEPER_ENV_URL="10.34.11.186:4181" ;; demo) CFG_ADDR="10.34.11.186:4181" DR_CFG_ZOOKEEPER_ENV_URL="10.34.11.186:4181" ;; *) echo "Not support AppEnv: ${AppEnv}" exit 1 ;; esac } # 函数执行 init # 初始化变量 AppId=$(echo ${AppOrg}_${AppEnv}_${AppName} |sed 's/[^a-zA-Z0-9_-]//g' | tr "[:lower:]" "[:upper:]") CFG_LABEL=${CfgLabelBaseNode}/${AppId} CFG_ADDR=${CFG_ADDR} VERSION=$(echo "${GitBranch}" | sed 's@release/@@') ### 第二步,登录harbor 仓库 docker_login () { docker login ${DOCKER_REGISTRY} -u${User} -p${PassWord} } ### 第三步,编译代码,制作应用镜像,上传镜像到harbor仓库。 build() { if [ "x${ACTION}" == "xDEPLOY" ] || [ "x${ACTION}" == "xPRE_DEPLOY" ]; then echo "Test harbor registry: ${DOCKER_REGISTRY}" curl --connect-timeout 30 -I ${DOCKER_REGISTRY}/api/projects 2>/dev/null | grep 'HTTP/1.1 200 OK' > /dev/null echo "Check image EXIST or NOT: ${ToImage}" ImageCheck_Harbor=$(echo ${ToImage} | sed 's/\([^/]\+\)\([^:]\+\):/\1\/api\/repositories\2\/tags\//') Responed_Code=$(curl -u${User}:${PassWord} -so /dev/null -w '%{response_code}' ${ImageCheck_Harbor} || true) echo ${Responed_Code} if [ "${NoCache}" == "true" ] || [ "x${ResponedCode}" != "x200" ] ; then if [ "x${ActionAfterBuild}" != "x" ]; then eval ${ActionAfterBuild} fi echo "生成Dockerfile文件" echo "FROM ${FromImage}" > Dockerfile cat >> Dockerfile <<-EOF ${Dockerfile} EOF echo "同步上层镜像: ${FromImage}" docker pull ${FromImage} # 同步上层镜像 echo "构建镜像,并Push到仓库: ${ToImage}" docker build --no-cache=${NoCache} -t ${ToImage} . && docker push ${ToImage} || exit 1 # 开始构建镜像,成功后Push到仓库 echo "删除镜像: ${ToImage}" docker rmi ${ToImage} || echo # 删除镜像 fi fi } ### 第四步,发布、预发布、停止、重启 deploy() { if [ "x${ACTION}" == "xSTOP" ]; then # 停止当前实例 kubectl delete -f ${AppName}-deploy.yaml elif [ "x${ACTION}" == "xRESTART" ]; then kubectl delete pod -n ${NameSpace} -l app=${AppName} elif [ "x${ACTION}" == "xDEPLOY" ]; then kubectl apply -f ${AppName}-deploy.yaml fi } ### 第五步,查看pod 是否正常启动,如果失败则返回1,进而会详细显示报错信息。 check_status() { RETRY_COUNT=5 echo "检查 pod 运行状态" while (( $RETRY_COUNT )); do POD_STATUS=$(kubectl get pod -n ${NameSpace} -l app=${AppName} ) AVAILABLE_COUNT=$(kubectl get deploy -n ${NameSpace} -l app=${AppName} | awk '{print $(NF-1)}' | grep -v 'AVAILABLE') if [ "X${AVAILABLE_COUNT}" != "X${Replicas}" ]; then echo "[$(date '+%F %T')] Show pod Status , wait 30s and retry #$RETRY_COUNT " echo "${POD_STATUS}" let RETRY_COUNT-- || true sleep 30 elif [ "X${AVAILABLE_COUNT}" == "X${Replicas}" ]; then echo "Deploy Running successed" break else echo "[$(date '+%F %T')] NOT expected pod status: " echo "${POD_STATUS}" return 1 fi done if [ "X${RETRY_COUNT}" == "X0" ]; then echo "[$(date '+%F %T')] show describe pod status: " echo -e "`kubectl describe pod -n ${NameSpace} -l app=${AppName}`" fi } #主流程函数执行 docker_login build ### 第六步, 更改 YAML 文件中参数 cat > ${WORKSPACE}/${AppName}-deploy.yaml <<- EOF ##################################################### # # ${ACTION} Deployment # ##################################################### apiVersion: apps/v1beta2 # for versions before 1.8.0 use apps/v1beta1 kind: Deployment metadata: name: ${AppName} namespace: ${NameSpace} labels: app: ${AppName} version: ${VERSION} AppEnv: ${AppEnv} spec: replicas: ${Replicas} selector: matchLabels: app: ${AppName} template: metadata: labels: app: ${AppName} spec: containers: - name: ${AppName} image: ${ToImage} ports: - containerPort: ${ContainerPort} livenessProbe: httpGet: path: ${HealthCheckURL} port: ${ContainerPort} initialDelaySeconds: 90 timeoutSeconds: 5 periodSeconds: 5 readinessProbe: httpGet: path: ${HealthCheckURL} port: ${ContainerPort} initialDelaySeconds: 5 timeoutSeconds: 5 periodSeconds: 5 # configmap env env: - name: CFG_LABEL value: ${CFG_LABEL} - name: HTTP_SERVER value: ${HTTP_SERVER} - name: CFG_ADDR value: ${CFG_ADDR} - name: DR_CFG_ZOOKEEPER_ENV_URL value: ${DR_CFG_ZOOKEEPER_ENV_URL} - name: ENTRYPOINT valueFrom: configMapKeyRef: name: ${ConfigMap} key: ENTRYPOINT - name: HTTP_TAR_FILES valueFrom: configMapKeyRef: name: ${ConfigMap} key: HTTP_TAR_FILES - name: WITH_SGHUB_APM_AGENT valueFrom: configMapKeyRef: name: ${ConfigMap} key: WITH_SGHUB_APM_AGENT - name: WITH_TINGYUN valueFrom: configMapKeyRef: name: ${ConfigMap} key: WITH_TINGYUN - name: CFG_FILES valueFrom: configMapKeyRef: name: ${ConfigMap} key: CFG_FILES # configMap volume volumeMounts: - name: applogs mountPath: /volume_logs/ volumes: - name: applogs hostPath: path: /opt/app_logs/${AppName} imagePullSecrets: - name: ${ImagePullSecrets} --- apiVersion: v1 kind: Service metadata: name: ${AppName} namespace: ${NameSpace} labels: app: ${AppName} spec: ports: - port: ${ContainerPort} targetPort: ${ContainerPort} selector: app: ${AppName} EOF ### 第七步,创建configmap 环境变量 kubectl delete configmap ${ConfigMap} -n ${NameSpace} kubectl create configmap ${ConfigMap} ${ConfigMapData} -n ${NameSpace} # 执行部署 deploy # 打印配置 cat ${WORKSPACE}/${AppName}-deploy.yaml # 执行启动状态检查 check_status ### 实验演示(二)