K8s无状态控制器原理介绍

Stella981
• 阅读 546

Pod控制器:

  ReplicationController:早期K8s只有这一个控制器,但后来发现让这一个来完成所有任务,太复杂.因此被废弃.
  ReplicaSet: 它用于帮助用户创建指定数量的Pod副本,并确保Pod副本数量一直满足用户期望的副本数量。
        副本数量"多退少补"等机制。【它可认为就是ReplicationController的新版本。】
   它由三个主要组件组成:
     1. 用户期望的Pod的副本数量.
        2. 标签选择器: 使用它来选择自己管理的Pod
        3. Pod模板: 若标签选择器选择的副本数量不足,则根据Pod模板来新建.
  Deployment: 它用于帮我们管理无状态Pod的最好的控制器.
      它支持滚动更新,回滚,它还提供了声明式配置的功能,它允许我们将来根据声明的配置逻辑来定义,
      所有定义的资源都可随时进行重新声明,只要该资源定义允许动态更新。
  DaemonSet:用于确保集群节点上只运行一个Pod的控制器。它一般用于构建系统级应用时使用。
      它不能定义副本数量,副本数量要根据集群的规模来自动创建, 即: 若集群中新加入了一个
      node节点,DaemonSet将自动使用Pod模板在新节点上创建一个Pod,并精确保障每个节点上仅
      运行一个Pod. 所以此控制器,必须要有Pod模板 和 标签选择器。
      它还有另一个作用:就是用于控制Pod仅运行在指定满足条件的节点上,并精确确保其只运行一个Pod.
    它所管理的Pod:
      1. 必须是守护进程,要持续运行在后台。
      2. 它没有终止那一刻,即便不忙,它也监听文件的变动 或 用户对某套接字的请求
  Job: 主要用于创建一个完整指定任务的Pod,一旦任务完成,就会退出;但是若任务未完成,则会重新启动,直到任务完成.
  Cronjob: 它是定义一个周期性任务,Pod启动后,和Job启动的Pod类似,也是任务执行完成后才会终止重启。
      同时它还会自动处理一个任务还未完成,下一个启动时间已经到了的问题。

控制器示例:
ReplicaSet控制器示例:
  #若想了解下面每个参数的含义,可查看 kubectl  explain  replicaset

  vim replicaset.yaml
    apiVersion: apps/v1           #一般来说,一个清单文件的基本格式:
    kind: ReplicaSet      #apiVersion,kind,metadata这是必须的,下面对 spec是replicaSet的一个必要参数.
    metadata:          #要查看spec支持那些参数: kubectl  explain  replicaset.spec 即可.
      name: myapp
      namespace: default
    spec:
      replicas: 2         #这里是定义ReplicaSet的副本数量.
      selector:
       matchLabels:
        app: myapp
        release: canary
      template:    #查看template支持那些参数: kubectl  explain replicaset.spec.template即可查看.
        metadata:
         name: myapp-pod    #通常Pod的名称空间必须和控制器的名称空间一致,故可省略.
         labels:      #这里创建Pod的标签必须和selector的标签符合,否则此Pod将永久被创建下去。
          app: myapp
          release: canary
        spec:
         containers:
         -  name: myapp-container
          image: busybox
          ports:
          -  name:http
           containerPort: 80

#启动:
  kubectl create -f replicaSet.yaml
  kubectl get pods
  kubectl get rs

  kubectl delete pods PodName
  kubectl get pods        #可以查看控制器控制下的Pod个数少了,会自动被创建.

  #接下来测试,控制器控制下的Pod多了会怎么
    kubectl label pods PodName release=canary,app=myapp #给Pod添加标签
    kubectl get pods --show-labels
    注:
        此测试也说明: 在定义控制器所管理的Pod时,一定要精确定义Pod的标签,
     尽量避免出现,用户创建的Pod标签正好和你定义的控制器符合,产生悲剧!
    另外:
      service 和 控制器它们没有直接关系,只是它们都使用标签选择器来获取Pod,
      这也意味着一个Service可管理多个控制器所创建的Pod.

#控制器的配置是支持动态更新的.
  kubectl edit rs replicaset   #将其副本数量修改一个再查看效果。

#它还支持动态更新Pod的镜像版本.
  kubectl edit rs replicaset
  kubectl get rs -o wide
  注:
   这里查看到Pod镜像版本修改了,但实际上正在运行的Pod的镜像版本并没有改变.
  这时若你手动删除一个Pod,新建的Pod将使用新版本创建.
  这样就可以轻松实现 金丝雀 发布更新了,即: 先删除一个,让一个Pod使用新版本,使用新版本Pod
  会得到一部分流量,这一部分流量就可以作为测试流量,若2天后,没有发现用户抱怨Bug,则可以
  手动将Pod一个一个删除,并替换成新版本的Pod。

Deployment:

  K8s无状态控制器原理介绍

    它是ReplicaSet控制器的控制器,即: Deployment控制器它不直接用于管理Pod,它是用来管理
  ReplicaSet控制器的,这样做的好处是,可实现动态更新和回滚,如上图所示,它能实现
  多种更新方式,上图显示的是 灰度更新 过程,它将ReplicaSetV1控制的Pod,每次一个的
  删除,并在ReplicaSetV2上重建,若ReplicaSetV2上线后,有问题,还能快速回滚到V1.
  通常来说Deployment不会直接删除ReplicaSet,它会保留10个版本,以便回滚使用。

 它通过更新Pod的粒度来实现 灰度更新,金丝雀更新,蓝绿更新。
 它控制Pod创建粒度是 比如:
  1.在删除时,必须保障有5个Pod,但可临时多一个Pod,则它会创建一个,删除一个. 直到全部替换。
  2.必须保障有5个,但可临时少一个Pod,则它会先删除一个,在创建一个,直到全部替换。
  3.必须保障有5个,但可多一个,也可少一个,此时它会创建一个,删除两个,再创建2个,再删除2个,直到全部替换。
  4.还有一种是允许临时多出一倍,则它会一次性创建5个,然后直接替换使用新的Pod,在把老的Pod删除。

Deployment控制参数:
  strategy:    #设置更新策略
  type <Recreate|RollingUpdate>    #指定更新策略类型.Recreate: 它是删除一个,重建一个.
                           RollingUpdate: 这是滚动更新。
  rollingUpdate:
    maxSurge: 用于定义滚动更新时,副本最多允许增加几个. 它支持两种值:
          5: 表示副本数最多增加5个。
          20%: 若你有10个Pod副本, 20%就是最多增加2个副本.
    maxUnavailable: 最多允许几个不可用.它也支持整数 或 百分比.
  revisionHistoryLimit    #设置保存几个历史ReplicaSet版本.默认10个
  paused       #是否在更新前先暂停

vim  myapp-deploy.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
     name: myapp-deploy
     namespace: default
spec:
     replicas: 2
     selector:
         matchLabels:
             app:myapp
             release: canary
     template:
            metadata:
                labels:
                     app:myapp
                     release: canary
            spec:
                 cantainers:
                  -   name: myapp
                       image: busybox
                       ports:
                       -   name:http
                           containerPort: 80

#编写以上清单文件后,就可以执行:
  kubectl apply -f deploy-demo.yaml

  kubectl get deploy
  kubectl get rs

  vim deploy-demo.yaml
    #修改副本数量为4

  kubectl apply -f deploy-demo.yaml    #修改后再次apply是运行,apply可应用配置多次,并且它会自动反映出清单的变化.

  kubectl describe deploy myapp-deploy    #查看Annotaions,RollingUpdateStrategy.

  #测试动态滚动更新
    vim deploy-demo.yaml
      修改镜像的版本为新版本.

  终端2:
    kubectl get pods -l app=myapp -w

  终端1:
    kubectl apply -f deploy-demo.yaml

  再到终端2上查看滚动更新的效果。
    kubectl get rs -o wide    #可查看到多了一个rs,而且旧版rs的数据都是0.

    kubectl rollout history deployment myapp-deploy    #查看滚动更新的历史

#通过给配置文件打补丁的方式来动态更新:
  kubectl patch deployment myapp-deploy -p '{"spec":{"replicas":5}}'
    注: 这样也可以动态修改 myapp-deploy这个Deployment控制器的参数.

  kubectl get pods #可看到Pod个数已经动态创建了。

#动态修改Deployment控制器滚动更新的策略:
  kubectl patch deployment myapp-deploy -p '{"spec":{"strategy":{"rollingUpdate":{"maxSurge":1,"maxUnavailable":0}}}}'

  kubectl describe deploy myapp-deploy    #查看更新策略

#修改Deployment控制器下Pod的镜像为新版本,然后实现金丝雀更新.
  终端1:
    kubectl get pods -l app=myapp -w

  终端2:
    kubectl set image deployment myapp-deploy myapp=busybox:v3
    kubectl rollout pause deployment myapp-deploy

  终端3:
    kubectl rollout status deployment myapp-deploy

  终端2:
    kubectl rollout resume deployment myapp-deploy

    kubectl get rs -o wide

#回滚到指定版本
  kubectl rollout history deployment myapp-deploy
    deployment.extensions/myapp-deploy
    REVISION CHANGE-CAUSE
      0   
      2   
      3  
      4   
      5   

  kubectl rollout undo deployment myapp-deploy --to-revision=3

  kubectl rollout history deployment myapp-deploy    #可以看到第一版成为第四版.
    deployment.extensions/myapp-deploy
    REVISION CHANGE-CAUSE
      0   
      4   
      5   
      6    #先回到3版本,这里显示为第6版
      7    #接着又尝试回到2版本, 这里显示就是7版本.

daemonSet控制器:
  #查看daemonSet控制器的语法
    kubectl explain ds
    kubectl explain ds.spec

vim  ds-demo.yaml
apiVersion: apps/v1
kind: DaemonSet
metadata:
   name: filebeat-ds
   namespace: default
spec:
  selector:
     matchLabels:
       app:filebeat
       release:stable
  template:
    metadata:
       labels:
         app: filebeat
         release: stable
    spec:
      containers:
      -  name: filebeat
         image: ikubernetes/filebeat:5.6.5-alpine
         env:          #env的用法: kubectl explain  pods.spec.containers.env
         - name: REDIS_HOST
           value: redis.default.svc.cluster.local
         - name: REDIS_LOG_LEVEL
           value: info

  #接着使用apply来应用daemonSet控制器的配置清单创建Pod资源.
  kubectl apply -f ds-demo.yaml

#将多个相关的资源定义在一起的方式,这是工作中常用的方式.
vim  ds-demo.yaml
apiVersion: apps/v1
kind: Deployment
metadata:
  name: redis
  namespace: default
spec:
  replicas: 1
  selector:
    matchLabels:
     app: redis
     role: logstor
  template:
    metadata:
     labels:
        app: redis
        role: logstor
     spec:
       containers:
       -  name: redis
          image: redis:4.0-alpine
          ports:
          - name: redis
            containerPort:6379
---      #这表示分隔符.
apiVersion: apps/v1
kind: DaemonSet
metadata:
  name: filebeat-ds
  namespace: default
spec:
  selector:
    matchLabels:
       app:filebeat
       release:stable
  template:
    metadata:
      labels:
       app: filebeat
       release: stable
    spec:
      containers:
      - name: filebeat
        image: ikubernetes/filebeat:5.6.5-alpine
        env:
        -  name: REDIS_HOST
           value: redis.default.svc.cluster.local
           #fiebeat通过环境变量找到redis的前端service,注意这里指定的名字是redis的前端服务名,而非随意写!
        -  name: REDIS_LOG_LEVEL
           value: info

  #因为此前通过daemonSet创建了两个Pod资源,为了避免冲突,先删除Pod资源.
  kubectl delete -f ds-demo.yaml

#接着再同时创建redis和fliebeat两个Pod资源.
  kubectl apply -f ds-demo.yaml

#接着为redis创建一个服务,来暴露redis的服务端口,以便filebeat可以将日志发送给服务,服务再将日志转发给redis.
  kubectl expose deployment redis --port=6379
  kubectl get svc      #查看创建的service

#验证redis是否可以收到filebeat的日志.
  kubectl get pods      #等redis处于running状态就可以登陆查看了.
  kubectl exec -it redis-5b5d.... -- /bin/sh
  / data # netstat -tnl
  / data # nslookup redis.default.svc.cluster.local    #解析redis的域名.
  / data # redis-cli -h redis.default.svc.cluster.local     #验证能否通过域名直接登陆redis
  / data # keys *          #登陆redis成功后,查看是否有key被创建.

#登陆filebeat查看状态
  kubectl exec -it filebeat-ds-h776m -- /bin/sh
  / # ps uax
  / # cat /etc/filebeat/filebeat.yml    #查看其配置文件中redis的定义.
  / # printenv            #查看环境变量.
  / # kill -1 1            #使用-1信号 让filebeat重读配置文件,这会导致Pod重启,不过没事.

#另外,通过-o wide 可以看到daemonSet定义的Pod一定是一个节点上运行一个Pod.
  kubectl get pods -l app=filebeat -o wide    #daemonSet定义的Pod不运行在主节点上,
                      #主要是因为前面部署时,定义了Master节点是不调度的.
#测试时,发现以下问题:
  # kubectl get node
    NAME STATUS ROLES AGE VERSION
    192.168.111.80 Ready node 2d21h v1.13.5
    192.168.111.81 Ready node 2d21h v1.13.5
192.168.111.84 Ready,SchedulingDisabled master 2d21h v1.13.5 #主节点配置了,不调度,即污点.
    192.168.111.85 NotReady,SchedulingDisabled master 2d21h v1.13.5

  # kubectl get pod -l app=filebeat -o wide
    NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
    filebeat-ds-8gfdr 1/1 Running 0 13m 10.10.171.2 192.168.111.81
filebeat-ds-ml2bk 1/1 Running 1 13m 10.10.240.193 192.168.111.84 #竟然运作在主节点上了!!
    filebeat-ds-zfx57 1/1 Running 0 13m 10.10.97.58 192.168.111.80
    #从运行状态上看, 符合DaemonSet的特性,每个节点都运行一个. 但为啥它能运行在Master上,原因不明?

#daemonSet也是支持滚动更新的,怎么更新?
  kubectl explain ds.spec.updatestrategy.rollingUpdate    #它只支持先删一个在创建一个, 因为一个节点只能运行一个Pod.

#定义daemonSet控制器filebeat-ds 滚动更新其下管理的Pod的image 升级到filebeat:5.6.6-alpine
  kubectl set image daemonsets filebeat-ds filebeat=ikubernetes/filebeat:5.6.6-alpine

#查看Pod的更新过程
  kubectl get pods -w

DaemonSet的更新策略:
  updateStrategy:
  type <RollingUpdate |OnDelete>    #OnDelete: 即删除时创建。

#动态更新DaemonSet:
  kubectl get ds
  kubectl set image daemonSets filebeat-ds filebeat=ikubernetes/filebeat:5.6.6-alpine

  终端2:
    kubectl get pods -w

  #让pod和宿主机的共享名称空间:
  Pods:
    hostNetwork #让Pod共享宿主机的网络名称空间,启动Pod后,可直接访问宿主机的80,来访问容器.
    hostPID    #这其实就是Docker网络模型中与宿主机共享网络名称空间的模型.
    hostIPC

点赞
收藏
评论区
推荐文章
blmius blmius
2年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
Jacquelyn38 Jacquelyn38
2年前
2020年前端实用代码段,为你的工作保驾护航
有空的时候,自己总结了几个代码段,在开发中也经常使用,谢谢。1、使用解构获取json数据let jsonData  id: 1,status: "OK",data: 'a', 'b';let  id, status, data: number   jsonData;console.log(id, status, number )
皕杰报表之UUID
​在我们用皕杰报表工具设计填报报表时,如何在新增行里自动增加id呢?能新增整数排序id吗?目前可以在新增行里自动增加id,但只能用uuid函数增加UUID编码,不能新增整数排序id。uuid函数说明:获取一个UUID,可以在填报表中用来创建数据ID语法:uuid()或uuid(sep)参数说明:sep布尔值,生成的uuid中是否包含分隔符'',缺省为
Stella981 Stella981
2年前
KVM调整cpu和内存
一.修改kvm虚拟机的配置1、virsheditcentos7找到“memory”和“vcpu”标签,将<namecentos7</name<uuid2220a6d1a36a4fbb8523e078b3dfe795</uuid
Easter79 Easter79
2年前
Twitter的分布式自增ID算法snowflake (Java版)
概述分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的。有些时候我们希望能使用一种简单一些的ID,并且希望ID能够按照时间有序生成。而twitter的snowflake解决了这种需求,最初Twitter把存储系统从MySQL迁移
Wesley13 Wesley13
2年前
mysql设置时区
mysql设置时区mysql\_query("SETtime\_zone'8:00'")ordie('时区设置失败,请联系管理员!');中国在东8区所以加8方法二:selectcount(user\_id)asdevice,CONVERT\_TZ(FROM\_UNIXTIME(reg\_time),'08:00','0
Wesley13 Wesley13
2年前
00:Java简单了解
浅谈Java之概述Java是SUN(StanfordUniversityNetwork),斯坦福大学网络公司)1995年推出的一门高级编程语言。Java是一种面向Internet的编程语言。随着Java技术在web方面的不断成熟,已经成为Web应用程序的首选开发语言。Java是简单易学,完全面向对象,安全可靠,与平台无关的编程语言。
Stella981 Stella981
2年前
Django中Admin中的一些参数配置
设置在列表中显示的字段,id为django模型默认的主键list_display('id','name','sex','profession','email','qq','phone','status','create_time')设置在列表可编辑字段list_editable
Wesley13 Wesley13
2年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
Python进阶者 Python进阶者
3个月前
Excel中这日期老是出来00:00:00,怎么用Pandas把这个去除
大家好,我是皮皮。一、前言前几天在Python白银交流群【上海新年人】问了一个Pandas数据筛选的问题。问题如下:这日期老是出来00:00:00,怎么把这个去除。二、实现过程后来【论草莓如何成为冻干莓】给了一个思路和代码如下:pd.toexcel之前把这