K8S自学之路之集群搭建-亲测有效,无效你来捶我

瘢痂柯里化
• 阅读 3635
背景:过去应用大多是大型单体应用,他的开发周期长,运行在几台机器上就可以了,运维人员部署也不频繁,监控起来难度也没有那么大,但是还是面临着各种环境上的问题,有的时候在测试环境没有问题,上了生产就各种奇葩问题出现,这不免让开发运维人员都很头疼。最头疼的是随着微服务理念的兴起,大的单体服务被拆解成了一个个的小而独立的微服务组件,这使得开发迭代变得更加快速,服务数量越来越多,对于组件的配置,部署,监控,故障处理等一系列的问题都会从原来变成数倍,这简直就是运维的灾难。为了解决这个问题Kubernetes应运而生。

环境搭建

环境准备

  • CPU数:每个节点cpu核数必须 >=2核,否则无法启动。

  • DNS网络:设置位本地连通的DNS否则无法下载镜像。

  • linux内核:要求linux内核必须是4版本以上。

准备三台虚拟机或者云服务器(但是与服务器价钱太高划不来,可以使用VMware虚拟机进行搭建如果不知道如何使用VMware进行搭建集群事前准备的可以看我往期VMware集群搭建内容)

环境依赖


#1、为了方便,给每一台机器设置主机名
hostnamectl set-hostname k8s-master01
hostnamectl set-hostname k8s-node01
hostnamectl set-hostname k8s-node02
#查看主机名称
hostname
#给每一台机器配置ip host映射
vi /etc/hosts
192.168.70.128 k8s-master01
192.168.70.129 k8s-node01
192.168.70.130 k8s-node02
​
#2、安装依赖环境,注意:每一台机器都需要安装此依赖环境
yum install -y conntrack ntpdate ntp ipvsadm ipset jq iptables curl sysstat libseccomp wget vim net-tools git iproute lrzsz bash-completion tree bridge-utils unzip bind-utils gcc
​
#3、安装iptables,启动iptables,设置开机自启,清空iptables规则,保存当前规则到默认规则
#关闭防火墙
systemctl stop firewalld && systemctl disable firewalld
# 置空iptables 
yum -y install iptables-services && systemctl start iptables && systemctl enable iptables && iptables -F && service iptables save
​
#4、关闭selinux
#闭swap分区【虚拟内存】并且永久关闭虚拟内存
swapoff -a && sed -i '/ swap / s/^(.*)$/#1/g' /etc/fstab
#关闭selinux
setenforce 0 && sed -i 's/^SELINUX=.*/SELINUX=disabled/' /etc/selinux/config
​
#5、升级Linux内核为4以上
rpm -Uvh http://www.elrepo.org/elrepo-release-7.0-4.el7.elrepo.noarch.rpm
#安装内核
yum --enablerepo=elrepo-kernel install -y kernel-lt
#设置开机从新内核启动 
grub2-set-default 'CentOS Linux (5.4.111-1.el7.elrepo.x86_64) 7 (Core)'
#注意:设置完内核后,需要重启服务器才会生效!!
reboot
#查询内核
uname -r
#6、调整内核参数,对于k8s
cat > kubernetes.conf <<EOF
net.bridge.bridge-nf-call-iptables=1
net.bridge.bridge-nf-call-ip6tables=1
net.ipv4.ip_forward=1
vm.swappiness=0
vm.overcommit_memory=1
vm.panic_on_oom=0
fs.inotify.max_user_instances=8192
fs.inotify.max_user_watches=1048576
fs.file-max=52706963
fs.nr_open=52706963
net.ipv6.conf.all.disable_ipv6=1
net.netfilter.nf_conntrack_max=2310720
EOF
​
#将优化内核文件拷贝到/etc/sysctl.d/文件夹下,这样优化文件开机的时候能够被调用
cp kubernetes.conf /etc/sysctl.d/kubernetes.conf
#手动刷新,让优化文件立即生效
sysctl -p /etc/sysctl.d/kubernetes.conf
​

错误提示:

#如果在执行手动刷新的时候报
sysctl: cannot stat /proc/sys/net/netfilter/nf_conntrack_max: 没有那个文件或目录
#可能是 conntrack没有加载
#执行下边命令
lsmod |grep conntrack
modprobe ip_conntrack
#再次执行手动刷新发现好了
#7、关闭系统不需要的服务
systemctl stop postfix && systemctl disable postfix
#8、设置日志保存方式
#1).创建保存日志的目录
mkdir /var/log/journal
#2).创建配置文件存放目录
mkdir /etc/systemd/journald.conf.d
#3).创建配置文件
cat > /etc/systemd/journald.conf.d/99-prophet.conf <<EOF
[Journal]
Storage=persistent
Compress=yes
SyncIntervalSec=5m
RateLimitInterval=30s
RateLimitBurst=1000
SystemMaxUse=10G
SystemMaxFileSize=200M
MaxRetentionSec=2week
ForwardToSyslog=no
EOF
#4).重启systemd journald的配置
systemctl restart systemd-journald
​
#9.kube-proxy 开启 ipvs 前置条件
modprobe br_netfilter
​
cat > /etc/sysconfig/modules/ipvs.modules <<EOF
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack
EOF
​
#使用lsmod命令查看这些文件是否被引导 
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack
​

部署docker

#1、安装docker
yum install -y yum-utils device-mapper-persistent-data lvm2

#紧接着配置一个稳定(stable)的仓库、仓库配置会保存到/etc/yum.repos.d/docker-ce.repo文件中
yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo

#更新Yum安装的相关Docke软件包&安装Docker CE
yum update -y && yum install docker-ce -y

#2、设置docker daemon文件
#创建/etc/docker目录
mkdir /etc/docker -p
#更新daemon.json文件
cat > /etc/docker/daemon.json <<EOF
{
"registry-mirrors":["https://pee6w651.mirror.aliyuncs.com"]
}
EOF
#注意: 一定注意编码问题,出现错误:查看命令:journalctl -amu  docker 即可发现错误

#创建,存储docker配置文件
mkdir -p /etc/systemd/system/docker.service.d

#3、重新加载 重启docker服务 开启自启动
systemctl daemon-reload && systemctl restart docker && systemctl enable docker

kubeadm[一键安装k8s]

#1、安装kubernetes的时候,需要安装kubelet, kubeadm等包,但k8s官网给的yum源是packages.cloud.google.com,国内访问不了,此时我们可以使用阿里云的yum仓库镜像。
cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg 
 http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
​
#2、安装kubeadm、kubelet、kubectl (版本这个东西并不影响我们学习,1.15.1在学习上来说够用了)
yum install -y kubeadm-1.15.1 kubelet-1.15.1 kubectl-1.15.1
# 启动 kubelet
systemctl enable kubelet && systemctl start kubelet
# 验证安装成功,执行下边命令可以看到相关提示证明安装成功
kubectl --help 

构建集群

依赖镜像导入

# 查看我们安装过程中需要的镜像
kubeadm config images list
# 输出结果如果下
k8s.gcr.io/kube-apiserver:v1.15.1
k8s.gcr.io/kube-controller-manager:v1.15.1
k8s.gcr.io/kube-scheduler:v1.15.1
k8s.gcr.io/kube-proxy:v1.15.1
k8s.gcr.io/pause:3.1
k8s.gcr.io/etcd:3.3.10
k8s.gcr.io/coredns:1.3.1
​
# 大家可以使用导出的tar包,对于这个版本寻找我是废了很大周章,所以大家就使用我的就可以,如果向要其他版本的可以私信我。

大家可用他通过下载我的 提取码: zjdk 进行下载对应的镜像,下在完成上传到服务器/opt目录下

书写脚本进行导入;[你可以进入到opt/k8s一个一个的导入]

#!/bin/bash
ls  /opt/kubeadm-basic.images > /tmp/images-list.txt
cd  /opt/kubeadm-basic.images
for i in $(cat /tmp/images-list.txt)
do
 docker load -i $i
done
rm -rf /tmp/images-list.txt

#修改脚本执行权限
chmod 755 image-load.sh 
#执行脚本
./image-load.sh
# 传输文件及镜像到其他node节点
scp -r image-load.sh kubeadm-basic.images root@k8s-node01:/opt/ 
scp -r image-load.sh kubeadm-basic.images root@k8s-node02:/opt/ 

k8s部署

#初始化主节点 只在主节点执行。
#1.拉去镜像资源配置文件
kubeadm config print init-defaults > kubeadm-config.yaml
#2、修改yaml资源文件  下边需要修改的地方已经标记出来
apiVersion: kubeadm.k8s.io/v1beta2
bootstrapTokens:
- groups:
 - system:bootstrappers:kubeadm:default-node-token
 token: abcdef.0123456789abcdef
 ttl: 24h0m0s
 usages:
 - signing
 - authentication
kind: InitConfiguration
localAPIEndpoint:
 advertiseAddress: 192.168.70.128   # 此处使用你自己的ip
 bindPort: 6443
nodeRegistration:
 criSocket: /var/run/dockershim.sock
 name: k8s-master01
 taints:
 - effect: NoSchedule
 key: node-role.kubernetes.io/master
---
apiServer:
 timeoutForControlPlane: 4m0s
apiVersion: kubeadm.k8s.io/v1beta2
certificatesDir: /etc/kubernetes/pki
clusterName: kubernetes
controllerManager: {}
dns:
 type: CoreDNS
etcd:
 local:
 dataDir: /var/lib/etcd
imageRepository: k8s.gcr.io
kind: ClusterConfiguration
kubernetesVersion: v1.15.1   #此处使用你自己的版本
networking:
 dnsDomain: cluster.local
 podSubnet: 10.244.0.0/16   # 添加flannel模型通信 此处固定。
 serviceSubnet: 10.96.0.0/12
scheduler: {}  # 在下边在插入指定ipvs网络通信
---
apiVersion: kubeproxy.config.k8s.io/v1alpha1
kind: kubeProxyConfiguration
featureGates:
 SupportIPVSProxyMode: true
mode: ipvs
​
#3.初始化主节点,开始部署
kubeadm init --config=kubeadm-config.yaml --experimental-upload-certs | tee kubeadm-init.log

下边是常见错

##如果你的cpu是一个就会报下边错误,这就为甚最开始让大家使用2cpu的虚拟机
[ERROR NumCPU]: the number of available CPUs 1 is less than the required 2
​
##如果你docker服务忘记启动也会报错
error execution phase preflight: [preflight] Some fatal errors occurred:
 [ERROR CRI]: container runtime is not running: output: Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running?
, error: exit status 1
 [ERROR Service-Docker]: docker service is not active, please run 'systemctl start docker.service'
 [ERROR IsDockerSystemdCheck]: cannot execute 'docker info': exit status 1
 [ERROR SystemVerification]: failed to get docker info: Cannot connect to the Docker daemon at unix:///var/run/docker.sock. Is the docker daemon running?
[preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...`

构建成功会显示成下边的鸭子

[bootstrap-token] Creating the "cluster-info" ConfigMap in the "kube-public" namespace
[addons] Applied essential addon: CoreDNS
[addons] Applied essential addon: kube-proxy
​
Your Kubernetes control-plane has initialized successfully! # 表示构建成功
​
To start using your cluster, you need to run the following as a regular user:
​
 mkdir -p $HOME/.kube  # 下边三条是要求我们手动创建的
 sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
 sudo chown $(id -u):$(id -g) $HOME/.kube/config
​
You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
 https://kubernetes.io/docs/concepts/cluster-administration/addons/
​
Then you can join any number of worker nodes by running the following on each as root:
​
kubeadm join 192.168.70.128:6443 --token abcdef.0123456789abcdef 
 --discovery-token-ca-cert-hash sha256:a33be40c0ef657e7565b399e7b44ad27bdf6477fd54047c70fdd8e4ee24c2850

进行手动初始化

#创建目录,保存连接配置缓存,认证文件
mkdir -p $HOME/.kube
#拷贝集群管理配置文件
cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
#授权给配置文件
chown $(id -u):$(id -g) $HOME/.kube/config

执行命令前查询node

kubectl get node
# 显示下边结果 但是status为notReady,是因为我们还么有安装flannel网络插
NAME           STATUS     ROLES    AGE   VERSION
k8s-master01   NotReady    master   63m   v1.15.1

安装flannel插件

# kube-flannel.yml文件大家可以直接下载
https://pan.baidu.com/s/1w4IUIM7x2k85Lew-qTGY8g
提取码【zjdk】
# 开始部署flannel
kubectl apply -f kube-flannel.yml
# 查看系统po是否正常启动
kubectl get po -n kube-system
# 会显示下边的鸭子
NAME                                   READY   STATUS                  RESTARTS   AGE
coredns-5c98db65d4-p8x8v               0/1     Pending                 0          49m
coredns-5c98db65d4-ts4qm               0/1     Pending                 0          49m
etcd-k8s-master01                      1/1     Running                 1          48m
kube-apiserver-k8s-master01            1/1     Running                 1          49m
kube-controller-manager-k8s-master01   1/1     Running                 1          49m
kube-flannel-ds-amd64-mwbcq            0/1     Init:ImagePullBackOff   0          15m
kube-proxy-hhvqh                       1/1     Running                 1          49m
kube-scheduler-k8s-master01            1/1     Running                 1          49m
# 发现有的po没有成功拉取进项显示ImagePullBackOff。这是因为我们从仓库拉取镜像的时候失败了。

拉取镜像失败解决方案

# 因为我已经将镜像源换成了7牛云,还是拉不下来,我们可以更直接的将镜像下载到本地。
docker pull registry.cn-shanghai.aliyuncs.com/leozhanggg/flannel:v0.12.0-amd64
docker pull registry.cn-shanghai.aliyuncs.com/leozhanggg/flannel:v0.12.0-arm64
docker pull registry.cn-shanghai.aliyuncs.com/leozhanggg/flannel:v0.12.0-arm
docker pull registry.cn-shanghai.aliyuncs.com/leozhanggg/flannel:v0.12.0-ppc64le
docker pull registry.cn-shanghai.aliyuncs.com/leozhanggg/flannel:v0.12.0-s390x
# 重新打tag
docker tag registry.cn-shanghai.aliyuncs.com/leozhanggg/flannel:v0.12.0-amd64 quay-mirror.qiniu.com/coreos/flannel:v0.12.0-amd64
docker tag registry.cn-shanghai.aliyuncs.com/leozhanggg/flannel:v0.12.0-arm64 quay-mirror.qiniu.com/coreos/flannel:v0.12.0-arm64
docker tag registry.cn-shanghai.aliyuncs.com/leozhanggg/flannel:v0.12.0-arm quay-mirror.qiniu.com/coreos/flannel:v0.12.0-arm
docker tag registry.cn-shanghai.aliyuncs.com/leozhanggg/flannel:v0.12.0-ppc64le quay-mirror.qiniu.com/coreos/flannel:v0.12.0-ppc64le
docker tag registry.cn-shanghai.aliyuncs.com/leozhanggg/flannel:v0.12.0-s390x quay-mirror.qiniu.com/coreos/flannel:v0.12.0-s390x
# 然后再执行
kubectl apply -f kube-flannel.yml
kubectl get po -n kube-system
## 发现启动正常了。启动结果如下
[root@k8s-master01 ~]# kubectl get po -n kube-system
NAME                                   READY   STATUS    RESTARTS   AGE
coredns-5c98db65d4-p8x8v               1/1     Running   0          62m
coredns-5c98db65d4-ts4qm               1/1     Running   0          62m
etcd-k8s-master01                      1/1     Running   1          61m
kube-apiserver-k8s-master01            1/1     Running   1          61m
kube-controller-manager-k8s-master01   1/1     Running   1          61m
kube-flannel-ds-amd64-mwbcq            1/1     Running   0          27m
kube-proxy-hhvqh                       1/1     Running   1          62m
kube-scheduler-k8s-master01            1/1     Running   1          61m
# 我们再次查看node的时候发现已经是ready状态了
[root@k8s-master01 ~]# kubectl get node
NAME           STATUS   ROLES    AGE   VERSION
k8s-master01   Ready    master   63m   v1.15.1

主节点构建成功后会有一个日志文件kubeadm-init.log

cat kubeadm-init.log
#在文件的最后会发现下边这句话。我们就复制这个句话在各个节点进行执行
kubeadm join 192.168.70.128:6443 --token abcdef.0123456789abcdef 
 --discovery-token-ca-cert-hash sha256:a33be40c0ef657e7565b399e7b44ad27bdf6477fd54047c70fdd8e4ee24c2850 
## 执行成功后回到主节点我们在查看节点,虽然还是not ready 我们只需要等一会就好了。
[root@k8s-master01 ~]# kubectl get node 
NAME           STATUS     ROLES    AGE   VERSION
k8s-master01   Ready      master   70m   v1.15.1
k8s-node01     NotReady   <none>   20s   v1.15.1
k8s-node02     NotReady   <none>   17s   v1.15.1

说明,如果长时间一直处于not ready状态可以用一下方法进行查看

# 1.查看发现另外两个node节点下载不下来kube-flannel-ds-amd64,使用我们上边的方法进行下载镜像重新tag
 kubectl get pod -n kube-system -o wide
NAME                                   READY   STATUS                  RESTARTS   AGE     IP               NODE           NOMINATED NODE   READINESS GATES
coredns-5c98db65d4-p8x8v               1/1     Running                 1          22h     10.244.0.4       k8s-master01   <none>           <none>
coredns-5c98db65d4-ts4qm               1/1     Running                 1          22h     10.244.0.5       k8s-master01   <none>           <none>
etcd-k8s-master01                      1/1     Running                 2          22h     192.168.70.128   k8s-master01   <none>           <none>
kube-apiserver-k8s-master01            1/1     Running                 2          22h     192.168.70.128   k8s-master01   <none>           <none>
kube-controller-manager-k8s-master01   1/1     Running                 2          22h     192.168.70.128   k8s-master01   <none>           <none>
kube-flannel-ds-amd64-2zls4            0/1     Init:ImagePullBackOff   0          6m39s   192.168.70.129   k8s-node01     <none>           <none>
kube-flannel-ds-amd64-75clq            1/1     Running                 0          6m39s   192.168.70.128   k8s-master01   <none>           <none>
kube-flannel-ds-amd64-c6mhw            0/1     Init:ImagePullBackOff   0          6m39s   192.168.70.130   k8s-node02     <none>           <none>
kube-proxy-2m5rv                       1/1     Running                 1          21h     192.168.70.129   k8s-node01     <none>           <none>
kube-proxy-fwprm                       1/1     Running                 1          21h     192.168.70.130   k8s-node02     <none>           <none>
kube-proxy-hhvqh                       1/1     Running                 2          22h     192.168.70.128   k8s-master01   <none>           <none>
kube-scheduler-k8s-master01            1/1     Running                 2          22h     192.168.70.128   k8s-master01   <none>           <none>

#2.还可以可以进入到对应的ndoe服务上  查看节点错误,也会发现镜像下不来,把镜像拉取下来就好了。
journalctl -f -u kubelet
4月 12 20:17:24 k8s-node01 kubelet[807]: E0412 20:17:24.020709     807 kuberuntime_manager.go:749] init container start failed: ImagePullBackOff: Back-off pulling image "quay-mirror.qiniu.com/coreos/flannel:v0.12.0-amd64"
4月 12 20:17:24 k8s-node01 kubelet[807]: E0412 20:17:24.020784     807 pod_workers.go:190] Error syncing pod 69a5f6b6-ed51-45ce-9658-2706f63beaba ("kube-flannel-ds-amd64-8mt8d_kube-system(69a5f6b6-ed51-45ce-9658-2706f63beaba)"), skipping: failed to "StartContainer" for "install-cni" with ImagePullBackOff: "Back-off pulling image \"quay-mirror.qiniu.com/coreos/flannel:v0.12.0-amd64\""

这样我们就完成了一个k8s集群搭建。接下来我么看是学习他的核心组件。撒花

点赞
收藏
评论区
推荐文章
Wesley13 Wesley13
3年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
美凌格栋栋酱 美凌格栋栋酱
7个月前
Oracle 分组与拼接字符串同时使用
SELECTT.,ROWNUMIDFROM(SELECTT.EMPLID,T.NAME,T.BU,T.REALDEPART,T.FORMATDATE,SUM(T.S0)S0,MAX(UPDATETIME)CREATETIME,LISTAGG(TOCHAR(
Tommy744 Tommy744
4年前
容器DevOps,原来如此简单
当开发团队把代码提交到Git应用仓库的那一刻,他们心里在想什么?祈祷没有bug?渴望回家补觉?产品经理GoDie?对,也不对。因为这只是最终发布万里长征的一小步,接下来要面对测试环境、生产环境、客户环境,我这明明没问题到你那就崩的环境……其实,对开发和运维人员来说,心里最想的是一次创建或配置,可以在任意地方正常运行。据扯,2017年程序员们最痛恨的一首
Stella981 Stella981
3年前
Docker学习笔记
docker通过带环境安装来解决开发和运维之间的鸿沟问题,属于云计算方面的技术。也就是说安装的时候把原始环境一模一样地复制过来,开发人员利用Docker来消除协作代码时,“在我的机器上可以正常工作啊"的问题。一次构建,处处运行。dev本地测试完毕后,打包递交docker镜像,而运维则只装一个docker作为鲸鱼,将各个镜像放到鲸鱼背上作为独立的集装箱
Easter79 Easter79
3年前
Twitter的分布式自增ID算法snowflake (Java版)
概述分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的。有些时候我们希望能使用一种简单一些的ID,并且希望ID能够按照时间有序生成。而twitter的snowflake解决了这种需求,最初Twitter把存储系统从MySQL迁移
Stella981 Stella981
3年前
ELK项目es+kibana+jdk配置问题
简介ELK需求背景业务发展越来越庞大,服务器越来越多各种访问日志、应用日志、错误日志量越来越多开发人员排查问题,需要到服务器上查日志,不方便运营人员需要一些数据,需要我们运维到服务器上分析日志说白了就是日志那么多我要给你们搞牛逼的系统如果有机会再搞日志系统加消息列队eskafka消化来的数据ELK包含Elasti
Stella981 Stella981
3年前
DevOps背景下的分合之事
DevOps倡导“谁开发,谁运维”和开发运维一体化。那么是不是简单地把开发和运维人员放在一起就完事了呢?01—“插队”的故事小明入职时是运维专员,原来隶属于运维部门,负责某业务线系统的应用维护工作。一旦系统的生产环境出现任何故障,或者业务人员在生产环境上有任何请求,都是由小明所在的运维部门先处理,处理不了的,再联系该系
记一次SpringBoot服务生产环境内存占用过高的排查
缘起生产环境服务A部署在K8s上,某天运维告诉我这个服务经常会重启,客户没有报告是因为我们是滚动发布更新,先启动这个服务的一个新实例,然后将旧实例Kill掉,这样前端是无感知的,但重启是实实在在存在的,生产问题不可马虎,于是开启了定位问题之旅。过程定位问题
Java服务总在半夜挂,背后的真相竟然是... | 京东云技术团队
最近有用户反馈测试环境Java服务总在凌晨00:00左右挂掉,用户反馈Java服务没有定时任务,也没有流量突增的情况,Jvm配置也合理,莫名其妙就挂了
初识DevOps
基本概念和延伸的思考DevOps,是Development(开发)和Operations(运维)组成的复合词,一般译为“开发运维一体化”。看到这个概念,首先会产生几个问题:开发是什么,哪些环节是开发?运维是什么,哪些环节是运维?开发人员写好代码在本地调试,环境出问题了自己来调整,这是开发工作还是运维工作?系统故障后,运维人员发现是配置文件内容出错了就改成了正