当前位置 : 主页 > 操作系统 > centos >

kubernetes集群环境搭建

来源:互联网 收集:自由互联 发布时间:2023-08-21
部署方式 Kubernetes 有多种部署方式,目前主流的方式有:minikube、kubeadm、二进制包等。 在生产环境 Kubernetes 集群主要有两种方式: 1. kubeadm Kubeadm 是一个 K8s 部署工具,提供 kubeadm init

部署方式

Kubernetes 有多种部署方式,目前主流的方式有:minikube、kubeadm、二进制包等。

在生产环境 Kubernetes 集群主要有两种方式:

1. kubeadm

Kubeadm 是一个 K8s 部署工具,提供 kubeadm init 和 kubeadm join,用于快速部署 Kubernetes 集群。

官方地址:

​​https://kubernetes.io/docs/reference/setup-tools/kubeadm/kubeadm/​​

2. 二进制包

从 github 下载发行版的二进制包,手动部署每个组件,组成 Kubernetes 集群。

Kubeadm 降低部署门槛,但屏蔽了很多细节,遇到问题很难排查。如果想更容易可控,推荐使用二进制包部署 Kubernetes 集群,虽然手动部署麻烦点,期间可以学习很多工作原理,也利于后期维护。

kubernetes集群环境搭建_linux

3 kubeadm 部署方式介绍

kubeadm 是官方社区推出的一个用于快速部署 kubernetes 集群的工具,这个工具能通过两条指令完成一个 kubernetes 集群的部署:

  • 创建一个 Master 节点 kubeadm init
  • 将 Node 节点加入到当前集群中$ kubeadm join <Master 节点的IP 和端口

4 部署要求

在开始之前,部署 Kubernetes 集群机器需要满足以下几个条件:

  • 一台或多台机器,操作系统 CentOS7.x-86_x64
  • 硬件配置:2GB 或更多 RAM,2 个 CPU 或更多 CPU,硬盘 30GB 或更多
  • 集群中所有机器之间网络互通
  • 可以访问外网,需要拉取镜像
  • 禁止 swap 分区

5 最终目标

  • 在所有节点上安装 Docker 和 kubeadm
  • 部署 Kubernetes Master
  • 部署容器网络插件
  • 部署 Kubernetes Node,将节点加入 Kubernetes 集群中
  • 部署 Dashboard Web 页面,可视化查看 Kubernetes 资源

6 准备环境

kubernetes集群环境搭建_加载_02

本文采用三节点进行部署,mini1 代表 Master 节点,mini2、mini3 代表 node 节点。

kubernetes集群环境搭建_docker_03

7 环境初始化

下面 2.6.1 - 2.6.11 章节的执行步骤在三台机器上全部执行,截图只展示 mini1的内容!!!

7.1 检查操作系统的版本

# 此方式下安装 kubernetes 集群要求 Centos 版本要在 7.5 或之上
[root@mini1 ~]# cat /etc/redhat-release
CentOS Linux release 7.6.1810 (Core)

7.2 主机名解析

在 hosts 文件配置 IP 地址映射

# 主机名成解析 编辑三台服务器的/etc/hosts文件,添加下面内容
192.168.244.131 mini1
192.168.244.132 mini2
192.168.244.133 mini3

7.3 时间同步

kubernetes 要求集群中的节点时间必须精确一直,这里使用 chronyd 服务从网络同步时间

企业中建议配置内部的会见同步服务器

chronyd 安装教程如下:

# 启动chronyd服务
[root@mini1 ~]# yum install -y chrony
[root@mini1 ~]# systemctl start chronyd
[root@mini1 ~]# systemctl enable chronyd
[root@mini1 ~]# date

7.4  禁用 iptable 和 firewalld 服务

kubernetes和docker 在运行的中会产生大量的iptables规则,为了不让系统规则跟它们混淆,直接关闭系统的规则

# 1 关闭firewalld服务
[root@mini1 ~]# systemctl stop firewalld
[root@mini1 ~]# systemctl disable firewalld
# 2 关闭iptables服务
[root@mini1 ~]# systemctl stop iptables
[root@mini1 ~]# systemctl disable iptables

7.5 禁用 selinux

selinux 是 linux 系统一下的一个安全服务,如果不关闭它,在安装集群中会产生各种各样的奇葩问题

# 编辑 /etc/selinux/config 文件,修改SELINUX的值为disable
# 注意修改完毕之后需要重启linux服务
SELINUX=disabled

7.6 禁用 swap 分区

swap 分区值是虚拟内存分区,它的作用是物理内存使用完之后将磁盘空间虚拟成内存来使用,启用 swap 设备会对系统的性能产生非常负面的影响,因此 kubernetes 要求每个节点都要禁用 swap 设备,但是如果因为某些原因确实不能关闭 swap 分区,就需要在集群安装过程中通过明确的参数进行配置说明

# 编辑分区配置文件/etc/fstab,注释掉swap分区一行
# 注意修改完毕之后需要重启linux服务
vim /etc/fstab
注释掉 /dev/mapper/centos-swap swap
# /dev/mapper/centos-swap swap

7.7 修改 linux 的内核参数

# 修改 linux 的内核采纳数,添加网桥过滤和地址转发功能
# 编辑/etc/sysctl.d/kubernetes.conf文件,添加如下配置:
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1

# 重新加载配置
[root@mini1 ~]# sysctl -p
# 加载网桥过滤模块
[root@mini1 ~]# modprobe br_netfilter
# 查看网桥过滤模块是否加载成功
[root@mini1 ~]# lsmod | grep br_netfilter

7.8 配置 ipvs 功能

在 Kubernetes 中 Service 有两种模型,一种是基于 iptables 的,一种是基于 ipvs 的,两者比较的话,ipvs的性能明显要高一些,但是如果要使用它,需要手动载入ipvs模块

# 1.安装ipset和ipvsadm
[root@mini1 ~]# yum install ipset ipvsadmin -y
# 2.添加需要加载的模块写入脚本文件
[root@mini1 ~]# cat <<EOF> /etc/sysconfig/modules/ipvs.modules
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF
# 3.为脚本添加执行权限
[root@mini1 ~]# chmod +x /etc/sysconfig/modules/ipvs.modules
# 4.执行脚本文件
[root@mini1 ~]# /bin/bash /etc/sysconfig/modules/ipvs.modules
# 5.查看对应的模块是否加载成功
[root@mini1 ~]# lsmod | grep -e -ip_vs -e nf_conntrack_ipv4
# 6.重启服务
[root@mini1 ~]# reboot

7.9 安装docker

# 1、切换镜像源
[root@mini1 ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo

# 2、查看当前镜像源中支持的docker版本
[root@mini1 ~]# yum list docker-ce --showduplicates

# 3、安装特定版本的docker-ce
# 必须制定--setopt=obsoletes=0,否则yum会自动安装更高版本
[root@mini1 ~]# yum install --setopt=obsoletes=0 docker-ce-18.06.3.ce-3.el7 -y

# 4、添加一个配置文件
#Docker 在默认情况下使用 Vgroup Driver 为 cgroupfs,而 Kubernetes推荐使用 systemd 来替代 cgroupfs
[root@mini1 ~]# mkdir /etc/docker
[root@mini1 ~]# cat <<EOF> /etc/docker/daemon.json
{
"exec-opts": ["native.cgroupdriver=systemd"],
"registry-mirrors": ["https://kn0t2bca.mirror.aliyuncs.com"]
}
EOF

# 5、启动 dokcer
[root@mini1 ~]# systemctl restart docker
[root@mini1 ~]# systemctl enable docker

7.10 安装Kubernetes组件

# 1、由于 kubernetes 的镜像在国外,速度比较慢,这里切换成国内的镜像源
# 2、添加下面的配置
[root@mini1 ~]# cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

# 3、安装kubeadm、kubelet和kubectl
[root@mini1 ~]# yum install -y kubectl-1.17.4-0 kubeadm-1.17.4-0 kubelet-1.17.4-0

# 4、配置kubelet的cgroup
#vim /etc/sysconfig/kubelet, 添加下面的配置
KUBELET_CGROUP_ARGS="--cgroup-driver=systemd"
KUBE_PROXY_MODE="ipvs"

# 5、设置kubelet开机自启
[root@mini1 ~]# systemctl enable kubelet

7.11 准备集群镜像

# 在安装 kubernetes 集群之前,必须要提前准备好集群需要的镜像,所需镜像可以通过下面命令查看
[root@mini1 ~]# kubeadm config images list

# 下载镜像
# 此镜像 kubernetes 的仓库中,由于网络原因,无法连接,下面提供了一种替换方案
[root@mini1 ~]# images=(
kube-apiserver:v1.17.4
kube-controller-manager:v1.17.4
kube-scheduler:v1.17.4
kube-proxy:v1.17.4
pause:3.1
etcd:3.4.3-0
coredns:1.6.5
)

[root@mini1 ~]# for imageName in ${images[@]};do
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName k8s.gcr.io/$imageName
docker rmi registry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
done

kubernetes集群环境搭建_加载_04

使用 docker images 查看一下下载的镜像。

kubernetes集群环境搭建_docker_05

7.12 集群初始化

下面的操作只需要在 mini1 节点上执行即可

# 创建集群
[root@mini1 ~]# kubeadm reset init \
--kubernetes-version v1.17.4 \
--pod-network-cidr=10.244.0.0/16 \
--service-cidr=10.96.0.0/12 \
--apiserver-advertise-address=192.168.244.131

上面的步骤执行完后,当看到如下截图,证明 kubernetes 控制面板已经初始化成功!

kubernetes集群环境搭建_linux_06

紧接着,在 mini1 主节点执行下面的操作

# 创建必要文件
[root@mini1 ~]# mkdir -p $HOME/.kube
[root@mini1 ~]# sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
[root@mini1 ~]# sudo chown $(id -u):$(id -g) $HOME/.kube/config

下面的操作只需要在 mini2,mini3  node 节点上执行即可

# 1.先在主节点 mini1 生成 token,然后复制生成的token
[root@mini1 ~]# kubeadm token create --print-join-command

#2.查询一下其他 node 节点端口是否占用
[root@mini2 ~]# lsof -i:10250
[root@mini3 ~]# lsof -i:10250
#3. 杀死占用的端口进程
[root@mini2 ~]# kill -9 xx
[root@mini3 ~]# kill -9 xx
#4.复制 mini1 生成的 token 在mini2、mini3 节点执行

# 5 在 mini1 master 节点上查看节点信息
[root@mini1 ~]# kubectl get nodes

截图如下:上面执行的那些命令的含义是将 mini2,mini3 node 节点添加到主节点中

kubernetes集群环境搭建_linux_07

从上述截图,我们可以看到 mini1、mini2、mini3 三个节点的网络状态都是 NotReady 状态,还不能通信,所以我们需要安装网络插件进行节点间通信。

7.13 安装网络插件

只在 mini1 节点操作即可,插件使用的是DaemonSet 控制器,它会在每个节点上运行。

(1)下载 kube-flannel.yml 文件

wget https://github.com/flannel-io/flannel/tree/master/Documentation/kube-flannel.yml

(2)将文件导出来,修改文件中 quay.io 仓库为 quay-mirror.qiniu.com

kubernetes集群环境搭建_docker_08

(3)使用配置文件启动 fannel

kubectl apply -f kube-flannel.yml

(4)查看集群状态是否已经是Ready, 若是Ready,则执行 2.7 操作。如不是 执行后面几步

# 查看集群状态
[root@mini1 ~]# kubectl get nodes

kubernetes集群环境搭建_linux_09

(5) 查看pod运行状态

# 生成 新的token
[root@mini1 ~]# kubectl get pod -n kube-system -o wide

发现 flannel 状态为 Init:ImagePullBackOff,根据此教程进行修改

​​https://www.cnblogs.com/pyxuexi/p/14288591.html​​

等待它安装完毕 发现已经是 集群的状态已经是 Ready

8 集群测试

8.1 创建一个nginx服务

kubectl create deployment nginx  --image=nginx:latest -alpine

8.2 暴露端口

kubectl expose deploy nginx  --port=80 --target-port=80  --type=NodePort

8.3 查看服务

kubectl get pod

kubectl get svc

kubernetes集群环境搭建_加载_10

8.4 查看 pod

在浏览器登录创建的 Nginx 服务,查看是否成功。

192.168.244.131:30886

kubernetes集群环境搭建_docker_11


【文章原创作者:建湖网站建设公司 http://www.1234xp.com/jianhu.html 复制请保留原URL】
上一篇:TiDB Operator扩缩容和集群的管理
下一篇:没有了
网友评论