k8s安装教程

准备

  • 首先需要准备两台服务器(2核4G)

设置hostname

  1. master节点设置hostname为master.smalls0098.com

  2. node1节点设置hostname为node1.smalls0098.com

hostnamectl set-hostname master.smalls0098.com
hostnamectl set-hostname host.smalls0098.com
  1. 检查是否设置成功
hostnamectl status
  1. 设置host解析(可以通过hostname来找到ip)
echo "127.0.0.1   $(hostname)" >> /etc/hosts
  1. 查询hosts是否写入
cat /etc/hosts

机器检查

所以节点必须符合以下节点

  • 任意节点 centos 版本为7.6~7.8
  • 任意节点 CPU 内核数量大于等于 2,且内存大于等于4G
  • 任意节点hostname 不是等于localhost,且不包含下划线、小数点、大写字母
  • 任意节点都有固定的内网 IP 地址
  • 任意节点都只有一个网卡,如果有特殊目的安,可以完成 K8S 安装后再新加网卡
  • 任意节点上 kubelet 使用的 IP 地址 可互通(无需 NAT 映射即可相互访问),且没有防护墙,安全组隔离
  • 任意节点不要直接使用docker run或者docker-compose 运行容器

全部节点初始化安装

base_install.sh编写

创建base_install.sh,把下面代码块的内容写入

#!/bin/bash

# 在 master 节点和 worker 节点都要执行

# 安装 docker
# 参考文档如下
# https://docs.docker.com/install/linux/docker-ce/centos/
# https://docs.docker.com/install/linux/linux-postinstall/

# 卸载旧版本
yum remove -y docker \
docker-client \
docker-client-latest \
docker-ce-cli \
docker-common \
docker-latest \
docker-latest-logrotate \
docker-logrotate \
docker-selinux \
docker-engine-selinux \
docker-engine

# 设置 yum repository
yum install -y yum-utils \
device-mapper-persistent-data \
lvm2
yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

# 安装并启动 docker-ce-19
yum install -y docker-ce-19.03.11 docker-ce-cli-19.03.11 containerd.io-1.2.13

mkdir /etc/docker || true

# 设置节点 docker信息
cat > /etc/docker/daemon.json <<EOF
{
  "registry-mirrors": ["${REGISTRY_MIRROR}"],
  "exec-opts": ["native.cgroupdriver=systemd"],
  "log-driver": "json-file",
  "log-opts": {
    "max-size": "100m"
  },
  "storage-driver": "overlay2",
  "storage-opts": [
    "overlay2.override_kernel_check=true"
  ]
}
EOF

mkdir -p /etc/systemd/system/docker.service.d

# 开机自启 Restart Docker
systemctl daemon-reload
systemctl enable docker
systemctl restart docker

# 安装 nfs-utils
# 必须先安装 nfs-utils 才能挂载 nfs 网络存储
yum install -y nfs-utils
yum install -y wget

# 关闭 防火墙
systemctl stop firewalld
systemctl disable firewalld

# 关闭 SeLinux
setenforce 0
sed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config

# 关闭 swap
swapoff -a
yes | cp /etc/fstab /etc/fstab_bak
cat /etc/fstab_bak |grep -v swap > /etc/fstab

# 修改 /etc/sysctl.conf
# 如果有配置,则修改
sed -i "s#^net.ipv4.ip_forward.*#net.ipv4.ip_forward=1#g"  /etc/sysctl.conf
sed -i "s#^net.bridge.bridge-nf-call-ip6tables.*#net.bridge.bridge-nf-call-ip6tables=1#g"  /etc/sysctl.conf
sed -i "s#^net.bridge.bridge-nf-call-iptables.*#net.bridge.bridge-nf-call-iptables=1#g"  /etc/sysctl.conf
sed -i "s#^net.ipv6.conf.all.disable_ipv6.*#net.ipv6.conf.all.disable_ipv6=1#g"  /etc/sysctl.conf
sed -i "s#^net.ipv6.conf.default.disable_ipv6.*#net.ipv6.conf.default.disable_ipv6=1#g"  /etc/sysctl.conf
sed -i "s#^net.ipv6.conf.lo.disable_ipv6.*#net.ipv6.conf.lo.disable_ipv6=1#g"  /etc/sysctl.conf
sed -i "s#^net.ipv6.conf.all.forwarding.*#net.ipv6.conf.all.forwarding=1#g"  /etc/sysctl.conf
# 可能没有,追加
echo "net.ipv4.ip_forward = 1" >> /etc/sysctl.conf
echo "net.bridge.bridge-nf-call-ip6tables = 1" >> /etc/sysctl.conf
echo "net.bridge.bridge-nf-call-iptables = 1" >> /etc/sysctl.conf
echo "net.ipv6.conf.all.disable_ipv6 = 1" >> /etc/sysctl.conf
echo "net.ipv6.conf.default.disable_ipv6 = 1" >> /etc/sysctl.conf
echo "net.ipv6.conf.lo.disable_ipv6 = 1" >> /etc/sysctl.conf
echo "net.ipv6.conf.all.forwarding = 1"  >> /etc/sysctl.conf
# 执行命令以应用
sysctl -p

# 配置K8S的yum源
cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
       http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF

# 卸载旧版本
yum remove -y kubelet kubeadm kubectl

# 安装kubelet、kubeadm、kubectl
# 将 ${1} 替换为 kubernetes 版本号,例如 1.19.5
yum install -y kubelet-${1} kubeadm-${1} kubectl-${1}

# 重启 docker,并启动 kubelet
systemctl daemon-reload
systemctl restart docker
systemctl enable kubelet && systemctl start kubelet

docker version

运行和注意事项

# 需要注意事项 (运行base_install.sh之前执行)
export REGISTRY_MIRROR=https://registry.cn-hangzhou.aliyuncs.com
# 执行 后面则是k8s的版本号
sh base_install.sh 1.19.5

设置环境变量

# master节点
export MASTER_IP=内网ip
export APISERVER_NAME=apiserver.smalls0098.com
export POD_SUBNETT=10.100.0.1/16
# 把 ip 和 apiserver写入hosts
echo "${MASTER_IP}   ${APISERVER_NAME}" >> /etc/hosts
# 验证 hosts 是否写入成功
cat /etc/hosts
# worker节点 (也需要写入)export MASTER_IP=内网ipexport APISERVER_NAME=apiserver.smalls0098.comexport POD_SUBNETT=10.100.0.1/16# 把 ip 和 apiserver写入hostsecho "${MASTER_IP}   ${APISERVER_NAME}" >> /etc/hosts# 验证 hosts 是否写入成功cat /etc/hosts

初始化master节点

#!/bin/bash

# 只在 master 节点执行

# 脚本出错时终止执行
set -e

# 需要确保环境变量已经设置
if [ ${#POD_SUBNET} -eq 0 ] || [ ${#APISERVER_NAME} -eq 0 ]; then
  echo -e "\033[31;1m请确保您已经设置了环境变量 POD_SUBNET 和 APISERVER_NAME \033[0m"
  echo 当前POD_SUBNET=$POD_SUBNET
  echo 当前APISERVER_NAME=$APISERVER_NAME
  exit 1
fi

# 查看完整配置选项 https://godoc.org/k8s.io/kubernetes/cmd/kubeadm/app/apis/kubeadm/v1beta2
# imageRepository 需要自己配置
rm -f ./kubeadm-config.yaml
cat <<EOF > ./kubeadm-config.yaml
apiVersion: kubeadm.k8s.io/v1beta2
kind: ClusterConfiguration
kubernetesVersion: v${1}
imageRepository: registry.cn-shanghai.aliyuncs.com/smalls0098
controlPlaneEndpoint: "${APISERVER_NAME}:6443"
networking:
  serviceSubnet: "10.96.0.0/16"
  podSubnet: "${POD_SUBNET}"
  dnsDomain: "cluster.local"
EOF

# kubeadm init
# 根据您服务器网速的情况,您需要等候 3 - 10 分钟
kubeadm config images pull --config=kubeadm-config.yaml
kubeadm init --config=kubeadm-config.yaml --upload-certs

# 配置 kubectl
rm -rf /root/.kube/
mkdir /root/.kube/
cp -i /etc/kubernetes/admin.conf /root/.kube/config

# 拉镜像
sudo docker pull calico/node:v3.13.1
sudo docker pull calico/pod2daemon-flexvol:v3.13.1
sudo docker pull calico/cni:v3.13.1
sudo docker pull calico/kube-controllers:v3.13.1

# 安装 calico 网络插件
# 参考文档 https://docs.projectcalico.org/v3.13/getting-started/kubernetes/self-managed-onprem/onpremises
echo "安装calico-3.13.1"
rm -f calico-3.13.1.yaml
wget https://kuboard.cn/install-script/calico/calico-3.13.1.yaml
kubectl apply -f calico-3.13.1.yaml

运行

sh init_master.sh 1.19.5

检测执行结果

# 需要等待 STATUS 都是runing
# 可能查询的时候会有 pending 和 init,需要全部都runing
watch kubectl get pod -n kube-system -o wide

# STATUS 需要是 ready
kubectl get nodes -o wide

Master节点获取token

# 注意 WARNING 不要复制了

kubeadm token create --print-join-command
# kubeadm token create 命令的输出,形如:
# 把复制的token粘贴到worker节点去运行
# 该 token 的有效时间为 2 个小时,2小时内,您可以使用此 token 初始化任意数量的 worker 节点。
kubeadm join apiserver.smalls0098.com:6443 --token o5vmo9.bazxuhkyew9rajvi     --discovery-token-ca-cert-hash sha256:956583e510265cb6ec4bd5f11f36a05917e822aa7e3fbf950bce0e6d732ad956 

Worker节点

# 运行上面的token需要先 pull images
sudo docker pull calico/node:v3.13.1
sudo docker pull calico/pod2daemon-flexvol:v3.13.1
sudo docker pull calico/cni:v3.13.1
sudo docker pull calico/kube-controllers:v3.13.1
# 成功后运行master节点生成的token

检查初始化结果

在 master 节点上执行(只在Master上)

kubectl get nodes -o wide
说点什么
支持Markdown语法
一个能打的评论都没有,要不我留一条试试?
Loading...