安装k8s
1. 准备机器
准备3台机器
192.168.136.104 主节点
192.168.136.105工作节点
192.168.136.106工作节点
2. 安装前配置
1.基础环境
############################################## ## ## # ##################
#关闭防火墙:对于云服务器,必须设置安全组策略允许端口。
# https://kubernetes.io/zh/docs/setup/生产环境/工具/kubeadm/install-kubeadm/#check-required-ports
systemctl 停止防火墙
systemctl 禁用防火墙
# 更改主机名
hostnamectl 设置- 主机名k8s-01
# 显示变化
主机名ctl 状态
# 配置主机名解析
echo \’127.0.0.1 $(主机名)\’ /etc/hosts
#关闭selinux:
sed -i \’s/enforcing/disabled/\’ /etc/selinux/config
设置力0
#关闭交换:
交换-a
sed -ri \’s/.*swap.*/#/\’ /etc/fstab
#允许iptables 检查桥接流量
#https://kubernetes.io/en/docs/setup/生产环境/工具/kubeadm/install-kubeadm/#%E5%85%81%E8%AE%B8-iptables-%E6%A3%80%E6%9F% A5%E6%A1%A5%E6%8E%A5%E6%B5%81%E9%87%8F
## 启用br_netfilter
## 须藤modprobe br_netfilter
确认
## lsmod |
更改设置
#####在这里使用这个。不要在教室中使用此配置。 。
# 将桥接IPv4 流量传递到iptables 链。
# 更改/etc/sysctl.conf
# 如果设置则更改
sed -i \’s#^net.ipv4.ip_forward.*#net.ipv4.ip_forward=1#g\’ /etc/sysctl.conf
sed -i \’s#^net.bridge.bridge-nf-call-ip6tables.*#net.bridge.bridge-nf-call-ip6tables=1#g\’ /etc/sysctl.conf
sed -i \’s#^net.bridge.bridge-nf-call-iptables.*#net.bridge.bridge-nf-call-iptables=1#g\’ /etc/sysctl.conf
sed -i \’s#^net.ipv6.conf.all.disable_ipv6.*#net.ipv6.conf.all.disable_ipv6=1#g\’ /etc/sysctl.conf
sed -i \’s#^net.ipv6.conf.default.disable_ipv6.*#net.ipv6.conf.default.disable_ipv6=1#g\’ /etc/sysctl.conf
sed -i \’s#^net.ipv6.conf.lo.disable_ipv6.*#net.ipv6.conf.lo.disable_ipv6=1#g\’ /etc/sysctl.conf
sed -i \’s#^net.ipv6.conf.all.forwarding.*#net.ipv6.conf.all.forwarding=1#g\’ /etc/sysctl.conf
# 可能不正确,补充一下
echo \’net.ipv4.ip_forward=1\’ /etc/sysctl.conf
echo \’net.bridge.bridge-nf-call-ip6tables=1\’ /etc/sysctl.conf
echo \’net.bridge.bridge-nf-call-iptables=1\’ /etc/sysctl.conf
echo \’net.ipv6.conf.all.disable_ipv6=1\’ /etc/sysctl.conf
echo \’net.ipv6.conf.default.disable_ipv6=1\’ /etc/sysctl.conf
echo \’net.ipv6.conf.lo.disable_ipv6=1\’ /etc/sysctl.conf
echo \’net.ipv6.conf.all.forwarding=1\’ /etc/sysctl.conf
# 执行命令应用
系统控制-p
############################################## ## ## ##########
2. docker环境
sudo yum 删除docker*
sudo yum install -y yum-utils
#配置docker yum源
sudo yum-config-manager –add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
# 找到对应的Docker版本
yum list docker-ce –showduplicates sort -r
#安装docker 3:26.1.4-1.el7
yum install -y docker-ce-3:26.1.4-1.el7.x86_64 docker-ce-cli-3:26.1.4-1.el7.x86_64containerd.io
#服务启动
systemctl启动docker
启用systemctl docker
#配置加速自行申请配置
sudo mkdir -p /etc/docker
sudo tee /etc/docker/daemon.json -\’EOF\’
{
‘注册表镜像’: [
\’https://############.mirror.swr.myhuaweicloud.com\’,
“https://############.mirror.aliyuncs.com”
]
}
结束后
sudo systemctl 守护进程重新加载
sudo systemctl 重新启动docker
3. 安装k8s核心 (都执行)
# 配置K8S yum源
cat EOF /etc/yum.repos.d/kubernetes.repo
[库伯内特]
名称=Kubernetes
baseurl=http://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
有效=1
gpg检查=0
repo_gpgcheck=0
gpgkey=http://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg
http://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
结束后
# 卸载旧版本
yum 删除-y kubelet kubeadm kubectl
# 检查可安装版本
yum list kubelet –showduplicates sort -r
#安装指定版本的kubelet、kubeadm、kubectl
百胜安装-y kubelet-1.21.0 kubeadm-1.21.0 kubectl-1.21.0
# 开机启动kubelet
启用systemctl kubelet 启动systemctl kubelet
# 此时看到kubelet 状态为Failed 是正常的,因为其他组件尚未完全安装。
[root@docker104 ~]#
kubelet.service – kubelet: Kubernetes 节点代理
Loaded: 已加载(/usr/lib/systemd/system/kubelet.service;已启用;供应商预设:已禁用)
Drop-In: /usr/lib/systemd/system/kubelet.service.d
10-kubeadm.conf
激活Active:(自动重启)(Result: 退出代码)2024-06-25 20:40:33 自9 秒前开始的PDT
文档: https://kubernetes.io/docs/
Process: 24068 ExecStart=/usr/bin/kubelet $KUBELET_KUBECONFIG_ARGS $KUBELET_CONFIG_ARGS $KUBELET_KUBEADM_ARGS $KUBELET_EXTRA_ARGS (代码=已退出,状态=1/FAILURE)
主PID: 24068(代码=已退出,状态=1/失败)
6 月25 日20:40:33 docker104 systemd[1]: kubelet.service: 主进程已退出,代码=已退出,状态=1/FAILURE
6 月25 日20:40:33 docker104 systemd[1]: 单元kubelet.service 已进入失败状态。
6 月25 日20:40:33 docker104 systemd[1]: kubelet.service 失败。
4. 初始化k8s master节点(master节点执行)
# 首先检查依赖的镜像
[root@docker104 ~] kubeadm 配置镜像列表
I0625 20:47:43.820940 24427 version.go:254]远程版本是相当新的: v1.30.2。 返回稳定版本1.21。
k8s.gcr.io/kube-apiserver:v1.21.14
k8s.gcr.io/kube-controller-manager:v1.21.14
k8s.gcr.io/kube-scheduler:v1.21.14
k8s.gcr.io/kube-proxy:v1.21.14
k8s.gcr.io/pause:3.4.1
k8s.gcr.io/etcd:3.4.13-0
k8s.gcr.io/coredns/coredns:v1.8.0
封装在#images.sh脚本文件中
#!/bin/bash
图片=(
kube-apiserver:v1.21.0
kube-proxy:v1.21.0
kube-控制器-管理器:v1.21.0
kube-scheduler:v1.21.0
coredns:v1.8.0
etcd:3.4.13-0
暂停:3.4.1
)
对于${images[@]} 中的imageName,
docker pullregistry.cn-hangzhou.aliyuncs.com/google_containers/$imageName
结尾
#脚本结束
请注意,##k8s coredns 镜像的1.21.0 版本比较特殊,与阿里云结合时需要特殊处理和重新标记。
docker标签registry.cn-hangzhou.aliyuncs.com/google_containers/coredns:v1.8.0registry.cn-hangzhou.aliyuncs.com/google_containers/coredns/coredns:v1.8.0
#运行脚本
chmod +x images.sh ./images.sh
########初始化kubeadm master######################
########kubeadm 加入其他工作人员########################
kubeadm 初始化\\
–apiserver-advertise-address=192.168.136.104 \\
–image-repositoryregistry.cn-hangzhou.aliyuncs.com/google_containers \\
–kubernetes-版本v1.21.0 \\
–service-cidr=10.96.0.0/16 \\
–pod-network-cidr=192.178.0.0/16
## 注意:pod-cidr 和service-cidr
# cidr 无类域间路由(CIDR)
# 指定网络可达范围。 Pod子网范围+服务负载均衡网络子网范围+本地IP子网范围不能包含重叠的域。
# –apiserver-advertise-address apiserver 广播地址。主控机的地址IP。
# –image-repository 镜像仓库前缀
# –pod-network-cidr pod 网络范围
# –service-cidr 负载均衡网络范围
# 两个网络范围和一个本地IP范围不能包含重叠的域
############初始化后需要执行的语句##############
Kubernetes 控制平面已成功初始化。
#复制相关文件夹
要开始使用集群,您需要以普通用户: 身份运行以下命令:
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config
或者,如果您是root 用户,则可以运行:
# 声明环境变量
导出KUBECONFIG=/etc/kubernetes/admin.conf
# 部署pod网络并安装指定网络插件
现在您需要将Pod 网络部署到集群。
使用: 中列出的选项之一运行“kubectl apply -f [podnetwork].yaml”。
https://kubernetes.io/docs/concepts/cluster-administration/addons/
是:我们建议安装calico####################。
kubectl apply -f https://docs.projectcalico.org/manifests/calico.yaml
### 下载calico 映像可能会失败。请直接访问官方网站并下载所需的版本号。
wget https://docs.projectcalico.org/manifests/calico.yaml
# 检查版本号
[root@docker104 k8s]# cat calico.yaml |grep \’image:\’
image: docker.io/calico/cni:v3.25.0
image: docker.io/calico/cni:v3.25.0
image: docker.io/calico/node:v3.25.0
image: docker.io/calico/node:v3.25.0
image: docker.io/calico/kube-controllers:v3.25.0
# 替换版本号
[root@docker104 k8s]# sed -i \’s#docker.io/##g\’ calico.yaml
# 再看一遍
[root@docker104 k8s]# cat calico.yaml |grep \’image:\’
image: 印花布/cni:v3.25.0
image: 印花布/cni:v3.25.0
image: Calico/node:v3.25.0
image: Calico/node:v3.25.0
image: calico/kube-controllers:v3.25.0
# 从官网地址下载并解压
https://github.com/projectcalico/calico/releases?page=2
tar -vzxf 发行版-v3.25.0.tgz
[root@docker104release-v3.25.0]# ls
bin 映像清单
# 进入images目录,导入你需要的内容
dockerload -i calico-kube-controllers.tar
dockerload -i calico-cni.tar
dockerload -i calico-node.tar
# 重新运行命令
kubectl apply -f calico.yaml
### 命令检查
kubectl get pod -A ##获取集群中部署的所有应用程序pod
[root@docker104 image]# kubectl get pod -A
命名空间名称的就绪状态恢复AGE
kube-system calico-kube-controllers-77959b97b9-pgl2g 1/1 运行0 25 米
kube-system calico-node-h6bsk 1/1 运行0 25m
kube-system coredns-57d4cbf879-s726m 1/1 运行0 17h
kube-system coredns-57d4cbf879-trdbs 1/1 运行0 17h
kube-system etcd-docker104 1/1 运行0 17h
kube-system kube-apiserver-docker104 1/1 运行0 17h
kube-system kube-controller-manager-docker104 1/1 运行0 17h
kube-system kube-proxy-q9g8p 1/1 运行0 17h
kube-system kube-scheduler-docker104 1/1 运行0 17h
kubectl get names ##显示集群中所有机器的状态
5. 初始化woker节点
然后,您可以通过以root: 在每个工作节点上运行以下命令来加入任意数量的工作节点:
# 其他节点加入k8s集群,执行以下命令:该命令在kubeadmin init 之后指定。
kubeadm 加入192.168.136.104:6443 –token tbjrly.cbmgi5g7nb366f1m \\
–discovery-token-ca-cert-hash sha256:a5f53bc7d06d595ae0e34fd92028e03bdbec8aa62b1041c9765f2739f59877fe
# 全部执行完毕后,在k8s主节点上运行
kubectl get names ##显示集群中所有机器的状态
[root@docker104 k8s]# 获取kubectl节点
姓名状态角色年龄版本
docker104就绪控制平面,master 17h v1.21.0
docker105 未就绪无92s v1.21.0
docker106 未就绪无74s v1.21.0
# 工作节点尚未准备好。该节点上可能未安装网络插件。按照与主节点相同的方式导入网络插件calico镜像并自动安装。
# 查看日志尾部-100f /var/log 了解详细信息。
/messages
## 日志起始
Jun 26 18:21:08 docker105 kubelet: E0626 18:21:08.870465 91095 pod_workers.go:190] \”Error syncing pod, skipping\” err=\”failed to \\\”StartContainer\\\” for \\\”upgrade-ipam\\\” with ImagePullBackOff: \\\”Back-off pulling image \\\\\\\”calico/cni:v3.25.0\\\\\\\”\\\”\” pod=\”kube-system/calico-node-2zq8d\” podUID=78164c8e-8ba0-477e-90d1-76be4fd6965f
Jun 26 18:21:13 docker105 kubelet: I0626 18:21:13.264027 91095 cni.go:239] \”Unable to update cni config\” err=\”no networks found in /etc/cni/net.d\”
Jun 26 18:21:13 docker105 kubelet: E0626 18:21:13.281034 91095 kubelet.go:2218] \”Container runtime network not ready\” networkReady=\”NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized\”
## 日志结束
# 如上 cni config uninitialized就是未装网络插件的原因
docker load -i calico-cni.tar
docker load -i calico-node.tar
# 过会在master节点看到状态都是ready了
[root@docker104 k8s]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
docker104 Ready control-plane,master 18h v1.21.0
docker105 Ready <none> 75m v1.21.0
docker106 Ready <none> 75m v1.21.0
[root@docker104 k8s]# kubectl get pod -A
NAMESPACE NAME READY STATUS RESTARTS AGE
kube-system calico-kube-controllers-77959b97b9-pgl2g 1/1 Running 0 113m
kube-system calico-node-2zq8d 1/1 Running 0 80m
kube-system calico-node-b94mp 1/1 Running 0 80m
kube-system calico-node-h6bsk 1/1 Running 0 113m
kube-system coredns-57d4cbf879-s726m 1/1 Running 0 18h
kube-system coredns-57d4cbf879-trdbs 1/1 Running 0 18h
kube-system etcd-docker104 1/1 Running 0 18h
kube-system kube-apiserver-docker104 1/1 Running 0 18h
kube-system kube-controller-manager-docker104 1/1 Running 0 18h
kube-system kube-proxy-2djt9 1/1 Running 0 80m
kube-system kube-proxy-j5jkv 1/1 Running 0 80m
kube-system kube-proxy-q9g8p 1/1 Running 0 18h
kube-system kube-scheduler-docker104 1/1 Running 0 18h
7、设置ipvs模式
k8s整个集群为了访问通;默认是用iptables,性能下(kube-proxy在集群之间同步iptables的内容)
#1、查看默认kube-proxy 使用的模式
kubectl logs -n kube-system kube-proxy-28xv4
#2、需要修改 kube-proxy 的配置文件,修改mode 为ipvs。默认iptables,但是集群大了以后就很慢
kubectl edit cm kube-proxy -n kube-system
修改如下
ipvs:
excludeCIDRs: null
minSyncPeriod: 0s
scheduler: \”\”
strictARP: false
syncPeriod: 30s
kind: KubeProxyConfiguration
metricsBindAddress: 127.0.0.1:10249
mode: \”ipvs\”
###修改了kube-proxy的配置,为了让重新生效,需要杀掉以前的Kube-proxy
kubectl get pod -A|grep kube-proxy
kubectl delete pod kube-proxy-pqgnt -n kube-system
### 修改完成后可以重启kube-proxy以生效
8、部署应用
# 测试部署一个Nginx应用
[root@docker104 k8s]# kubectl create deploy my-nginx –image=nginx
deployment.apps/my-nginx created
# 查看部署应用的ip
[root@docker104 k8s]# kubectl get pod -A -o wide
NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
default my-nginx-6b74b79f57-mg76v 1/1 Running 0 66s 192.178.70.193 docker105 <none> <none>
# 访问测试nginx
[root@docker104 k8s]# curl 192.178.70.193
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
<style>
html { color-scheme: light dark; }
body { width: 35em; margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif; }
</style>
</head>
<body>
<h1>Welcome to nginx!</h1>
<p>If you see this page, the nginx web server is successfully installed and
working. Further configuration is required.</p>
<p>For online documentation and support please refer to
<a href=\”http://nginx.org/\”>nginx.org</a>.<br/>
Commercial support is available at
<a href=\”http://nginx.com/\”>nginx.com</a>.</p>
<p><em>Thank you for using nginx.</em></p>
</body>
</html>
#以上关于使用kubeadm安装k8s并部署应用的相关内容来源网络仅供参考,相关信息请以官方公告为准!
原创文章,作者:CSDN,如若转载,请注明出处:https://www.sudun.com/ask/92529.html