kubernetes 部署
kubernetes 部署
kubeadm是官方社区推出的一个用于快速部署kubernetes集群的工具。
这个工具能通过两条指令完成一个kubernetes集群的部署:
# 创建一个 Master 节点
$ kubeadm init# 将一个 Node 节点加入到当前集群中
$ kubeadm join <Master节点的IP和端口>
1. 安装要求
在开始之前,部署Kubernetes集群机器需要满足以下几个条件:
至少3台机器,操作系统 CentOS7+
硬件配置:2GB或更多RAM,2个CPU或更多CPU,硬盘20GB或更多
集群中所有机器之间网络互通
可以访问外网,需要拉取镜像
禁止swap分区
2 部署应用
- 在所有节点上安装Docker和kubeadm
- 部署Kubernetes Master
- 部署容器网络插件
- 部署 Kubernetes Node,将节点加入Kubernetes集群中
- 部署Dashboard Web页面,可视化查看Kubernetes资源
3. 环境准备
环境说明:
主机名 | ip | 系统 |
---|---|---|
master | 192.168.200.154 | centos8 |
node01 | 12.168.200.144 | centos8 |
node02 | 192.168.200.153 | centos8 |
3.1 安装前准备
**所有主机上都要做**
设置主机名:
[root@localhost ~]# hostnamectl set-hostname master
[root@localhost ~]# bash
[root@master ~]# [root@localhost ~]# hostnamectl set-hostname node1
[root@localhost ~]# bash
[root@node1 ~]# [root@localhost ~]# hostnamectl set-hostname node2
[root@localhost ~]# bash
[root@node2 ~]# #需在三台主机上操作步骤
//关闭防火墙和selinux
[root@master ~]# systemctl disable --now firewalld
Removed /etc/systemd/system/multi-user.target.wants/firewalld.service.
Removed /etc/systemd/system/dbus-org.fedoraproject.FirewallD1.service.
[root@master ~]# sed -i 's/enforcing/disabled/' /etc/selinux/config
[root@master ~]# setenforce 0[root@master ~]# vim /etc/fstab #打开自动挂载的配置文件,将swap配置项注释掉
#注释此行
#/dev/mapper/cl-swap swap swap defaults 0 0#重新加载挂载的配置文件
[root@master ~]# mount -a //添加域名解析
[root@master ~]# cat >> /etc/hosts << EOF
192.168.200.145 master master.example.com
192.168.200.144 node1 node1.example.com
192.168.200.153 node2 node2.example.com
EOF//将桥接的IPv4流量传递到iptables的链
[root@master ~]# cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF//生效配置
[root@master ~]# sysctl --system //配置时间同步
[root@master ~]# yum -y install chrony
[root@master ~]# vi /etc/chrony.conf
# Use public servers from the pool.ntp.org project.
# Please consider joining the pool (http://www.pool.ntp.org/join.html).
pool time1.aliyun.com iburst# Record the rate at which the system clock gains/losses time.
driftfile /var/lib/chrony/drift
......
[root@master ~]# systemctl enable --now chronyd//配置免密登录
[root@master ~]# ssh-keygen -t rsa
[root@master ~]# ssh-copy-id master
[root@master ~]# ssh-copy-id node01
[root@master ~]# ssh-copy-id node02[root@master ~]# for i in master node1 node2 ;do ssh $i 'date' ;done
2021年 12月 18日 星期六 23:06:38 CST
2021年 12月 18日 星期六 23:06:38 CST
2021年 12月 18日 星期六 23:06:43 CST
[root@master ~]# // 重启三台主机,使上面的一些配置生效
[root@master ~]# reboot
3.2 所有节点安装Docker/kubeadm/kubelet
Kubernetes默认CRI(容器运行时)为Docker,因此先安装Docker。
3.2.1 安装Docker
[root@master ~]# wget https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo -O /etc/yum.repos.d/docker-ce.repo
[root@master ~]# yum -y install docker-ce
[root@master ~]# systemctl enable --now docker
Created symlink /etc/systemd/system/multi-user.target.wants/docker.service → /usr/lib/systemd/system/docker.service.
[root@master ~]# [root@master ~]# vi /etc/docker/daemon.json
[root@master ~]# cat /etc/docker/daemon.json
{"registry-mirrors": ["https://l6paj5i1.mirror.aliyuncs.com"],"exec-opts": ["native.cgroupdriver=systemd"],"log-driver": "json-file","log-opts": {"max-size": "100m"},"storage-driver": "overlay2"
}
[root@master ~]# systemctl daemon-reload
[root@master ~]# systemctl restart docker
3.2.2 添加kubernetes阿里云YUM软件源
cat > /etc/yum.repos.d/kubernetes.repo << EOF
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=0
repo_gpgcheck=0
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
3.2.3 安装kubeadm,kubelet和kubectl
[root@master ~]# yum install -y kubelet-1.20.0 kubeadm-1.20.0 kubectl-1.20.0
[root@master ~]# systemctl enable kubelet
Created symlink /etc/systemd/system/multi-user.target.wants/kubelet.service → /usr/lib/systemd/system/kubelet.service.
[root@master ~]#
3.3 部署Kubernetes Master
只在192.168.200.145(Master)执行
kubeadm init \
--apiserver-advertise-address=192.168.200.145 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.20.0 \
--service-cidr=10.96.0.0/12 \
--pod-network-cidr=10.244.0.0/16// 记录下面的这些东西到一个文件中,后面会用到
kubeadm join 192.168.200.145:6443 --token 9y5fnl.jvx982xlei6sk9w6 \--discovery-token-ca-cert-hash sha256:6c528ec9afbc38b4781089afdf2753f0bfc289994e359c2fc2a2879ba3c6d2e2
由于默认拉取镜像地址k8s.gcr.io国内无法访问,这里指定阿里云镜像仓库地址
[root@master ~]# export KUBECONFIG=/etc/kubernetes/admin.conf
[root@master ~]# export 'KUBECONFIG=/etc/kubernetes/admin.conf' > /etc/profile.d/k8s.sh
[root@master ~]# source /etc/profile.d/k8s.sh
[root@master ~]#
3.4 安装Pod网络插件(CNI)
//使用这条命令直接安装
kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml//这里是把文件下载下来安装
[root@master ~]# ls
anaconda-ks.cfg kube-flannel.yml
[root@master ~]#
[root@master ~]# kubectl apply -f kube-flannel.yml
podsecuritypolicy.policy/psp.flannel.unprivileged created
clusterrole.rbac.authorization.k8s.io/flannel created
clusterrolebinding.rbac.authorization.k8s.io/flannel created
serviceaccount/flannel created
configmap/kube-flannel-cfg created
daemonset.apps/kube-flannel-ds created
[root@master ~]#
3.5 加入Kubernetes Node
在192.168.200.144、192.168.200.153上(Node)执行,执行刚刚保存的命令
向集群添加新节点,执行在kubeadm init输出的kubeadm join命令
[root@node1 ~]# kubeadm join 192.168.200.145:6443 --token 9y5fnl.jvx982xlei6sk9w6 --discovery-token-ca-cert-hash sha256:6c528ec9afbc38b4781089afdf2753f0bfc289994e359c2fc2a2879ba3c6d2e2[root@node2 ~]# kubeadm join 192.168.200.145:6443 --token 9y5fnl.jvx982xlei6sk9w6 --discovery-token-ca-cert-hash sha256:6c528ec9afbc38b4781089afdf2753f0bfc289994e359c2fc2a2879ba3c6d2e2
使用kubctl get node查看集群状态
[root@master ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
master NotReady control-plane,master 6m47s v1.20.0
node1 NotReady <none> 2m4s v1.20.0
node2 NotReady <none> 109s v1.20.0
此时我们需要等待master、node01、node02主机拉取镜像完成,就绪完成即可。大概等待(5-7分钟)
[root@master ~]# kubectl get nodes
NAME STATUS ROLES AGE VERSION
master Ready control-plane,master 17m v1.20.0
node1 Ready <none> 12m v1.20.0
node2 Ready <none> 12m v1.20.0
[root@master ~]#
3 测试kubernetes集群
在Kubernetes集群中创建一个pod,验证是否正常运行
// 使用nginx 镜像运行一个pod
[root@master ~]# kubectl create deployment nginx --image=nginx
deployment.apps/nginx created//为指定的pod暴露端口
[root@master ~]# kubectl expose deployment nginx --port=80 --type=NodePort
service/nginx exposed// 查看pod状态
[root@master ~]# kubectl get pods
NAME READY STATUS RESTARTS AGE
nginx-6799fc88d8-mhp5g 0/1 ContainerCreating 0 19s// 查看指定的pod、server服务的状态
[root@master ~]# kubectl get pod,svc
NAME READY STATUS RESTARTS AGE
pod/nginx-6799fc88d8-mhp5g 0/1 ContainerCreating 0 28sNAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service/kubernetes ClusterIP 10.96.0.1 <none> 443/TCP 18m
service/nginx NodePort 10.109.48.237 <none> 80:31253/TCP 16s
[root@master ~]#
访问测试
kubernetes 部署相关推荐
- 项目部署时网关怎么回事_使用Kubernetes部署聊天网关(或技术按预期运行时)...
项目部署时网关怎么回事 by Richard Li 理查德·李(Richard Li) 使用Kubernetes部署聊天网关(或技术按预期运行时) (Using Kubernetes to deplo ...
- Kubernetes部署(三):CA证书制作
相关内容: Kubernetes部署(一):架构及功能说明 Kubernetes部署(二):系统环境初始化 Kubernetes部署(三):CA证书制作 Kubernetes部署(四):ETCD集群部 ...
- 用Kubernetes部署超级账本Fabric的区块链即服务(1)
用Kubernetes部署超级账本Fabric的区块链即服务(1) 2017年08月13日 00:00:00 阅读数:937 题图摄于旧金山市区:云海中的 Twin Peaks 不久前,我们发表了如何 ...
- k8s部署jar包_使用Kubernetes部署Springboot或Nginx的详细教程
1 前言 经过<Maven一键部署Springboot到Docker仓库,为自动化做准备>,Springboot的Docker镜像已经准备好,也能在Docker上成功运行了,是时候放上Ku ...
- 容器化单页面应用中Nginx反向代理与Kubernetes部署
在<容器化单页面应用中RESTful API的访问>一文中,我介绍了一个在容器化环境中单页面应用访问后端服务的完整案例.这里我将继续使用这个案例,介绍一下容器化单页面应用部署的另一个场景: ...
- Kubernetes 部署 Ingress 控制器 Traefik v2.1
目录[-] . 一.Traefik 简介 . 二.Kubernetes 部署 Traefik . 1.创建 CRD 资源 . 2.创建 RBAC 权限 . 3.创建 Traefik 配置文件 . 4. ...
- Kubernetes 部署 Mysql 8.0 数据库(单节点)
作者:超级小豆丁 http://www.mydlq.club/article/75 目录 简介 Mysql 参数配置 创建 ConfigMap 存储 Mysql 配置文件 通过 Kubectl 工具部 ...
- 三种主流的Kubernetes部署方式
[译者的话]本文分析介绍了三种主流的Kubernetes部署方式,为广大Kubernetes的使用者提供了很好的参考借鉴. [烧脑式Kubernetes实战训练营]本次培训理论结合实践,主要包括:Ku ...
- kubernetes部署nfs持久存储(静态和动态)
kubernetes部署nfs持久存储(静态和动态) NFS简介 NFS是网络文件系统Network File System的缩写,NFS服务器可以让PC将网络中的NFS服务器共享的目录挂载到本地的文 ...
- Kubernetes生产实践系列之二十二:Service Mesh之在Kubernetes部署Linkerd2进行service mesh
一.前言 service mesh是为复杂微服务系统提供基础设施服务的方法,支持Kubernetes的service mesh实现包括文章<kubernetes系列之十八:使用helm安装ist ...
最新文章
- Hyper-V虚拟机快照占用磁盘空间过多,导致虚拟机不能启动怎么办
- android--调用系统浏览器,Android 调用系统浏览器
- ORACLE10回收站-Recyclebin
- 数值分析方阵的QR分解
- 【16年浙江省赛 B ZOJ 3937】More Health Points【树上dfs、斜率优化dp、动态维护下凸壳】
- python基于大数据的招聘信息实时数据分析系统的设计与实现
- python模拟ios,python模拟点击在ios中实现的实例讲解
- 【已完美解决】由于找不到MSVCR100.dll,无法继续执行代码。重新安装程序可能会解决此问题。DirectX修复工具下载
- ArcGIS系列(一):DEM数字高程模型数据的生成
- 2021莆田六中一高考成绩查询入口,2021,我们来了 ——莆田六中2021届《青春•励志•圆梦》高三高考动员誓师大会...
- android 获取指纹图像,用于获取指纹图像的方法及指纹感测系统与流程
- 【连载】Java笔记——欲品香醇先度根叶
- 特征图注意力_深入理解图注意力机制
- 如何创建自己的 Google Chrome 扩展程序
- ajax小猿圈面试题,小猿圈之2019年前端JavaScript面试题(二)
- 微信小程序中使用ECharts实现报表图表展示
- 嵌入式开发五:未来之星机器人语音控制及视频开发(颜色追踪)(运动追踪)
- 互联网思维根深蒂固,新技术发展方兴未艾
- iOS开发必备工具:SimpleMind轻量思维导图
- 【一】、创建虚拟机Linux系统Centos镜像并且配置静态IP