Namespace

       Namespace是kubernetes系统中的一种非常重要资源,它的主要作用是用来实现多套环境的资源隔 或者多租户的资源隔离
        默认情况下,kubernetes集群中的所有的Pod都是可以相互访问的。但是在实际中,可能不想让两个 Pod之间进行互相的访问,那此时就可以将两个Pod划分到不同的namespace下。kubernetes通过将集 群内部的资源分配到不同的Namespace中,可以形成逻辑上的"组",以方便不同的组的资源进行隔离使
用和管理。
可以通过kubernetes的授权机制,将不同的namespace交给不同租户进行管理,这样就实现了多租
户的资源隔离。此时还能结合kubernetes的资源配额机制,限定不同租户能占用的资源,例如CPU使用量、内存使用量等等,来实现租户可用资源的管理。

kubernetes在集群启动之后,会默认创建几个namespace

[root@master ~]# kubectl get namespace
NAME                        STATUS          AGE
default                      Active         45h # 所有未指定Namespace的对象都会被分配在default命名空间
kube-node-lease              Active         45h # 集群节点之间的心跳维护,v1.13开始引入
kube-public                  Active         45h # 此命名空间下的资源可以被所有人访问(包括未认证用 户)
kube-system                  Active         45h # 所有由Kubernetes系统创建的资源都处于这个命名空间

namespace资源的具体操作:

查看

# 1 查看所有的ns 命令:
kubectl get ns
[root@master ~]# kubectl get ns
NAME              STATUS   AGE
default           Active   45h
kube-node-lease   Active   45h
kube-public       Active   45h
kube-system       Active   45h# 2 查看指定的ns 命令:kubectl get ns ns名称
[root@master ~]# kubectl get ns default
NAME       STATUS    AGE
default    Active    45h# 3 指定输出格式 命令:kubectl get ns ns名称 -o 格式参数
# kubernetes支持的格式有很多,比较常见的是wide、json、yaml
[root@master ~]# kubectl get ns default -o yaml
apiVersion: v1
kind: Namespace
metadata: creationTimestamp: "2020-04-05T04:44:16Z" name: default resourceVersion: "151" selfLink: /api/v1/namespaces/default uid: 7405f73a-e486-43d4-9db6-145f1409f090
spec: finalizers: - kubernetes
status: phase: Active# 4 查看ns详情 命令:kubectl describe ns ns名称
[root@master ~]# kubectl describe ns default
Name:           default
Labels:         <none>
Annotations:    <none>
Status:         Active         # Active 命名空间正在使用中 Terminating 正在删除命名空间# ResourceQuota 针对namespace做的资源限制
# LimitRange针对namespace中的每个组件做的资源限制
No resource quota.
No LimitRange resource.

创建

# 创建namespace
[root@master ~]# kubectl create ns
dev namespace/dev created

删除

# 删除namespace
[root@master ~]# kubectl delete ns dev
namespace "dev" deleted

配置方式

首先准备一个yaml文件:ns-dev.yaml
apiVersion: v1
kind: Namespace
metadata: name: dev
然后就可以执行对应的创建和删除命令了:
创建:kubectl create -f ns-dev.yaml
删除:kubectl delete -f ns-dev.yaml

Pod

Pod是kubernetes集群进行管理的最小单元,程序要运行必须部署在容器中,而容器必须存在于Pod 中。
Pod可以认为是容器的封装,一个Pod中可以存在一个或者多个容器。

kubernetes在集群启动之后,集群中的各个组件也都是以Pod方式运行的。可以通过下面命令查看:

[root@master ~]# kubectl get pod -n kube-system
NAMESPACE       NAME                      READY      STATUS    RESTARTS    AGE
kube-system coredns-6955765f44-68g6v       1/1      Running      0        2d1h
kube-system coredns-6955765f44-cs5r8       1/1      Running      0        2d1h
kube-system etcd-master                    1/1      Running      0        2d1h
kube-system kube-apiserver-master          1/1      Running      0        2d1h
kube-system kube-controller-manager-master 1/1      Running      0        2d1h
kube-system kube-flannel-ds-amd64-47r25    1/1      Running      0        2d1h
kube-system kube-flannel-ds-amd64-ls5lh    1/1      Running      0        2d1h
kube-system kube-proxy-685tk               1/1      Running      0        2d1h
kube-system kube-proxy-87spt               1/1      Running      0        2d1h
kube-system kube-scheduler-master          1/1      Running      0        2d1h

配置操作

创建一个pod-nginx.yaml,内容如下:
apiVersion: v1
kind: Pod
metadata: name: nginx namespace: dev
spec: containers: - image: nginx:1.17.1 name: pod ports: - name: nginx-port containerPort: 80 protocol: TCP
然后就可以执行对应的创建和删除命令了:
创建:kubectl create -f pod-nginx.yaml
删除:kubectl delete -f pod-nginx.yaml

访问Pod

# 获取podIP
[root@master ~]# kubectl get pods -n dev -o wide

删除指定Pod

# 删除指定Pod
[root@master ~]# kubectl delete pod nginx-5ff7956ff6-fg2db -n dev
pod "nginx-5ff7956ff6-fg2db" deleted# 此时,显示删除Pod成功,但是再查询,发现又新产生了一个
[root@master ~]# kubectl get pods -n dev
NAME                      READY   STATUS    RESTARTS  AGE
nginx-5ff7956ff6-jj4ng     1/1    Running      0      21s# 这是因为当前Pod是由Pod控制器创建的,控制器会监控Pod状况,一旦发现Pod死亡,会立即重建
# 此时要想删除Pod,必须删除Pod控制器# 先来查询一下当前namespace下的Pod控制器
[root@master ~]# kubectl get deploy -n dev
NAME       READY     UP-TO-DATE     AVAILABLE   AGE
nginx       1/1          1             1        9m7s# 接下来,删除此PodPod控制器
[root@master ~]# kubectl delete deploy nginx -n dev
deployment.apps "nginx" deleted# 稍等片刻,再查询Pod,发现Pod被删除了
[root@master ~]# kubectl get pods -n dev
No resources found in dev namespace.
Label
Label是kubernetes系统中的一个重要概念。它的作用就是在资源上添加标识,用来对它们进行区分和 选择。
Label的特点:
  • 一个Label会以key/value键值对的形式附加到各种对象上,如Node、Pod、Service等等
  • 一个资源对象可以定义任意数量的Label ,同一个Label也可以被添加到任意数量的资源对象上去
  • Label通常在资源对象定义时确定,当然也可以在对象创建后动态添加或者删除
可以通过Label实现资源的多维度分组,以便灵活、方便地进行资源分配、调度、配置、部署等管理工作。

一些常用的Label 示例如下:

  • 版本标签:"version":"release", "version":"stable"......
  • 环境标签:"environment":"dev","environment":"test","environment":"pro"
  • 架构标签:"tier":"frontend","tier":"backend
标签定义完毕之后,还要考虑到标签的选择,这就要使用到Label Selector,即:
Label用于给某个资源对象定义标识
Label Selector用于查询和筛选拥有某些标签的资源对象

当前有两种Label Selector:

  • 基于等式的Label Selector
       name = slave: 选择所有包含Label中key="name"且value="slave"的对象
       env != production: 选择所有包括Label中的key="env"且value不等于"production"的对象
  • 基于集合的Label Selector
       name in (master, slave): 选择所有包含Label中的key="name"且value="master"或"slave"的对象
       name not in (frontend): 选择所有包含Label中的key="name"且value不等于"frontend"的对象

标签的选择条件可以使用多个,此时将多个Label Selector进行组合,使用逗号","进行分隔即可。例如:

name=slave,env!=production
name not in (frontend),env!=production

命令方式

# 为pod资源打标签
[root@master ~]# kubectl label pod nginx-pod version=1.0 -n dev
pod/nginx-pod labeled # 为pod资源更新标签
[root@master ~]# kubectl label pod nginx-pod version=2.0 -n dev --overwrite
pod/nginx-pod labeled # 查看标签 [root@master ~]# kubectl get pod nginx-pod -n dev --show-labels
NAME         READY    STATUS     RESTARTS   AGE   LABELS
nginx-pod     1/1     Running       0       10m   version=2.0 # 筛选标签
[root@master ~]# kubectl get pod -n dev -l version=2.0 --show-labels
NAME        READY    STATUS    RESTARTS    AGE   LABELS
nginx-pod     1/1    Running       0       17m   version=2.0 [root@master ~]# kubectl get pod -n dev -l version!=2.0 --show-labels
No resources found in dev namespace. #删除标签
[root@master ~]# kubectl label pod nginx-pod version- -n dev
pod/nginx-pod labeled

配置方式

apiVersion: v1
kind: Pod
metadata: name: nginx namespace: dev labels: version: "3.0" env: "test"
spec: containers: - image: nginx:1.17.1 name: pod ports:- name: nginx-port containerPort: 80 protocol: TCP
然后就可以执行对应的更新命令了:kubectl apply -f pod-nginx.yaml

Deployment

在kubernetes中,Pod是最小的控制单元,但是kubernetes很少直接控制Pod,一般都是通过Pod控 制器来完成的。Pod控制器用于pod的管理,确保pod资源符合预期的状态,当pod的资源出现故障时, 会尝试进行重启或重建pod。
在kubernetes中Pod控制器的种类有很多,本章节只介绍一种:Deployment。

命令操作

# 命令格式:
kubectl run deployment名称 [参数]
# --image 指定pod的镜像
# --port 指定端口
# --replicas 指定创建pod数量
# --namespace 指定namespace [root@master ~]# kubectl run nginx --image=nginx:1.17.1 --port=80 --replicas=3 - n dev deployment.apps/nginx created [root@master ~]# kubectl run nginx --image=nginx --port=80 --replicas=3 -n dev
Error: unknown flag: --replicas See 'kubectl run --help' for usage.
# 新版本中命令发生了一些改变,1.18版本后run没有replicas
# create deployment命令中存在replicas选项 [root@master ~]# kubectl create deployment nginx --image=nginx --port=80 -- replicas=3 -n dev
deployment.apps/nginx created # 查看创建的Pod
[root@master ~]# kubectl get pods -n dev
NAME                     READY   STATUS   RESTARTS   AGE
nginx-5ff7956ff6-6k8cb    1/1    Running       0     19s
nginx-5ff7956ff6-jxfjt    1/1    Running       0     19s
nginx-5ff7956ff6-v6jqw    1/1    Running       0     19s # 查看deployment的信息
[root@master ~]# kubectl get deploy -n dev
NAME     READY  UP-TO-DATE AVAILABLE  AGE
nginx     3/3      3           3     2m42s # UP-TO-DATE:成功升级的副本数量
# AVAILABLE:可用副本的数量
[root@master ~]# kubectl get deploy -n dev -o wide
NAME    READY  UP-TO-DATE   AVAILABLE  AGE  CONTAINERS    IMAGES      SELECTOR
nginx    3/3      3             3     2m51s nginx       nginx:1.17.1  run=nginx # 查看deployment的详细信息
[root@master ~]# kubectl describe deploy nginx -n dev
Name:                   nginx
Namespace:              dev
CreationTimestamp:      Wed, 08 Apr 2020 11:14:14 +0800
Labels:                 run=nginx
Annotations:            deployment.kubernetes.io/revision: 1
Selector:               run=nginx
Replicas:               3 desired | 3 updated | 3 total | 3 available | 0 unavailable
StrategyType:           RollingUpdate
MinReadySeconds:        0
RollingUpdateStrategy:  25% max unavailable, 25% max surge
Pod Template: Labels: run=nginx Containers: nginx: Image:           nginx:1.17.1 Port:            80/TCP Host Port:       0/TCP Environment:     <none>Mounts:          <none> Volumes:           <none>
Conditions: Type                 Status       Reason ----                 ------       ------ Available           True          MinimumReplicasAvailable
Progressing           True          NewReplicaSetAvailable
OldReplicaSets:       <none>
NewReplicaSet:        nginx-5ff7956ff6 (3/3 replicas created)
Events: Type        Reason      Age       From                  Message----        ------      ----      ----                  -------
Normal ScalingReplicaSet 5m43s deployment-controller Scaled up replicaset nginx-5ff7956ff6 to 3 # 删除
[root@master ~]# kubectl delete deploy nginx -n dev
deployment.apps "nginx" deleted

配置操作

创建一个deploy-nginx.yaml,内容如下:

apiVersion: apps/v1
kind: Deployment
metadata: name: nginx namespace: dev
spec: replicas: 3 selector:matchLabels: run: nginx template:metadata: labels: run: nginx
spec: containers: - image: nginx:1.17.1 name: nginx ports: - containerPort: 80 protocol: TCP
然后就可以执行对应的创建和删除命令了:
创建:kubectl create -f deploy-nginx.yaml
删除:kubectl delete -f deploy-nginx.yaml

Service

虽然每个Pod都会分配一个单独的Pod IP,然而却存在如下两问题:
  • Pod IP 会随着Pod的重建产生变化
  • Pod IP 仅仅是集群内可见的虚拟IP,外部无法访问
这样对于访问这个服务带来了难度。因此,kubernetes设计了Service来解决这个问题。
Service可以看作是一组同类Pod对外的访问接口。借助Service,应用可以方便地实现服务发现和负载均
衡。

操作一:创建集群内部可访问的Service

# 暴露Service
[root@master ~]# kubectl expose deploy nginx --name=svc-nginx1 --type=ClusterIP --port=80 --target-port=80 -n dev
service/svc-nginx1 exposed # 查看service
[root@master ~]# kubectl get svc svc-nginx -n dev -o wide
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTOR
svc-nginx1 ClusterIP 10.109.179.231 <none> 80/TCP 3m51s run=nginx # 这里产生了一个CLUSTER-IP,这就是service的IP,在Service的生命周期中,这个地址是不会变动的
# 可以通过这个IP访问当前service对应的POD
[root@master ~]# curl 10.109.179.231:80
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
</head>
<body>
<h1>Welcome to nginx!</h1>
.......</body> </html>

操作二:创建集群外部也可访问的Service

# 上面创建的Service的type类型为ClusterIP,这个ip地址只用集群内部可访问
# 如果需要创建外部也可以访问的Service,需要修改type为NodePort
[root@master ~]# kubectl expose deploy nginx --name=svc-nginx2 --type=NodePort - -port=80 --target-port=80 -n dev
service/svc-nginx2 exposed# 此时查看,会发现出现了NodePort类型的Service,而且有一对Port(80:31928/TC)
[root@master ~]# kubectl get svc svc-nginx-1 -n dev -o wide
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTOR
svc-nginx2 NodePort 10.100.94.0 <none> 80:31928/TCP 9s run=nginx # 接下来就可以通过集群外的主机访问 节点IP:31928访问服务了
# 例如在的电脑主机上通过浏览器访问下面的地址
http://192.168.109.100:31928/

删除Service

[root@master ~]# kubectl delete svc svc-nginx-1 -n dev
service "svc-nginx-1" deleted

配置方式

创建一个svc-nginx.yaml,内容如下:
apiVersion: v1
kind: Service
metadata: name: svc-nginx namespace: dev
spec: clusterIP: 10.109.179.231 ports: - port: 80 protocol: TCP targetPort: 80 selector: run: nginx type: ClusterIP
然后就可以执行对应的创建和删除命令了:
创建:kubectl create -f svc-nginx.yaml
删除:kubectl delete -f svc-nginx.yaml

k8s开启ipvs

未开启前查看
[root@master ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port    Forward Weight ActiveConn InActConn

加载内核模快

[root@master ~]# lsmod|grep ip_vs
ip_vs_sh 12688 0
ip_vs_wrr 12697 0
ip_vs_rr 12600 25
ip_vs 145497 31
ip_vs_rr,ip_vs_sh,ip_vs_wrr nf_conntrack 139224 10 ip_vs,nf_nat,nf_nat_ipv4,nf_nat_ipv6,xt_conntrack,nf_nat_masquerade_ipv4,nf_nat_ masquerade_ipv6,nf_conntrack_netlink,nf_conntrack_ipv4,nf_conntrack_ipv6
libcrc32c 12644 4 xfs,ip_vs,nf_nat,nf_conntrack

修改kube-proxy配置

[root@master ~]# kubectl edit configmap kube-proxy -n kube-system
...
mode: "ipvs"    #修改此处,默认为空

删除所有kube-proxypod

[root@master ~]# kubectl get pod -n kube-system
NAME                           READY     STATUS    RESTARTS       AGE
coredns-78fcd69978-4fx9p        1/1      Running      1       (21h ago) 22h
coredns-78fcd69978-fkbjx        1/1      Running      1       (21h ago) 22h
etcd-master                     1/1      Running      1       (21h ago) 22h
kube-apiserver-master           1/1      Running      1       (21h ago) 22h
kube-controller-manager-master  1/1      Running      0        21h
kube-flannel-ds-9w67m           1/1      Running      0        21h
kube-flannel-ds-amd64-gmdz7     1/1      Running      1       (21h ago) 21h
kube-flannel-ds-amd64-rbjft     1/1      Running      1       (21h ago) 21h
kube-flannel-ds-amd64-wmx6h     1/1      Running      1       (21h ago) 21h
kube-flannel-ds-lc65s           1/1      Running      0        21h
kube-flannel-ds-q8dbg           1/1      Running      0        21h
kube-proxy-cs7kp                1/1      Running      1       (21h ago) 22h
kube-proxy-fzkc6                1/1      Running      1       (21h ago) 22h
kube-proxy-jfg28                1/1      Running      1       (21h ago) 22h
kube-scheduler-master           1/1      Running      1       (21h ago) 21h [root@master ~]# kubectl delete pod kube-proxy-cs7kp kube-proxy-fzkc6 kube-proxy-
jfg28 -n kube-system
pod "kube-proxy-cs7kp" deleted
pod "kube-proxy-fzkc6" deleted
pod "kube-proxy-jfg28" deleted

校验

日志出现 Using ipvs Proxier 即可
[root@master ~]# kubectl logs kube-proxy-87b94 -n kube-system | grep ipvs
I0220 04:50:56.992877 1 server_others.go:274] Using ipvs Proxier.
I0220 04:50:56.992894 1 server_others.go:276] creating dualStackProxier for ipvs.#再次查看转发
[root@master ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags -> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.159.140:30080 rr -> 10.244.0.2:80 Masq 1 0 0
TCP 192.168.159.140:30081 rr -> 10.244.0.2:10081 Masq 1 0 0
TCP 192.168.159.140:31737 rr -> 10.244.1.16:80 Masq 1 0 0 -> 10.244.1.17:80 Masq 1 0 0 -> 10.244.2.18:80 Masq 1 0 0
TCP 192.168.0.1:30080 rr -> 10.244.0.2:80 Masq 1 0 0
TCP 192.168.0.1:30081 rr -> 10.244.0.2:10081 Masq 1 0 0
TCP 192.168.0.1:31737 rr -> 10.244.1.16:80 Masq 1 0 0 -> 10.244.1.17:80 Masq 1 0 0 -> 10.244.2.18:80 Masq 1 0 0
......

Kubernetes之实战入门相关推荐

  1. 零入门kubernetes网络实战-20->golang编程syscall操作tun设备介绍

    <零入门kubernetes网络实战>视频专栏地址 https://www.ixigua.com/7193641905282875942 本篇文章视频地址(稍后上传) 本篇文章主要是使用g ...

  2. 零入门kubernetes网络实战-3->Underlay网络与Overlay网络总结

    <零入门kubernetes网络实战>视频专栏地址 https://www.ixigua.com/7193641905282875942 本篇文章主要用于收集.整理.总结关于Underla ...

  3. 零入门kubernetes网络实战-7->Mac环境下为虚拟机磁盘空间进行扩容

    <零入门kubernetes网络实战>视频专栏地址 https://www.ixigua.com/7193641905282875942 在Mac环境下,使用PD软件创建的虚拟机磁盘空间不 ...

  4. 零入门kubernetes网络实战-31->基于bridge+veth pair+MASQUERADE技术实现内网可以访问外网

    <零入门kubernetes网络实战>视频专栏地址 https://www.ixigua.com/7193641905282875942 本篇文章视频地址(稍后上传) 本篇文章我们使用na ...

  5. 零入门kubernetes网络实战-14->基于veth pair、namespace以及路由技术,实现跨主机命名空间之间的通信测试案例

    <零入门kubernetes网络实战>视频专栏地址 https://www.ixigua.com/7193641905282875942 本篇文章视频地址(稍后上传) 本篇文章继续提供测试 ...

  6. Kubernetes(k8s)从入门到精通

    Kubernetes Kubernetes介绍 1.1 应用部署方式演变 在部署应用程序的方式上,主要经历了三个时代: 传统部署:互联网早期,会直接将应用程序部署在物理机上 优点:简单,不需要其它技术 ...

  7. 02-k8s资源管理与实战入门

    1.资源管理 1.1 资源管理介绍 在kubernetes中,所有的内容都抽象为资源,用户需要通过操作资源来管理kubernetes. kubernetes的本质上就是一个集群系统,用户可以在集群中部 ...

  8. Kubernetes ~ k8s 从入门到入坑。

    Kubernetes ~ k8s 从入门到入坑. 文章目录 Kubernetes ~ k8s 从入门到入坑. 1. Kubernetes 介绍. 1.1 应用部署方式演变. 1.2 kubernete ...

  9. k8s redis集群_K8S系列二:实战入门

    写在前面 本文是K8S系列第二篇,主要面向对K8S新手同学,阅读本文需要读者对K8S的基本概念,比如Pod.Deployment.Service.Namespace等基础概念有所了解.尚且不熟悉的同学 ...

  10. 数据中台实战入门篇:数据中台对内、对外合作机制

    前言 之前文章讲了 <数据中台实战入门篇:双中台战略>,主要解决了什么是中台.什么是数据中台.业务中台.什么公司适合搭建双中台体系这几个问题.本篇文章讲一下数据中台的人员构成.内部如何合作 ...

最新文章

  1. 全球13个DNS根+主要省份城市的DNS服务器地址
  2. # EXP8 Web基础
  3. ERC20 Short Address Attack
  4. 软考计算机基础:存储系统
  5. 机器视觉系统中相机的分辨率怎么选择?
  6. bzoj 1854: [Scoi2010]游戏(并查集)
  7. C++读取和写入文件(fstream等)
  8. Linux部署DotNetCore记录
  9. 【单片机】51单片机烧录那些事儿
  10. BIGEMAP地图下载器优势对比(水经注)
  11. w ndows10图标,Windows10系统图标怎样提取
  12. 计算机网络原理 - 网络层、链路层总结笔记
  13. 技术人员谈管理之帕累托法则(80/20法则)
  14. 金融快借贷款app下载域名微信内显示已停止访问该网页---被微信封杀或屏蔽的原因及预防措施
  15. Android导航栏自动隐藏,Android隐藏和显示虚拟导航栏
  16. java游戏主角叶开,逸之老板的天机城与叶开大神女魃墓,决赛场上谁更抢眼?...
  17. BTC 复制节点(节点复制)复制区块数据,实现快速同步区块数据
  18. Expanding Cards
  19. vue 加载image图片不显示解决
  20. 回忆2018年AI入门学习路线

热门文章

  1. mysql基础6-查询数据操作
  2. 词性标注-隐马尔可夫模型
  3. 人工神经网络之Python 实战
  4. 有趣的算法(四)最通俗易懂的KMP算法解析
  5. python语言核心理念是什么_Python 编程语言的核心是什么?
  6. postgresql开启历史查询记录日志
  7. antd 使用upload 组件,使用自定义上传行为,覆盖默认action 访问请求
  8. 190328文件处理
  9. C++ 构造函数中抛出异常
  10. dp合集 广场铺砖问题硬木地板