kubernetes 简介

一个迅速过一遍kubernetes 非常不错的资源:
基于Kubernetes构建Docker集群管理详解

kubernetes 出现原因

目前企业级应用出现的问题:

  1. 粗放型的技术团队中开发人员直接与机器、操作系统打交道,无运维人员造成了大量的时间开销,同时运维人员不了解相应的应用,出问题需要多方同时到位,进行解决。
  2. 系统的可用性和稳定性很难得到保证
  3. 分布式应用及分布式系统门槛很高,需要长期的技术积累。

kubernetes 的出现即为了解决该问题,为各种各样的开发完成的微服务能够迅速服务千万用户的访问。

解决上述问题即是kubernetes的设计目的:

  1. 隐藏资源管理和错误处理,用户开发者仅需要关注应用的开发。
  2. 服务高可用、高可靠。
  3. 可将负载运行在由成千上万的机器联合而成的集群中,同时实现弹性伸缩。

Kubernetes对计算资源进行了更高层次的抽象,通过将容器进行细致的组合,将最终的应用服务交给用户。

Kubernetes在模型建立之初就考虑了容器跨机连接的要求,支持多种网络解决方案,同时在Service层次构建集群范围的SDN网络。其目的是将服务发现和负载均衡放置到容器可达的范围,这种透明的方式便利了各个服务间的通信,并为微服务架构的实践提供了平台基础。而在Pod层次上,作为Kubernetes可操作的最小对象,其特征更是对微服务架构的原生支持

kubernetes 一次完整的工作流

说工作流之前附上参考链接:k8s 工作流参考链接

三个维度认识kubernetes

关于上图需要补充两点:

  1. 操作对象是基本对象,是k8s及用户直接操作的对象单元。
  2. apiservver里面包含REST对象,其中REST对象起到了服务注册的作用。

操作对象

Kubernetes以RESTFul形式开放接口,用户可操作的REST对象有三个:

  • pod:是Kubernetes最基本的部署调度单元,可以包含container,逻辑上表示某种应用的一个实例。比如一个web站点应用由前端、后端及数据库构建而成,这三个组件将运行在各自的容器中,那么我们可以创建包含三个container的pod。
  • service:是pod的路由代理抽象,用于解决pod之间的服务发现问题。因为pod的运行状态可动态变化(比如切换机器了、缩容过程中被终止了等),所以访问端不能以写死IP的方式去访问该pod提供的服务。service的引入旨在保证pod的动态变化对访问端透明,访问端只需要知道service的地址,由service来提供代理。
  • replicationController:是pod的复制抽象,用于解决pod的扩容缩容问题。通常,分布式应用为了性能或高可用性的考虑,需要复制多份资源,并且根据负载情况动态伸缩。通过replicationController,我们可以指定一个应用需要几份复制,Kubernetes将为每份复制创建一个pod,并且保证实际运行pod数量总是与该复制数量相等(例如,当前某个pod宕机时,自动创建新的pod来替换)。

可以看到,service和replicationController只是建立在pod之上的抽象,最终是要作用于pod的,那么它们如何跟pod联系起来呢?这就要引入label的概念:label其实很好理解,就是为pod加上可用于搜索或关联的一组key/value标签,而service和replicationController正是通过label来与pod关联的。如下图所示,有三个pod都有label为"app=backend",创建service和replicationController时可以指定同样的label:"app=backend",再通过label selector机制,就将它们与这三个pod关联起来了。例如,当有其他frontend pod访问该service时,自动会转发到其中的一个backend pod。

REST对象会写入到etcd中

功能组件

如下图所示是官方文档里的集群架构图,一个典型的master/slave(minion)模型。

master运行三个组件:

  • apiserver:作为kubernetes系统的入口,封装了核心对象的增删改查操作,以RESTFul接口方式提供给外部客户和内部组件调用。它维护的REST对象将持久化到etcd(一个分布式强一致性的key/value存储)。
  • scheduler:负责集群的资源调度,为新建的pod分配机器。这部分工作分出来变成一个组件,意味着可以很方便地替换成其他的调度器。
  • controller-manager:负责执行各种控制器,目前有两类:
    • endpoint-controller:定期关联service和pod(关联信息由endpoint对象维护),保证service到pod的映射总是最新的。
    • replication-controller:定期关联replicationController和pod,保证replicationController定义的复制数量与实际运行pod的数量总是一致的。
      slave(称作minion)运行两个组件:
  • kubelet:负责管控docker容器,如启动/停止、监控运行状态等。它会定期从etcd获取分配到本机的pod,并根据pod信息启动或停止相应的容器。同时,它也会接收apiserver的HTTP请求,汇报pod的运行状态。
  • proxy:负责为pod提供代理。它会定期从etcd获取所有的service,并根据service信息创建代理。当某个客户pod要访问其他pod时,访问请求会经过本机proxy做转发。

更简单kubernetes架构图:

工作流

上文已经提到了Kubernetes中最基本的三个操作对象:pod, replicationController及service。下面分别从它们的对象创建出发,通过时序图来描述Kubernetes各个组件之间的交互及其工作流。

简述createPod的过程:

  1. 客户端提交创建请求,可以通过API Server的Restful API,也可以使用kubectl命令行工具。支持的数据类型包括JSON和YAML。
  2. API Server处理用户请求,存储Pod数据到etcd。
  3. 调度器通过API Server查看未绑定的Pod。尝试为Pod分配主机。
  4. 过滤主机 (调度预选):调度器用一组规则过滤掉不符合要求的主机。比如Pod指定了所需要的资源量,那么可用资源比Pod需要的资源量少的主机会被过滤掉。
  5. 主机打分(调度优选):对第一步筛选出的符合要求的主机进行打分,在主机打分阶段,调度器会考虑一些整体优化策略,比如把容一个Replication Controller的副本分布到不同的主机上,使用最低负载的主机等。
  6. 选择主机:选择打分最高的主机,进行binding操作,结果存储到etcd中。
  7. kubelet根据调度结果执行Pod创建操作: 绑定成功后,scheduler会调用APIServer的API在etcd中创建一个boundpod对象,描述在一个工作节点上绑定运行的所有pod信息。运行在每个工作节点上的kubelet也会定期与etcd同步boundpod信息,一旦发现应该在该工作节点上运行的boundpod对象没有更新,则调用Docker API创建并启动pod内的容器。

kubernetes 相应的组件实现及原理

Kubernetes node有运行应用容器必备的服务,而这些都是受Master的控制。

每次个节点上当然都要运行Docker。Docker来负责所有具体的映像下载和容器运行。

Kubernetes主要由以下几个核心组件组成:

etcd保存了整个集群的状态;

  • apiserver提供了资源操作的唯一入口,并提供认证、授权、访问控制、API注册和发现等机制;
  • controller manager负责维护集群的状态,比如故障检测、自动扩展、滚动更新等;
  • scheduler负责资源的调度,按照预定的调度策略将Pod调度到相应的机器上;
  • kubelet负责维护容器的生命周期,同时也负责Volume(CVI)和网络(CNI)的管理;
  • Container runtime负责镜像管理以及Pod和容器的真正运行(CRI);
  • kube-proxy负责为Service提供cluster内部的服务发现和负载均衡;

除了核心组件,还有一些推荐的Add-ons:

  • kube-dns负责为整个集群提供DNS服务
  • Ingress Controller为服务提供外网入口
  • Heapster提供资源监控
  • Dashboard提供GUI
  • Federation提供跨可用区的集群
  • Fluentd-elasticsearch提供集群日志采集、存储与查询

几个主要的组件

kubelet

kubelet负责管理pods和它们上面的容器,images镜像、volumes、etc。

kube-proxy

每一个节点也运行一个简单的网络代理和负载均衡(详见services FAQ )(PS:官方 英文)。 正如Kubernetes API里面定义的这些服务(详见the services doc)(PS:官方 英文)也可以在各种终端中以轮询的方式做一些简单的TCP和UDP传输。

服务端点目前是通过DNS或者环境变量( Docker-links-compatible 和 Kubernetes{FOO}_SERVICE_HOST 及 {FOO}_SERVICE_PORT 变量都支持)。这些变量由服务代理所管理的端口来解析。

Kubernetes控制面板

Kubernetes控制面板可以分为多个部分。目前它们都运行在一个master 节点,然而为了达到高可用性,这需要改变。不同部分一起协作提供一个统一的关于集群的视图。

etcd

所有master的持续状态都存在etcd的一个实例中。这可以很好地存储配置数据。因为有watch(观察者)的支持,各部件协调中的改变可以很快被察觉。

etcd为了提高可靠性,可以使用多个master节点:

参考链接:搭建含三个master节点的kubernetes集群

需要注意的地方有:

  • kube-scheduler、kube-controller-manager 和 kube-apiserver 三者的功能紧密相关;
    同时只能有一个 kube-scheduler、kube-controller-manager 进程处于工作状态,如果运行多个,则需要通过选举产生一个 leader;(raft算法)

Kubernetes API Server

API服务提供Kubernetes API (PS:官方 英文)的服务。这个服务试图通过把所有或者大部分的业务逻辑放到不两只的部件中从而使其具有CRUD特性。它主要处理REST操作,在etcd中验证更新这些对象(并最终存储)。

Scheduler

调度器把未调度的pod通过binding api绑定到节点上。调度器是可插拔的,并且我们期待支持多集群的调度,未来甚至希望可以支持用户自定义的调度器。

Kubernetes控制管理服务器

所有其它的集群级别的功能目前都是由控制管理器所负责。例如,端点对象是被端点控制器来创建和更新。这些最终可以被分隔成不同的部件来让它们独自的可插拔。

replicationcontroller(PS:官方 英文)是一种建立于简单的 pod API之上的一种机制。一旦实现,我们最终计划把这变成一种通用的插件机制。

kubernetes 常用名词解释与在整体架构中的作用

Pod

K8s有很多技术概念,同时对应很多API对象,最重要的也是最基础的是微服务Pod。Pod是在K8s集群中运行部署应用或服务的最小单元,它是可以支持多容器的。Pod的设计理念是支持多个容器在一个Pod中共享网络地址和文件系统,可以通过进程间通信和文件共享这种简单高效的方式组合完成服务。Pod对多容器的支持是K8s最基础的设计理念。比如你运行一个操作系统发行版的软件仓库,一个Nginx容器用来发布软件,另一个容器专门用来从源仓库做同步,这两个容器的镜像不太可能是一个团队开发的,但是他们一块儿工作才能提供一个微服务;这种情况下,不同的团队各自开发构建自己的容器镜像,在部署的时候组合成一个微服务对外提供服务。

Pod是K8s集群中所有业务类型的基础,可以看作运行在K8s集群中的小机器人,不同类型的业务就需要不同类型的小机器人去执行。目前K8s中的业务主要可以分为长期伺服型(long-running)、批处理型(batch)、节点后台支撑型(node-daemon)和有状态应用型(stateful application);分别对应的小机器人控制器为Deployment、Job、DaemonSet和PetSet,本文后面会一一介绍。

复制控制器(Replication Controller,RC)

RC是K8s集群中最早的保证Pod高可用的API对象。通过监控运行中的Pod来保证集群中运行指定数目的Pod副本。指定的数目可以是多个也可以是1个;少于指定数目,RC就会启动运行新的Pod副本;多于指定数目,RC就会杀死多余的Pod副本。即使在指定数目为1的情况下,通过RC运行Pod也比直接运行Pod更明智,因为RC也可以发挥它高可用的能力,保证永远有1个Pod在运行。RC是K8s较早期的技术概念,只适用于长期伺服型的业务类型,比如控制小机器人提供高可用的Web服务。

服务(Service)

RC、RS和Deployment只是保证了支撑服务的微服务Pod的数量,但是没有解决如何访问这些服务的问题。一个Pod只是一个运行服务的实例,随时可能在一个节点上停止,在另一个节点以一个新的IP启动一个新的Pod,因此不能以确定的IP和端口号提供服务。要稳定地提供服务需要服务发现和负载均衡能力。服务发现完成的工作,是针对客户端访问的服务,找到对应的的后端服务实例。在K8s集群中,客户端需要访问的服务就是Service对象。每个Service会对应一个集群内部有效的虚拟IP,集群内部通过虚拟IP访问一个服务。在K8s集群中微服务的负载均衡是由Kube-proxy实现的。Kube-proxy是K8s集群内部的负载均衡器。它是一个分布式代理服务器,在K8s的每个节点上都有一个;这一设计体现了它的伸缩性优势,需要访问服务的节点越多,提供负载均衡能力的Kube-proxy就越多,高可用节点也随之增多。与之相比,我们平时在服务器端做个反向代理做负载均衡,还要进一步解决反向代理的负载均衡和高可用问题。

任务(Job)

Job是K8s用来控制批处理型任务的API对象。批处理业务与长期伺服业务的主要区别是批处理业务的运行有头有尾,而长期伺服业务在用户不停止的情况下永远运行。Job管理的Pod根据用户的设置把任务成功完成就自动退出了。成功完成的标志根据不同的spec.completions策略而不同:单Pod型任务有一个Pod成功就标志完成;定数成功型任务保证有N个任务全部成功;工作队列型任务根据应用确认的全局成功而标志成功。

kubernetes 配置文件写法

kubernentes 使用实例

一个非常不错的kubernentes的例子:
参考链接

kubernetes 后面新加入了许多新的特性,但是通常一般来说主要定义三个kind,包括

service,rc,pod

service 用来服务注册
rc 用来保持一定量的副本
pod 用来指明启动的docker镜像。

kubernetes 与fabric结合

从 fabric 的配置文件说起:

非常不错的k8s整合fabric文档

项目的github地址

k8s上面部署kubernentes文章主要分为几个步骤:

  • 基础设施:网络、共享存储。网络解决的问题是通过docker.sock创建的容器k8s访问不到。pv和pvc解决的是共享存储的问题。
  • 组件划分 namespace隔离 分为几个部分,几个pod。这块和fabric关系比较紧密,决定了fabric的模板文件如何去写。
  • 源代码

附录

Kubernetes支持2种服务发现方式,环境变量DNS。 其中环境变量是默认支持的,但是环境变量方式存在限制: Pod必须在Service之后创建,DNS则没有这个限制。

为什么要使用kube-dns

简单描述一句话:
创建service.yaml之后,仍需要获取Service的Cluster-IP,再结合Port访问服务。

虽然Service解决了Pod的服务发现和负载均衡问题,但存在着类似的问题:不提前知道Service的cluster-IP,还是需要改程序或配置啊。看到这里有没有感觉身体被掏空?

service 比pod强了一点是service有个虚拟ip,它是不会改变的,访问的时候通过serviceIp:port即可完成访问。

但是service cluster IP还是必须查的。

kube-dns可以解决Service的发现问题,k8s将Service的名称当做域名注册到kube-dns中,通过Service的名称就可以访问其提供的服务。

一个service的实例。

{"kind": "Service","apiVersion": "v1","metadata": {"name": "my-service"},"spec": {"selector": {"app": "MyApp"},"ports": [{"protocol": "TCP","port": 80,"targetPort": 9376}]}
}

在yaml的配置文件中,Kubernetes 提供了一种新的部署,名为deployment,它继承了绝大多数rc的特性,并且提供了更强的功能。

pv和pvc

在kubernentes整合fabric中用到了pv和pvc,它们二者的区别是:

PersistentVolume(pv)和PersistentVolumeClaim(pvc)是k8s提供的两种API资源,用于抽象存储细节。管理员关注于如何通过pv提供存储功能而无需
关注用户如何使用,同样的用户只需要挂载pvc到容器中而不需要关注存储卷采用何种技术实现。

pv和pvc参考链接

作者:bradyjoestar
链接:https://www.jianshu.com/p/97b5ecddc3dc
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

Kubernentes相关推荐

  1. Kubernetes安装之证书验证

    前言 昨晚(Apr 9,2017)金山软件的opsnull发布了一个开源项目和我一步步部署kubernetes集群,下文是结合我之前部署kubernetes的过程打造的kubernetes环境和ops ...

  2. 还在犹豫吗?现在参与 OCM 社区正是时候

    简介:距离上一篇宣告 OCM 开源并提交 CNCF TOC 项目孵化申请的文章已经有一个多月了.这一个多月来 OCM 社区吸引了越来越多的关注和伙伴们的加入,OCM 自身的研发,相关领域产品和解决方案 ...

  3. Kubernetes入门培训(内含PPT)-(转)

    Kubernetes入门培训(内含PPT) https://mp.weixin.qq.com/s/T6vzHupm1oqcznrCd13xDg 原创 半夏透心凉 云原生技术爱好者社区 2月2日 来自专 ...

  4. Kubernetes学习总结(17)—— Kubernetes 快速入门需要掌握的知识点总结

    一.Docker Docker 是基于操作系统的沙盒技术,使得用户更简单和完整的去打包自己的应用.docker 底层是基于 Linux 的操作系统级别的虚拟化技术 LXC 实现:LXC 是通过 CGr ...

  5. kubernetes挂载存储

    本文主要介绍如何用kubernentes挂载rbd目录.以及其中遇到的问题.有关ceph和rbd相关请自行百度. 如何创建 参照github上kubernetes/examples/rbd/ 目录下的 ...

  6. 站在巨人肩膀上的牛顿:Kubernetes和SAP Kyma

    这周Jerry在SAP上海研究院参加了一个为期4天的Kubernetes培训,度过了忙碌而又充实的4天.Jason,Benny和Peng三位大神的培训干货满满,借此机会,Jerry和过去的两位老领导P ...

  7. 云原生应用负载均衡系列 (2): 入口流量分发、容错与高可用调度

    引言 在云原生应用负载均衡系列第一篇文章<云原生应用负载均衡选型指南>介绍了云原生容器环境的入口流量管理使用场景与解决方案,用 Envoy 作为数据面代理,搭配 Istio 作控制面的 I ...

  8. 用Docker和Kubernetes将MongoDB作为微服务来运行

    想要在你的手提电脑上尝试MongoDB吗?执行一个命令,然后拥有一个轻量级,独立的沙箱:再执行一个命令,删除你完成之后所有的痕迹.是不是需要一个在多个环境中都跟你的应用程序堆栈一样的应用程序?创建一你 ...

  9. 使用spring boot+kubernetes构建完整微服务平台

    微服务架构被认为是构建大型复杂系统的最佳理论指导,其采用了分而治之.单一职责.关注点分离等方法论来设计系统架构.微服务的实现方式和思路有很多种,本文简述基于kubernetes的微服务平台建设思路及技 ...

最新文章

  1. 学者要研究真问题做真学问
  2. Async和Await如何简化异步编程几个实例
  3. python下载网页歌词_使用Python下载歌词并嵌入歌曲文件中的实现代码
  4. 互联网金融产品需要什么样的产品经理?
  5. Visual Studio Code,这是要上天?
  6. sublime3 常用功能总结
  7. UML应用:业务内涵的分析抽象amp;表达
  8. OSChina 周五乱弹 —— 你专业是啥,被叫去搬砖了吗?
  9. BetterFE 前端技术周刊 - 2019/03/11
  10. Practical Machine Learning实用机器学习 章1
  11. python约瑟夫环单向循环链表_用单向循环链表解决约瑟夫环(Joseph)问题
  12. python列表冒泡排序方法_python列表去重 冒泡排序 插序排序
  13. 《模拟电子技术》-童诗白
  14. 论文中中英文摘要格式怎么写?
  15. 一个量化交易员的日常:屌丝版VS土豪版
  16. 服务器动态文档技术——CGI、Servlet技术、动态页面Web
  17. 没键盘计算机能启动吗,电脑没有接鼠标键盘为什么会影响电脑的正常开机?
  18. CSS3动画实践——简易牛顿摆
  19. 利用QVOD架设流媒体服务器/电影服务器/vod服务器
  20. Windows系统资源监控工具perfmon-只能查看报告。

热门文章

  1. 孙正义在比特币上栽了?传其亏损超过1.3亿美元...
  2. 别停特斯拉旁边!特斯拉车辆自燃全车烧毁 连旁边的奥迪都没放过...
  3. 微信联合万达广场上线无感支付 2秒出停车场
  4. 奔驰宝马路虎等齐降价 最高降幅达8.5万!
  5. 拳王虚拟项目公社:网上比较容易挣到钱方式?虚拟资源项目是赚钱的最佳选择
  6. [python]json.loads 几种错误 解决方案
  7. linux进程管理与调度
  8. 寻找素数分配线程算法
  9. 常遇问题及一些可能的解决方案
  10. java 异常处理 简书_Java基础知识8-异常处理