作者:高松

前言

在2019年的今天,微服务这个词相信对于绝大多数的开发者都已经不再陌生。时至今日,非常多的项目都逐渐开始实践起微服务这一设计思想,将原本的磐石应用逐渐按照领域模型切分成一个个小的服务,对于微服务的实践也日渐趋向于成熟。在笔者目前工作的业务实践中,同样也使用着微服务作为后端服务的架构设立思想,微服务为我们的代码管理与项目管理带来了非常大的简便性。然而随着需求的迭代与代码的日益积累,曾经泾渭分明、代码精简的各个微服务也逐渐开始变得逻辑复杂、代码冗余,同时每个微服务之间又似乎存在着剪不断理还乱的关系。2019年是Serverless蓬勃发展的一年,作为Serverless领域的中的明星产品,Knative在今年8月份发布了0.8版本,其中Serving组件的0.8版本在笔者看来才真正达到了可用的程度。本篇文章将介绍笔者是如何使用Knative来作为API聚合层,来解决我们在实践微服务中所遇到的问题的。

微服务迭代之痛

在笔者目前的工作实践中,我们在架构设计中严格遵循着微服务的设计理念。每块业务上独立的领域作为一个微服务,每个微服务有自己单独的数据库。任何一个微服务只能读写自己的数据库,而绝对不能干涉其他微服务的数据库,所有微服务之间获取信息都是通过http协议进行通信。在业务初期时,由于产品处于雏形中,所有服务的接口在逻辑上都比较简单,大部分接口都可以看做各自领域模型上的增删改查形态,服务与服务之间的调用也并不密集频繁。随着业务的持续发展与产品的迭代,大大小小、许许多多的功能需求交织重叠在一起,相应的各个服务直接服务于需求的接口也逐渐变多,每个接口越来越“需求相关”。并且我们逐渐发现随着需求的逐渐复杂,每个接口涉及的服务也越来越多,很难有一个强有力的理由去确定这个接口就必须放在某个服务里。这个时候将这个接口放在哪个服务里面,往往取决于做这个需求的开发对哪个服务的掌控力更强,或者说这个接口看上去更倾向于哪块业务领域。同时由于大大小小的“需求相关”的接口越来越多的堆积在各个微服务内以后,整个服务仓库的代码量逐渐增大,代码质量也逐渐下降、微服务仿佛变得不再那么“微”。

Serverless

Serverless,又或者说无服务器、Faas,几乎是2019年内整个云原生领域甚至是整个互联网技术圈领域内呼声最旺的关键字。当然Serverless并非只是在2019年才开始出现相关的技术,早在2014、2015年的时候,AWS就已经在各个文章、博客渠道上就已经开始宣传与推广自家的AWS Lambda服务了。当然,在如今2019年,国内的各个云服务厂商也都已经开始提供了成熟的Serverless产品,整个云原生开源社区内各个Serverless产品技术也逐渐走向成熟,同时Serverless这一技术落地的场景比起过去几年也越来越清晰、边界也越来越广。如同今年Kubecon上越来越多关于Serverless的议题一样。以及针对Serverless落地的技术分享也越来越多,这块笔者听到的最多的就是关于前端领域和Serverless结合的落地分享了。而在许多开源的Serverless产品中,最饱受关注的莫过于Knative了。而在今年8月份,Knative也终于发布了0.8版本,虽然这依然还不是一个生产就绪版本,但是0.8版本在API、稳定性上已经“几乎”可以认为是一个生产就绪版本了。这其中最关键的就是Knative Serving组件的更新了,可以说在Knative Serving 0.7及其之前的版本,这个组件都一直处于一个“几乎”可用的状态,有着不少令人困扰的小bug。好在这些许多影响正常使用的bug都最终在Knative Serving 0.8版本中被修复了。

Serverless在API聚合层的尝试

Api聚合层,第一次听到这个名词依旧也是在今年前端领域的技术分享中。相应的、API聚合层在前端领域中也有个专门的名词叫做BFF,即Backend For Frontend。在这一块,国内已经有过不少BFF与Serverless结合的的分享。可以说BFF与Serverless的结合即解决了在前端领域中,多端适配、又或者是UI模型与后端API数据的转化这一系列问题,同时也没有引入多余的维护服务稳定性以及服务治理等一系列额外的运维负担。

那么,既然在前端场景中可以有API聚合层,在后端服务的场景中是否也可以引入API聚合层这一个概念?既然在目前的微服务中,许多直接服务于需求、业务,并且在整个请求链路周期内会跨越许多微服务的API难以定位应该放在哪个微服务里,那么倒不如将思维逆转过来,对于这些“无处安放”的API,我们就干脆不把他们放在任何一个服务上,我们用Serverless去支持这些API,使得这些API一直以独立的函数单元存在。这样就让每个后端微服务的定位更加“靠后”,每个微服务提供的API,用如今一个比较流行的词来形容就是更加“中台化”,更加领域相关,更加的可复用化,而不再是直接面向需求,难以复用的接口。让Serverless去承载那些直接面向需求的接口,直接接受来自客户端的请求,然后通过调用更加“靠后”的微服务接口,来将各个API聚合在一起进行处理,最终返回给客户端。

在这种设计下的架构就很可能是以上这种形态,每个微服务都会提供自己业务领域内的、高度可复用的接口,然后再由Serverless层将这些API都聚合在一起直接服务与客户端请求。但不得不说这种设计其实非常“严格”,抑或是“苛刻”。事实上,我们完全可以让微服务与Serverless共同服务客户端的请求,而每个微服务之间也可以依旧有着相互的请求调用,只要每个微服务所暴露的接口不要再是那么的“需求相关”即可。毕竟推动我们这么去做的一个最大的痛点就在于一点:微服务如今已经不再那么“微”,希望把那些乱七八糟的接口通通移出去。

使用Knative来搭建API聚合层

这里我们单独使用Knative Serving组件来搭建这么一个API聚合层的基础设施,相关安装文档可以参考官方文档。这里我选择的是Knative+Istio的方案,版本则为目前最新的0.8版本。在搭建完Knative Serving组件以后,我们随便部署一个官方Demo来看看Serving组件究竟给我们做了哪些操作。

apiVersion: serving.knative.dev/v1alpha1
kind: Service
metadata:name: autoscale-gonamespace: istio-test
spec:template:metadata:annotations:# Target 10 in-flight-requests per pod.autoscaling.knative.dev/target: "10"spec:containers:- image: gcr.azk8s.cn/knative-samples/autoscale-go:0.1

在这里我们创建完KSVC以后,可以看到Knative Serving还为我们在K8S里创建了对应的Kubernetes中的Service,Deployment以及Istio中的VirtualService。

$ kubectl get ksvc
NAME           URL                                          LATESTCREATED        LATESTREADY          READY   REASON
autoscale-go   http://autoscale-go.istio-test.example.com   autoscale-go-cl5ng   autoscale-go-cl5ng   True    $ kubectl get service | grep 'autoscale-go'
autoscale-go               ExternalName   <none>          istio-ingressgateway.istio-system.svc.cluster.local   <none>              2m16s
autoscale-go-cl5ng         ClusterIP      10.212.41.137   <none>                                                80/TCP              2m41s
autoscale-go-cl5ng-hpl9z   ClusterIP      10.212.65.244   <none>                                                80/TCP              2m41s
autoscale-go-cl5ng-zklz4   ClusterIP      10.212.32.0     <none>                                                9090/TCP,9091/TCP   2m41s$ kubectl get deployment | grep 'autoscale-go'
autoscale-go-cl5ng-deployment   1/1     1            1           3m15s$ kubectl get virtualService | grep 'autoscale-go'
autoscale-go        [knative-serving/cluster-local-gateway knative-serving/knative-ingress-gateway]   [autoscale-go.istio-test autoscale-go.istio-test.example.com autoscale-go.istio-test.svc autoscale-go.istio-test.svc.cluster.local e6171b7a9294b95cd736d9111a66f2da.probe.invalid]   3m
autoscale-go-mesh   [mesh]                                                                            [autoscale-go.istio-test.svc.cluster.local 675805e7307e82364d1ccb70387c018e.probe.invalid]

在这里我们先直接看一下Service内autoscale-go的定义,在这里我们可以看到autoscale-go这个Service其实是一个Headless Service,他会将请求直接转发给Istio Ingressgateway,然后我们再查看一下autoscale-go VirtualService的定义。虽然autoscale-go的VirtualService很长,但其实内核非常简单,就是将host满足相关条件的HTTP请求转发到autoscale-go这个KSVC最后对应的服务实例中。

apiVersion: v1
kind: Service
metadata:creationTimestamp: "2019-08-23T06:26:40Z"labels:serving.knative.dev/route: autoscale-goname: autoscale-gonamespace: istio-testownerReferences:- apiVersion: serving.knative.dev/v1alpha1blockOwnerDeletion: truecontroller: truekind: Routename: autoscale-gouid: e577a131-c56e-11e9-b3f2-5254000238c1resourceVersion: "303862837"selfLink: /api/v1/namespaces/istio-test/services/autoscale-gouid: f78f8742-c56e-11e9-b3f2-5254000238c1
spec:externalName: istio-ingressgateway.istio-system.svc.cluster.localsessionAffinity: Nonetype: ExternalName
status:loadBalancer: {}
---
apiVersion: networking.istio.io/v1alpha3
kind: VirtualService
metadata:annotations:kubectl.kubernetes.io/last-applied-configuration: |{"apiVersion":"serving.knative.dev/v1alpha1","kind":"Service","metadata":{"annotations":{},"name":"autoscale-go","namespace":"istio-test"},"spec":{"template":{"metadata":{"annotations":{"autoscaling.knative.dev/target":"10"}},"spec":{"containers":[{"image":"gcr.azk8s.cn/knative-samples/autoscale-go:0.1"}]}}}}networking.knative.dev/ingress.class: istio.ingress.networking.knative.devserving.knative.dev/creator: i18nserving.knative.dev/lastModifier: i18ncreationTimestamp: "2019-08-23T06:26:40Z"generation: 2labels:serving.knative.dev/route: autoscale-goserving.knative.dev/routeNamespace: istio-testname: autoscale-gonamespace: istio-testownerReferences:- apiVersion: networking.internal.knative.dev/v1alpha1blockOwnerDeletion: truecontroller: truekind: Ingressname: autoscale-gouid: f791860d-c56e-11e9-b3f2-5254000238c1resourceVersion: "303863300"selfLink: /apis/networking.istio.io/v1alpha3/namespaces/istio-test/virtualservices/autoscale-gouid: f794b8c8-c56e-11e9-9d0d-5254008ecd85
spec:gateways:- knative-serving/cluster-local-gateway- knative-serving/knative-ingress-gatewayhosts:- autoscale-go.istio-test- autoscale-go.istio-test.example.com- autoscale-go.istio-test.svc- autoscale-go.istio-test.svc.cluster.local- e6171b7a9294b95cd736d9111a66f2da.probe.invalidhttp:- match:- authority:regex: ^autoscale-go\.istio-test\.example\.com(?::\d{1,5})?$gateways:- knative-serving/knative-ingress-gateway- authority:regex: ^autoscale-go\.istio-test(\.svc(\.cluster\.local)?)?(?::\d{1,5})?$gateways:- knative-serving/knative-ingress-gatewayretries:attempts: 3perTryTimeout: 10m0sroute:- destination:host: autoscale-go-cl5ng.istio-test.svc.cluster.localport:number: 80headers:request:add:Knative-Serving-Namespace: istio-testKnative-Serving-Revision: autoscale-go-cl5ngweight: 100timeout: 10m0swebsocketUpgrade: true- fault:abort:httpStatus: 200percent: 100match:- authority:exact: e6171b7a9294b95cd736d9111a66f2da.probe.invalidroute:- destination:host: null.invalidport:number: 80weight: 0

从以上层层分析中我们可以看到,其实Knative Serving背后的拓扑关系并不复杂,依旧是一个依托于Kubernetes与Istio固有的API所结合起来的一个Serverless方案,但这同时也给我们带来一个非常显而易见的矛盾。从以上Knative Serving API定义中,我们不难发现在Knative中,区分一个个函数、即KSVC,依靠的是Hostname。即对于Knative而言,他并不关心这个函数的Http Method与Http Path是什么,只要这个Http请求的host符合{ksvc-name}.{namespace}的判断条件,他就会将这个请求转发到对应的实例中去。而作为Faas使用者的我们,区分一个个函数,尤其是作为API聚合层的场景下,最直观的区分变量其实就是Http Method与Http Path。同时另外一点是,和之前常驻型的微服务不同的是,对于常驻型的微服务,通常匹配Http请求与Http Handler往往只需要Http Method与Http Path即可,并不需要关心这个Http请求的Host是什么。而在现在的Knative Serving的场景下,即使我们在Knative接受到请求之前Handle了Http Method与Http Path与各个KSVC的对应关系,我们同时还需要将这个来自外部客户端的HTTP请求中的Hostname改写为KSVC能接受的Hostname。这个需求其实听上去非常像是一个反代服务器,事实上用Nginx也可以同样handle住这个需求,当然这里为了快速验证这个想法,我就简单用golang快速写了一个proxy server,同时增加了在反代过程中通过Http Method与Http Path快速检索对应的KSVC HostName的逻辑。(当然这块一一对应的关系最好在应用启动时事先加载在内存中)

Golang起一个HTTP反代服务器非常简单,其核心代码就短短几行。

package mainimport ("net/http""net/http/httputil""log"
)func main() {http.HandleFunc("/", func(w http.ResponseWriter, r *http.Request) {director := func(req *http.Request) {req = rreq.URL.Scheme = "http"req.URL.Host = r.Host}proxy := &httputil.ReverseProxy{Director: director}proxy.ServeHTTP(w, r)})log.Fatal(http.ListenAndServe(":8888", nil))
}

经过上面这一番操作,我们整个调用Serverless函数的网络链路也就最终确定下来,并且在我们的实践中,我们所有使用Serverless的函数在Http Path上都约定以“/faas/”作为Http Path前缀,这样一个来自外部客户端的请求从网关层进入到最终被autoscale-go访问这个网络链路可以分为五步。

  1. 网关层Nginx Ingress会将https解包成http协议,并且根据Ingress规则将请求转发给proxy-server

  2. proxy-server收到请求后,会根据请求的Http Method与Http Path检索其对应的KSVC,如果检索到,则改写HostName,并转发到对应的Headless Service上。

  3. Headless Service收到请求后将请求转发给Istio IngressGateway

  4. Istio IngressGateway收到请求后,根据VirtualService规则转发到对应的服务实例中去

  5. autoscale-go实例收到请求后开始处理,处理完以后回复Response。

为何要这么设计链路?

纵观上面整个五步,一定会有人问这么设计会不会整个网络链路转发的步骤太多了,影响性能之类的问题。事实上,在我们做任何一个架构上的设计时,一定会牵扯到可维护性复杂度性能风险等多个因素的平衡与取舍。事实上上面的第一步和第二步,完全可以合并为一步,在网关层就直接将KSVC检索、HostName替换给一起做了,可是试想下,在互联网场景下,一个高速迭代的业务平时会上线、下线大量的接口。和常驻的微服务不同,微服务增加新的接口是不需要刷新网关层配置的,而在Faas的场景下我们每新增一个接口新相当于上线一个新服务,更别提也许我们未来希望在每个函数接受到请求时都已经经过鉴权以及设置了一些约定的Http Header等更多需求。而上面的第三到第五步则完全就是Knative Serving原生的处理流程,这里不去干涉Knative Serving的原生处理流程,就是为了能直接使用到Knative Serving原生封装好的各种功能,包括函数迭代、灰度发布、冷启动等功能。

最后的一点经验总结

在Serverless领域中,一个被所有开发者最关心的一个问题就是冷启动的耗时问题。在笔者的场景下,即使是在所有使用到的镜像都彻底预先拉取到宿主机的情况下,并且函数本身所使用的镜像大小都尽可能小时,对于冷启动的耗时依旧处于一个不令人满意的结果。但是这也问题不大,因为Knative Serving本身也提供了杜绝冷启动的选项,当然在这一情况下每个函数都会保留一个实例,也就没了节约资源这一说法。然而,站在一个向业务开发方推荐Serverless这一新技术的角度下,在保证性能的前提下,节约资源这一优点对于业务方而言并不属于非常通用,非常有说服力的痛点。正如在我看来前端领域中BFF+Serverless是一个非常好的双方各取所需的共赢案例,Serverless希望推广,希望扩展场景,而前端开发者们则希望解决UI模型与后端数据转换的痛点,于是双方一拍即合。你能说在这一例子中,Serverless所强调的节约资源,弹性伸缩等特性完全契合了BFF的需求吗?非也,无需运维才是。在这API聚合的场景中,针对微服务不再“微”,通过将直接面向需求的接口从各个微服务中剥离转交到Serverless层,达到了将各个复杂的接口独立治理、分而治之的思想降低了整体的复杂度,让每个微服务都能直接提供“中台化”的,“可复用”的接口,这往往会大大提高每个微服务的代码可维护性。实践证明,往往那些一次性的、无法复用的、极度“需求相关”的逻辑往往是摧毁项目可维护性的元凶之一,而在一个多人合作的业务项目中,我们往往无法杜绝这样的代码,也无法拒绝这样的需求,那么这篇文章所讲的落地场景就是将这些代码剥离出来,作为一个个函数。就算某个函数写的极其混乱,那又如何,把整个函数清空了重写的成本也并不高,毕竟重构一个函数比重构一个服务简单多了。

 推荐阅读 

Google 开源的 Serverless 平台 knative 简介

Solo.io打造的Gloo——Knative中Istio的替代方案

基于Kubernetes和Istio的Serverless框架Knative解析之Autoscaler

Service Mesh的未来将与Knative和Apahce Whisk等技术和谐共存——采访RedHat的Istio产品经理

《Knative入门》中文版发布|附PDF下载

点击 阅读原文 查看更多

使用Knative作为API聚合层的实践相关推荐

  1. 带你玩转kubernetes-k8s(第54篇-Kubernetes之使用API聚合机制扩展API资源)

    API聚合机制是Kubernetes 1.7版本引入的特性,能够将用户扩展的API注册到kube-apiserver上,仍然通过API Server的HTTP URL对新的API进行访问和操作.为了实 ...

  2. Kubernetes API 聚合开发汇总

    2. Kubernetes API 聚合开发 自定义资源实际上是为了扩展 kubernetes 的 API,向 kubenetes API 中增加新类型,可以使用以下三种方式: 修改 kubenete ...

  3. linux调用windows接口,想要打通Windows和Linux的任督二脉,少不了API这层功力

    原标题:想要打通Windows和Linux的任督二脉,少不了API这层功力 每每Windows一更新,都伴随着一波又一波的高潮,从界面UI到系统布局,再到各种新功能的加入,每个版本的Windows或多 ...

  4. kubernetes API Server 权限管理实践

    2019独角兽企业重金招聘Python工程师标准>>> kubernetes API Server 权限管理实践 API Server权限控制方式介绍 API Server权限控制分 ...

  5. Kubernetes API Aggregation在 Master 的 API Server 中启用 API 聚合功能注册自定义 APIService 资源实现和部署自定义的 API Serv

    如需转载请标注内容地址为: https://wiki.shileizcc.com/confluence/display/KUB/Kube Kubernetes API Extension Kubern ...

  6. 全行业聚合支付平台接口_各类API聚合支付平台

    什么是聚合支付? 聚合支付,是指聚合所有主流的第三方支付通道.多个支付场景.多种支付方式,通过软硬件(SDK.API.POS)的承载形势,链接商户和第三方支付平台.银行系统的综合支付服务.聚合支付不进 ...

  7. DeFi聚合层的价值可能被低估了 |链捕手

    谈到DeFi聚合层,大家可能会首先想到YFI.YFII等收益聚合器项目,它们为投资者聚合了具有高收益率的资金池并自动优化投资组合,以便投资者获得最优收益. 再者还有交易聚合器,例如1inch.Meta ...

  8. php后台对接ios,安卓,API接口设计和实践完全攻略,涨薪必备技能

    2016年12月29日13:45:27  关于接口设计要说的东西很多,可能写一个系列都可以,vsd图都得画很多张,但是由于个人时间和精力有限,所有有些东西后面再补充 说道接口设计第一反应就是restf ...

  9. 关于线上API聚合支付系统的功能介绍,为什么选择聚合支付?

    一个完善的聚合支付系统,拥有支付网关.主动对账.退款网关.支付/退款状态查询等功能模块.关于线上API聚合支付系统功能,今天就在这和大家简单地介绍一下,另外它的优势何在,也是现在的商家都选择聚合支付的 ...

最新文章

  1. Net线程间通信的异步机制
  2. C++静态类型成员变量的初始化顺序(单例模式)
  3. 歪枣网数据库设计-千万级别海量数据查询效率优化
  4. jquery实用方法
  5. Python学习笔记大总结(我把我所有python笔记做了总结和学习顺序,点击即可进入相关博客。希望可以便于你们阅读)
  6. AUTOCAD——倒角命令、圆角命令
  7. 【面试题】能从底层角度聊聊volatile关键字的原理吗?
  8. spring mvc 配置使用定时任务
  9. lan的以太网标准_并非所有以太网电缆都是平等的:通过升级,您可以获得更快的LAN速度...
  10. python 儿童 游戏_儿童编程教学 – 推荐几款Python编程类游戏
  11. Black Jack
  12. css3制作八棱锥_CSS 绘制各种形状
  13. 远程视频监控智能工业网关
  14. 微软股价创历史新高 市值突破1万亿美元
  15. Lambda表达式和SteamAPI
  16. 简述UITableView的属性和用法
  17. HITRAN数据库的使用以及普朗克平均吸收系数的计算
  18. Java基础 面试题
  19. 软件测试工程师澳洲移民,‎App Store 上的“澳洲公民入籍考试 (2021)”
  20. 怎么提高三岁孩子的专注力?

热门文章

  1. 永中科技破产,盒装软件时代的尾声
  2. springBoot 整合阿里云OSS对象存储封装实现类
  3. 计算机毕设Python+Vue游戏论坛设计(程序+LW+部署)
  4. Java的异常捕捉(Exception)
  5. vue+scss实现一键换肤
  6. 硬盘录像机通过国标GB28181协议接入EasyCVR,通道经常上下线是什么原因?
  7. C4D建模教程篇之在AI中绘制样条线至C4D挤压
  8. Redis的Lua脚本总结
  9. 面试后别忘了说“谢谢”
  10. Linux之 免费简体中文字体