来自:DBAplus社群

本文根据朱伟老师在〖2019 Gdevops全球敏捷运维峰会-广州站〗现场演讲内容整理而成。

讲师介绍

朱伟,微博广告SRE团队负责人,书籍《智能运维:从0搭建大规模分布式AIOps系统》作者之一。目前负责微博广告业务可用性的保障与优化、资源利用率的提升、监控报警系统的建设以及自动化体系的推进。

分享概要

1、运维在广告体系中的价值

2、复杂业务场景下的运维建设之路

3、海量指标监控平台Oops实践

一、运维在广告体系中的价值

运维的工作来源已久,但直到近些年,随着互联网的发展,产品的维护工作越来越复杂,以及服务可用性的提升,都让运维的工作越来越重要。我们可以回顾下运维发展至今都经历了哪些阶段。

 ① 人工阶段

这个阶段的运维主要通过人肉操作我们的服务,由于这个阶段的服务大都是单实例,流量服务器都比较少,所以我们通过命令行就能够解决绝大多数的问题。

 ② 工具阶段

随着互联网影响逐渐变大,我们的流量也开始变大,我们的产品功能也开始变得丰富,曾经我们单实例的服务也开始朝着多实例、分布式发展,为了应对逐渐增加的服务器、服务数,我们开始使用一些如Puppet的运维工具,通过Shell、Python写一些脚本来提升运维的工作效率,减少重复的劳动。

 ③ DevOps

前几年,运维领域开始提出DevOps的理念,开始着手解决运维与开发的合作问题,开始让运维的工作走向规范化、平台化。让一个产品从功能开发到测试交付、再到后期运维能够更加的快捷、频繁、可靠,更快的响应互联网快速的发展和产品迭代。

 ④ AiOps

这两年,人工智能和大数据的异常火热,而运维领域的许多工作都为AI和大数据的实施落地提供了良好的土壤。我们也希望通过Ai和大数据等技术的引入,能够将运维的技术层次带入一个更高的台阶。

通过以上描述,我们可以看到运维的工作在互联网的产品技术链中是不可或缺的一环,那么下面我们再来看下在微博广告团队,我们都是通过哪些方案举措来服务微博广告的产品。

对于我们微博广告团队来说,服务的可用性是至关重要的,也是我们的核心KPI,所以保障广告服务的稳定性也是我们运维工作的重中之重。我们主要会通过优化系统和提升效率两个方面来保障和提升我们服务的可用性。

具体涉及的内容包括系统性能评估、故障迅速定位、应急事件处理、请求链路跟踪、代码快速迭代、指标走势预测等等。

▲ 图1-1 运维在微博广告的价值

二、复杂业务场景下的运维建设之路

1、服务治理

图2-1是去年IG夺冠时,王思聪发了一条博文,而这条博文对微博广告的影响就如图2-2所示。这种突发的流量波动是微博典型的特征之一,它不同于双十一等活动,可以提前预估流量,做好前期准备工作。在传统的运维场景下,也许在你也还没准备好的情况下,流量的高峰就已经过去了。所以如果应对这样突发的流量高峰是我们需要重点解决的问题之一。

▲ 图2-1

▲ 图2-2

从去年开始,我们运维团队开始进行基于机房的服务治理工作。在以前,广告的很多服务部署都是单点单机房、很多多机房的部署也面临部署不均衡,流量不均匀等现象。跨机房的请求更是无形的增加了整个广告链路的请求耗时。所以再出现机房级故障时,我们的服务就可能像图2-4所示的那样,那么服务的高可用性也就无从谈起了。

▲ 图2-3

▲ 图2-4

在19年的上半年,经过大半年的时间,我们完成了微博广告基于机房级别的服务优化改造。共治理服务一百多个,所有的服务都分布在两个及以上的运营商和机房中,从而避免了单机房出现故障时,造成广告服务的不可用。而我们治理过程中坚持的准备主要有以下几点:

  • 服务多机房均衡部署

  • 分布在不同运营商

  • 机房承载能力冗余

  • 流量请求均匀分布

  • 上下游同机房请求

同时,我们还会定期做流量压测,来发现我们系统链路中的服务瓶颈。我们将生产环境的流量重新拷贝到生产环境中去,来增加线上流量,发现服务性能瓶颈。

图2-5是我们对某广告产品的整体性能压测所展示的效果,我们可以清楚的发现图中有两个模块的在流量高峰下,出现了耗时波动较大的问题。由此我们可以针对性的进行优化。

▲ 图2-5

2、自动化运维平台

随着互联网的发展,我们的广告产品也是日新月异,迭代频繁。我们运维团队每天需要面对来自三百多个业务方提过来的上线需求,在三千多台机器上进行服务的变更等操作,如何提升服务上线的效率和质量,如何让变更变得安全可靠也是我们重要的目标之一。

▲ 图2-6

从17年开始,我们运维团队自研了一套自动化运维平台Kunkka,该平台主要基于SaltStack、Jenkins等技术,可以实现服务的快速上线、快速回滚等操作。整体架构如图2-7所示。

▲ 图2-7 Kunkka整体架构图

开发同学在提交代码到Gitlab后,自动触发Jenkins的编译操作,并将编译后的包上传至Nexus中,这时开发同学只需要选择他们想要部署的目标主机就可以了。

同时,为了应对平常突发的流量高峰和节假日的流量高峰,我们还对接了公司的DCP平台,可以在我们的Kunkka平台上自动生成Docker镜像文件,并上传公司的镜像仓库中,这样就可以在快速的将服务部署到云主机上,实现服务动态扩缩容。

整个服务部署过程中,我们还加入了多级审核机制,保障服务上线的安全性。具体流程如图2-8所示。

▲ 图2-8 Kunkka上线流程图

3、有效的报警

在服务上线后,我们要做的一个很重要的工作就是给我们的服务添加监控报警机制,否则我们就像瞎子一样,对我们系统服务运行情况一无所知。

关于报警系统业界优秀的报警系统有很多,使用的方案也基本大同小异。我们目前主要用的是开源的Prometheus报警系统,这里就不详细介绍了。

这里主要想说下我们在做报警的一些想法。比如我们经常遇到的一个问题就是报警邮件狂轰滥炸,每天能收到成百上千的报警邮件,这样很容易让系统中一些重要的报警信息石沉大海。对此,我们主要以下三个方面来考虑:

  • 质疑需求的合理性

  • 报警聚合

  • 追踪溯源

首先,在业务方提出报警需求的时候,我们就需要学会质疑他们的需求,因为并不是每个需求都是合理的,其实很多开发他们并不懂报警,也不知道如果去监控自己的服务。这时候就是发挥我们运维人员的价值了。我们可以在充分了解服务架构属性的前提下提出我们的意见,和开发人员共同确定每个服务需要报警的关键指标。

其次,我们可以对报警做预聚合。现在我们的服务大都都是多机部署的,一个服务有可能部署到成百上千台机器上。有时候因为人为失误或者上线策略等原因,可能导致该服务集体下线,这时就会有成百上千来自不同主机的相同报警信息发送过来。

对于这种场景,我们可以通过报警聚合的方式,将一段时间内相同的报警合并成一条信息,放在一封邮件里面发送给开发人员,从而避免邮件轰炸的情况发生。关于报警聚合,像Prometheus这样的报警系统自身已经支持,所以也不会有太多的开发量。

最后,再高层次,我们就可以通过一些策略、算法去关联我们的报警。很多时候,一条服务链路上的某个环节出现问题可能导致整条链路上的多个服务都触发了报警,这个时候,我们就可以通过服务与服务之间的相关性,上下游关系,通过一些依赖、算法等措施去屏蔽关联的报警点,只对问题的根因进行报警,从而减少报警触发的数量。

图2-9是我们运维团队17年优化报警期间,报警数量的走势。

▲ 图2-9 有效的报警

4、全链路Trace系统

除了添加报警以外,在服务上线后,我们还会经常需要跟踪我们整个服务链路处理请求的性能指标需求。这时就需要有一套全链路的Trace系统来方便我们实时监控我们系统链路,及时排查问题,定位问题。

在全链路Trace系统中,最重要的就是Traceid,它需要贯穿整个链路,我们再通过Traceid来关联所有的日志,从而跟踪一条请求在整个系统链路上的指标行为。图2-10是我们约定的用于全链路Trace的日志格式信息。

▲ 图2-10 日志格式与解析

有了日志后,我们就可以基于这些日志进行分析关联,就像上面说的,Traceid是我们整个系统的核心,我们通过Traceid来关联所有的日志。如图2-11所示,所有的日志会写入Kafka中,并通过Flink进行实时的日志解析处理,写入ClickHouse中。有了这些关键指标数据后,我们就可以在此基础上去做我们想做的事,比如形成服务拓扑进行请求跟踪、日志的检索以及指标的统计分析等。

▲ 图2-11 数据收集与处理

在所有的数据收集解析完成后,业务方就可以根据一些维度,比如UID,来跟踪用户的在整个广告系统中请求处理情况,如图2-12所示。随后再将查询的数据以Traceid维度进行关联展示给用户。

▲ 图2-12 业务查询

三、海量指标监控平台Oops实践

最后我们看下我们如何应对微博广告海量指标数据下多维的监控需求。前文也说了,监控报警就像我们的眼睛,能够让我们实时的看到我们系统内部的运行情况,因此,每一个服务都应该有一些关键指标通过我们的监控报警系统展示出来,实时反馈系统的健康状态。

如图3-1所示,做一个监控平台很容易,我们将指标、日志等数据进行ETL清洗后写入一个时序数据库中,再通过可视化工具展示出来,对于有问题的指标通过邮件或者微信的方式报警出来。但是在这个过程中,随着我们数据量的增长、我们指标的增长以及查询复杂度的增加,我们可能会遇到监控指标延迟、数据偏差以及系统不稳定等问题。

▲ 图3-1 监控平台的挑战

因此,在设计我们的监控系统时,就不能仅仅基于实现考虑,还需要考虑它的稳定性、实施性、准确性,同时还应尽量把系统做的简单易用。

▲ 图3-2 监控平台的目标

而我们目前的监控平台Oops,也是基于上述原则,经历了多年的迭代和考验。图3-3是我们Oops监控平台当前的整体架构。

▲ 图3-3 Oops监控平台架构

 ① 数据采集

整个平台分为四个层次,首先是我们的数据采集。我们当前主要通过Filebeat这样一款优秀的开源采集客户端来采集我们的日志。对我们使用而言,Filebeat足够的高效、轻量,使用起来也很灵活易用。

▲ 图3-4 Filebeat架构图

 ② 指标清洗

数据采集到Kafka后,我们再根据具体的业务需求将指标提取出来。如图3-5所示,当前我们主要通过Flink来解析日志,并写入ClickHouse中。

同时,针对一些业务需求,我们需要将一些指标维度做关联处理,这里主要通过HBase实现指标的关联,比如,有曝光和互动两个日记,我们将曝光日志中的mark_id字段作为rowkey写入HBase中,并储存一个小时,当在时间窗口内互动日志匹配到相同的mark_id时,就将曝光日志的内容从HBase中取出,并与互动日志组合成一条新的日志,写入到一个新的Kafka Topic中。

此外,我们还将Kafka中数据消费写入ElasticSearch和HDFS中,用于日志检索和离线计算。

▲ 图3-5 指标清洗

 ③ 指标储存

当前,我们通过ClickHouse来储存查询我们的监控指标。最初也是选择了流行的时序数据库Graphite。但是在长期的使用中,我们发现在复杂的多维分析上,Graphite并没有很好的体验。在去年,我们将我们的监控指标引擎替换成了现在的ClickHouse,ClickHouse是一款优秀的开源OLAP引擎,它在多维分析等功能上相比传统的时序数据库具有很大的优势。

同时,我们基于ClickHouse强大的函数功能和物化视图表引擎构建了一个实时的指标仓库。如图3-6所示,我们会将清洗后的指标写入到一张原始表中,比如这里的ods_A,我们再根据具体的监控需求在ods_A表上进行维度的聚合。再比如,我们将请求维度按秒聚合成agg_A_1s,或者按照psid维度按分钟聚合成agg_A_1m_psid,又或者我们按照用户id维度来统计每个用户的访问次数。

由此我们可以实现不同时间维度和不同业务维度的组合分析查询,同时提升了查询响应速度,以及数据的重复利用率。而原始表的存在也让我们可以根据不同的需求定制不同的复杂的聚合表数据。

▲ 图3-6 实时指标仓库

 ④ 指标可视化

最后,我们通过Grafana实现我们的指标可视化,Grafana应该是当前全球最受欢迎的监控可视化开源软件,它支持很多的数据源,而ClickHouse也是其中之一,我们只需要写一条SQL就可以按照我们的想法在Grafana上以图表的形式呈现出来。如图3-7呈现的监控图就是图3-8这样一条简单的SQL实现的。

▲ 图3-7 折线图监控指标

▲ 图3-8 折线图监控指标SQL语句

对于表格的指标监控展示,也很简单,也是一条SQL就能完成的,如图3-9所示。

▲ 图3-9 表格监控指标

当前我们的实时指标仓库存储120T的数据量,峰值处理QPS在125万左右,秒级查询、多维分析,为微博广告的指标监控、数据分析以及链路跟踪等场景提供了底层数据支撑。

长按订阅更多精彩▼

如有收获,点个在看,诚挚感谢

支持百亿请求的微博广告运维技术实践相关推荐

  1. 技术沙龙|京东云DevOps自动化运维技术实践

    自动化测试体系不完善.缺少自助式的持续交付平台.系统间耦合度高服务拆分难度大.成熟的DevOps工程师稀缺,缺少敏捷文化--这些都是DevOps 在落地过程中,或多或少会碰到的问题,DevOps发展任 ...

  2. 阿里云运维架构实践秘籍 ——乔帮主的云技术实践绝学:降云十八掌

    传统IT正在向DT变革.未来,云计算将成为互联网的基础设施.作为技术过来人,亲历了中国互联网时代的发展.云计算云时代的发展,以及技术人员眼中云计算所带来的技术变革. 云对技术架构的变革 物理机体系阶段 ...

  3. 云计算中的自动化运维技术及其实践

    引言 随着云计算技术的快速发展,云计算成为了企业数据中心的新生态,提供了更加灵活.高效.安全的 IT 基础设施和应用服务,让企业能够更加专注于业务创新和变革.但是,云计算的快速发展也带来了新的安全挑战 ...

  4. 支持百亿数据场景,海量高性能列式数据库HiStore技术架构解析

    支持百亿数据场景,海量高性能列式数据库HiStore技术架构解析 HiStore介绍 HiStore是阿里中间件团队研发的数据库产品,是一款基于独特的知识网格技术的列式数据库,定位于海量数据高压缩比列 ...

  5. 微服务容器化运维:微博容器运维平台DCP

    微服务容器化运维系列的前两期,我给你详细介绍了微服务容器化后如何运维的几个关键问题:镜像仓库.资源调度.容器调度.服务编排,这些问题的产生都是因为微服务部署的节点从一台台物理机或者虚拟机变成了一个个容 ...

  6. 手机淘宝:亿级用户APP的快速运维交付实践

    作者简介: 倪生华 淘宝网  资深技术专家 花名玄黎,12年加入淘宝无线事业部,经历了手淘从几十万日活到现在亿级日活的过程,一直负责手淘端研发运维等工程效率相关的工作,团队负责开发的支撑体系,很好的解 ...

  7. 献礼724运维日 | 首届腾讯运维技术开放日讲了啥? (附演讲PPT领取方式)

    你以为996就是互联网人的极致吗?有这样一个神秘工种,7×24随时随地待命,全年无休,以至于把7.24过成了他们的专属节日--这就是运维. 作为服务数十亿用户的互联网公司,腾讯运营着亚洲最大的网络.服 ...

  8. SDCC 2016架构运维技术峰会(成都站)启动,首批讲师披露

    为促进更深入的业内同行技术交流,同时传播先进技术理念,2016年8月12日-13日,由CSDN重磅打造的互联网应用架构实战峰会.运维技术与实战峰会将在成都举行. 这是继SDCC 2016架构技术峰会( ...

  9. TEG Cheers | 腾讯技术工程运维技术沙龙精彩回顾(内置现场视频)

    7月28日,腾讯技术工程运维技术沙龙-深圳站在腾讯大厦2楼多功能厅举行.现场集结了数十家知名企业的技术开发和运维小伙伴,通过5个小时的思维碰撞,运维人员和导师们一起打造了一场运维人的知识盛宴. 这次, ...

最新文章

  1. SAP IDoc 报错- Function module not allowed SPEIDOC_INPUT_DESADV1 –
  2. Asp.net的Session和Cookie传值方式
  3. 关于jsp中 对只转发结果集的无效操作: last 异常
  4. sql server 2008表中计算机,电脑删除SQLsever2008表格数据出现“不能删除”怎么办
  5. [机器学习-sklearn]K-means之make_blobs聚类数据生成器
  6. 无心剑中译奥修《性、爱与慈悲》
  7. 如何实现文件下载进度条呢?
  8. 给出中序和前序求后序Java,已知二叉樹前序,中序遍歷,求后序遍歷,java實現...
  9. 数据结构实验5-递归
  10. 货币代码无法进行ALE通信
  11. <零售数据分析-Pandas> 通过环比销售和库存对产品进行分类
  12. pcr mix试剂选购相关问题
  13. Help Bubu UVALive - 4490
  14. 常见笔顺错误的字_语文老师整理:12组常见笔顺易错字!很实用的资料,帮孩子收好!...
  15. 开机后, 小键盘的灯不亮的解决方法
  16. 我是怎么找到电子书的
  17. 数加使用自定义调度资源进行数据同步
  18. 官方批复:同意博士研究生再翻倍扩招!
  19. 怎么用PDF虚拟打印机给PDF添加背景
  20. golang 麻将服务器源码,LollipopGo开源游戏服务器框架--global服务器源码

热门文章

  1. Bzoj1185最小矩阵覆盖[旋转卡壳+凸包+处理[-0]情况]
  2. python包里面的dll是什么_如何使用Python中的DLL文件?
  3. java 两份文档相似性_两个数据集之间的相似百分比
  4. 一文让你完全弄懂逻辑回归和分类问题实战《繁凡的深度学习笔记》第 3 章 分类问题与信息论基础(上)(DL笔记整理系列)
  5. 2019 ICPC全国邀请赛(西安)I. Cracking Password(序列检验,BSGS,细节题)
  6. 牛妹吃豆子(二维前缀和模板,修改+求和)
  7. 【牛客每日一题】 4.13 Xorto(前缀异或和,枚举优化/映射)
  8. php的正则怎么写,一个正则的写法 php
  9. 3d打印主要的切片参数类型_3D打印机教程 | 模型切片参数设置教程
  10. json数组 js html标签,js定义json对象数组 json 数组也是数组 //