作者:王华锋(水彧)

背景

双十一一直是阿里巴巴集团每年要打的一场大战役。要打赢这场战役,技术上,不仅仅是几个应用、几个系统的事,也不是多少个开发+多少个测试就能完成的事,而是需要各大系统协同作战、每个应用各司其职、技术人员通力合作才能取得最终的胜利。

EagleEye作为阿里集团老牌的链路跟踪系统,其自身业务虽不在交易链路上,但却监控着全集团的链路状态,特别是在中间件的远程调用上,覆盖了集团绝大部分的场景,在问题排查和定位上发挥着巨大的作用,保障了各个系统的稳定性,为整个技术团队打赢这场战役保驾护航。

图1 EagleEye系统整体情况

近两年集团业务和规模始终保持着高速的增长,纵深上,交易量屡攀新高,双十一零点的交易峰值也再一次刷新了历史;横向上,集团涉及的行业和领域也不断的拓展,各行各业在不断加入阿里(高德、优酷、友盟及大麦等等),共同前进。

面对数据规模持续增加,如何应对在业务高速发展的背景下系统采集的数据量级的持续增长,如何在越来越大的数据规模面前保障EagleEye自身业务的稳定,成为EagleEye今年双十一面临的巨大挑战。

图2 EagleEye支持的业务情况

全链路压测一直是阿里巴巴集团保障双十一的大杀器之一,通过在线上环境全真模拟双十一当天的流量来检验各个应用系统的负载能力。EagleEye在全链路压测中承担了重要的责任,透传压测标记实现流量的区分,压测数据的收集与展现用以帮助业务方的开发同学发现及定位系统的问题。所以,保障全链路压测也是EagleEye的重要使命之一。

今年的EagleEye

无论是常态、全链路压测或者是双十一当天,EagleEye面临的主要问题是如何保障自身系统在海量数据冲击下的稳定性,以及如何更快的展现各个系统的状态及更好的帮助开发同学发现及定位问题。今年,EagleEye通过了一系列改造升级提高了系统的稳定性,实现了更好更快的辅助业务方定位及排查问题。

图3 系统架构图

计算能力下沉

早期的EagleEye在链路跟踪以及数据统计都是基于明细日志完成,实时采集全量的明细日志并在流计算中做聚合,随着业务量的增长,日志的数据量也在急剧上升,计算量也随之线性增长,资源消耗较高。而且在全链路压测或者大促期间,日志量会有明显的峰值,极有可能造成计算集群系统过载或者数据延迟甚至有可能导致数据的丢失。

为解决这类问题,最初的做法是采样,通过采样降低收集的日志量,从而稳定计算集群的负载及水位,保障EagleEye自身业务的稳定性,尽量减少业务峰值对我们的影响。但是带来的问题也是显而易见的,统计数据在计算时需要考虑采样率估算出真实的数据,在采集数据量较小且采样率较高的场景下导致聚合后的数据不准确,无法展现业务真实的状态,从而也就失去了其价值。

为彻底解决业务峰值对EagleEye计算集群的冲击,将部分实时计算逻辑下沉到业务方的机器中,使得业务量和所需采集的日志量解耦,保证计算集群的稳定性。具体实现是在业务方的机器上先将数据按照指定维度做聚合(一般是以时间维度),计算集群采集该统计数据后再次聚合,极大的稳定了计算集群的负载。

图4 计算能力下沉

计算能力下沉,也可以理解成将计算分布式化,消耗了业务方极小的一部分资源,保证了EagleEye集群的稳定性。而且,集群的计算量不再随着业务量的增长而增长,只随应用规模(应用数量、机器数量)和统计维度的增长而增长,不会再出现由于业务量的瞬间峰值导致计算机群的负载过高的问题,最终使得EagleEye在全链路压测和大促期间都能保持稳定水位,并且产出精准的数据。

场景化链路

EagleEye一直专注于中间件层面的调用,而阿里巴巴的业务量庞大,系统也比较复杂,所以各部分的功能划分比较清晰,中间件层面的一些数据比较难与业务数据相关联,对于链路跟踪、问题定位及针对指定业务场景的容量规划等都有一些难度。

今年,EagleEye推出场景化链路的功能,开放了添加业务场景标的能力,类似于压测流量打压测标,对指定的业务打上对应的业务场景标签,并关联该标签下所有的中间件调用(包括服务、缓存、数据库和消息等),一是可以帮助业务方开发同学更好地区分某个RPC流量中的业务语义,二是可以清晰的梳理出某个业务场景标下对应的RPC流量,对分析一些关键指标,如缓存命中率,数据库RT等有较大的帮助。

图5 流量场景标

基于此数据,也可以更好的复盘全链路压测数据。在压测之前(也可以在常态下)对关键业务打上指定的标签,压测后通过各业务场景的流量得出对应的性能基线,更好的定位核心链路中的问题及性能拼劲,提高压测的效率和价值。

精细化监控

EagleEye的链路数据对于问题的发现和定位有着至关重要的作用,更加丰富的数据形式和展现对提高发现的效率有明显的提升。

在整个双十一备战过程中,遇到并解决了很多疑难杂症。其中,单机问题占了很大的比例。在分布式系统中,单机问题是比较常见的一类问题, 由于此类问题往往与业务代码不直接相关,与容器或者机器有一定的关联性,且出现的概率较小,有一定的随机性,导致该问题往往比较难排查。实际业务的表现可能是RT的抖动,也可能是小概率的错误等等。

EagleEye的调用链虽然可以很快定位此类问题,但是调用链是站在单次请求的视角上,在定位到某个IP之后很可能还需要再分析更多的数据才能做决策,针对此类的问题,EagleEye提供了错误TopN分布以及系统热点图等功能,帮助业务方开发同学快速定位问题。针对单机故障,往往对于整体的指标影响不大,通过应用级别的监控数据比较难定位,EagleEye在流计算中统计了应用各个机器的错误情况,汇总并排序出Top10的机器,一旦出现单机故障,可以很明显的定位到具体的IP,并且根据该IP对应的错误数量可以很快做出决策,缩短了开发同学排查问题的时间。系统热点图在压测和大促期间对系统健康度的表现非常清晰,一是可以清晰看到是否存在离群点的机器,二是可以验证流量的去向是否正确。

图6 系统热点图

更丰富的生态

在阿里巴巴,EagleEye是一款问题排查的利器,一直服务于业务方的同学帮助其快速发现并定位问题,降低故障的持续时间,提升开发及运维效率。其实,EagleEye底层还蕴含着一份海量的数据,在近一年中,我们不断地利用及挖掘这份数据的意义,希望发挥其更大的价值,同时也希望基于这些数据建立一套生态体系,帮助用户更好发展业务,期间也孕育出很多有价值的产品,为集团的技术发展打下了基础。

天秤项目:天秤基于EagleEye的场景数据及其中间件、系统指标等监控数据,结合其他多款监控产品构建一个系统稳定性解决方案,意在解决问题快速发现和精准定位、大促常态化、压测常态化等问题。

尖兵计划 – 更轻量化的全链路压测:尖兵计划基于EagleEye的中间件、系统指标及压测数据,实现常态化全链路压测和问题发现,是保障双十一及全链路压测顺利的大杀器之一,相比去年八次全链路压测,今年环境加倍复杂,但是只需要三次全链路压测就完成目标,为集团节省上千个人力,大幅提升交付上线质量和大促效率。

精准回归:依托EagleEye调用链采集与计算的能力,实现了测试用例精准推荐的效果,并在部分应用的精准测试中节约了50%~70%的测试时间。精准测试通过EagleEye采集,数据回流的方案的输出,在大规模应用上(千万链路)做到了测试用例与应用代码链路的准实时生成。

天图项目:天图依赖了部分EagleEye的链路数据,为用户提供面向复杂业务链路、高度分布式架构下的Application Performance Management (APM)方案,以全面、实时、可视化、智能的方式让你快速了解应用和业务链路的全貌。

结语

今年的双十一是一次完美的双十一,可以说是技术团队的大获全胜,EagleEye在这次大考中也交出了一份近乎完美的答卷,无论是在全链路压测中还是双十一当天,系统的稳定性和数据的实时性都达到了预期,为业务方的提供了强有力的支持,提高了问题排查的效率。

但是,未来的路还很长,智能化的发展脚步越来越快,业务方对EagleEye的数据质量的要求也越来越高,今后EagleEye会专注于架构的演进和智能化的推进,进一步提高问题定位的效率,更好的支撑起基于链路数据的一片生态。

2017双11技术揭秘—双十一海量数据下EagleEye的使命和挑战相关推荐

  1. 2017双11技术揭秘—阿里数据库进入全网秒级实时监控时代

    摘要: 2017双11再次创下了32.5万笔/秒交易创建的纪录,在这个数字后面,更是每秒多达几千万次的数据库写入,如何大规模进行自动化操作.保证数据库的稳定性.快速发现问题是一个巨大的难题, 这也是数 ...

  2. 2017双11技术揭秘—千亿级流量来袭,如何用硬件加速技术为CPU减负?

    摘要: 在刚过去的2017年双11零点流量高峰的考验下,主站接入层Tengine Gzip硬件加速机器运行平稳.同等条件下相比于未开启QAT加速的机器性能提升21%左右. 作者:王发康(毅松) 主站接 ...

  3. 2017双11技术揭秘—阿里巴巴数据库技术架构演进

    摘要: 每年电商双11大促对阿里技术人都是一次大考,对阿里数据库团队更是如此.经过9年的发展,双11单日交易额从2009年的0.5亿一路攀升到2017年的1682亿,秒级交易创建峰值达到了32.5万笔 ...

  4. 2017双11技术揭秘—阿里数据库计算存储分离与离在线混布

    摘要: 随着阿里集团电商.物流.大文娱等业务的蓬勃发展,数据库实例以及数据存储规模不断增长,在传统基于单机的运维以及管理模式下,遇到诸多如成本,调度效率等问题,因此,2017年首次对数据库实现计算存储 ...

  5. 2017双11技术揭秘—TDDL/DRDS 的类 KV 查询优化实践

    摘要: 性能优化是企业级应用永恒的话题,关系型数据库查询优化更是如此.在前台核心业务场景中,类 KeyValue 查询(以下简称类 KV 查询)是非常常见的,并且在应用总 SQL 流量占比很高,如果仅 ...

  6. 2017双11技术揭秘—X-DB支撑双11进入分布式数据库时代

    摘要: 今年双11是X-DB的第一次大考,本次双11X-DB服务于天猫/淘宝核心交易系统.核心物流系统.核心IM系统,经受了零点业务32.5万笔/秒峰值的性能考验,同时X-DB支撑起了新一代单元化架构 ...

  7. 2017双11技术揭秘—分布式缓存服务Tair的热点数据散列机制

    摘要: Tair是阿里巴巴集团自研的弹性缓存/存储平台,在内部有着大量的部署和使用.Tair的核心组件是一个高性能.可扩展.高可靠的NoSQL存储系统.目前支持MDB.LDB.RDB等存储引擎.本文基 ...

  8. 【双11技术揭秘】万亿级数据洪峰下的分布式消息引擎

    点击打开链接 摘要: 作者:冯嘉.誓嘉.尘央.牟羽  前言 通过简单回顾阿里中间件(Aliware)消息引擎的发展史,本文开篇于双11消息引擎面临的低延迟挑战,通过经典的应用场景阐述可能会面临的问题 ...

  9. 零点之战!探访阿里巴巴8大技术专家,提前揭秘2017双11关键技术

    点击进入阿里云双11主会场 摘要:在距离双11已经不到10天的这个时刻,一场看不见硝烟的战争似乎已经打响.随着一年一度购物狂欢的即将到来,网上出现了很多阿里技术应对双11的段子."阿里工程师 ...

  10. 2017双11交易系统TMF2.0技术揭秘,实现全链路管理

    摘要: 本文是<2017双11交易系统TMF2.0技术揭秘>演讲整理,主要讲解了基于TMF2.0框架改造的交易平台,通过业务管理域与运行域分离.业务与业务的隔离架构,大幅度提高了业务在可扩 ...

最新文章

  1. 面试必备:一个秒杀系统的设计思考
  2. 搜索,然后学习:两阶段的无监督文本生成
  3. 门户网站运营的几个方法
  4. set escape on
  5. Java 14:instanceof的模式匹配
  6. 查看函数库.a函数符号信息
  7. php中获取上一页的url地址
  8. 《加勒比海盗4:惊涛怪浪》高清图集 剧照欣赏
  9. 区块链的5大安全风险
  10. Tizen已经够烂了 但份额还是超过了黑莓
  11. 检测空指针 静态检测_Parasoft为G3提供专注于安全性和整体软件质量的静态分析解决方案...
  12. 设置下拉菜单的几种方法
  13. python中求平方根函数_Python中的平方根函数有什么问题?
  14. 电脑如何接受邮件服务器,如何设置邮箱服务器?IMAP、POP3有何区别?
  15. BackupManagerService分析 基于Android 8.0
  16. Uninstall tool 3.6.0 授权版
  17. 搞定 WeakHashMap 的工作原理一篇文章就够了!!!
  18. 二叉平衡树复杂度!!!
  19. 【Spring】切入点表达式、函数
  20. 01【股票初级】-【找准入场时机】投资五大流派,好公司投资法,判断单只股票是否便宜?如何找准时机入场?

热门文章

  1. SSM | Spring
  2. JEECG架构讲解及使用
  3. java计算时间差 (日时分秒)
  4. Pycharm下载及安装保姆级教学(Mac)
  5. html放大镜小图标,图片放大镜jquery.jqzoom.js使用实例附放大镜图标
  6. Opencv各个模块功能详细简介
  7. cat 查看声卡播音、卡录音状态
  8. width 与 height
  9. 01 自然语言处理NLP介绍
  10. Install YouTube-DL – A Command Line Video Download Tool for Linux