本文详细描述了腾讯自选股业务中如何实现:目前手上可用的资源仅剩一台 16 核剩余 4-8G 内存的机器,单点完成了在 1 个小时内千万级别 feed 流数据 flush 操作(主要包括:读数据,计算综合得分,淘汰低分数据,并更新最新得分,回写缓存和数据库)

背景

腾讯自选股 App 在增加了综合得分序的 Feed 流排序方式:需要每天把(将近 1000W 数据量)的 feed 流信息进行算分计算更新后回写到数据层。目前手上的批跑物理机器是 16 核(因为混部,无法独享 CPU),同时剩下可用内存仅 4-8G。显而易见的是:我们可以申请机器,多机部署,分片计算或者通过现有的大数据平台 Hadoop 进行运算都看似可以解决问题。但是由于更新 feed 流的操作需要依赖下游服务(这里暂且叫 A,后续文中提到下游服务均可称 A 服务),而下游的服务 A-Server 本身是个 DB 强绑定的关系,也就说明了下游的服务瓶颈在于 DB 的 QPS,这也导致了即便我本身的服务多机部署,分片处理,下游服务的短板导致不可行。而针对方案二通过大数据平台完成的话,也就是需要推荐大数据的部门协助处理,显然这个是需要排期处理,而时间上也是不可预估。

既然如此,那就借用,朱光潜老先生的一篇文章《朝抵抗力最大的路径走》。我本人相信通过合理的资源调度以及更低的成本可以克服眼前的困难,实现最终的需求效果。当然优化过程中并不是一帆风顺,当然经过两周左右的优化迭代,也终于实现了。

业务主要流程流程

整个 flush 的业务流程大致如下:

  • 读取 DB 获取目前所有的 feed 类别(约 2-3w 的数据)

  • 通过类别读取 Cache 每一个类别下的 feed 流元素的索引(约 1000-10w 的数据)

  • 通过每一个信息的索引查询 feed 流所对应的基础数据信息(需要查约 3-4 张表)

  • 计算每一个 feed 元数据的得分信息(1000w 的数据量),过程中需要淘汰一部分,调用服务 A-Server 删除当前的索引

  • 根据权重计算每一个 feed 的元素的信息,调用下游服务 A-Server,update 索引分值

主要业务流程图具体如下

针对上述的业务逻辑,设计出了最初方案

  • 查询 DB 或者本地缓存获取索引 feed 流中的现有全集类别

  • foreach 类别集合 Collection,查询目前所以的类别下的 feed 数据流集合并存储到 Map 中,其中 key 是类别,value 是类别对应的数组集合(key:category,value:colletion)

  • foreach 上述获取的 Map 并发起 goruntine 查询每一条信息流元素对应的基本信息,并通过粗排来淘汰需要淘汰的元素(考虑到下游的并发和 DB 的负载问题,每查询一批,sleep 一段时间),把最终符合要求的元素存储到 map 等待后续更新得分,并刷入缓存和 DB

  • foreach 上述粗排后的 Map,最终并发起 goruntine 调用下游 A-server,更新 feed 流的索引得分

方案图如下

最初方案缺陷

尽管考虑到将近 1000W 的数据虽然在处理过程中,内存会是问题,于是在使用后的集合或者 Map 都会及时清空

Map=nil []string=nil  // 清空已使用的内容

复制代码

但是问题还是出现了

内存跑满(由于机器总内存 18G,所以基本是内存直接跑满了)

Cpu 也基本瞬间跑满

堆栈中的异常

compress@v1.12.2/zstd/blockdec.go:215 +0x149

复制代码

因为堆栈给的信息不多,但是从机器上看基本是 goruntine 开启的太多,并发量太大,同时大量的数据同时加载到内存,导致了机器的内存和 Cpu 的负载过高

针对上述的问题,设计出了第二套方案

  • 自己实现一套协程池

  • 预分配一个内存块,维持一个对象池

对象池具体改进点如下

协程池

实现比较简单,这里就直接上代码

// 协程池对象

复制代码

优化后的方案缺陷:

  • 内存和 Cpu 的负载相对降下来了,但是由于下游服务 A-Server 是对 DB 的强依赖的类型,所以突然的高并发,DB 的瓶颈成了 A-Server 的服务瓶颈

  • 如果并发量降下来,但是 6 个小时内完成 1000w 的数据读库,业务计算,算法排序以及删除和更新每一条数据的得分,显然不够

陷入僵局

全量的数据计算,并发高,下游服务,下游存储资源扛不;相对并发不高的情况,数据计算不完。与组内小伙伴商量,可以采用大数据平台计算不失一种好的办法。看似最优解,但是大数据平台接入,以及推动大数据平台的开发也是需要走排期等流程。

参考开源,集思广益

经过了两周的专研和思考,我最终从: hadoop 的 mapreduce 分而治的思想vert.x 的全异步链路 (本人超级喜欢的一个框架,使用后,根本不想写同步代码了 )以及 Linux 的内核调度机制的三种优秀的设计中借鉴了一些思路 ,最终完成了 40 分钟跑千万级别的数据优化!

1、Hadoop 的 mapreduce 分而治的思想

把任务拆分成若干分,然后分配给一个 woker

让每个 worker 处理手中的任务,并把处理后的子任务汇集到一个 woker-Awoker-A 负责把所以的子任务结果,汇总处理,并返回

启发

我可以把每一个类别分配给一个协程处理,而每一个协程只负责每一个类别下的所以数据,这样协程的数量也就是类别的数据,这样进一步节省了协程数量,但是由于 merge 的结果在最终一步,这样的话内存就需要存储处理后全量数据,这一点与目前的内存有限不符合,所以这里借鉴了把任务分发的思想

2、Linux 的内核调度机制(非 epoll)

在 Linux 的中内核调度中,我们知道非 epoll 的模式中,无论是 poll 和 select 的时候,都会有一个 select 来负责后续的任务调用和分配,用官方的描述就是:select 轮训设置或检查存放 fd 标志位的数据结构进行下一步处理。如果满足状态,就会扭转到下一个步,唤起相应的进程函数调用。

启发

这里可以参考 select 这个负责任的角色,当然改进的地方是我可以增加多个协程来并发查询所以类别,并进行分发类别处理,这样话,下游的协程池就可以尽可能的在完成一次调度后,马上进行下一次调度(因为分配任务的协程多了),而不会进入调度空闲的状态。

这里就直接使用网上的一张图:

3、vert.x 全异步链路

我将这个 vert.x 标红了,可以看到这里 vert.x 给我的启发是最关键也是最大的。上述问题,我反复思考,我发现,其实我如果突然的高并发,必然导致了下游的服务负载过高从而导致 DB 和下游服务扛不住。如果我能平滑的并发, 而不是从某个时间点起 ,并发操作,也许就能解决这个问题!

并发代码我们写的多,但也许我们大家写的只是并发而不是真正的异步,因为我们在开始或者函数汇总的结果初我们都会使用阻塞,当然我也是有短时间没有写全异步的代码了,所以思想固化了,具体案例如下分析:

这种在主线中启动并发或者异步的处理,最终还是需要在主线程中使用 wait 来阻塞等等所以线程的结果处理完毕,这样看似提高的吞吐量,但是由于需要对并发线程或协程的结果进行汇总计算,这样就注定要把大量的结果集合存储到内存,然后进行后续的操作。这样的异步更像一种伪装异步。

而在 vert.x 中是将上下游的数据通信都是用了 callback 的方式处理,而正是这样,这个框架的做到了全链路的异步逻辑。这里我们看看这个框架的核心思想:

Vertx 完成采用另一个机制,用一个线程来接受请求(也可以是几个,注意是几个,不是几百个),而把这个真正要执行的任务委托给另外一个线程来执行,从而不会堵塞当前线程

另外在 Vert.x 中的调度模型也正是使用了 Linux 的 epoll 的事件驱动的机制,大致如下

整体来看 vert.x 的做到了:

1.非阻塞处理请求,异步执行阻塞程序,保证了请求处理的高效性。

2.使用 Event Bus 事件总线来进行通讯,可以轻松编写出分布式、松耦合、高扩展性的程序

这里可以展示一下 Vert.x 的异步代码

public class Server extends AbstractVerticle {

复制代码

对异步代码有兴趣的小伙伴一定要看看: https://vertx.io/

优化改造开始

借鉴了上述优秀的思想,我对自己的服务做了以下改进:

1、我构造了 4 个协程池,分别是查询类别 category、查询 DB 基本信息、根据算法计算综合得分、和数据更新回写;

2、从主协程开始,不做任何阻塞,查询类别的协程协程池,每查询一个类别,结果直接丢到 channelA(不阻塞然后继续擦下类别)

3、查询 DB 的协程,监听 channelA,当发现有数据的时候,查询 DB 信息,并将结果丢到 channelB(同上不做任何阻塞,继续查询下一条数据的结果集合)

4、帖子得分协程池读取 channelB 的数据,然后根据算法计算处理帖子的得分,并将结果集合丢到 channelC(同样不做任何阻塞,继续计算下一次的得分数据)

5、而数据回写的协程负责调用下游服务 A-Server,处理后完,打 log,标记处理的偏移量(由于没有阻塞,需要跟着最终所以数据是否处理完成)

业务架构设计如下:

image

优化效果:

1、协程数 6w->100! ,这里协程数从 6w 降到了 100 个协程就 Cover 住了整个项目

2、内存使用情况,从基本跑满到仅仅使用 1-2G 的正常内存

image

3、CPU 的使用 460% 的使用率直接降到 65%

4、计算数据量 1000w 的时间 6 个小时并发算不完到 46 分钟计算完成!

总结

2022 年一个新的开始,没想到自己的坚持看到了效果,自选股的业务中也因此可以接入综合得分序列的 feed 流,我相信这个是一个好的开始,在这个基础上,我们可以根据个人画像做更多的智能推荐,期间大伙的建议更多是借用大数据平台计算,而实际的推进和排期让我更愿意用自己的方式以最低的成本最优的结构去优化完成,当然这次很幸运,自己的努力实现了!


http://www.taodudu.cc/news/show-4085946.html

相关文章:

  • 生命是什么
  • 如何实现 1 小时内完成千万级数据运算
  • [ISUX译]iOS 9人机界面指南(一):UI设计基础
  • 【Web技术】1139- 手把手教你实现手绘风格图形
  • “朝抵抗力最大的路径上走”
  • 阅读分享-超抵抗力最大的路径走
  • 新加坡暑假旅游攻略:一天玩转新加坡圣淘沙岛
  • wandb 导入环境变量问题
  • vue.esm.js:632 [Vue warn]: Unknown custom element: <router-link> - did you register the component co
  • wind10 终端conda切换python环境,pip不存在以及解决easy_install pip报错
  • MFC之对于文档类的DeleteContents和OnNewDocument说明29
  • composer下面composer.lock有什么用处 以及 如何优雅地删除它
  • 清除keep-alive缓存,动态缓存
  • ‘click‘ handler took 3858s如何解决
  • SQL中模糊查询 like使用
  • mysql中like与rlike_Hive中rlike,like,notlike区别及使用
  • python+opencv入门-基于Harr特征的人脸检测分类器
  • c++11总结19——std::mutex
  • 多模态信息用于推荐系统问题(MMDIN,hyperCTR)
  • Centos 7 | mariadb/mysql | [ERROR] InnoDB: Unable to lock ./ibdata1 error: 11
  • PgSQL——学习笔记七: LIKE 子句:获取包含某些字符的数据 LIMIT 子句:限制 SELECT 语句中查询的数据的数量
  • STM32F103X hal RTThread rtc驱动支持日期保存
  • mysql索引详细介绍简书_细说mysql索引
  • mysql like 原理_MySql原理
  • selenium 定位一组元素
  • Not have a lick 没有一丁点儿
  • ST-Link该如何升级?
  • AT32看门狗WDT使用方法
  • Lick the habit 戒除恶习
  • 从fit文件中提取lick指数的matlab程序

腾讯自选股如何实现单位小时内完成千万级数据运算相关推荐

  1. 应用宝上架审核要求_腾讯应用宝开发者福利!2小时内审核

    不久前腾讯应用宝正式公布了开发者星级政策,投入更大力度扶持优秀的移动应用开发者.近日腾讯又宣布了一项针对高星级开发者的福利政策--从今年7月星级政策全面适用开始,三星级开发者实现"2小时内审 ...

  2. 公共互联网网络安全突发事件应急预案_安徽新规:发生重大突发事件,官方5小时内必须发声...

    近日,<安徽省突发事件总体应急预案>由省政府印发实施. 原由2005年12月开始实施的<安徽省人民政府突发公共事件总体应急预案>同时废止. 新应急预案要求,特别重大.重大突发事 ...

  3. 1小时内注册公司 政务中心104个窗口同厅办公

    1小时内注册公司 政务中心104个窗口同厅办公 (三湘都市报记者肖雯栎实习生罗巧姣)"今天办事情很顺利,还不到1个小时就把公司注册好了!"在上海工作多年的邓向雷,回到家乡长沙准备自 ...

  4. 【24小时内第四更】为什么我们要坚持写博客?

    前言 从2018年7月份,我开始了写作博客之路.开始之前,我打算分享下之前的经历.去年初公司来了个架构师,内部分享过docker原理,TDD单元测试驱动,并发并行异步编程等内容,让我着实惊呆了,因为确 ...

  5. 华为Mate40国行版18点08分开卖:要求12小时内必须卖完

    经过了一周的"漫长"等待,正如官方此前预告的,华为将于10月30日也就是今天下午2点30分在上海举办Mate40系列中国发布会,而本次发布会上最重要的悬念自然就是国行版的价格,当然 ...

  6. mysql统计每半小时内的数据(查寻某段时间内的数据)

    mysql统计每半小时内的数据(查寻某段时间内的数据) 表结构 sql展示 sql说明 结果展示 思考 需求:统计某段时间内的数据,以半小时为单位统计 表结构 sql展示 SELECT @rank:= ...

  7. 如何在24小时内0成本获取到25000+精准粉丝的?

    今天看到一篇干货分享文章:<如何在24小时内0成本获取到25000+精准粉丝的?>,阿泽特意分享出来,希望对大家有帮助.好了,上干货: 前言:最近做了一个公众号,试水推了一个分享链接得资源 ...

  8. python发送短信每天有限额吗_发送短信如何限制1小时内最多发送11条短信

    发送短信如何限制1小时内最多发送11条短信 场景: 发送短信属于付费业务,有时为了防止短信攻击,需要限制发送短信的频率,例如在1个小时之内最多发送11条短信. 如何实现呢? 思路有两个 截至到当前时刻 ...

  9. 干货|怎样在1小时内学会任何一门编程语言? 如Python/Go/JAVA/C++

    学习一门编程语言是有套路的,套路是可以传承的 今天向大家介绍1小时内掌握一门编程语言的方法 此刻挨踢哥仿佛听到达内蓝翔技校挖土机的抗议 这是一场将绳命别在裤腰带上的分享 50分钟了解语言特性 天下编程 ...

  10. 会计百城联赛的9小时内,发生了什么?

    2017年12月8日,畅捷通举行了第十届会计文化节校园行之百城联赛活动,全国27个省份.500多家院校.20000多名学生,在畅捷通教育云平台上,以班级为单位,在同一时间.同一平台进行同场竞技! 作为 ...

最新文章

  1. 【Sql Server】数据库的3大服务
  2. python renames_Python os.renames() 方法
  3. 密码控件安全技术浅析及攻击实例
  4. MVC 自定义分面控件
  5. android8组windows10,微软正式开放Win10新功能:在PC端运行Android应用
  6. z字扫描和光栅扫描的转换_扫描转换计算机图形中的直线
  7. c语言中读和写的作用,C语言中对文件最基本的读取和写入函数
  8. 备忘录模式--如果再回到从前
  9. [opencv]学习之帧差法实现运动物体检测
  10. 2019ICPC南京区域赛ABCHIJK
  11. 一道狗血的ACM题:Poker Hands
  12. JSLint中常见报错提示
  13. GPC规范--安全域基础概念
  14. API接口管理平台源码thinkPHP
  15. 80亿美元侵权诉讼的随想
  16. 解决editplus编译出现中文乱码
  17. QQ空间日志说说类网站织梦模板(带手机端)
  18. 2016福州大学软件工程助教总结_排骨
  19. 关于微积分的所有公式定理
  20. ChinaSkills-网络系统管理(2022改革Linux部分SDN软件定义网络[OpenDayLight]CentOS7.9安装运行预测)

热门文章

  1. Kingbase8开发版,启动提示FATAL: XX000: max_connections should be less than orequal than 10
  2. 360校招失败的惨痛经历
  3. (附源码)spring boot图书管理系统 毕业设计160934
  4. What Makes a Good Teacher
  5. linux uefi iso,支持UEFI启动的GRUB2 ISO光盘镜像的制作
  6. mysql 修改隔离级别_设置mysql隔离级别
  7. 自建exchange邮箱有什么成熟的超大附件解决方案?
  8. 抢滩登陆瑞星杀毒2005(转)
  9. LeetCode - 1175 - 质数排列(prime-arrangements)
  10. 年面向大学生的 9 个最佳 Chrome 扩展程序