阿里妹导读:今年的双11再次刷新了记录——支付成功峰值达25.6万笔/秒、实时数据处理峰值4.72亿条/秒。 面对较去年增幅100%的数据洪峰,流计算技术可谓功不可没。今天,我们将揭开阿里流计算技术的神秘面纱。

双11刚刚拉下帷幕,激动的心还停留在那一刻:

当秒针刚跨过11号零点的一瞬间,来自线上线下的千万剁手党在第一时间涌入了这场年度大趴——从进入会场到点击详情页,再到下单付款一气呵成。

前台在大家狂欢的同时,后台数据流量也正以突破历史新高的洪峰形式急剧涌入:

支付成功峰值达 25.6 万笔/秒
实时数据处理峰值 4.72亿条/秒

而作为实时数据处理任务中最为重要的集团数据公共层(保障着业务的实时数据、媒体大屏等核心任务),在当天的总数据处理峰值更是创历史新高达1.8亿/秒! 想象下,1秒钟时间内千万人涌入双11会场的同时,依然应对自如。

流计算的产生即来源于数据加工时效性的严苛需求:

由于数据的业务价值会随着时间的流失而迅速降低,因此在数据发生后必须尽快对其进行计算和处理,从而能够通过数据第一时间掌握业务情况。今年双11的流计算也面临着一场实时数据洪峰的考验。

首先来展示今年(2017年)较去年(2016年)数据洪峰峰值的比较:

2016年:支付成功峰值12万笔/秒,总数据处理峰值9300万/秒
2017年:支付成功峰值25.6 万笔/秒,实时数据处理峰值 4.72亿条/秒,阿里巴巴集团数据公共层总数据处理峰值1.8亿/秒

在今年双11流量峰值翻翻的情况下,依然稳固做到实时数据更新频率:从第1秒千万剁手党涌入到下单付款,到完成实时计算投放至媒体大屏全路径,秒级响应。面对越发抬升的流量面前,实时数据却越来越快、越来越准。在hold住数据洪峰的背后,是阿里巴巴流计算技术的全面升级。

流计算应用场景

数据技术及产品部定位于阿里数据中台,除了离线数据外,其产出的实时数据也服务于集团内多个数据场景。包括今年(其实也是以往的任何一年)双11媒体大屏实时数据、面向商家的生意参谋实时数据,以及面向内部高管与小二的各种直播厅产品,覆盖整个阿里巴巴集团大数据事业部。

同时随着业务的不断发展壮大,到目前为止,日常实时处理峰值超4000万/s,每天总处理记录数已经达到万亿级别,总处理数据量也达到PB级别。

面对海量数据的实时数据我们成功做到了数据延迟控制在秒级范围内,在计算准确率上,已实现了高精准、0误差,达到精确处理。比如:今年的双11当天,双十一媒体屏第一条记录从交易表经过流计算计算处理到达媒体大屏秒级响应。

数据中台流计算实践中的数据链路

在经过最近几年大促数据洪峰的经历后,使得我们的流计算团队在引擎选择,优化性能以及开发流计算平台上都积累了丰富的经验。我们也形成了稳定高效的数据链路架构,下图是整个数据链路示意图:

业务数据的来源非常多,分别通过两个工具(DRC与中间件的logagent)实时获取增量数据,并且同步到DataHub(一种PubSub的服务)。

实时计算引擎Flink作业通过订阅这些增量数据进行实时处理,并且在经过ETL处理后把明细层再次回流到Datahub,所有的业务方都会去定义实时的数据进行多维度的聚合,汇总后的数据放在分布式数据库或者关系型数据库中(Hbase、Mysql),并通过公共的数据服务层产品(One Service)对外提供实时数据服务。

最近一年,我们在计算引擎和计算优化方面做了很多工作,实现了计算能力、开发效率的提升。

计算引擎升级及优化

在2017年,我们在实时计算架构上进行了全面的升级,从Storm迁移到Blink,并且在新技术架构上进行了非常多的优化,实时峰值处理能力提高了2倍以上,平稳的处理能力更是提高5倍以上:

优化状态管理
实时计算过程中会产生大量的state,以前是存储在HBase,现在会存储在RocksDB中,本地存储减少了网络开销,能够大幅提高性能,可以满足细粒度的数据统计(现在key的个数可以提升到亿级别了,是不是棒棒哒~)

优化checkpoint(快照/检查点)和compaction(合并)
state会随着时间的流转,会越来越大,如果每次都做全量checkpoint的话,对网络和磁盘的压力非常大;所以针对数据统计的场景,通过优化rocksdb的配置,使用增量checkpoint等手段,可以大幅降低网络传输和磁盘读写。

异步Sink
把sink改成异步的形式,可以最大限度提高CPU利用率,可以大幅提供TPS。

抽象公共组件

除了引擎层面的优化,数据中台也针对性地基于Blink开发了自己的聚合组件(目前所有实时公共层线上任务都是通过该组件实现)。该组件提供了数据统计中常用的功能,把拓扑结构和业务逻辑抽象成了一个json文件。这样只需要在json文件中通过参数来控制,实现开发配置化,大幅降低了开发门槛,缩短开发周期——再来举个栗子:之前我们来做开发工作量为10人/日,现在因为组件化已让工作量降低为0.5人/日,无论对需求方还是开发方来讲都是好消息,同时归一的组件提升了作业性能。

按照上述思路及功能沉淀,最终打磨出了流计算开发平台【赤兔】。

该平台通过简单的“托拉拽”形式生成实时任务,不需要写一行代码,提供了常规的数据统计组件,并集成元数据管理、报表系统打通等功能。作为支撑集团实时计算业务的团队,我们在经过历年双11的真枪实弹后沉淀的[赤兔平台]中独有的功能也成为它独一无二的亮点:

一、大小维度合并

比如很多的实时统计作业同时需要做天粒度与小时粒度的计算,之前是通过两个任务分开计算的,聚合组件会把这些任务进行合并,并且中间状态进行共用,减少网络传输50%以上,同时也会精简计算逻辑,节省CPU。

二、精简存储

对于存储在RocksDB的Keyvalue,我们设计了一个利用索引的encoding机制,有效地将state存储减少一半以上,这个优化能有效降低网络、cpu、磁盘的压力。

三、高性能排序

排序是实时中非常常见的一个场景, top组件利用内存中PriorityQueue(优先队列) 和blink中新的MapState feature(中间状态管理特性),大幅减少序列化次数,性能提高10倍左右。

四、批量传输和写操作

最终写结果表HBase和Datahub时,如果每处理一条记录都去写库的话,就会很大限制我们的吞吐。我们组件通过时间触发或者记录数触发的机制(timer功能),实现批量传输和批量写(mini-batch sink),并且可以根据业务延时要求进行灵活配置,提高任务吞吐的同时,也降低了服务端压力。

数据保障

对于高优先级应用(每天24小时不间断服务),需要做到跨机房容灾,当某条链路出现问题时,能够秒级切换到其他链路,下图是整个实时公共层的链路保障架构图:

从数据采集、数据同步、数据计算、数据存储、数据服务,整条链路都是独立的。通过在Oneservice中的动态配置,能够实现链路切换,保障数据服务不终端。

上面内容就是保障今年双11流量洪峰的流计算技术秘密武器——我们不仅在于创新更希望能沉淀下来复用、优化技术到日常。

随着流计算的技术外界也在不停更迭,后续基于阿里丰富业务场景下我们还会不断优化升级流计算技术:

平台化,服务化,Stream Processing as a service
语义层的统一,Apache Beam,Flink 的Table API,以及最终Stream SQL都是非常热的project
实时智能,时下很火的深度学习或许未来会与流计算碰撞产生火花
实时离线的统一,这个也是很大的趋势,相较于现在普遍存在的实时一套,离线一套的做法,实时离线的统一也是各大引擎努力想要达到的。

最后,欢迎大家在留言区,与我们交流讨论,一起学习进步。

如何扛住1.8亿/秒的双11数据洪峰?阿里流计算技术全揭秘相关推荐

  1. 轻松hold住双11数据洪峰背后的秘密

    双11刚刚拉下帷幕,激动的心还停留在那一刻--当秒针刚跨过11号零点的一瞬间,来自线上线下的千万剁手党在第一时间涌入了这场年度大趴--从进入会场到点击详情页,再到下单付款一气呵成. 前台在大家狂欢的同 ...

  2. 互联网日报 | 天猫双11成交额4982亿;京东双11下单金额2715亿;百度成立短视频业务部...

    今日看点 ✦ 2020天猫双11全球狂欢季总成交额4982亿,超450个品牌成交额过亿 ✦ 京东11.11全球热爱季累计下单金额超2715亿,再创纪录 ✦ 百度整合好看视频和全民小视频,升级为短视频业 ...

  3. 双字节数据 先低后高_马云回应双11数据造假;字节上市要再等一等;阿里香港IPO首日获40亿保证金认购;Siri未来或能解读情绪 | Tech周报...

       互联网科技与新商业一周大事,尽在Tech周报. Tech星球(微信ID:tech618)文 |  倪乐航头图 | IC Photo移动新方向1.联想宣布摩托罗拉推出折叠手机Razr 11月14- ...

  4. python秒转换成小时分钟秒_1小时3分59秒!双11天猫交易额超1000亿元

    新浪科技讯 11月11日凌晨消息,第十一届阿里巴巴天猫双11于今日凌晨正式打响.据双11实时交易数据显示,1小时3分59秒,交易额达到1000亿.去年实现这一成绩耗时1小时47分26秒! 2019年双 ...

  5. 30 分钟成交额破 3723 亿,天猫双 11 剁手主力军从哪儿来?

    作者 | 杨绚然 来源 | 创业邦(ID:ichuangyebang) 每年双十一,大家都在猜,阿里还能玩出怎样的新花样. 今天,天猫又一次交出了部分成绩单:11月1日至11日0点30分,2020年天 ...

  6. 居然之家联手分众巨额投入:引爆2亿目标人群 双11力争破百亿

    居然之家与分众传媒签约 雷帝网 乐天 8月16日报道 居然之家与分众传媒今日在北京达成战略合作,未来分众传媒的终端屏幕将进驻居然之家全国门店,为居然之家定制终端传媒产品. 居然之家董事长汪林朋表示,居 ...

  7. 2135亿!2018 双11阿里数据库技术战报新鲜出炉

    00:02:05 成交额超100亿 00:57:56 成交额超666亿 01:47:26 成交额超1000亿 15:49:39 成交额超1682亿 22:28:37 成交额超2000亿 2018新纪录 ...

  8. 万字长文丨1分36秒,100亿,支付宝技术双11答卷:没有不可能

    2019年双11来了.1分36秒100亿,5分25秒超过300亿,12分49秒超500亿--如果没有双11,中国的互联网技术要发展到今天的水平,或许要再多花20年. 从双11诞生至今的11年里,有一个 ...

  9. 仅96秒,突破100亿,支付宝技术答卷:双11一切皆有可能

    2020年双11来了.96秒100亿,5分25秒超过300亿,12分49秒超500亿--如果没有双11,中国的互联网技术要发展到今天的水平,或许要再多花20年. 从双11诞生至今的11年里,有一个场景 ...

最新文章

  1. 一些 Google 搜索词
  2. php submit 不要刷新,php实现保存submit内容之后禁止刷新
  3. php教程链接,php自动给网址加上链接的方法,php网址链接方法_PHP教程
  4. 特殊符号的写法 (HTML 4.01 符号实体)
  5. caffe-gpu ubuntu 安装_ubuntu16.04 cuda10.0 配置caffe gpu环境
  6. 基于SkyEye的GPU仿真——解决嵌入式仿真难题
  7. PS网页设计教程——小贴士:在PS中创建复古的页面
  8. jquery 图片定时缩放
  9. linux sed 不输出,linux-使用awk和sed消除不必要的输出
  10. jni数组使用(二)
  11. XShell rz、sz命令
  12. matlab四元一次方程求解,求解四元一次微分方程组
  13. 用metasploit(msf)复现MS17-010(经典的永恒之蓝)SMB漏洞
  14. 如何拆笔记本--键盘拆卸
  15. 雷军赞赏有加,黑鲨游戏手机2打造“操控之王”
  16. 基于springboot项目中使用docker-compose+es+kibana+logstash+mysql 提高数据查询效率
  17. 不想升级iOS 15系统?iPhone最新屏蔽iOS更新的方法
  18. 麻雀算法SSA优化SVR
  19. 聊一聊DNS劫持那些事
  20. java.lang.NoSuchMethodError的解决办法

热门文章

  1. Python 中的面向对象没有意义
  2. 用锤子发射导弹,程序员的世界你不懂
  3. 用Python爬取Bilibili上二次元妹子的视频
  4. 3.2 亿人都在刷抖音,而优秀的人在看这些公众号
  5. 有哪些命令行工具堪称神器?
  6. python中横向制表符_Python-“缩进中的制表符和空格使用不一致”
  7. C语言普及组NOIP考试培训,NOIP 2018普及组复赛解题报告来了!
  8. 实现单服务器响应多客户机,对等网与客户机/服务器网络
  9. iis php重定向循环,在windows机器IIS上如何设置301永久重定向
  10. Linux系统中文件^M乱码解决