一、统计流程

image.png

所有流计算统计的流程都是:
1、接入数据源
2、进行多次数据转换操作(过滤、拆分、聚合计算等)
3、计算结果的存储
其中数据源可以是多个、数据转换的节点处理完数据可以发送到一个和多个下一个节点继续处理数据

Flink程序构建的基本单元是stream和transformation(DataSet实质上也是stream)。stream是一个中间结果数据,transformation对数据的加工和操作,该操作以一个或多个stream为输入,计算输出一个或多个stream为结果,最后可以sink来存储数据。

image.png

包括数据源,每一次发射出来的数据结果都通过DataStream来传递给下一级继续处理

每一个Transformation要有2步:
1、处理数据
2、将处理完的数据发射出去

二、Flink的数据源
Flink提供数据源只需要实现SourceFunction接口即可。
SourceFunction有一个抽象实现类RichParallelSourceFunction
继承该实现类,实现3个方法,既可以自定义Source
public void open(Configuration parameters) //初始化时调用,可以初始化一些参数
public void run(SourceContext<T> ctx)//发送数据
在该方法里调用ctx的collect方法将数据发射出去。

image.png

该例子中是每20秒发送出去一个Order类型的实体。

三、Flink的数据转换操作
Flink针对于不同的场景提供了不同的解决方案,减少了用户去关注处理过程中的效率问题。
常见的操作有下面这些:�“map”就是做一些映射,比如我们把两个字符串合并成一个字符串,把一个字符串拆成两个或者三个字符串。

“flatMap”类似于把一个记录拆分成两条、三条、甚至是四条记录,例如把一个字符串分割成一个字符数组。

“Filter”就类似于过滤。

“keyBy”就等效于SQL里的group by。

“aggregate”是一个聚合操作,如计数、求和、求平均等。

“reduce”就类似于MapReduce里的reduce。

“join”操作就有点类似于我们数据库里面的join。

“connect”实现把两个流连成一个流。

“repartition”是一个重新分区操作(还没研究)。

“project”操作就类似于SQL里面的snacks(还没研究)。

常见的操作有filter、map、flatMap、keyBy(分组)、aggregate(聚合)
具体的使用方式后面的例子中会体现。

三、窗口
流数据的计算可以把连续不断的数据按照一定的规则拆分成大量的片段,在片段内进行统计和计算。比如可以把一小时内的数据保存到一个小的数据库表里,然后对这部分数据进行计算和统计,而流计算只不过是实时进行的。

常见的窗口有:
1、以时间为单位的Time Window,例如:每1秒钟、每1个小时等
2、以数据的数量为单位的Count Window,例如:每一百个元素

Flink给我们提供了一些通用的时间窗口模型。
1、Tumbling Windows(不重叠的)
数据流中的每一条数据仅属于一个窗口。每一个都有固定的大小,同时窗口间彼此之间不会出现重叠的部分。如果指定一个大小为5分钟的tumbling窗口,那么每5分钟便会启动一个窗口,如下图所示:

image.png

2、Sliding Windows(重叠的)
与Tumbling窗口不同的是,在构建Sliding窗口时不仅需要指定窗口大小,还会指定一个窗口滑动参数(window slide parameter)来确定窗口的开始位置。因此当窗口滑动参数小于窗口大小时,窗口之间可能会出现重复的区域。
例如,当你指定窗口大小为10分钟,滑动参数为5分钟时,如下图所示:

image.png

3、Session Windows (会话窗口)
当数据流中一段时间没有数据,则Session窗口会关闭。因此,Session Windows没有固定的大小,无法计算Session窗口的开始位置。

image.png

四、Flink中的时间概念
Flink中有3中不同的时间概念

  1. 处理时间 Processing Time
    指的是我们上面进行Transformation操作时,当时的系统时间。

  2. 事件时间 Event Time
    指的是业务发生时间,每一条业务记录上会携带一个时间戳,我们需要指定数据中那一个属性中获取。
    在按业务发生时间统计数据时,我们面临一个问题,当我们接收的数据的时间是无序的时候,我们什么时间去触发聚合计算,我们不可能无限制的等待。Flink引入了Watermark的概念,这个Watermark是添加在窗口上的,是告诉窗口我们最长等待的时间是多久,超过这个时间的数据就抛弃不再处理。

  3. 提取时间 Ingestion Time
    指的是数据进入Flink当时的系统时间。

五、订单统计的例子

image.png

第四步:设置时间戳和Watermarks

 DataStream<Order> marksSource = vilidatedSource
.assignTimestampsAndWatermarks(
new BoundedOutOfOrdernessTimestampExtractor<Order>(Time.minutes(1)){@Overridepublic long extractTimestamp(Order o) {return o.getTimestamp().getTime();}});

前面已经设置了使用EventTime来处理数据,那么在进行时间窗口计算前必须给数据分配获取时间戳的字段,这里设置了Order的timestamp字段为EventTime,同时这里也设置了一个1分钟的Watermarks,表示最多等待1分钟,业务发生时间超过系统时间1分钟的数据都不进行统计。

第五步:数据分组

KeyedStream<Order, Tuple> keyedStream =marksSource.keyBy("biz");//先以biz来Group

这里设置了以Order中biz字段进行分组,这就意味着所有biz相同的数据会进入到同一个时间窗口中进行计算。

第六步:指定时间窗口、聚合计算

DataStream<List<Tuple2<String, String>>> results = keyedStream.window(TumblingEventTimeWindows.of(Time.minutes(1))).aggregate(new OrderSumAggregator()).setParallelism(1);

这里设置了一个以1分钟为单位的不重叠的TumblingEventTimeWindow。
然后使用OrderSumAggregator来进行聚合计算。
需要注意的是如果最前面设置的是使用ProcessTime来处理数据,这里的窗口就会变成TumblingProcessTimeWinwow,前后必须一一对应,之前就因为前后不对应,统计结果不正确一直招不到原因。

六、聚合计算
上面例子中比较核心的部分就是聚合计算,也就是我们的OrderSumAggregator
聚合计算我们只需要实现Flink给我们提供的AggregateFunction接口,重写其方法即可。

ACC createAccumulator();//创建一个数据统计的容器,提供给后续操作使用。

ACC add(IN in, ACC acc);//每个元素被添加进窗口的时候调用。
第一个参数是添加进窗口的元素,第二个参数是统计的容器(上面创建的那个)。

OUT getResult(ACC acc);//窗口统计事件触发时调用来返回出统计的结果。

ACC merge(ACC acc1, ACC acc2);//只有在当窗口合并的时候调用,合并2个容器

其中这个容器根据情况也可以是在内存里提供,也可以是在其他存储设备中提供。

通过上面的例子我们就实现了按照业务时间来统计每分钟内的订单数量,订单最多可以延迟1分钟上报。
但是我们为了等待1分钟内上报的数据,造成了数据会延迟1分钟进行统计,例如8点02分我们才能统计到8点到8点01分上报的数据。
为了解决这个问题,我们可以给window再增加一个自定义的统计触发器,这个触发器可以在整点触发统计事件(也就是调用上面的getResults方法),这样就达到了8点到8点01分这个时间段的数据,在8点01分统计一次,在8点02分再重新统计一次(加上后面1分钟上报的数据)。

基于flink的流数据统计相关推荐

  1. 基于Flink的电影数据实时统计平台(一):项目展示

    文章目录 一.项目介绍 二.项目演示 2.1 前端观影/电影首页 2.2 前端观影/播放电影 2.3 数据查询/电影筛选 2.4 数据查询/评分细查 2.5 数据查询/可视化数据 三.相关博客 一.项 ...

  2. 基于Flink的电影数据实时统计平台(三):前端构建

    文章目录 一.环境准备 二.前端构建 2.1 页面绘制 2.1.1 网站框架`App.vue` 2.1.2 前台观影/电影首页`Movie.vue` 2.1.3 前台观影/播放电影`Player.vu ...

  3. Flink原理解析50篇(四)-基于 Flink CDC 打通数据实时入湖

    在构建实时数仓的过程中,如何快速.正确的同步业务数据是最先面临的问题,本文主要讨论一下如何使用实时处理引擎Flink和数据湖Apache Iceberg两种技术,来解决业务数据实时入湖相关的问题. 0 ...

  4. 基于Flink CDC打通数据实时入湖

    作者 | 数据社       责编 | 欧阳姝黎 在构建实时数仓的过程中,如何快速.正确的同步业务数据是最先面临的问题,本文主要讨论一下如何使用实时处理引擎 Flink 和数据湖 Apache Ice ...

  5. 网易游戏基于 Flink 的流式 ETL 建设

    简介:网易游戏流式 ETL 建设实践及调优经验分享- 网易游戏资深开发工程师林小铂为大家带来网易游戏基于 Flink 的流式 ETL 建设的介绍.内容包括: 业务背景 专用 ETL EntryX 通用 ...

  6. 基于Flink的实时数据消费应用、功能质量保障方法

    前言:由于最近公司的实时数据处理引擎再向Flink迁移,所以专门设计.总结了一篇"基于Flink的实时数据消费应用.功能质量保障方法".欢迎大家一起分享探讨在大数据方面的测试方法和 ...

  7. 阿里云基于Flink的流计算平台

    01 流计算开发运维痛点 1.1 任务需要底层API开发 1.2 任务逻辑调试 1.3 上下游数据预览 1.4 任务指标曲线 1.5 性能调优 1.6 监控报警 02 基于Flink的流计算平台 2. ...

  8. 基于Vue.js的数据统计系统(一) - 苏依蜀黍de小木屋 - 知乎专栏

    基于Vue.js的数据统计系统(一) - 苏依蜀黍de小木屋 - 知乎专栏 基于Vue.js的数据统计系统(一) - 苏依蜀黍de小木屋 - 知乎专栏 posted on 2016-08-03 15: ...

  9. plink源码_Plink v0.1.0 发布——基于Flink的流处理平台

    Plink是一个基于Flink的流处理平台,旨在基于 [Apache Flink]封装构建上层平台. 提供常见的作业管理功能.如作业的创建,删除,编辑,更新,保存,启动,停止,重启,管理,多作业模板配 ...

最新文章

  1. C语言会出现的错误,c语言,能运行但是偶尔会出现些错误,请高手们帮忙看看错在哪里啦...
  2. ab测试nginx Nginx性能优化
  3. Oracle里面的用户smsdb无法登录 LOCKED(TIMED)
  4. python不需要定义函数后使用_python自定义函数可以向前引用不用声明
  5. 国内企业应如何实施ITSM
  6. 工作152:阅读之后台管理登录样式
  7. 通过标准的 ASP.NET 控件来使用 jQuery UI
  8. Python使用tkinter打造自定义对话框完整代码
  9. 可恶的爬虫直接把生产 6 台机器爬挂了!
  10. vscode代码对比功能
  11. 关于图像处理中的矩阵卷积运算
  12. 七夕表白攻略:程序员的代码情书
  13. HBuilder js,css压缩,增强代码的安全性
  14. PTA-链表学习-----奇数值结点链表
  15. 特征方程求数列的通项公式(二阶线性递推式)
  16. 博士申请 | 香港中文大学(深圳)濮实老师招收分布式优化与机器学习全奖博士生...
  17. JavaSE基础之(十六)final关键字
  18. springboot2+mybatisplus+redis+generator代码生成器环境搭建
  19. 使用百度EasyDL实现厂区工人抽烟行为识别
  20. 不知不觉已经大四了,错过了秋招,春招是该好好把握了

热门文章

  1. 网页打印预览为空白页,解决!!
  2. 最新速卖通开店入驻流程及费用详解
  3. 杜彪:天猫数据如何运营、变现? 利用阿里云聚石塔在双11的成功案例
  4. 1.get_dms_camera_coord_by_cheeseboard
  5. iVMS-4200 Vs区别_5G科普篇五 |5G网络和4G网络的区别,你真的都了解吗?
  6. 高数强化课笔记DAY2
  7. Elasticsearch 又双叒发生数据泄露了,近 200 万条“禁飞名单”被泄露
  8. windows vue3 安装及搭建
  9. 【SequoiaDB巨杉数据库】编目信息快照
  10. lazada发货_LAZADA开店——发货——收款流程,看这篇就够了