在这样一种场景,用户的登录行为数据都会以LoginEvent的行式记录下来,每次失败或者成功以及错误都会记录下来,一般客户端都会进行检验,正常的用户不可能在一秒钟之内登录错误多次,这时候我就得怀疑这部分数据是不是机器对用户的密码进行暴力破解,如果有需要我们得将这些攻击IP进行封锁。

Flink - CEP 优点

复杂性:多个流join,窗口聚合,事件序列或patterns检测
低延迟:秒或毫秒级别,比如做信用卡盗刷检测,或攻击检测
高吞吐:每秒上万条消息

执行流程

用户的登录日志数据会以实时的方式传递给Flink,常用的有Kafka,MQ等消息中间件。

接着使用Flink-CEP进行模式匹配,匹配到了就会发出告警处理。

案例

用户登录日志格式如下表

时间 用户编号 IP地扯 登录类型
2018-11-19T12:12:12 1 192.168.0.1 fail
2018-11-19T12:12:12 1 192.168.0.1 fail
2018-11-19T12:12:12 1 192.168.0.1 fail
2018-11-19T12:12:12 2 192.168.10,10 success

依赖

compile group: 'org.apache.flink', name: 'flink-streaming-scala_2.11', version: "1.6.2"
compile group: 'org.apache.flink', name: 'flink-cep-scala_2.11', version: "1.6.2"

使用流式处理环境,并模拟上面的登录日志

StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
DataStream<LoginEvent> loginEventStream = env.fromCollection(Arrays.asList(new LoginEvent("1","192.168.0.1","fail"),new LoginEvent("1","192.168.0.1","fail"),new LoginEvent("1","192.168.0.1","fail"),new LoginEvent("2","192.168.10,10","success")));

定义一个登录日志的POJO

public static class LoginEvent implements Serializable {private String userId;//用户IDprivate String ip;//登录IPprivate String type;//登录类型public LoginEvent() {}public LoginEvent(String userId, String ip, String type) {this.userId = userId;this.ip = ip;this.type = type;}// gets sets
}

再定义一个告警的POJO

public static class LoginWarning implements Serializable {private String userId;private String type;private String ip;public LoginWarning() {}public LoginWarning(String userId, String type, String ip) {this.userId = userId;this.type = type;this.ip = ip;}
}

开始定义匹配模式,首先为第条日志定义一个first名称,如果满足第一个where条件,则进入下一个监听事件second,如果在 1秒 钟之内两个模式都满足,则成为loginFail告警。

Pattern<LoginEvent, LoginEvent> loginFailPattern = Pattern.<LoginEvent>begin("begin").where(new IterativeCondition<LoginEvent>() {@Overridepublic boolean filter(LoginEvent loginEvent, Context context) throws Exception {return loginEvent.getType().equals("fail");}}).next("next").where(new IterativeCondition<LoginEvent>() {@Overridepublic boolean filter(LoginEvent loginEvent, Context context) throws Exception {return loginEvent.getType().equals("fail");}}).within(Time.seconds(1));

登录失败事件模式定义好了之后,我们就可以把它应用到数据流当中了。

因为我们是针对用户这个维度进行监听的,所以我们需要对用户进行分组,以便可以锁定用户IP。

PatternStream<LoginEvent> patternStream = CEP.pattern(loginEventStream.keyBy(LoginEvent::getUserId),loginFailPattern);

所匹配的到事件会以一个Map<String, List<LoginEvent>>返回,key为事件名称,value为匹配的数据列表。

DataStream<LoginWarning> loginFailDataStream = patternStream.select((Map<String, List<LoginEvent>> pattern) -> {List<LoginEvent> first = pattern.get("begin");List<LoginEvent> second = pattern.get("next");

我们可以将告警事件直接打印出来

loginFailDataStream.print();

最终会产生如下两条告警

6> LoginWarning{userId='1', type='192.168.0.2', ip='fail'}
6> LoginWarning{userId='1', type='192.168.0.3', ip='fail'}

完整项目代码 github传送门

附送Scala版本

Scala 版本就是那么简洁明了

object FlinkLoginFail {def main(args: Array[String]): Unit = {val env = StreamExecutionEnvironment.getExecutionEnvironmentval loginEventStream = env.fromCollection(List(new LoginEvent("1", "192.168.0.1", "fail"),new LoginEvent("1", "192.168.0.2", "fail"),new LoginEvent("1", "192.168.0.3", "fail"),new LoginEvent("2", "192.168.10,10", "success")))val loginFailPattern = Pattern.begin[LoginEvent]("begin").where(_.getType.equals("fail")).next("next").where(_.getType.equals("fail")).within(Time.seconds(1))val patternStream = CEP.pattern(loginEventStream, loginFailPattern)val loginFailDataStream = patternStream.select((pattern: Map[String, Iterable[LoginEvent]]) => {val first = pattern.getOrElse("begin", null).iterator.next()val second = pattern.getOrElse("next", null).iterator.next()new LoginWarning(second.getUserId, second.getIp, second.getType)})loginFailDataStream.printenv.execute}}

Flink - CEP 实时分用户析攻击行为相关推荐

  1. 【Flink】基于 Flink CEP 实时计算商品订单流失量

    1.概述 转载:https://blog.csdn.net/tzs_1041218129/article/details/108786597 假设有个需求需要实时计算商品的订单流失量,规则如下: 用户 ...

  2. 一文学会 Flink CEP(以直播平台监控用户弹幕为例)

    我们在看直播的时候,不管对于主播还是用户来说,非常重要的一项就是弹幕文化.为了增加直播趣味性和互动性, 各大网络直播平台纷纷采用弹窗弹幕作为用户实时交流的方式,内容丰富且形式多样的弹幕数据中隐含着复杂 ...

  3. flink读取不到文件_日处理数据量超10亿:友信金服基于Flink构建实时用户画像系统的实践...

    简介: 友信金服公司推行全域的数据体系战略,通过打通和整合集团各个业务线数据,利用大数据.人工智能等技术构建统一的数据资产,如 ID-Mapping.用户标签等.友信金服用户画像项目正是以此为背景成立 ...

  4. Flink+Hologres亿级用户实时UV精确去重最佳实践

    简介:Flink+Hologres亿级用户实时UV精确去重最佳实践 UV.PV计算,因为业务需求不同,通常会分为两种场景: 离线计算场景:以T+1为主,计算历史数据 实时计算场景:实时计算日常新增的数 ...

  5. Flink CEP 在抖音电商的业务实践

    摘要:本文整理自抖音电商实时数仓研发工程师张健,在 FFA 实时风控专场的分享.本篇内容主要分为四个部分: Flink CEP 简介 业务场景与挑战 解决方案实践 未来展望 Tips:点击「阅读原文」 ...

  6. 日均百亿级日志处理:微博基于Flink的实时计算平台建设

    来自:DBAplus社群 作者介绍 吕永卫,微博广告资深数据开发工程师,实时数据项目组负责人. 黄鹏,微博广告实时数据开发工程师,负责法拉第实验平台数据开发.实时数据关联平台.实时算法特征数据计算.实 ...

  7. Apache Flink CEP 实战

    本文根据Apache Flink 实战&进阶篇系列直播课程整理而成,由哈啰出行大数据实时平台资深开发刘博分享.通过一些简单的实际例子,从概念原理,到如何使用,再到功能的扩展,希望能够给打算使用 ...

  8. 从滴滴的Flink CEP引擎说起

    从滴滴的Flink CEP引擎说起 本文转载自 https://www.cnblogs.com/cx2016/p/11647110.html. CEP业务场景 复杂事件处理(Complex Event ...

  9. 实战 | flink sql 实时 TopN

    实战 | flink sql 实时 TopN 1.背景篇 2.难点剖析篇-此类指标建设.保障的难点 2.1.数据建设 2.2.数据保障 2.3.数据服务保障 3.数据建设篇-具体实现方案详述 3.1. ...

最新文章

  1. count(1)、count(*) 与 count (列名) 的执行区别
  2. 远程usb端口映射_PLC远程控制
  3. Pyserial 实现串口 base on python3
  4. android控件使用大全,Android常见控件使用详解
  5. network中的请求信息,headers中的每一项分别是什么意义?
  6. 整理ASP.NET MVC 5各种错误请求[401,403,404,500]的拦截及自定义页面处理实例
  7. Java提高篇 —— String缓冲池
  8. 超链接把一个值传到多个页面的方法
  9. 不×××,用google!!
  10. 【《卓有成效的工程师》摘要\笔记】
  11. 【B站】陈睿:令人刮目相看的年轻一代
  12. 用C语言解一元二次方程
  13. 计算机组成原理知识点梳理
  14. 计世资讯:大数据将使用户采购存储解决方案呈现两大新特征
  15. 云计算企业级小架构部署应用综合练习-二- Ansible 部署 Elastic Stack(ELK)
  16. IOS 数据库操作SQLite3使用详解
  17. MATLAB基础编程(004-01)在不同初速度和重力加速度下的的动态抛物运动绘图
  18. 腹肌练习能帮助燃烧腹部脂肪吗?看完再也没有疑惑了
  19. 三:JavaScript快速入门(脚本开发方向)
  20. iOS面试:如何在平时工作中积累经验

热门文章

  1. OSChina 周一乱弹 ——好多孩子等你吃饭是什么体验
  2. (手机版)生产人员计件扫码系统
  3. Linux命令之声明变量declare
  4. Pytest+Allure安装
  5. asp.net EnableViewState禁用与注意事项
  6. 苹果经典提示音_火遍全网的iPhone提示音,你知道怎么设置吗?
  7. 防抖c语言,花式解说防抖函数debounce的实现
  8. python 公司年会抽奖_用Python写公司年会抽奖程序!中不中还不是我说了算!
  9. 【经验分享】总结自己考了十次四六级才过的历程
  10. 服务器监测开发OSHI java.lang.NoClassDefFoundError: com/sun/jna/platform/win32/VersionHelpers