一简介 1 2 3 4 1 复杂事件的处理(complex event processing cep) 2 cep允许在无休止的事件流中检测事件模式,让开发者掌握数据中的重要部分 3 一个或多个简单事件构成的事件流通过一定的规则盘匹配,然后输出用户想要的数据 --满足规则的复杂事件 4 复合事件处理(Complex Event Processing,CEP)是一种基于动态环境中事件流的分析技术,事件在这里通常是有意义的状态变化,通过分析事件间的关系,利用过滤、关联、聚合等技术,根据事件间的时序关系和聚合关系制定检测规则,持续地从事件流中查询出符合要求的事件序列,最终分析得到更复杂的复合事件。
1.1 特征 1 2 3 4 目标:从有序的简单事件流中发现一些高阶特征; 输入:一个或多个简单事件构成的事件流; 处理:识别简单事件之间的内在联系,多个符合一定规则的简单事件构成复杂事件; 输出:满足规则的复杂事件
1 2 3 如输入 a,v,b,g,j,j,k,l,o,v,b,h,v,b 规则 v,b 输出 v,b v,b ...
1.2 功能 CEP用于分析低延迟、频繁产生的不同来源的事件流。CEP可以帮助在复杂的、不相关的时间流中找出有意义的模式和复杂的关系,以接近实时或准实时的获得通知或组织一些行为。 CEP支持在流上进行模式匹配,根据模式的条件不同,分为连续的条件或不连续的条件;模式的条件允许有时间的限制,当条件范围内没有达到满足的条件时,会导致模式匹配超时。 看起来很简单,但是它有很多不同的功能: ① 输入的流数据,尽快产生结果; ② 在2个事件流上,基于时间进行聚合类的计算; ③ 提供实时/准实时的警告和通知; ④ 在多样的数据源中产生关联分析模式; ⑤ 高吞吐、低延迟的处理 市场上有多种CEP的解决方案,例如Spark、Samza、Beam等,但他们都没有提供专门的库支持。然而,Flink提供了专门的CEP库。
1.3 组件 Flink为CEP提供了专门的Flink CEP library,它包含如下组件:Event Stream、Pattern定义、Pattern检测和生成Alert。 首先,开发人员要在DataStream流上定义出模式条件,之后Flink CEP引擎进行模式检测,必要时生成警告。
1 2 3 4 5 6 7 <dependencies > <dependency > <groupId > org.apache.flink</groupId > <artifactId > flink-cep-scala_${scala.binary.version}</artifactId > <version > ${flink.version}</version > </dependency > </dependencies >
二 pattern api 处理事件的规则,被叫作模式(Pattern)。
Flink CEP提供了Pattern API用于对输入流数据进行复杂事件规则定义,用来提取符合规则的事件序列。 模式大致分为三类: ① 个体模式(Individual Patterns) 组成复杂规则的每一个单独的模式定义,就是个体模式。
1 start.times(3 ).where(_.behavior.startsWith(‘fav’))
② 组合模式(Combining Patterns,也叫模式序列) 很多个体模式组合起来,就形成了整个的模式序列。 模式序列必须以一个初始模式开始
1 val start = Pattern .begin(‘start’)
③ 模式组(Group of Pattern) 将一个模式序列作为条件嵌套在个体模式里,成为一组模式。
2.1 个体模式 个体模式包括单例模式和循环模式。单例模式只接收一个事件,而循环模式可以接收多个事件。 (1)量词
可以在一个个体模式后追加量词,也就是指定循环次数。
1 2 3 4 5 6 7 8 9 10 11 12 start.time(4 ) start.time(4 ).optional start.time(2 ,4 ) start.time(2 ,4 ).greedy start.oneOrMore start.timesOrMore(2 ).optional.greedy
(2)条件
每个模式都需要指定触发条件,作为模式是否接受事件进入的判断依据。CEP中的个体模式主要通过调用.where()、.or()和.until()来指定条件。按不同的调用方式,可以分成以下几类: ① 简单条件 通过.where()方法对事件中的字段进行判断筛选,决定是否接收该事件
1 start.where(event=>event.getName.startsWith(“foo”))
② 组合条件 将简单的条件进行合并;or()方法表示或逻辑相连,where的直接组合就相当于与and。
Pattern.where(event => …/some condition/).or(event => /or condition/)
③ 终止条件 如果使用了oneOrMore或者oneOrMore.optional,建议使用.until()作为终止条件,以便清理状态。 ④ 迭代条件 能够对模式之前所有接收的事件进行处理;调用.where((value,ctx) => {…}),可以调用ctx.getEventForPattern(“name”)
2.2 组合模式(模式序列) (1)严格近邻 所有事件按照严格的顺序出现,中间没有任何不匹配的事件,由.next()指定。例如对于模式“a next b”,事件序列“a,c,b1,b2”没有匹配。对于乱序的数据也是严格按照事件时间排序,所以可以处理乱序数据 (2)宽松近邻 允许中间出现不匹配的事件,由.followedBy()指定。例如对于模式“a followedBy b”,事件序列“a,c,b1,b2”匹配为{a,b1}。 (3)非确定性宽松近邻 进一步放宽条件,之前已经匹配过的事件也可以再次使用,由.followedByAny()指定。例如对于模式“a followedByAny b”,事件序列“a,c,b1,b2”匹配为{ab1},{a,b2}。
(4)除了以上模式序列外,还可以定义“不希望出现某种近邻关系”
1 2 .notNext():不想让某个事件严格紧邻前一个事件发生。 .notFollowedBy():不想让某个事件在两个事件之间发生。
(5) 需要注意:
需要注意:
1 2 3 4 5 1 所有模式序列必须以.begin()开始; 2 模式序列不能以.notFollowedBy()结束; 3 “not”类型的模式不能被optional所修饰; 4 可以为模式指定时间约束,用来要求在多长时间内匹配有效。 next.within(Time.seconds(10))
2.3 模式的检测 指定要查找的模式序列后,就可以将其应用于输入流以检测潜在匹配。调用CEP.pattern(),给定输入流和模式,就能得到一个PatternStream。
1 2 3 val input:DataStream [Event ] = …val pattern:Pattern [Event ,_] = …val patternStream:PatternStream [Event ]=CEP .pattern(input,pattern)
2.4 匹配事件的提取 创建PatternStream之后,就可以应用select或者flatSelect方法,从检测到的事件序列中提取事件了。
select()方法需要输入一个select function作为参数,每个成功匹配的事件序列都会调用它。 select()以一个Map[String,Iterable[IN]]来接收匹配到的事件序列,其中key就是每个模式的名称,而value就是所有接收到的事件的Iterable类型。
1 2 3 4 5 def selectFn (pattern : Map [String ,Iterable [IN ]]):OUT ={ val startEvent = pattern.get(“start”).get.next val endEvent = pattern.get(“end”).get.next OUT (startEvent, endEvent) }
flatSelect通过实现PatternFlatSelectFunction实现与select相似的功能。唯一的区别就是flatSelect方法可以返回多条记录,它通过一个Collector[OUT]类型的参数来将要输出的数据传递到下游。
2.5 超时事件的提取 当一个模式通过within关键字定义了检测窗口时间时,部分事件序列可能因为超过窗口长度而被丢弃;为了能够处理这些超时的部分匹配,select和flatSelect API调用允许指定超时处理程序。
超时处理程序会接受到目前为止由模式匹配到的所有事件,由一个OutputTag定义接受到的超时事件序列
1 2 3 4 5 6 7 8 patternStream:PatternStream [Event ]=CEP .pattern(input,pattern) val outputtag = OutputTagp [string]("side-output" )patternStream.select(outputtag){ (pattern:Map [String ,Iterable [event]],timestamp:long) => TimeoutEvent () }{ pattern:Map [String ,Iterable [event]] => ComplexEvent () } val timeoutResout : DataStream <TimeoutEvent > = result.getSideOutput(outputTag)
三 使用 1 2 3 4 5 <dependency > <groupId > org.apache.flink</groupId > <artifactId > flink-cep-scala_2.11</artifactId > <version > 1.7.0</version > </dependency >
LoginLog.csv中的数据格式为
1 2 3 4 5 6 5402,83.149.11.115,success,1558430815 23064,66.249.3.15,fail,1558430826 5692,80.149.25.29,fail,1558430833 7233,86.226.15.75,success,1558430832 5692,80.149.25.29,success,1558430840 29607,66.249.73.135,success,1558430841
要求:检测一个用户在3秒内连续登陆失败。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 case class LoginEvent ( userId: Long , ip: String , eventType: String , eventTime: Long )// 输出的异常报警信息样例类 case class Warning ( userId: Long , firstFailTime: Long , lastFailTime: Long , warningMsg: String )object LoginFailWithCep { def main (args: Array [String ]): Unit = { val env = StreamExecutionEnvironment .getExecutionEnvironment env.setStreamTimeCharacteristic(TimeCharacteristic .EventTime ) env.setParallelism(1 ) val resource = getClass.getResource("/LoginLog.csv" ) val loginEventStream = env.readTextFile(resource.getPath) .map( data => { val dataArray = data.split("," ) LoginEvent ( dataArray(0 ).trim.toLong, dataArray(1 ).trim, dataArray(2 ).trim, dataArray(3 ).trim.toLong ) } ) .assignTimestampsAndWatermarks( new BoundedOutOfOrdernessTimestampExtractor [LoginEvent ](Time .seconds(5 )) { override def extractTimestamp (element: LoginEvent ): Long = element.eventTime * 1000 L } ) .keyBy(_.userId) val loginFailPattern = Pattern .begin[LoginEvent ]("begin" ).where(_.eventType == "fail" ) .next("next" ).where(_.eventType == "fail" ) .within(Time .seconds(3 )) val patternStream = CEP .pattern(loginEventStream, loginFailPattern) val loginFailDataStream = patternStream.select( new LoginFailMatch () ) loginFailDataStream.print() env.execute("login fail with cep job" ) } } class LoginFailMatch ( ) extends PatternSelectFunction [LoginEvent , Warning ] { override def select (map: util.Map [String , util.List [LoginEvent ]]): Warning = { val firstFail = map.get("begin" ).iterator().next() val lastFail = map.get("next" ).iterator().next() Warning ( firstFail.userId, firstFail.eventTime, lastFail.eventTime, "login fail!" ) } }