前言
前面写了如何使用 Flink
读取常用的数据源,也简单介绍了如何进行自定义扩展数据源,本篇介绍它的下一步:数据转换 Transformation
,其中数据处理用到的函数,叫做算子 Operator
,下面是算子的官方介绍。
算子将一个或多个
DataStream
转换为新的DataStream
。程序可以将多种转换组合成复杂的数据流拓扑。
在学习过程中,官网是个不错的入门介绍,格式如下:
一共有两列,左边介绍了函数名称,转换前的流类型,以及转换后的流类型,右边进行了方法描述,介绍该算子的概念和作用,然后有个代码段,告诉了如何使用它。
但官网的中文介绍不多,有些例子 demo
也有点不完善,所以接下来我会将自己理解笔记贴下来,跟大家一起来学习。
友情提示,贴出来的代码段可能不完整,可以下载 github 上的代码进行参考。
转换 Transformation
一、Map,DataStream —> DataStream
映射转换。输入是一个 DataStream
,输出也是一个 DataStream
,属于一对一操作,例如输入是 [1, 3, 5],然后每个数乘以 2,可以通过下面形式实现:
1 | dataStream.map((MapFuction) <Integer, Integer>) value -> value * 2;); |
将会输出 [2, 6, 10],也有可能不是如上顺序,默认按照程序处理数据的时间进行输出。
后面如果大家发现执行顺序与我展示的不一致,请不用担心,属于正常现象,由于顺序性问题涉及到时间和窗口属性的作用,所以请各位先按照默认情况运行,理解算子的概念和使用,之后再去了解上诉概念。
二、FlatMap,DataStream —> DataStream
“平坦”映射(不知道该如何翻译囧)。不同于上面的单个操作,这是一对多操作,取一个元素并产生零个,一个或多个元素。例如拆分一行字符串,然后输出多个单词:
1 | SingleOutputStreamOperator<String> operator = source.flatMap(new FlatMapFunction<String, String>() { |
输出多个元素的关键是 Collector
这个参数,通过它可以收集到更多元素。
三、Filter,DataStream —> DataStream
过滤操作。通过一个 boolean function
对元素进行过滤,保留为 true
的元素,从而达到过滤的目的。例如下面过滤操作,保留 id
是偶数的元素:
1 | SingleOutputStreamOperator operator = source.filter((FilterFunction<String>) value -> { |
四、KeyBy,DataStream —> KeyedStream
按键 key
进行分类。KeyBy
通过 Hash partitioning
方法将一个 stream
变成一组不想交的分区 partitions
,每个 partitions
包含的元素具有相同的 key
。例如输入的是一组字符串,根据第一个字段的整数值进行分类:
1 | KeyedStream<String, Integer> keyedStream = source.keyBy((KeySelector<String, Integer>) value -> { |
注意,KeyBy
操作后,流类型从 DataStream
变成了 keyedStream
,是一组 partitions
。
上面介绍的是通用类型的 keySelector
分类方法,也可以通过下述两种方法进行分区:
1 | keyedStream.keyBy(0); // key 是 tuple 中的第一个元素 |
五、 Reduce,KeyedStream —> DataStream
对按 key
分类的数据流进行”滚动”压缩。可以将当前元素与前一个元素进行整合处理,并返回一个新值。
例如下面例子,通过 id
字段进行分类,然后使用 reduce
进行压缩处理,每次将学生的名字字段进行拼接,年龄进行相加,返回一个新的对象:
1 | SingleOutputStreamOperator operator = source |
输出结果如下:
1 | 16> Student(id=2, name=name2, age=22) |
从结果可以看到,id
相同的都分到同一个分区(测试中可以简单通过前面的线程 id
确认,属于同一分区处理),然后传入新对象,按照 reduce
的操作进行了处理,返回了拼装之后的对象。
六、Fold,KeyedStream —> DataStream
滚动折叠。合并当前元素和上一个被折叠的值,输入值可以与返回值类型不一样。
例如数据流是一组数字 [1, 5, 7],想要输出一个拼接后的字符串,可以通过下面进行处理:
1 | // 标准格式 |
上述例子的 ${initialValue}
初始值是 start
,然后在方法中通过 ||
分隔符进行拼接,最后输出结果是:
1 | 16> strat || Student(id=2, name=name2, age=22) |
从输出结果可以看到,初始值和每次处理的对象进行了拼接,最后返回的是折叠后的对象,不过该方法被标注为 @Deprecated
,不建议继续使用。
七、Aggregations,KeyedStream —> DataStream
在按 key
分类的数据流上滚动聚合。要注意的是 min
和 minBy
之间的区别是 min
返回指定字段的最小值,而 minBy
返回在此字段中具有最小值的元素,也可以理解成整个对象(max
和 maxBy
的机制相同)
常用的 sum
合计函数就不多说了,下面具体展示的 min
和 minBy
函数,取当前流中的最小值:
测试代码的逻辑是:从一个文本流中读取数据,转换成对象,接着根据 id
进行 keyBy
分类,接着从每组分区 partitions
中取出年龄 age
字段最小的,我们来分别测试 min
和 minBy
的不同之处:
1. 测试文件
1 | # id, name, age, address (代替 index 下标) |
为了便于从小样本中观察的具体的区别,id
字段都设成 1,它们将会分组到同一个 partitions
,然后 age
字段有三种值(21、20 和 10),每次处理一个元素时,都会输出一个最小值
2. 测试代码
1 | SingleOutputStreamOperator operator = source |
3. 查看结果
左图是 minBy
,右图是 min
输出结果,从结果可以看出,minBy
返回多个值的意思是:返回元素的完整对象,而 min
返回的是字段的最小值,其它字段将不会修改。于是左边能看到不同的 age
对应的下标 address
是不同的,而右边不同的 age
,对应的还是第一次输出的 address
结果。
综上所述,如果使用聚合函数 minBy
和 min
(以及 max
),注意自己需要返回的类型,是否需要一个完整的对象,如果是的话,请选择使用 minBy
。
八、Window,KeyedStream —> WindowedStream
窗口。该函数允许在已分区的 KeyedStream
上定义窗口。例如最近 5 秒内到达的数据:
1 | dataStream.keyBy(0).window(TumblingEventTimeWindows.of(Time.seconds(5))); |
九、WindowAll,DataStream —> AllWindowedStream
在 DataStream
上定义窗口。与上面不同的是,此次定义的范围是所有流,windows
会根据某些特征(例如,最近 5 秒内到达的数据)对所有流事件进行划分窗口。
1 | SingleOutputStreamOperator<Student> operator = source |
注意:在许多情况下,这是非并行转换,所有记录都将被收集在 WindowAll
运算符的一项任务中。
十、Window Reduce、Apply、Aggregations,WindowedStream —> DataStream
窗口函数跟前面提到的常用函数一样,也有属于窗口的数据流功能。
例如应用 apply
进行自定义逻辑加工,还有 reduce
进行“压缩”,返回合并后的值、sum
等统计函数。
唯一不同的是,前面常规函数对应的整个流中的数据,而 window
针对是根据特征(例如 5s 时间内)分开的窗口流的数据进行操作。
1 | windowedStream.apply(new WindowFunction<...>{...}); |
十一、Union,DataStream * —> DataStream
联合。Union 将两个或多个数据流合并,生成一个新的数据流,包含了本身以及参数中数据流的所有数据。
1 | dataStream.union(otherStream1, otherStream2); |
如果是一个数据流联合它自己,相当于得到两份同样的数据。
十二、Window Join, DataStream,DataStream —> DataStream
窗口连接。通过 key
将同一个 window
的两个数据流 join
起来。
1 | dataStream.join(otherStram) |
上面代码的作用是,在 3s 时间内连接两个窗口,连接条件是 where
(第一个流)和 equalsTo
(第二个流)相同的返回值。
十三、Window coGroup,DataStream,DataStream —> DataStream
窗口连接。跟上面的作用一样,通过 key
将同一个 window
的两个数据流连接起来。
1 | dataStream.coGroup(otherStram) |
可以看到,除了 join
和 coGroup
函数不同外,还有一个 apply
处理使用的参数类型也不一样。
1 | interface JoinFunction<IN1, IN2, OUT> { |
上面展示的是两个接口,在 join
算子中使用的是 JoinFunction
,对应的 join
方法是两个窗口流的单个入参;在 coGroup
算子中,使用的是 CoGroupFunction
,对应的 coGroup
方法是两个窗口流的迭代器,可以进行更多数据处理。
在参考资料四种详细介绍了两个的区别,如有连接操作,为了更多扩展性,推荐使用的是 CoGroup
算子。
十四、Connect,DataStream,DataStream —> ConnectedStreams
数据流连接。“连接”两个保存其类型的数据流,该连接允许两个流之间的共享状态。
例如下面连接了两个数据流,将会转换成 ConnectedStram
类型,接着使用 CoFlatMapFunction
分别对合并流中两种类型数据流进行处理(也可以自定义一个 MyCoFlatMapFunction
类,继承自 RichCoFlatMapFunction
),在里面实现自己的逻辑
1 | ConnectedStreams<String, Student> connectedStreams = source.connect(studentDataStreamSource); |
前面的连接 Join
/CoGroup
数据流类型都必须是一致,而使用 Connecte
算子,允许两个数据流的类型不同,根据 flatMap1
(处理的是字符串) 和 flatMap2
(处理的是对象)中的 collecot
收集,进行输出:
1 | 7> Add prefix : 1 name1 21 a |
十五、Split,DataStream —> SplitStream
切分。从 DataStream
转换成 SplitStream
,类似于字符串中的 split
切分方法,Split
算子作用就是根据设定的规则,将原来的流切分成多个流。例如根据 id
的奇偶数分成两个流:
1 | SplitStream<String> splitStream = source.split(new OutputSelector<String>() { |
十六、Select,SplitStream —> DataStream
选择。从拆分流中选择一个或多个流。接着上面的例子,如果需要从 SplitStream
中分别获取奇偶数的数据流,可以使用该算子:
1 | DataStream<String> even = splitStream.select("even"); |
在 Flink
1.9 版本中,切分流 SplitStream
也被标注为不建议使用 @Deprecated
,出现了更好的选择 Side Outputs,感兴趣的朋友可以深入看看~
十七、Project,DataStream —> DataStream
选择部分字段。注意,只对元组 Tuple 类型的输入流有效,输出的也是选择下标的新元组数据流。例如下面,选择是下标 1 和 3 的属性:
1 | DataStreamSource<Tuple4<String, Integer, Long, BigDecimal>> customSource = env.fromCollection( |
输出的结果如下:
1 | [1, 1] |
总结
本篇主要介绍了不同算子的概念和作用,包括 map
/flatMap
/filter
/keyBy
/reduce
/fold
/aggregations
/window
/windowAll
/union
/join
/coGroup
/connect
/split
/select
/project
, 也指出它们转变前和转变后的数据流类型,其中重点介绍了 min
和 minBy
之间的区别,希望能够帮助大家在学习时更好理解每个算子的用法,在实际使用时,选择合适的。
测试算子功能和代码结构如下图:
将注释去掉就可以进行测试,调整不同的输入源和参数条件,来看看是否符合你的预期吧,如有困惑或不对之处,请与我交流~
项目地址
https://github.com/Vip-Augus/flink-learning-note
1 | git clone https://github.com/Vip-Augus/flink-learning-note |