经验首页 前端设计 程序设计 Java相关 移动开发 数据库/运维 软件/图像 大数据/云计算 其他经验
当前位置:技术经验 » 大数据/云/AI » Flink » 查看文章
Flink入门宝典(详细截图版)
来源:cnblogs  作者:独孤风  时间:2019/9/19 8:56:46  对本文有异议

file
本文基于java构建Flink1.9版本入门程序,需要Maven 3.0.4 和 Java 8 以上版本。需要安装Netcat进行简单调试。

这里简述安装过程,并使用IDEA进行开发一个简单流处理程序,本地调试或者提交到Flink上运行,Maven与JDK安装这里不做说明。

一、Flink简介

Flink诞生于欧洲的一个大数据研究项目StratoSphere。该项目是柏林工业大学的一个研究性项目。早期,Flink是做Batch计算的,但是在2014年,StratoSphere里面的核心成员孵化出Flink,同年将Flink捐赠Apache,并在后来成为Apache的顶级大数据项目,同时Flink计算的主流方向被定位为Streaming,即用流式计算来做所有大数据的计算,这就是Flink技术诞生的背景。

2015开始阿里开始介入flink 负责对资源调度和流式sql的优化,成立了阿里内部版本blink在最近更新的1.9版本中,blink开始合并入flink,

未来flink也将支持java,scala,python等更多语言,并在机器学习领域施展拳脚。

二、Flink开发环境搭建

首先要想运行Flink,我们需要下载并解压Flink的二进制包,下载地址如下:https://flink.apache.org/downloads.html

我们可以选择Flink与Scala结合版本,这里我们选择最新的1.9版本Apache Flink 1.9.0 for Scala 2.12进行下载。

Flink在Windows和Linux下的安装与部署可以查看 Flink快速入门--安装与示例运行,这里演示windows版。

安装成功后,启动cmd命令行窗口,进入flink文件夹,运行bin目录下的start-cluster.bat

  1. $ cd flink
  2. $ cd bin
  3. $ start-cluster.bat
  4. Starting a local cluster with one JobManager process and one TaskManager process.
  5. You can terminate the processes via CTRL-C in the spawned shell windows.
  6. Web interface by default on http://localhost:8081/.

显示启动成功后,我们在浏览器访问 http://localhost:8081/可以看到flink的管理页面。

file

三、Flink快速体验

请保证安装好了flink,还需要Maven 3.0.4 和 Java 8 以上版本。这里简述Maven构建过程。

其他详细构建方法欢迎查看:快速构建第一个Flink工程

1、搭建Maven工程

使用Flink Maven Archetype构建一个工程。

  1. $ mvn archetype:generate -DarchetypeGroupId=org.apache.flink -DarchetypeArtifactId=flink-quickstart-java -DarchetypeVersion=1.9.0

你可以编辑自己的artifactId groupId

目录结构如下:

  1. $ tree quickstart/
  2. quickstart/
  3. ├── pom.xml
  4. └── src
  5. └── main
  6. ├── java
  7. └── org
  8. └── myorg
  9. └── quickstart
  10. ├── BatchJob.java
  11. └── StreamingJob.java
  12. └── resources
  13. └── log4j.properties

在pom中核心依赖:

  1. <dependencies>
  2. <dependency>
  3. <groupId>org.apache.flink</groupId>
  4. <artifactId>flink-java</artifactId>
  5. <version>${flink.version}</version>
  6. </dependency>
  7. <dependency>
  8. <groupId>org.apache.flink</groupId>
  9. <artifactId>flink-streaming-java_2.11</artifactId>
  10. <version>${flink.version}</version>
  11. </dependency>
  12. <dependency>
  13. <groupId>org.apache.flink</groupId>
  14. <artifactId>flink-clients_2.11</artifactId>
  15. <version>${flink.version}</version>
  16. </dependency>
  17. </dependencies>

2、编写代码

StreamingJob

  1. import org.apache.flink.api.common.functions.FlatMapFunction;
  2. import org.apache.flink.api.java.tuple.Tuple2;
  3. import org.apache.flink.streaming.api.datastream.DataStream;
  4. import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
  5. import org.apache.flink.streaming.api.windowing.time.Time;
  6. import org.apache.flink.util.Collector;
  7. public class StreamingJob {
  8. public static void main(String[] args) throws Exception {
  9. final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
  10. DataStream<Tuple2<String, Integer>> dataStreaming = env
  11. .socketTextStream("localhost", 9999)
  12. .flatMap(new Splitter())
  13. .keyBy(0)
  14. .timeWindow(Time.seconds(5))
  15. .sum(1);
  16. dataStreaming.print();
  17. // execute program
  18. env.execute("Flink Streaming Java API Skeleton");
  19. }
  20. public static class Splitter implements FlatMapFunction<String, Tuple2<String, Integer>> {
  21. @Override
  22. public void flatMap(String sentence, Collector<Tuple2<String, Integer>> out) throws Exception {
  23. for(String word : sentence.split(" ")){
  24. out.collect(new Tuple2<String, Integer>(word, 1));
  25. }
  26. }
  27. }
  28. }

3、调试程序

安装netcat工具进行简单调试。

启动netcat 输入:

  1. nc -l 9999

启动程序

file

在netcat中输入几个单词 逗号分隔

file

在程序一端查看结果

file

启动flink

  1. windows start-cluster.bat linuxstart-cluster.sh

localhost:8081查看管理页面

file

通过maven对代码打包

file

将打好的包提交到flink上

file

查看log

  1. tail -f log/flink-***-jobmanager.out

在netcat中继续输入单词,在Running Jobs中查看作业状态,在log中查看输出。

file

Flink提供不同级别的抽象来开发流/批处理应用程序。

file

最低级抽象只提供有状态流

在实践中,大多数应用程序不需要上述低级抽象,而是针对Core API编程,?如DataStream API(有界/无界流)和DataSet API(有界数据集)。

Table Api声明了一个表,遵循关系模型。

最高级抽象是SQL

我们这里只用到了DataStream API。

Flink程序的基本构建块是转换

一个程序的基本构成:

l?获取execution environment

l?加载/创建原始数据

l?指定这些数据的转化方法

l?指定计算结果的存放位置

l?触发程序执行

file

五、DataStreaming API使用

1、获取execution environment

StreamExecutionEnvironment是所有Flink程序的基础,获取方法有:

getExecutionEnvironment()

createLocalEnvironment()

createRemoteEnvironment(String host, int port, String ... jarFiles)

一般情况下使用getExecutionEnvironment。如果你在IDE或者常规java程序中执行可以通过createLocalEnvironment创建基于本地机器的StreamExecutionEnvironment。如果你已经创建jar程序希望通过invoke方式获取里面的getExecutionEnvironment方法可以使用createRemoteEnvironment方式。

2、加载/创建原始数据

StreamExecutionEnvironment提供的一些访问数据源的接口

(1)基于文件的数据源

  1. readTextFile(path)
  2. readFile(fileInputFormat, path)
  3. readFile(fileInputFormat, path, watchType, interval, pathFilter, typeInfo)

(2)基于Socket的数据源(本文使用的)

l?socketTextStream

?

(3)基于Collection的数据源

  1. fromCollection(Collection)
  2. fromCollection(Iterator, Class)
  3. fromElements(T ...)
  4. fromParallelCollection(SplittableIterator, Class)
  5. generateSequence(from, to)

3、转化方法

(1)Map方式:DataStream -> DataStream

功能:拿到一个element并输出一个element,类似Hive中的UDF函数

举例:

  1. DataStream<Integer> dataStream = //...
  2. dataStream.map(new MapFunction<Integer, Integer>() {
  3. ????@Override
  4. ????public Integer map(Integer value) throws Exception {
  5. ????????return 2 * value;
  6. ????}
  7. });

(2)FlatMap方式:DataStream -> DataStream

功能:拿到一个element,输出多个值,类似Hive中的UDTF函数

举例:

  1. dataStream.flatMap(new FlatMapFunction<String, String>() {
  2. ????@Override
  3. ????public void flatMap(String value, Collector<String> out)
  4. ????????throws Exception {
  5. ????????for(String word: value.split(" ")){
  6. ????????????out.collect(word);
  7. ????????}
  8. ????}
  9. });

(3)Filter方式:DataStream -> DataStream

功能:针对每个element判断函数是否返回true,最后只保留返回true的element

举例:

  1. dataStream.filter(new FilterFunction<Integer>() {
  2. ????@Override
  3. ????public boolean filter(Integer value) throws Exception {
  4. ????????return value != 0;
  5. ????}
  6. });

(4)KeyBy方式:DataStream -> KeyedStream

功能:逻辑上将流分割成不相交的分区,每个分区都是相同key的元素

举例:

  1. dataStream.keyBy("someKey") // Key by field "someKey"
  2. dataStream.keyBy(0) // Key by the first element of a Tuple

(5)Reduce方式:KeyedStream -> DataStream

功能:在keyed data stream中进行轮训reduce。

举例:

  1. keyedStream.reduce(new ReduceFunction<Integer>() {
  2. ????@Override
  3. ????public Integer reduce(Integer value1, Integer value2)
  4. ????throws Exception {
  5. ????????return value1 + value2;
  6. ????}
  7. });

(6)Aggregations方式:KeyedStream -> DataStream

功能:在keyed data stream中进行聚合操作

举例:

  1. keyedStream.sum(0);
  2. keyedStream.sum("key");
  3. keyedStream.min(0);
  4. keyedStream.min("key");
  5. keyedStream.max(0);
  6. keyedStream.max("key");
  7. keyedStream.minBy(0);
  8. keyedStream.minBy("key");
  9. keyedStream.maxBy(0);
  10. keyedStream.maxBy("key");

(7)Window方式:KeyedStream -> WindowedStream

功能:在KeyedStream中进行使用,根据某个特征针对每个key用windows进行分组。

举例:

  1. dataStream.keyBy(0).window(TumblingEventTimeWindows.of(Time.seconds(5))); // Last 5 seconds of data

(8)WindowAll方式:DataStream -> AllWindowedStream

功能:在DataStream中根据某个特征进行分组。

举例:

  1. dataStream.windowAll(TumblingEventTimeWindows.of(Time.seconds(5))); // Last 5 seconds of data

(9)Union方式:DataStream* -> DataStream

功能:合并多个数据流成一个新的数据流

举例:

  1. dataStream.union(otherStream1, otherStream2, ...);

(10)Split方式:DataStream -> SplitStream

功能:将流分割成多个流

举例:

  1. SplitStream<Integer> split = someDataStream.split(new OutputSelector<Integer>() {
  2. ????@Override
  3. ????public Iterable<String> select(Integer value) {
  4. ????????List<String> output = new ArrayList<String>();
  5. ????????if (value % 2 == 0) {
  6. ????????????output.add("even");
  7. ????????}
  8. ????????else {
  9. ????????????output.add("odd");
  10. ????????}
  11. ????????return output;
  12. ????}
  13. });

(11)Select方式:SplitStream -> DataStream

功能:从split stream中选择一个流

举例:

  1. SplitStream<Integer> split;
  2. DataStream<Integer> even = split.select("even");
  3. DataStream<Integer> odd = split.select("odd");
  4. DataStream<Integer> all = split.select("even","odd");

4、输出数据

  1. writeAsText()
  2. writeAsCsv(...)
  3. print() / printToErr()
  4. writeUsingOutputFormat() / FileOutputFormat
  5. writeToSocket
  6. addSink

更多Flink相关原理:

穿梭时空的实时计算框架——Flink对时间的处理

大数据实时处理的王者-Flink

统一批处理流处理——Flink批流一体实现原理

Flink快速入门--安装与示例运行

快速构建第一个Flink工程

更多实时计算,Flink,Kafka等相关技术博文,欢迎关注实时流式计算:

file

原文链接:http://www.cnblogs.com/tree1123/p/11539955.html

 友情链接:直通硅谷  点职佳  北美留学生论坛

本站QQ群:前端 618073944 | Java 606181507 | Python 626812652 | C/C++ 612253063 | 微信 634508462 | 苹果 692586424 | C#/.net 182808419 | PHP 305140648 | 运维 608723728

W3xue 的所有内容仅供测试,对任何法律问题及风险不承担任何责任。通过使用本站内容随之而来的风险与本站无关。
关于我们  |  意见建议  |  捐助我们  |  报错有奖  |  广告合作、友情链接(目前9元/月)请联系QQ:27243702 沸活量
皖ICP备17017327号-2 皖公网安备34020702000426号