动手搭建Flink的开发环境,快速使用Java和Scala语言开发第一个基于Flink的批处理和流式处理的应用程序。

相关源码

下载安装

brew install apache-flink

1 需求描述

Flink开发批处理应用程序

需求:词频统计(word count)

一个文件,统计文件中每个单词出现的次数
分隔符是\t
统计结果我们直接打印在控制台(生产上肯定是Sink到目的地)

实现:

Flink + Java
Flink + Scala

2 Java开发之环境准备

2.1 Maven构建

2.1.1 Requirements

唯一的要求是Maven 3.0.4(或更高版本)和 Java 8.x 安装

2.1.2 Create Projec

使用以下命令之一创建项目

maven archetype

 $ mvn archetype:generate                               \
      -DarchetypeGroupId=org.apache.flink              \
      -DarchetypeArtifactId=flink-quickstart-java      \
      -DarchetypeVersion=1.8.0

这允许您为新创建的项目命名。 它将以交互方式询问您groupId,artifactId和包名称。

Run the quickstart script

  $ curl https://flink.apache.org/q/quickstart.sh | bash -s 1.8.0

2.1.3 Inspect Project

您的工作目录中将有一个新目录。 如果您使用了curl方法,则该目录称为quickstart。 否则,它具有artifactId的名称:

使用IDEA打开该项目即可!

示例项目是一个Maven项目,它包含两个类:StreamingJob和BatchJob是DataStream和DataSet程序的基本框架程序。
主要方法是程序的入口点,既可用于IDE测试/执行,也可用于正确部署。
建议将此项目导入IDE以进行开发和测试。 IntelliJ IDEA支持开箱即用的Maven项目。
不建议Eclipse

请注意:对于Flink,Java的默认JVM堆可能太小。 你必须手动增加它。在IntelliJ IDEA中,推荐的更改JVM选项的方法来自Help | 编辑自定义VM选项菜单 -Xmx800m

2.1.4 Build Project

如果要构建/打包项目,请转到项目目录并运行

mvn clean package

或者使用插件

您将找到包含应用程序的JAR文件,以及可能已作为依赖项添加到应用程序的连接器和库:

target / <artifact-id>  -  <version> .jar

注意:如果您使用与StreamingJob不同的类作为应用程序的主类/入口点,我们建议您相应地更改pom.xml文件中的mainClass设置。 这样,Flink可以从JAR文件运行应用程序,而无需另外指定主类。

3 公式型编程

  • step 1 : set up the batch execution environment
  • step 2 : Start with getting some data from the environment, like
env.readTextFile(textPath);
  • step 3 : 开发业务逻辑的核心代码
    transform the resulting DataSet using operations,like
.filter()
.flatMap()
.join()
.coGroup()
  • step 4 : execute program

4 Flink批处理应用Java开发之功能实现

  • 在相应的目录下建立文本

  • 测试代码

  • 成功读取

4.1 功能拆解

1)读取数据

Hello JavaEdge

2)每一行的数据按照指定的分隔符拆分

Hello
JavaEdge

3)为每一个单词赋上次数为1

(Hello,1)
(JavaEdge,1)

4) 合并操作

groupBy

  • 代码
  • 结果

5 Scala开发之环境准备

  • 要求与Java环境基本类似,不再赘述

  • Maven构建

6 批处理应用Scala功能实现

  • 实现代码
  • 内容正确打印

7 实时处理应用Java开发之功能实现

  • 代码

可能遇到拒绝连接,记得

nc -lk 9999
  • 清除运行结果

  • socket数据

  • 结果

9 Flink实时处理应用Java开发之代码重构

如何才能突破端口被限制呢,需要如下重构:

  • 传入参数args
  • 获得参数

10 实时处理应用Scala开发之代码重构

11 开发过程中依赖的注意事项

Configuring Dependencies, Connectors, Libraries

每个Flink应用程序都依赖于一组Flink库。 至少,应用程序依赖于Flink API。 许多应用程序还依赖于某些连接器库(如Kafka,Cassandra等)。 运行Flink应用程序时(在分布式部署中或在IDE中进行测试),Flink运行时库也必须可用。

X 交流学习

Java交流群

博客

Github