Idea中Flink环境配置
- 下载Flink并解压,我选择的是Apache Flink 1.7.2 only.
- 在Idea中安装Scala插件和SDK.注意要和网站下载下来的编译Flink的scala版本对应,即2.11还是2.12
- 在Idea新建项目,选择Maven.勾选 Create from archetype,从列表中找到org.scala-tools.archetypes. 如果没有这个选项
- 选择右上角Add Archetype分别填入
- GroupId:net.alchim31.maven
- ArtifactId: scala-archetype-simple
- Version: 1.6
- 点击ok,就有了
- 选择右上角Add Archetype分别填入
- 打开项目后选择右下角的Auto import dependency
- 添加项目Libraries, 具体操作为右键项目选择Open Medule Setting 然后点击Libraries,点击加号
- 添加Scala SDK,操作为在加号弹出的小窗口选择scala
- 添加Flink,操作为在加号弹出的小窗口中选择java,这里我们要添加两项,在弹出的文件夹窗口,进入Flink的解压目录
- 选择目录中的opt
- 选择目录中的lib,操作为:按照之前opt添加的操作,再添加Flink中的lib
- 进入项目下的src下的main,右键main,选择Mark Directory As -> Source
- 之后就可以在main文件夹下编写Flink程序啦,编写完成后可以直接运行
- 想要打包成jar包
- 直接右键项目打开Open Module Setting选择其中的Artifacts
- 点击加号选择JAR
- 选择From modules with dependency
- 选择Main Class,然后点击Ok
- 在工具栏Build中选择Build Artifacts即可
- 在本地运行的代码是, 先将Flink启动,bin下的start-cluster.sh
- bin下的Flink run -c 之前点击选择的Main Class jar包的全称.(这里注意,一定要确定jar包中Main Class的文件路径是否正确,如果Scala包含了多级包的话,那就是包名.MainClass名,这里的class是之前导出Jar包中选择的Main class)
- 关闭Flink为,stop-cluster.sh
最后,因为不会Markdown的图片插入,所以都是用文字,希望大佬们谅解一二,终于能运行样例了,激动不已(笑哭)