以前寫了很多 Flink 文章了,也有很多 demo,可是文章寫的時候都是在本地直接運行 Main 類的 main 方法,其實 Flink 是支持在 UI 上上傳 Flink Job 的 jar 包,而後運行得。最開始在第一篇 《從0到1學習Flink》—— Mac 上搭建 Flink 1.6.0 環境並構建運行簡單程序入門 中其實提到過了 Flink 自帶的 UI 界面,今天咱們就來看看如何將咱們的項目打包在這裏發佈運行。git
項目代碼就拿我以前的文章 《從0到1學習Flink》—— Flink 寫入數據到 ElasticSearch 吧,代碼地址是在 GitHub 倉庫地址:https://github.com/zhisheng17/flink-learning/tree/master/flink-learning-connectors/flink-learning-connectors-es6 ,若是感興趣的能夠直接拿來打包試試水。es6
咱們在整個項目 (flink-learning)pom.xml 所在文件夾執行如下命令打包:github
mvn clean install
而後你會發如今 flink-learning-connectors-es6 的 target 目錄下有 flink-learning-connectors-es6-1.0-SNAPSHOT.jar 。微信
注意你的 Kafka 數據源和 ES 都已經啓動好了, 清空了下 ES 目錄下的 data 數據,爲了就是查看是否是真的有數據存入進來了。學習
將此文件提交到 Flinkserver 上,以下圖:ui
點擊下圖紅框中的"Upload"按鈕:日誌
以下圖,選中剛剛上傳的文件,填寫類名,再點擊"Submit"按鈕便可啓動 Job:code
以下圖,在 Overview 頁面可見正在運行的任務:orm
你能夠看到 Task Manager 中關於任務的 metric 數據
、日誌信息以及 Stdout 信息。server
查看 Kibana ,此時 ES 中已經有數據了:
咱們能夠在 flink ui 界面上的 overview cancel 這個 job,那麼能夠看到 job 的日誌:
本篇文章寫了下如何將咱們的 job 編譯打包並提交到 Flink 自帶到 Server UI 上面去運行,也算是對前面文章的一個補充,固然了,Flink job 不只支持這種模式的運行,它還能夠運行在 K8s,Mesos,等上面,等之後我接觸到再寫寫。
本文原創地址是: http://www.54tianzhisheng.cn/2019/01/05/Flink-run/ , 未經容許禁止轉載。
微信公衆號:zhisheng
另外我本身整理了些 Flink 的學習資料,目前已經所有放到微信公衆號了。你能夠加個人微信:zhisheng_tian,而後回覆關鍵字:Flink 便可無條件獲取到。
https://github.com/zhisheng17/flink-learning/
之後這個項目的全部代碼都將放在這個倉庫裏,包含了本身學習 flink 的一些 demo 和博客
一、《從0到1學習Flink》—— Apache Flink 介紹
二、《從0到1學習Flink》—— Mac 上搭建 Flink 1.6.0 環境並構建運行簡單程序入門
三、《從0到1學習Flink》—— Flink 配置文件詳解
四、《從0到1學習Flink》—— Data Source 介紹
五、《從0到1學習Flink》—— 如何自定義 Data Source ?
六、《從0到1學習Flink》—— Data Sink 介紹
七、《從0到1學習Flink》—— 如何自定義 Data Sink ?
八、《從0到1學習Flink》—— Flink Data transformation(轉換)
九、《從0到1學習Flink》—— 介紹Flink中的Stream Windows
十、《從0到1學習Flink》—— Flink 中的幾種 Time 詳解
十一、《從0到1學習Flink》—— Flink 寫入數據到 ElasticSearch