Flink 從0到1學(xué)習(xí)—— 分享四本 Flink 國(guó)外的書和二十多篇 Paper 論文

前言

之前也分享了不少自己的文章糊啡,但是對(duì)于 Flink 來(lái)說(shuō)赞辩,還是有不少新入門的朋友恩袱,這里給大家分享點(diǎn) Flink 相關(guān)的資料(國(guó)外數(shù)據(jù) pdf 和流處理相關(guān)的 Paper)快鱼,期望可以幫你更好的理解 Flink曙博。

書籍

1怜瞒、《Introduction to Apache Flink book》

這本書比較薄,簡(jiǎn)單介紹了 Flink惠窄,也有中文版短纵,讀完可以對(duì) Flink 有個(gè)大概的了解近刘。

2、《Learning Apache Flink》

這本書還是講的比較多的 API 使用觉渴,不僅有 Java 版本還有 Scala 版本介劫,入門看這本我覺得還是 OK 的。

3案淋、《Stream Processing with Apache Flink》

這本書是 Flink PMC 寫的座韵,質(zhì)量還是很好的,對(duì) Flink 中的概念講的很清楚,還有不少圖片幫忙理解誉碴,美中不足的是沒有 Table 和 SQL API 相關(guān)的介紹宦棺。

4、《Streaming System》

這本書是講流處理引擎的黔帕,對(duì)流處理引擎的發(fā)展帶來(lái)不少的推動(dòng)代咸,書本的質(zhì)量非常高,配了大量的圖成黄,目的就是讓你很容易的懂流處理引擎中的概念(比如時(shí)間呐芥、窗口、水印等)奋岁,我強(qiáng)烈的推薦大家都看一下思瘟,這本書的內(nèi)容被很多博客和書籍都引用了。

Paper

這是一份 streaming systems 領(lǐng)域相關(guān)的論文列表 20+ 篇闻伶,涉及 streaming systems 的設(shè)計(jì)滨攻,實(shí)現(xiàn),故障恢復(fù)蓝翰,彈性擴(kuò)展等各方面光绕。也包含自 2014 年以來(lái) streaming system 和 batch system 的統(tǒng)一模型的論文。

2016 年

  • Drizzle: Fast and Adaptable Stream Processing at Scale (Draft): Record-at-a-time 的系統(tǒng)霎箍,如 Naiad, Flink,處理延遲較低澡为、但恢復(fù)延遲較高漂坏;micro-batch 系統(tǒng)媒至,如 Spark Streaming拒啰,恢復(fù)延遲低但處理延遲略高剩失。Drizzle 則采用 group scheduling + pre-scheduling shuffles 的方式對(duì) Spark Streaming 做了改進(jìn)拴孤,保留低恢復(fù)延遲的同時(shí)演熟,降低了處理延遲至 100ms 量級(jí)兄纺。
  • Realtime Data Processing at Facebook (SIGMOD): Facebook 明確自己實(shí)時(shí)的使用場(chǎng)景是 seconds of latency, not milliseconds估脆,并基于自己的需求構(gòu)建了 3 個(gè)實(shí)時(shí)處理組件:Puma, Swift, 以及 Stylus。Puma, Swift 和 Stylus 都從 Scribe 讀數(shù)據(jù)疙教,并可向 Scribe 寫回?cái)?shù)據(jù)(Scribe 是 Facebook 內(nèi)部的分布式消息系統(tǒng),類似 Kafka)限佩。

2015 年

  • The Dataflow Model: A Practical Approach to Balancing Correctness, Latency, and Cost in Massive-Scale, Unbounded, Out-of-Order Data Processing (VLDB): 來(lái)自 Google 的將 stream processing 模型和 batch processing 模型統(tǒng)一的嘗試。在 Dataflow model 下晕城,底層依賴 FlumeJava 支持 batch processing砖顷,依賴 MillWheel 支持 stream processing滤蝠。Dataflow model 的開源實(shí)現(xiàn)是 Apache Beam 項(xiàng)目。
  • Apache Flink: Stream and Batch Processing in a Single Engine Apache Flink 是一個(gè)處理 streaming data 和 batch data 的開源系統(tǒng)览闰。Flink 的設(shè)計(jì)哲學(xué)是焕济,包括實(shí)時(shí)分析 (real-time analytics)晴弃、持續(xù)數(shù)據(jù)處理 (continuous data pipelines)际邻、歷史數(shù)據(jù)處理 (historic data processing / batch)世曾、迭代式算法 (iterative algorithms - machine learning, graph analysis) 等的很多類數(shù)據(jù)處理應(yīng)用,都能用 pipelined fault-tolerant 的 dataflows 執(zhí)行模型來(lái)表達(dá)岭佳。
  • Lightweight asynchronous snapshots for distributed dataflows: Apache Flink 所實(shí)現(xiàn)的一個(gè)輕量級(jí)的述寡、異步做狀態(tài)快照的方法鲫凶∶牛基于此,F(xiàn)link 得以保證分布式狀態(tài)的一致性财饥,從而保證整個(gè)系統(tǒng)的 exactly-once 語(yǔ)義钥星。具體的谦炒,F(xiàn)link 會(huì)持續(xù)性的在 stream 里插入 barrier markers,制造一個(gè)分布式的順序關(guān)系还蹲,使得不同的節(jié)點(diǎn)能夠在同一批 barrier marker 上達(dá)成整個(gè)系統(tǒng)的一致性狀態(tài)潭兽。
  • Twitter Heron: Stream Processing at Scale (SIGMOD): Heron 是 Twitter 開發(fā)的用于代替 Storm 的實(shí)時(shí)處理系統(tǒng)山卦,解決了 Storm 在擴(kuò)展性账蓉、調(diào)試能力铸本、性能、管理方式上的一些問(wèn)題鄙早。Heron 實(shí)現(xiàn)了 Storm 的接口舱污,因此對(duì) Storm 有很好的兼容性扩灯,也成為了 Twitter 內(nèi)部實(shí)時(shí)處理系統(tǒng)的事實(shí)上的標(biāo)準(zhǔn)珠插。

2014 年

  • Trill: A High-Performance Incremental Query Processor for Diverse Analytics (VLDB): 此篇介紹了 Microsoft 的 Trill - 一個(gè)新的分析查詢處理器。Trill 很好的結(jié)合以下 3 方面需求:(1) Query Model: Trill 是基于時(shí)間-關(guān)系 (tempo-relational) 模型顾患,所以很好的支持從實(shí)時(shí)到離線計(jì)算的延遲需求江解;(2) Fabric and Language Integration: Trill 作為一個(gè)類庫(kù)犁河,可以很好的與高級(jí)語(yǔ)言耕魄、已有類庫(kù)結(jié)合吸奴;以及 (3) Performance: 無(wú)論實(shí)時(shí)還是離線则奥,Trill 的 throughput 都很高 —— 實(shí)時(shí)計(jì)算比流處理引擎高 2-4 個(gè)數(shù)量級(jí)读处,離線計(jì)算與商業(yè)的列式 DBMS 同等。從實(shí)現(xiàn)角度講管闷,包括 punctuation 的使用來(lái)分 batch 滿足 latency 需求包个,batch 內(nèi)使用列式存儲(chǔ)碧囊、code-gen 等技術(shù)來(lái)提高 performance糯而,都具有很好的借鑒意義 —— 尤其注意這是 2014 年發(fā)表的論文。
  • Summingbird: A Framework for Integrating Batch and Online MapReduce Computations (VLDB): Twitter 開發(fā)的目標(biāo)是將 online Storm 計(jì)算和 batch MapReduce 計(jì)算邏輯統(tǒng)一描述的一套 domain-specific language谜洽。Summingbird 抽象了 sources, sinks, 以及 stores 等,基于此抽象序臂,上層應(yīng)用就不必為 streaming 和 batch 維護(hù)兩套計(jì)算邏輯,而可以使用同一套計(jì)算邏輯咸灿,只在運(yùn)行時(shí)分別編譯后跑在 streaming 的 Storm 上和 batch 的 MapReduce 上。
  • Storm@Twitter (SIGMOD): 這是一篇來(lái)遲的論文囊榜。Apache Storm 最初在 Backtype 及 Twitter卸勺,而后在業(yè)界范圍都有廣泛的應(yīng)用碍庵,甚至曾經(jīng)一度也是事實(shí)上的流處理系統(tǒng)標(biāo)準(zhǔn)悟狱。此篇介紹了 Storm 的設(shè)計(jì)马绝,及在 Twitter 內(nèi)部的應(yīng)用情況富稻。當(dāng)然后面我們知道 Apache Storm 也暴露出一些問(wèn)題椭赋,業(yè)界也出現(xiàn)了一些更優(yōu)秀的流處理系統(tǒng)哪怔。Twitter 雖沒有在 2012 年 Storm 時(shí)代開啟時(shí)發(fā)聲认境,但在 2014 年 Storm 落幕時(shí)以此文發(fā)聲向其致敬叉信,也算是彌補(bǔ)了些許遺憾吧硼身。

2013 年

  • Discretized Streams: Fault-Tolerant Streaming Computation at Scale (SOSP): Spark Streaming 是基于 Spark 執(zhí)行引擎营袜、micro-batch 模式的準(zhǔn)實(shí)時(shí)處理系統(tǒng)荚板。對(duì)比 RDD 是 Spark 引擎的數(shù)據(jù)抽象啸驯,DStream (Discretized Stream) 則是 Spark Streaming 引擎的數(shù)據(jù)抽象罚斗。DStream 像 RDD 一樣针姿,具有分布式、可故障恢復(fù)的特點(diǎn)榕暇,并且能夠充分利用 Spark 引擎的推測(cè)執(zhí)行彤枢,應(yīng)對(duì) straggler 的出現(xiàn)缴啡。
  • MillWheel: Fault-Tolerant Stream Processing at Internet Scale (VLDB): MillWheel 是 Google 內(nèi)部研發(fā)的實(shí)時(shí)流數(shù)據(jù)處理系統(tǒng)业栅,具有分布式碘裕、低延遲帮孔、高可用你弦、支持 exactly-once 語(yǔ)義的特點(diǎn)禽作。不出意外,MillWheel 是 Google 強(qiáng)大 infra structure 和強(qiáng)大 engeering 能力的綜合體現(xiàn) —— 利用 Bigtable/Spanner 作為后備狀態(tài)存儲(chǔ)萍程、保證 exactly-once 特性等等茫负。另外忍法,MillWheel 將 watermark 機(jī)制發(fā)揚(yáng)光大饿序,對(duì) event time 有著非常好的支持。推薦對(duì) streaming system 感興趣的朋友一定多讀幾遍此篇論文 —— 雖然此篇已經(jīng)發(fā)表了幾年咽弦,但工業(yè)界開源的系統(tǒng)尚未完全達(dá)到 MillWheel 的水平离唬。
  • Integrating Scale Out and Fault Tolerance in Stream Processing using Operator State Management (SIGMOD): 針對(duì)有狀態(tài)的算子的狀態(tài),此篇的基本洞察是嫂用,scale out 和 fault tolerance 其實(shí)很相通嘱函,應(yīng)該結(jié)合到一起考慮和實(shí)現(xiàn)疏唾,而不是將其割裂開來(lái)槐脏。文章提出了算子的 3 類狀態(tài):(a) processing state, (b) buffer state, 和 (c) routing state顿天,并提出了算子狀態(tài)的 4 個(gè)操作原語(yǔ):(1) checkpoint state, (2) backup state, (3) restore state, (4) partition state牌废。

2010 年

  • S4: Distributed Stream Computing Platform (ICDMW): 2010 年算是 general stream processing engine 元年 —— Yahoo! 研發(fā)并發(fā)布了 S4, Backtype 開始研發(fā)了 Storm 并將在 1 年后(由 Twitter)將其開源。S4 和 Storm 都是 general-purpose 的 stream processing engine排抬,允許用戶通過(guò)代碼自定義計(jì)算邏輯莫绣,而不是僅僅是使用聲明式的語(yǔ)言或算子。

2008 年

  • Out-of-Order Processing: A New Architecture for HighPerformance Stream System (VLDB): 這篇文章提出了一種新的處理模型掩宜,即 out-of-order processing (OOP),取消了以往 streaming system 里對(duì)事件有序的假設(shè)檐迟。重要的是码耐,這篇文章提出了并實(shí)現(xiàn)了 low watermark: lwm(n, S, A) is the smallest value for A that occurs after prefix Sn of stream S追迟。我們看到,在 2 年后 Google 開始研發(fā)的 MillWheel 里骚腥,watermark 將被發(fā)揚(yáng)光大敦间。
  • Fast and Highly-Available Stream Processing over Wide Area Networks (ICDE): 針對(duì)廣域網(wǎng) (wide area networks) 的 stream processing 設(shè)計(jì)的快速、高可用方案。主要思想是依靠 replication廓块。

2007 年

  • A Cooperative, Self-Configuring High-Availability Solution for Stream Processing (ICDE): 與 2005 年 ICDE 的文章一樣厢绝,此篇也討論 stream processing 的高可用問(wèn)題。與 2005 年文章做法不同的是,此篇的 checkpointing 方法更細(xì)粒度一些钞速,所以一個(gè)節(jié)點(diǎn)上的不同狀態(tài)能夠備份到不同的節(jié)點(diǎn)上去驾凶,因而在恢復(fù)的時(shí)候能夠并行恢復(fù)以提高速度且轨。

2005 年

  • The 8 Requirements of Real-Time Stream Processing (SIGMOD): 圖領(lǐng)獎(jiǎng)得主 Michael Stonebraker 老爺子與他在 StreamBase 的小伙伴們勾畫的 stream processing applications 應(yīng)當(dāng)滿足的 8 條規(guī)則至朗,如 Rule 1: Keep the Data Moving, Rule 2: Query using SQL on Streams (StreamSQL), Rule 3: Handle Stream Imperfections (Delayed, Missing and Out-of-Order Data) … 等等。雖然此篇有引導(dǎo)輿論的嫌疑 —— 不知是先有了這流 8 條、再有了 StreamBase,還是先有了 StreamBase、再有了這流 8 條 —— 但其內(nèi)容還是有相當(dāng)?shù)慕梃b意義整以。
  • The Design of the Borealis Stream Processing Engine (CIDR): Borealis 是 Aurora 的分布式凡蚜、更優(yōu)化版本的續(xù)作谱醇。Borealis 提出并解決了 3 個(gè)新一代系統(tǒng)的基礎(chǔ)問(wèn)題:(1) dynamic revision of query results, (2) dynamic query modification, 以及 (3) flexible and highly-scalable optimization. 此篇講解了 Borealis 的設(shè)計(jì)與實(shí)現(xiàn) —— p.s. 下,Aurora 及續(xù)作 Borealis 的命名還真是非常講究,是學(xué)院派的風(fēng)格 :-D
  • High-availability algorithms for distributed stream processing (ICDE): 此篇主要聚焦在 streaming system 的高可用性驱还,即故障恢復(fù)舆逃。文章提出了 3 種 recovery types: (a) precise, (b) gap, 和 (c) rollback,并通過(guò) (1) passive standby, (2) upstream backup, (3) active standby 的方式進(jìn)行 recover苔咪。可與 2007 年 ICDE 的文章對(duì)比閱讀臼婆。

2004 年

  • STREAM: The Stanford Data Stream Management System (Technique Report): 這篇 technique report 定義了一種 Continuous Query Language (CQL)彩届,講解了 Query Plans 和 Execution,討論了一些 Performance Issues榕栏。系統(tǒng)也注意到并討論了 Adaptivity 和 Approximation 的問(wèn)題。從這篇 technique report 可以看出符衔,這時(shí)的流式計(jì)算则吟,更多是傳統(tǒng) RDBMS 的思路谍珊,擴(kuò)展到了處理實(shí)時(shí)流式數(shù)據(jù)华畏;這大約也是 2010 以前的 stream processing 相關(guān)研究的縮影耐版。

2002 年

  • Monitoring Streams – A New Class of Data Management Applications (VLDB): 大約在 2002 年前后,從實(shí)時(shí)數(shù)據(jù)監(jiān)控(如監(jiān)控 sensors 數(shù)據(jù)等)應(yīng)用出發(fā)雁歌,大家已經(jīng)開始區(qū)分傳統(tǒng)的查詢主動(dòng)吧趣、數(shù)據(jù)被動(dòng) (Human-Active, DBMS-Passive) 模式和新興的數(shù)據(jù)主動(dòng)梨树、查詢被動(dòng) (DBMS-Active, Human-Passive) 模式的區(qū)別 —— 此篇即是其中的典型代表阔涉。此篇提出了新式的 DBMS 的 Aurora葫掉,描述了其基本系統(tǒng)模型、面向流式數(shù)據(jù)的操作算子集、 優(yōu)化策略、及實(shí)時(shí)應(yīng)用琳袄。
  • Exploiting Punctuation Semantics in Continuous Data Streams (TKDE): 此篇很早的注意到了一些傳統(tǒng)的操作算子不能用于無(wú)盡的數(shù)據(jù)流入的場(chǎng)景,因?yàn)閷?dǎo)致無(wú)盡的狀態(tài)(考慮 outer join)仗考,或者無(wú)盡的阻塞(考慮 count 或 max)等。此篇提出谱邪,如果在 stream 里加入一些特殊的 punctuation,來(lái)標(biāo)識(shí)一段一段的數(shù)據(jù)晴玖,那么我們就可以把無(wú)限的 stream 劃分為多個(gè)有限的數(shù)據(jù)集的集合读存,從而使得之前提到的算子變得可用。此篇的價(jià)值更多體現(xiàn)在給了 2008 年 watermark 相關(guān)的文章以基礎(chǔ)呕屎,乃至集大成在了 2010 年 Google MillWheel 中让簿。

總結(jié)

本文分享了四本 Flink 相關(guān)的書籍和一份 streaming systems 領(lǐng)域相關(guān)的論文列表 20+ 篇,涉及 streaming systems 的設(shè)計(jì)秀睛,實(shí)現(xiàn)尔当,故障恢復(fù),彈性擴(kuò)展等各方面蹂安。

如何獲取呢椭迎?你可以加我的微信:zhisheng_tian锐帜,然后回復(fù)關(guān)鍵字:Flink 即可無(wú)條件獲取到。

更多私密資料請(qǐng)加入知識(shí)星球畜号!

另外你如果感興趣的話缴阎,也可以關(guān)注我的公眾號(hào)。

本篇文章連接是:http://www.54tianzhisheng.cn/2019/06/13/flink-book-paper/

Github 代碼倉(cāng)庫(kù)

https://github.com/zhisheng17/flink-learning/

以后這個(gè)項(xiàng)目的所有代碼都將放在這個(gè)倉(cāng)庫(kù)里弄兜,包含了自己學(xué)習(xí) flink 的一些 demo 和博客药蜻。

博客

1、Flink 從0到1學(xué)習(xí) —— Apache Flink 介紹

2替饿、Flink 從0到1學(xué)習(xí) —— Mac 上搭建 Flink 1.6.0 環(huán)境并構(gòu)建運(yùn)行簡(jiǎn)單程序入門

3语泽、Flink 從0到1學(xué)習(xí) —— Flink 配置文件詳解

4、Flink 從0到1學(xué)習(xí) —— Data Source 介紹

5视卢、Flink 從0到1學(xué)習(xí) —— 如何自定義 Data Source 踱卵?

6、Flink 從0到1學(xué)習(xí) —— Data Sink 介紹

7据过、Flink 從0到1學(xué)習(xí) —— 如何自定義 Data Sink 惋砂?

8、Flink 從0到1學(xué)習(xí) —— Flink Data transformation(轉(zhuǎn)換)

9绳锅、Flink 從0到1學(xué)習(xí) —— 介紹 Flink 中的 Stream Windows

10西饵、Flink 從0到1學(xué)習(xí) —— Flink 中的幾種 Time 詳解

11、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 ElasticSearch

12鳞芙、Flink 從0到1學(xué)習(xí) —— Flink 項(xiàng)目如何運(yùn)行眷柔?

13、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 Kafka

14原朝、Flink 從0到1學(xué)習(xí) —— Flink JobManager 高可用性配置

15驯嘱、Flink 從0到1學(xué)習(xí) —— Flink parallelism 和 Slot 介紹

16、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)批量寫入到 MySQL

17喳坠、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 RabbitMQ

18鞠评、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 HBase

19、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 HDFS

20壕鹉、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 Redis

21剃幌、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 Cassandra

22、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 Flume

23御板、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 InfluxDB

24锥忿、Flink 從0到1學(xué)習(xí) —— Flink 讀取 Kafka 數(shù)據(jù)寫入到 RocketMQ

25、Flink 從0到1學(xué)習(xí) —— 你上傳的 jar 包藏到哪里去了

26怠肋、Flink 從0到1學(xué)習(xí) —— 你的 Flink job 日志跑到哪里去了

27、阿里巴巴開源的 Blink 實(shí)時(shí)計(jì)算框架真香

28淹朋、Flink 從0到1學(xué)習(xí) —— Flink 中如何管理配置笙各?

29钉答、Flink 從0到1學(xué)習(xí)—— Flink 不可以連續(xù) Split(分流)?

30杈抢、Flink 從0到1學(xué)習(xí)—— 分享四本 Flink 國(guó)外的書和二十多篇 Paper 論文

31数尿、Flink 架構(gòu)、原理與部署測(cè)試

32惶楼、為什么說(shuō)流處理即未來(lái)右蹦?

33、OPPO 數(shù)據(jù)中臺(tái)之基石:基于 Flink SQL 構(gòu)建實(shí)時(shí)數(shù)據(jù)倉(cāng)庫(kù)

34歼捐、流計(jì)算框架 Flink 與 Storm 的性能對(duì)比

35何陆、Flink狀態(tài)管理和容錯(cuò)機(jī)制介紹

36、Apache Flink 結(jié)合 Kafka 構(gòu)建端到端的 Exactly-Once 處理

37豹储、360深度實(shí)踐:Flink與Storm協(xié)議級(jí)對(duì)比

38贷盲、如何基于Flink+TensorFlow打造實(shí)時(shí)智能異常檢測(cè)平臺(tái)?只看這一篇就夠了

39剥扣、Apache Flink 1.9 重大特性提前解讀

40巩剖、Flink 全網(wǎng)最全資源(視頻、博客钠怯、PPT佳魔、入門、實(shí)戰(zhàn)晦炊、源碼解析鞠鲜、問(wèn)答等持續(xù)更新)

41、Flink 靈魂兩百問(wèn)刽锤,這誰(shuí)頂?shù)米镊尺。?/a>

源碼解析

1、Flink 源碼解析 —— 源碼編譯運(yùn)行

2并思、Flink 源碼解析 —— 項(xiàng)目結(jié)構(gòu)一覽

3庐氮、Flink 源碼解析—— local 模式啟動(dòng)流程

4、Flink 源碼解析 —— standalone session 模式啟動(dòng)流程

5宋彼、Flink 源碼解析 —— Standalone Session Cluster 啟動(dòng)流程深度分析之 Job Manager 啟動(dòng)

6弄砍、Flink 源碼解析 —— Standalone Session Cluster 啟動(dòng)流程深度分析之 Task Manager 啟動(dòng)

7、Flink 源碼解析 —— 分析 Batch WordCount 程序的執(zhí)行過(guò)程

8输涕、Flink 源碼解析 —— 分析 Streaming WordCount 程序的執(zhí)行過(guò)程

9音婶、Flink 源碼解析 —— 如何獲取 JobGraph?

10莱坎、Flink 源碼解析 —— 如何獲取 StreamGraph衣式?

11、Flink 源碼解析 —— Flink JobManager 有什么作用?

12碴卧、Flink 源碼解析 —— Flink TaskManager 有什么作用弱卡?

13、Flink 源碼解析 —— JobManager 處理 SubmitJob 的過(guò)程

14住册、Flink 源碼解析 —— TaskManager 處理 SubmitJob 的過(guò)程

15婶博、Flink 源碼解析 —— 深度解析 Flink Checkpoint 機(jī)制

16、Flink 源碼解析 —— 深度解析 Flink 序列化機(jī)制

17荧飞、Flink 源碼解析 —— 深度解析 Flink 是如何管理好內(nèi)存的凡人?

18、Flink Metrics 源碼解析 —— Flink-metrics-core

19叹阔、Flink Metrics 源碼解析 —— Flink-metrics-datadog

20挠轴、Flink Metrics 源碼解析 —— Flink-metrics-dropwizard

21、Flink Metrics 源碼解析 —— Flink-metrics-graphite

22条获、Flink Metrics 源碼解析 —— Flink-metrics-influxdb

23忠荞、Flink Metrics 源碼解析 —— Flink-metrics-jmx

24、Flink Metrics 源碼解析 —— Flink-metrics-slf4j

25帅掘、Flink Metrics 源碼解析 —— Flink-metrics-statsd

26委煤、Flink Metrics 源碼解析 —— Flink-metrics-prometheus

26、Flink Annotations 源碼解析

27修档、Flink 源碼解析 —— 如何獲取 ExecutionGraph 碧绞?

28、大數(shù)據(jù)重磅炸彈——實(shí)時(shí)計(jì)算框架 Flink

29吱窝、Flink Checkpoint-?輕量級(jí)分布式快照

30讥邻、Flink Clients 源碼解析原文出處:zhisheng的博客,歡迎關(guān)注我的公眾號(hào):zhisheng

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末院峡,一起剝皮案震驚了整個(gè)濱河市兴使,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌照激,老刑警劉巖发魄,帶你破解...
    沈念sama閱讀 216,324評(píng)論 6 498
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異俩垃,居然都是意外死亡励幼,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,356評(píng)論 3 392
  • 文/潘曉璐 我一進(jìn)店門口柳,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)苹粟,“玉大人,你說(shuō)我怎么就攤上這事跃闹∏断鳎” “怎么了毛好?”我有些...
    開封第一講書人閱讀 162,328評(píng)論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長(zhǎng)掷贾。 經(jīng)常有香客問(wèn)我睛榄,道長(zhǎng)荣茫,這世上最難降的妖魔是什么想帅? 我笑而不...
    開封第一講書人閱讀 58,147評(píng)論 1 292
  • 正文 為了忘掉前任,我火速辦了婚禮啡莉,結(jié)果婚禮上港准,老公的妹妹穿的比我還像新娘。我一直安慰自己咧欣,他們只是感情好浅缸,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,160評(píng)論 6 388
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著魄咕,像睡著了一般衩椒。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上哮兰,一...
    開封第一講書人閱讀 51,115評(píng)論 1 296
  • 那天毛萌,我揣著相機(jī)與錄音,去河邊找鬼喝滞。 笑死阁将,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的右遭。 我是一名探鬼主播做盅,決...
    沈念sama閱讀 40,025評(píng)論 3 417
  • 文/蒼蘭香墨 我猛地睜開眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼窘哈!你這毒婦竟也來(lái)了吹榴?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 38,867評(píng)論 0 274
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤滚婉,失蹤者是張志新(化名)和其女友劉穎图筹,沒想到半個(gè)月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體满哪,經(jīng)...
    沈念sama閱讀 45,307評(píng)論 1 310
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡婿斥,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,528評(píng)論 2 332
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了哨鸭。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片民宿。...
    茶點(diǎn)故事閱讀 39,688評(píng)論 1 348
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖像鸡,靈堂內(nèi)的尸體忽然破棺而出活鹰,到底是詐尸還是另有隱情哈恰,我是刑警寧澤,帶...
    沈念sama閱讀 35,409評(píng)論 5 343
  • 正文 年R本政府宣布志群,位于F島的核電站着绷,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏锌云。R本人自食惡果不足惜荠医,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,001評(píng)論 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望桑涎。 院中可真熱鬧彬向,春花似錦、人聲如沸攻冷。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,657評(píng)論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)等曼。三九已至里烦,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間禁谦,已是汗流浹背胁黑。 一陣腳步聲響...
    開封第一講書人閱讀 32,811評(píng)論 1 268
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留枷畏,地道東北人别厘。 一個(gè)月前我還...
    沈念sama閱讀 47,685評(píng)論 2 368
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像拥诡,于是被迫代替她去往敵國(guó)和親触趴。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,573評(píng)論 2 353

推薦閱讀更多精彩內(nèi)容