flink與kafka結(jié)合

1、概述

flink提供了一個特有的kafka connector去讀寫kafka topic的數(shù)據(jù)。flink消費kafka數(shù)據(jù),并不是完全通過跟蹤kafka消費組的offset來實現(xiàn)去保證exactly-once的語義,而是flink內(nèi)部去跟蹤offset和做checkpoint去實現(xiàn)exactly-once的語義

flink與kafka整合,相應(yīng)版本對于的maven依賴如下表


maven依賴舉例

<flink.version>1.7.0</flink.version>

<scala.binary.version>2.11</scala.binary.version>

<scala.version>2.11.12</scala.version>

<dependency>

? <groupId>org.apache.flink</groupId>

? <artifactId>flink-streaming-scala_${scala.binary.version}</artifactId>

? <version>${flink.version}</version>

? <scope>provided</scope>

</dependency>

2寒锚、代碼整合

2.1、添加source:Kafka Consumer

flink利用FlinkKafkaConsumer來讀取訪問kafka, 根據(jù)kafka版本不同F(xiàn)linkKafkaConsumer的類名也會變化违孝,會變?yōu)镕linkKafkaConsumer

[08,09,10...]后面的數(shù)字就是對于的kafka的大版本號 刹前。

初始化FlinkKafkaConsumer 需要如下參數(shù)

1、topic名字雌桑,用來指定消費一個或者多個topic的數(shù)據(jù)

2喇喉、kafka的配置信息,如zk地址端口校坑,kafka地址端口等

3拣技、反序列化器(schema),對消費數(shù)據(jù)選擇一個反序列化器進(jìn)行反序列化耍目。

flink kafka的消費端需要知道怎么把kafka中消息數(shù)據(jù)反序列化成java或者scala中的對象膏斤。用戶通過使用DeserializationSchema,每一條kafka的消息都會作用于DeserializationSchema的eserialize(byte[] message)方法邪驮。來將kafka的消息轉(zhuǎn)換成用戶想要的結(jié)構(gòu)莫辨。

用戶通過自定義schema將接入數(shù)據(jù)轉(zhuǎn)換成自定義的數(shù)據(jù)結(jié)構(gòu),主要通過實現(xiàn)KeyedDeserializationSchema或者DeserializationSchema接口來完成,可以自定義衔掸。flink內(nèi)置的 對DeserializationSchema 的實現(xiàn)有

public class SimpleStringSchema implements DeserializationSchema<String>

public class TypeInformationSerializationSchema<T> implements DeserializationSchema<T>

對 KeyedDeserializationSchema的實現(xiàn)有

public class TypeInformationKeyValueSerializationSchema<K, V> implements KeyedDeserializationSchema<Tuple2<K, V>>

public class JSONKeyValueDeserializationSchema implements KeyedDeserializationSchema<ObjectNode>

例如:

val myConsumer = new FlinkKafkaConsumer010[String]("topic",new SimpleStringSchema,p)

2.2烫幕、自定義schema舉例

public class MySchema implements KeyedDeserializationSchema<KafkaMsgDTO> {

? ? @Override

? ? public KafkaMsgDTO deserialize(byte[] messageKey, byte[] message, String topic, int partition, long offset) throws IOException {

? ? ? ? String msg = new String(message, StandardCharsets.UTF_8);

? ? ? ? String key = null;

? ? ? ? if(messageKey != null){

? ? ? ? ? ? key = new String(messageKey, StandardCharsets.UTF_8);

? ? ? ? }

? ? ? ? return new KafkaMsgDTO(msg,key,topic,partition,offset);

? ? }

? ? @Override

? ? public boolean isEndOfStream(KafkaMsgDTO nextElement) {

? ? ? ? return false;

? ? }

? ? @Override

? ? public TypeInformation<KafkaMsgDTO> getProducedType() {

? ? ? ? return getForClass(KafkaMsgDTO.class);

? ? }

}

<dependency>

? <groupId>org.apache.flink</groupId>

? <artifactId>flink-connector-kafka-base_2.11</artifactId>

? <version>1.7.0</version>

</dependency>

public class KafkaMsgDTO {

? ? private String topic;

? ? private int partition;

? ? private long offset;

? ? private String mesg;

? ? @Override

? ? public String toString() {

? ? ? ? return "KafkaMsgDTO{" +

? ? ? ? ? ? ? ? "topic='" + topic + '\'' +

? ? ? ? ? ? ? ? ", partition=" + partition +

? ? ? ? ? ? ? ? ", offset=" + offset +

? ? ? ? ? ? ? ? ", mesg='" + mesg + '\'' +

? ? ? ? ? ? ? ? ", key='" + key + '\'' +

? ? ? ? ? ? ? ? '}';

? ? }

? ? private String key;

? ? public KafkaMsgDTO(){

? ? }

? ? public KafkaMsgDTO(String mesg,String key,String topic,int partition,long offset){

? ? ? ? this.mesg = mesg;

? ? ? ? this.key = key;

? ? ? ? this.topic = topic;

? ? ? ? this.partition = partition;

? ? ? ? this.offset = offset;

? ? }

? ? public String getKey() {

? ? ? ? return key;

? ? }

? ? public void setKey(String key) {

? ? ? ? this.key = key;

? ? }

? ? public String getTopic() {

? ? ? ? return topic;

? ? }

? ? public void setTopic(String topic) {

? ? ? ? this.topic = topic;

? ? }

? ? public int getPartition() {

? ? ? ? return partition;

? ? }

? ? public void setPartition(int partition) {

? ? ? ? this.partition = partition;

? ? }

? ? public long getOffset() {

? ? ? ? return offset;

? ? }

? ? public void setOffset(long offset) {

? ? ? ? this.offset = offset;

? ? }

? ? public String getMesg() {

? ? ? ? return mesg;

? ? }

? ? public void setMesg(String mesg) {

? ? ? ? this.mesg = mesg;

? ? }

}

2.3俺抽、指定offset位置進(jìn)行消費

val myConsumer = new FlinkKafkaConsumer010[KafkaMsgDTO]("topic",new MySchema(),p)

//? ? myConsumer.setStartFromEarliest()? ? ?

//從最早開始消費敞映,消費過的數(shù)據(jù)會重復(fù)消費,從kafka來看默認(rèn)不提交offset.

//? ? myConsumer.setStartFromLatest()? ? ? ?

//從最新開始消費磷斧,不消費流啟動前未消費的數(shù)據(jù)振愿,從kafka來看默認(rèn)不提交offset.

? ? ? myConsumer.setStartFromGroupOffsets()

//從消費的offset位置開始消費,kafka有提交offset弛饭,這是默認(rèn)消費方式

//如果沒有做checkpoint 數(shù)據(jù)進(jìn)入sink就會提交offset,如果sink里面邏輯失敗冕末。offset照樣會提交,程序退出侣颂,如果重啟流档桃,消費失敗的數(shù)據(jù)不會被重新消費

//如果做了checkpoint 會保證數(shù)據(jù)的端到端精準(zhǔn)一次消費。sink里面邏輯失敗不會提交offset

2.4憔晒、checkpointing

env.enableCheckpointing(5000);

val stream = env.addSource(myConsumer)

2.5藻肄、sink邏輯

stream.addSink(x=>{

? println(x)

? println(1/(x.getMesg.toInt%2))//消息是偶數(shù)就會報錯,分母為0

? println(x)

})

val stream = env.addSource(myConsumer)

//實驗表明如果sink處理邏輯有一部線程在跑拒担,如果異步線程失敗嘹屯。offset照樣會提交。

stream.addSink(x=>{

? println(x)

? new Thread(new Runnable {

? ? override def run(): Unit = {

? ? ? println(1/(x.getMesg.toInt%2))//消息是偶數(shù)就會報錯从撼,分母為0

? ? }

? }).start()

? println(x)

})

2.6州弟、指定到某個topic的offset位置進(jìn)行消費

val specificStartOffsets = new java.util.HashMap[KafkaTopicPartition, java.lang.Long]()

specificStartOffsets.put(new KafkaTopicPartition("myTopic", 0), 23L)

specificStartOffsets.put(new KafkaTopicPartition("myTopic", 1), 31L)

specificStartOffsets.put(new KafkaTopicPartition("myTopic", 2), 43L)

myConsumer.setStartFromSpecificOffsets(specificStartOffsets)

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市低零,隨后出現(xiàn)的幾起案子婆翔,更是在濱河造成了極大的恐慌,老刑警劉巖掏婶,帶你破解...
    沈念sama閱讀 216,591評論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件啃奴,死亡現(xiàn)場離奇詭異,居然都是意外死亡气堕,警方通過查閱死者的電腦和手機(jī)纺腊,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,448評論 3 392
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來茎芭,“玉大人揖膜,你說我怎么就攤上這事∶纷” “怎么了壹粟?”我有些...
    開封第一講書人閱讀 162,823評論 0 353
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經(jīng)常有香客問我趁仙,道長洪添,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,204評論 1 292
  • 正文 為了忘掉前任雀费,我火速辦了婚禮干奢,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘盏袄。我一直安慰自己忿峻,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 67,228評論 6 388
  • 文/花漫 我一把揭開白布辕羽。 她就那樣靜靜地躺著逛尚,像睡著了一般。 火紅的嫁衣襯著肌膚如雪刁愿。 梳的紋絲不亂的頭發(fā)上绰寞,一...
    開封第一講書人閱讀 51,190評論 1 299
  • 那天,我揣著相機(jī)與錄音铣口,去河邊找鬼滤钱。 笑死,一個胖子當(dāng)著我的面吹牛枷踏,可吹牛的內(nèi)容都是我干的菩暗。 我是一名探鬼主播,決...
    沈念sama閱讀 40,078評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼旭蠕,長吁一口氣:“原來是場噩夢啊……” “哼停团!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起掏熬,我...
    開封第一講書人閱讀 38,923評論 0 274
  • 序言:老撾萬榮一對情侶失蹤佑稠,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后旗芬,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體舌胶,經(jīng)...
    沈念sama閱讀 45,334評論 1 310
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,550評論 2 333
  • 正文 我和宋清朗相戀三年疮丛,在試婚紗的時候發(fā)現(xiàn)自己被綠了幔嫂。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 39,727評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡誊薄,死狀恐怖履恩,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情呢蔫,我是刑警寧澤切心,帶...
    沈念sama閱讀 35,428評論 5 343
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響绽昏,放射性物質(zhì)發(fā)生泄漏协屡。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 41,022評論 3 326
  • 文/蒙蒙 一全谤、第九天 我趴在偏房一處隱蔽的房頂上張望肤晓。 院中可真熱鬧,春花似錦啼县、人聲如沸材原。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,672評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至卷胯,卻和暖如春子刮,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背窑睁。 一陣腳步聲響...
    開封第一講書人閱讀 32,826評論 1 269
  • 我被黑心中介騙來泰國打工挺峡, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人担钮。 一個月前我還...
    沈念sama閱讀 47,734評論 2 368
  • 正文 我出身青樓橱赠,卻偏偏與公主長得像,于是被迫代替她去往敵國和親箫津。 傳聞我的和親對象是個殘疾皇子狭姨,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 44,619評論 2 354

推薦閱讀更多精彩內(nèi)容