Kafka的消息是如何被消費(fèi)的?


GroupMetadata類
  • 所在文件: core/src/main/scala/kafka/coordinator/MemberMetadata.scala
  • 作用: 用來(lái)表示一個(gè)消費(fèi)group的相關(guān)信息
  • 當(dāng)前group的狀態(tài): private var state: GroupState = Stable
    1. Stable: consumer group的balance已完成, 處于穩(wěn)定狀態(tài);
    2. PreparingRebalance: 收到JoinRequest, consumer group需要重新作balance時(shí)的狀態(tài);
    3. AwaitingSync: 收到了所有需要的JoonRequest, 等待作為當(dāng)前group的leader的consumer客戶端提交balance的結(jié)果到coordinator;
    4. Dead: 當(dāng)前的消費(fèi)group不再有任何consumer成員時(shí)的狀態(tài);
  • 當(dāng)前group的成員相關(guān)信息:
    1. 成員信息: private val members = new mutable.HashMap[String, MemberMetadata],
      每個(gè)成員都有一個(gè)memberId, 對(duì)應(yīng)著MemberMetadata;
    2. var leaderId: String: 對(duì)于group的balance, 簡(jiǎn)單來(lái)講實(shí)際上是Coordinator收集了所有的consumer的信息后, 將其發(fā)送給group中的一個(gè)consumer, 這個(gè)consumer負(fù)責(zé)按一定的balance策略,將partition分配到不同的consumer, 這個(gè)分配結(jié)果會(huì)Sync回Coordinator, 然后再同步到各個(gè)consumer, 這個(gè)負(fù)責(zé)具體分配的consumer就是當(dāng)前的Leader; 這個(gè)Leader的決定很簡(jiǎn)單, 誰(shuí)第一個(gè)加入這個(gè)group的,誰(shuí)就是leader;
    3. var protocol: String: 當(dāng)前group組所采用的balance策略, 選取的規(guī)則是被當(dāng)前所有member都支持的策略中最多的那一個(gè);
    4. var generationId: 當(dāng)前balance的一個(gè)標(biāo)識(shí)id, 可以簡(jiǎn)單理解成是第幾次作balance, 每次狀態(tài)轉(zhuǎn)換到AwaitingSync時(shí), 其值就增加1;
GroupMetadataManager類
  • 所在文件: core/src/main/scala/kafka/coordinator/GroupMetadataManager.scala
  • 作用: 是比較核心的一個(gè)類, 負(fù)責(zé)所有g(shù)roup的管理, offset消息的讀寫和清理等, 下面我們一一道來(lái)
  • 當(dāng)前所有消費(fèi)group的管理:
    1. private val groupsCache = new Pool[String, GroupMetadata]: 緩存了所有GroupMetadata的信息;
    2. 針對(duì)groupsCache的管理接口:
def getGroup(groupId: String): GroupMetadata
def addGroup(group: GroupMetadata): GroupMetadata
def removeGroup(group: GroupMetadata)
  • __consumer_offsets topic的讀寫
    1. 我們已經(jīng)知道現(xiàn)在的kafka已經(jīng)支持將offset信息保存到broker上, 實(shí)際上是保存到一個(gè)內(nèi)部的topic上:__consumer_offsets, 寫入其中的msg都包含有key
    2. __consumer_offsets這個(gè)topic里實(shí)際上保存兩種類型消息:
      2.1 一部分是offset信息(kafka.coordinator.OffsetsMessageFormatter類型)的:
      [groupId,topic,partition]::[OffsetMetadata[offset,metadata],CommitTime ExprirationTime], 它的key[groupId,topic,partition]
      2.2 另一部分是group信息(kafka.coordinator.GroupMetadataMessageFormatter類型):
      groupId::[groupId,Some(consumer),groupState,Map(memberId -> [memberId,clientId,clientHost,sessionTimeoutMs], ...->[]...)], 這部分實(shí)際上就是把當(dāng)前Stable狀態(tài)的GroupMetadata存到了__consumer_offsets里, , 它的keygroupId
    3. offset和group信息的寫入: 實(shí)際上是普通的消息寫入沒(méi)有本質(zhì)上的區(qū)別, 可參考Kafka是如何處理客戶端發(fā)送的數(shù)據(jù)的?, 這里的方法是def store(delayedAppend: DelayedStore), 實(shí)現(xiàn)就是調(diào)用replicaManager.appendMessages來(lái)寫入消息到log文件
  • __consumer_offsets topic消息的加載
    1. __consumer_offsets作為一個(gè)topic, 也是有多個(gè)partiton的, 每個(gè)partiton也是有多個(gè)復(fù)本的, partition也會(huì)經(jīng)歷leader的選舉,也會(huì)有故障轉(zhuǎn)移操作;
    2. 當(dāng)__consumer_offsets在某臺(tái)broker上的partition成為leader partition時(shí), 需要先從本地的log文件后加載offset,group相關(guān)信息到內(nèi)存, 加載完成后才能對(duì)外提供讀寫和balance的操作;
    3. 具體實(shí)現(xiàn): def loadGroupsForPartition(offsetsPartition: Int, onGroupLoaded: GroupMetadata => Unit)
  • offset的相關(guān)操作
    1. 使用者消費(fèi)msg提交的offset, 不僅會(huì)寫入到log文件后, 為了快速響應(yīng)還會(huì)緩存在內(nèi)存中, 對(duì)應(yīng)private val offsetsCache = new Pool[GroupTopicPartition, OffsetAndMetadata];
    2. 直接從內(nèi)存中獲取某一group對(duì)應(yīng)某一topic的parition的offset信息:
      def getOffsets(group: String, topicPartitions: Seq[TopicAndPartition]): Map[TopicAndPartition, OffsetMetadataAndError]
    3. 刷新offset: offsetsCache只保存最后一次提交的offset信息
      private def putOffset(key: GroupTopicPartition, offsetAndMetadata: OffsetAndMetadata)
  • 刪除過(guò)期的offset消息
    1. GroupMetadataManager在啟動(dòng)時(shí)會(huì)同時(shí)啟動(dòng)一個(gè)名為delete-expired-consumer-offsets定時(shí)任務(wù)來(lái)定時(shí)刪除過(guò)期的offset信息;
    2. 從內(nèi)存緩存中清除: offsetsCache.remove(groupTopicAndPartition)
    3. 從已經(jīng)落地的log文件中清除: 實(shí)現(xiàn)就是向log里寫一條payload為null的"墓碑"message作為標(biāo)記, __consumer_offsets的清除策略默認(rèn)是compact, 后面我們會(huì)單獨(dú)開(kāi)一章來(lái)講日志的清除;
GroupCoordinator類
  • 所在文件: core/src/main/scala/kafka/coordinator/GroupCoordinator.scala
  • 核心類, 處理所有和消息消費(fèi)相關(guān)的request:
       case RequestKeys.OffsetCommitKey => handleOffsetCommitRequest(request)
       case RequestKeys.OffsetFetchKey => handleOffsetFetchRequest(request)
       case RequestKeys.GroupCoordinatorKey => handleGroupCoordinatorRequest(request)
       case RequestKeys.JoinGroupKey => handleJoinGroupRequest(request)
       case RequestKeys.HeartbeatKey => handleHeartbeatRequest(request)
       case RequestKeys.LeaveGroupKey => handleLeaveGroupRequest(request)
       case RequestKeys.SyncGroupKey => handleSyncGroupRequest(request)
       case RequestKeys.DescribeGroupsKey => handleDescribeGroupRequest(request)
       case RequestKeys.ListGroupsKey => handleListGroupsRequest(request)
  • 使用簡(jiǎn)單狀態(tài)機(jī)來(lái)協(xié)調(diào)consumer group的balance;
  • 下面我們假設(shè)在一個(gè)group:g1中啟動(dòng)兩個(gè)consumer: c1和c2來(lái)消費(fèi)同一個(gè)topic, 來(lái)看看狀態(tài)機(jī)的轉(zhuǎn)換
    1. 第一種情況: c1和c2分別啟動(dòng):
c2.jpg
  1. 第二種情況: c1和c2已經(jīng)在group中, 然后c1正常的退出離開(kāi)
c1.jpg
  1. 第二種情況: c1和c2已經(jīng)在group中, 然后c1非正常退出,比如說(shuō)進(jìn)程被kill掉
    流程跟上面的2基本上一致, 只不過(guò)(1)這步的觸發(fā)條件不是LeaveGroupRequest, 而是來(lái)自c1的heartbeat的onExpireHeartbeat;
  2. 第四種情況: c1和c2已經(jīng)在group中, 然后這個(gè)topic的partition增加, 這個(gè)時(shí)候服務(wù)端是無(wú)法主動(dòng)觸發(fā)的,客戶端會(huì)定時(shí)去服務(wù)端同步metadata信息, 從新的metadata信息中客戶端會(huì)獲知partition有了變化, 此時(shí)c1和c2會(huì)重新發(fā)送JoinRequest來(lái)觸發(fā)新的balance;
  3. 還有其它的兩種情況, 這里就不一一說(shuō)明了,總之就是利用這個(gè)狀態(tài)機(jī)的轉(zhuǎn)換來(lái)作相應(yīng)的處理.

Kafka源碼分析-匯總

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末肠虽,一起剝皮案震驚了整個(gè)濱河市逃沿,隨后出現(xiàn)的幾起案子鲸睛,更是在濱河造成了極大的恐慌擂错,老刑警劉巖确垫,帶你破解...
    沈念sama閱讀 211,265評(píng)論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件俄讹,死亡現(xiàn)場(chǎng)離奇詭異公黑,居然都是意外死亡票顾,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,078評(píng)論 2 385
  • 文/潘曉璐 我一進(jìn)店門帆调,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)奠骄,“玉大人,你說(shuō)我怎么就攤上這事番刊『郏” “怎么了?”我有些...
    開(kāi)封第一講書人閱讀 156,852評(píng)論 0 347
  • 文/不壞的土叔 我叫張陵芹务,是天一觀的道長(zhǎng)蝉绷。 經(jīng)常有香客問(wèn)我,道長(zhǎng)枣抱,這世上最難降的妖魔是什么熔吗? 我笑而不...
    開(kāi)封第一講書人閱讀 56,408評(píng)論 1 283
  • 正文 為了忘掉前任,我火速辦了婚禮佳晶,結(jié)果婚禮上桅狠,老公的妹妹穿的比我還像新娘。我一直安慰自己轿秧,他們只是感情好中跌,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,445評(píng)論 5 384
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著菇篡,像睡著了一般漩符。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上驱还,一...
    開(kāi)封第一講書人閱讀 49,772評(píng)論 1 290
  • 那天嗜暴,我揣著相機(jī)與錄音凸克,去河邊找鬼。 笑死闷沥,一個(gè)胖子當(dāng)著我的面吹牛萎战,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播狐赡,決...
    沈念sama閱讀 38,921評(píng)論 3 406
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼撞鹉,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼疟丙!你這毒婦竟也來(lái)了颖侄?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書人閱讀 37,688評(píng)論 0 266
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤享郊,失蹤者是張志新(化名)和其女友劉穎览祖,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體炊琉,經(jīng)...
    沈念sama閱讀 44,130評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡展蒂,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,467評(píng)論 2 325
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了苔咪。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片锰悼。...
    茶點(diǎn)故事閱讀 38,617評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖团赏,靈堂內(nèi)的尸體忽然破棺而出箕般,到底是詐尸還是另有隱情,我是刑警寧澤舔清,帶...
    沈念sama閱讀 34,276評(píng)論 4 329
  • 正文 年R本政府宣布丝里,位于F島的核電站,受9級(jí)特大地震影響体谒,放射性物質(zhì)發(fā)生泄漏杯聚。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,882評(píng)論 3 312
  • 文/蒙蒙 一抒痒、第九天 我趴在偏房一處隱蔽的房頂上張望幌绍。 院中可真熱鬧,春花似錦故响、人聲如沸纷捞。這莊子的主人今日做“春日...
    開(kāi)封第一講書人閱讀 30,740評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)主儡。三九已至,卻和暖如春惨缆,著一層夾襖步出監(jiān)牢的瞬間糜值,已是汗流浹背丰捷。 一陣腳步聲響...
    開(kāi)封第一講書人閱讀 31,967評(píng)論 1 265
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留寂汇,地道東北人病往。 一個(gè)月前我還...
    沈念sama閱讀 46,315評(píng)論 2 360
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像骄瓣,于是被迫代替她去往敵國(guó)和親停巷。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,486評(píng)論 2 348

推薦閱讀更多精彩內(nèi)容