Kafka源碼分析(三)高吞吐核心——RecordAccumulator消息累積過程

Kafka為什么會有這么高吞吐?

Kafka的發(fā)送邏輯和TCP的像極了豹芯,當客戶端調用了producer.send(msg)后,Kafka的主線程并不會著急直接調用網絡底層將消息發(fā)送給Kafka Broker快集,而是將消息放入一個叫RecordAccumulator的數據結構中秘遏。

RecordAccumulator.RecordAppendResult result = accumulator.append(tp, timestamp, serializedKey,
    serializedValue, headers, interceptCallback, remainingWaitMs);

其實放入RecordAccumulator中只是第一步舀瓢,接下去真實的發(fā)送邏輯甚至不在當前的主線程中园担,所以發(fā)送邏輯整體是以異步調用的方式來組織的旨椒。當消息真正被網絡層發(fā)送并且得到Broker的成功反饋后祝峻,是通過Future的形式來通知回調魔吐,所以為了不丟失異步鏈路,在放入RecordAccumulator后莱找,有個RecordAppendResult的返回值酬姆。

回過來再看下RecordAccumulator這個數據結構。

如下圖所示奥溺,RecordAccumulator整體是一個ConcurrentMap<TopicPartition, Deque<ProducerBatch>>混合數據機構辞色,Key就是TopicPartition,Value是一個雙向隊列Deque浮定,隊列的成員是一個個ProducerBatch相满。

RecordAccumulator

舉個栗子,如果是發(fā)送TopicPartition(topic1:0)的消息桦卒,邏輯可以簡述為立美,首先去找TopicPartition(topic1:0)這個Key所對應的那個Deque隊列(如果沒有則創(chuàng)建一個),然后從Deque中拿到最后一個ProducerBatch對象方灾,最后將消息放入最后一個ProducerBatch中悯辙。

private RecordAppendResult tryAppend(long timestamp, byte[] key, byte[] value, Header[] headers,
                                        Callback callback, Deque<ProducerBatch> deque) {
    ProducerBatch last = deque.peekLast();
    if (last != null) {
        FutureRecordMetadata future = last.tryAppend(timestamp, key, value, headers, callback, time.milliseconds());
        if (future == null)
            last.closeForRecordAppends();
        else
            return new RecordAppendResult(future, deque.size() > 1 || last.isFull(), false);
    }
    return null;
}

可見ProducerBatch也是一個容器型數據結構,從下面的代碼可以看出迎吵,消息的數據是按順序放入(MemoryRecordsBuilder recordsBuilder)中躲撰,消息的事件回調future是按順序放入(List<Thunk> thunks)中。

public FutureRecordMetadata tryAppend(long timestamp, byte[] key, byte[] value, Header[] headers, Callback callback, long now) {
    if (!recordsBuilder.hasRoomFor(timestamp, key, value, headers)) {
        return null;
    } else {
        Long checksum = this.recordsBuilder.append(timestamp, key, value, headers);
        this.maxRecordSize = Math.max(this.maxRecordSize, AbstractRecords.estimateSizeInBytesUpperBound(magic(),
                recordsBuilder.compressionType(), key, value, headers));
        this.lastAppendTime = now;
        FutureRecordMetadata future = new FutureRecordMetadata(this.produceFuture, this.recordCount,
                                                                timestamp, checksum,
                                                                key == null ? -1 : key.length,
                                                                value == null ? -1 : value.length);
        // we have to keep every future returned to the users in case the batch needs to be
        // split to several new batches and resent.
        thunks.add(new Thunk(callback, future));
        this.recordCount++;
        return future;
    }
}

至此击费,放入RecordAccumulator的過程算是講完了拢蛋,下一篇聊下從RecordAccumulator拿出來。

在結束這篇前蔫巩,有幾點注意下谆棱,Map是Concurrent系的,所以在TopicPartition級別是可以安全并發(fā)put圆仔、get垃瞧、remove它的Deque。但是當涉及到的是同一個TopicPartition時坪郭,操縱的其實是同一個Deque个从,而Deque不是一個并發(fā)安全的集合,所以在對某一個具體的Deque進行增刪改時,需要使用鎖嗦锐。

Deque<ProducerBatch> dq = getOrCreateDeque(tp);

synchronized (dq) {
    // Need to check if producer is closed again after grabbing the dequeue lock.
    if (closed)
        throw new KafkaException("Producer closed while send in progress");

    RecordAppendResult appendResult = tryAppend(timestamp, key, value, headers, callback, dq);
    if (appendResult != null) {
        // Somebody else found us a batch, return the one we waited for! Hopefully this doesn't happen often...
        return appendResult;
    }

    MemoryRecordsBuilder recordsBuilder = recordsBuilder(buffer, maxUsableMagic);
    ProducerBatch batch = new ProducerBatch(tp, recordsBuilder, time.milliseconds());
    FutureRecordMetadata future = Utils.notNull(batch.tryAppend(timestamp, key, value, headers, callback, time.milliseconds()));

    dq.addLast(batch);
    incomplete.add(batch);

    // Don't deallocate this buffer in the finally block as it's being used in the record batch
    buffer = null;

    return new RecordAppendResult(future, dq.size() > 1 || batch.isFull(), true);
}
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
  • 序言:七十年代末嫌松,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子奕污,更是在濱河造成了極大的恐慌萎羔,老刑警劉巖,帶你破解...
    沈念sama閱讀 218,525評論 6 507
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件碳默,死亡現場離奇詭異贾陷,居然都是意外死亡,警方通過查閱死者的電腦和手機嘱根,發(fā)現死者居然都...
    沈念sama閱讀 93,203評論 3 395
  • 文/潘曉璐 我一進店門髓废,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人儿子,你說我怎么就攤上這事瓦哎≡矣鳎” “怎么了柔逼?”我有些...
    開封第一講書人閱讀 164,862評論 0 354
  • 文/不壞的土叔 我叫張陵,是天一觀的道長割岛。 經常有香客問我愉适,道長,這世上最難降的妖魔是什么癣漆? 我笑而不...
    開封第一講書人閱讀 58,728評論 1 294
  • 正文 為了忘掉前任维咸,我火速辦了婚禮,結果婚禮上惠爽,老公的妹妹穿的比我還像新娘癌蓖。我一直安慰自己,他們只是感情好婚肆,可當我...
    茶點故事閱讀 67,743評論 6 392
  • 文/花漫 我一把揭開白布租副。 她就那樣靜靜地躺著,像睡著了一般较性。 火紅的嫁衣襯著肌膚如雪用僧。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 51,590評論 1 305
  • 那天赞咙,我揣著相機與錄音责循,去河邊找鬼。 笑死攀操,一個胖子當著我的面吹牛院仿,可吹牛的內容都是我干的。 我是一名探鬼主播速和,決...
    沈念sama閱讀 40,330評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼意蛀,長吁一口氣:“原來是場噩夢啊……” “哼耸别!你這毒婦竟也來了?” 一聲冷哼從身側響起县钥,我...
    開封第一講書人閱讀 39,244評論 0 276
  • 序言:老撾萬榮一對情侶失蹤秀姐,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后若贮,有當地人在樹林里發(fā)現了一具尸體省有,經...
    沈念sama閱讀 45,693評論 1 314
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 37,885評論 3 336
  • 正文 我和宋清朗相戀三年谴麦,在試婚紗的時候發(fā)現自己被綠了蠢沿。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,001評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡匾效,死狀恐怖舷蟀,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情面哼,我是刑警寧澤野宜,帶...
    沈念sama閱讀 35,723評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站魔策,受9級特大地震影響匈子,放射性物質發(fā)生泄漏。R本人自食惡果不足惜闯袒,卻給世界環(huán)境...
    茶點故事閱讀 41,343評論 3 330
  • 文/蒙蒙 一虎敦、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧政敢,春花似錦其徙、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,919評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至摩骨,卻和暖如春通贞,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背恼五。 一陣腳步聲響...
    開封第一講書人閱讀 33,042評論 1 270
  • 我被黑心中介騙來泰國打工昌罩, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人灾馒。 一個月前我還...
    沈念sama閱讀 48,191評論 3 370
  • 正文 我出身青樓茎用,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子轨功,可洞房花燭夜當晚...
    茶點故事閱讀 44,955評論 2 355