Kafka常用命令

本文基于Kafka 0.10.0

基本操作

列出所有topic

kafka-topics.sh --zookeeper localhost:2181 --list 

創(chuàng)建topic

kafka-topics.sh --zookeeper localhost:2181 \
                            --create \
                            --topic earth \
                            --partitions 1 \
                            --replication-factor 1

生產(chǎn)數(shù)據(jù)

向earth發(fā)送一條消息

echo "The first record" | kafka-console-producer.sh \
                    --broker-list localhost:9092 \
                    --topic earth 

向earth發(fā)送一條包含key的消息

echo '00000,{"name":"Steve", "title":"Captain America"}' | kafka-console-producer.sh \
              --broker-list localhost:9092 \
              --topic earth \
              --property parse.key=true \
              --property key.separator=,

消費數(shù)據(jù)

kafka-console-consumer.sh --zookeeper localhost:2181 \
                                      --topic earth \
                                      --from-beginning

將消息的key也輸出

kafka-console-consumer.sh --zookeeper localhost:2181 \
                                      --topic earth \
                                      --from-beginning \
                                      --property print.key=true \
                                      --property key.separator=,

如果要消費__consumer_offsets中的內(nèi)容渗勘,需要在consumer.properties中配置exclude.internal.topics=false税稼,并執(zhí)行下面命令

kafka-console-consumer.sh --zookeeper localhost:2181 \
                                      --topic __consumer_offsets \
                                      --from-beginning \
                                      --formatter "kafka.coordinator.GroupMetadataManager\$OffsetsMessageFormatter" \
                                      --consumer.config ~/consumer.properties 
                                

Topic的offset統(tǒng)計

kafka-run-class.sh kafka.tools.GetOffsetShell \
                                 --broker-list localhost:9092 \
                                 --topic earth \
                                 --time -1

最后的參數(shù)-1表示顯示獲取當(dāng)前offset最大值,-2表示offset的最小值

如果遇到數(shù)據(jù)傾斜的情況格郁,可以通過kafka-simple-consumer-shell.sh查看具體某個partition數(shù)據(jù)內(nèi)容,例如

kafka-simple-consumer-shell.sh --broker-list localhost:9092 \
                                       --topic earth \
                                       --partition 1 \
                                       --print-offsets \
                                       --offset 18 \
                                       --clientId test \
                                       --property print.key=true

高級Consumers和Groups

創(chuàng)建一個consumer.properties配置文件,指定group.id

echo "group.id=Avengers" > consumer.properties

然后再發(fā)送一條數(shù)據(jù)

echo "The second record" | kafka-console-producer.sh \
                    --broker-list localhost:9092 \
                    --topic earth 

通過consumer驗證一下當(dāng)前topic的數(shù)據(jù),

kafka-console-consumer.sh --zookeeper localhost:2181 \
                                      --topic earth \
                                      --from-beginning \
                                      --consumer.config consumer.properties

得到的結(jié)果是

The first record
The second record

這是看一下zookeeper中存儲的內(nèi)容

[zk: localhost:2181(CONNECTED) 0] get /consumers/Avengers/offsets/earth/0
2
cZxid = 0x8200012d1d
ctime = Fri May 05 17:10:02 CST 2017
mZxid = 0x8200012d1d
mtime = Fri May 05 17:10:02 CST 2017
pZxid = 0x8200012d1d
cversion = 0
dataVersion = 0
aclVersion = 0
ephemeralOwner = 0x0
dataLength = 1
numChildren = 0

第一行的2表示的就是我們配置的這個group消費的最后一個offset促王,如果再次運行

kafka-console-consumer.sh --zookeeper localhost:2181 \
                                      --topic earth \
                                      --consumer.config consumer.properties

沒有任何結(jié)果輸出

這時需要通過UpdateOffsetsInZK重置offset,在剛才的配置中加入

echo "zookeeper.connect=localhost:2181" >> consumer.properties

然后運行

kafka-run-class.sh kafka.tools.UpdateOffsetsInZK earliest consumer.properties earth

顯示如下結(jié)果

updating partition 0 with new offset: 0
updated the offset for 1 partitions

這樣運行剛才的命令

kafka-console-consumer.sh --zookeeper localhost:2181 \
                                      --topic earth \
                                      --consumer.config consumer.properties

會重新從第一個offset開始讀而晒,即顯示

The first record
The second record

但是如果運行下面的命令蝇狼,即加上--from-beginning

kafka-console-consumer.sh --zookeeper localhost:2181 \
                                      --topic earth \
                                      --from-beginning \
                                      --consumer.config consumer.properties

就會提示

Found previous offset information for this group Avengers. Please use --delete-consumer-offsets to delete previous offsets metadata

必須要加上--delete-consumer-offsets才可以,像這樣

kafka-console-consumer.sh --zookeeper localhost:2181 \
                                      --topic earth \
                                     --delete-consumer-offsets \
                                      --from-beginning \
                                      --consumer.config consumer.properties
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末倡怎,一起剝皮案震驚了整個濱河市迅耘,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌诈胜,老刑警劉巖豹障,帶你破解...
    沈念sama閱讀 206,482評論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異焦匈,居然都是意外死亡血公,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,377評論 2 382
  • 文/潘曉璐 我一進(jìn)店門缓熟,熙熙樓的掌柜王于貴愁眉苦臉地迎上來累魔,“玉大人摔笤,你說我怎么就攤上這事】研矗” “怎么了吕世?”我有些...
    開封第一講書人閱讀 152,762評論 0 342
  • 文/不壞的土叔 我叫張陵,是天一觀的道長梯投。 經(jīng)常有香客問我命辖,道長,這世上最難降的妖魔是什么分蓖? 我笑而不...
    開封第一講書人閱讀 55,273評論 1 279
  • 正文 為了忘掉前任尔艇,我火速辦了婚禮,結(jié)果婚禮上么鹤,老公的妹妹穿的比我還像新娘终娃。我一直安慰自己,他們只是感情好蒸甜,可當(dāng)我...
    茶點故事閱讀 64,289評論 5 373
  • 文/花漫 我一把揭開白布棠耕。 她就那樣靜靜地躺著,像睡著了一般柠新。 火紅的嫁衣襯著肌膚如雪窍荧。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,046評論 1 285
  • 那天登颓,我揣著相機(jī)與錄音搅荞,去河邊找鬼。 笑死框咙,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的痢甘。 我是一名探鬼主播喇嘱,決...
    沈念sama閱讀 38,351評論 3 400
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼塞栅!你這毒婦竟也來了者铜?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 36,988評論 0 259
  • 序言:老撾萬榮一對情侶失蹤放椰,失蹤者是張志新(化名)和其女友劉穎作烟,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體砾医,經(jīng)...
    沈念sama閱讀 43,476評論 1 300
  • 正文 獨居荒郊野嶺守林人離奇死亡拿撩,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 35,948評論 2 324
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了如蚜。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片压恒。...
    茶點故事閱讀 38,064評論 1 333
  • 序言:一個原本活蹦亂跳的男人離奇死亡影暴,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出探赫,到底是詐尸還是另有隱情型宙,我是刑警寧澤,帶...
    沈念sama閱讀 33,712評論 4 323
  • 正文 年R本政府宣布伦吠,位于F島的核電站窗轩,受9級特大地震影響棋嘲,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 39,261評論 3 307
  • 文/蒙蒙 一箕戳、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧躏率,春花似錦衩侥、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,264評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至狈癞,卻和暖如春茄靠,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背蝶桶。 一陣腳步聲響...
    開封第一講書人閱讀 31,486評論 1 262
  • 我被黑心中介騙來泰國打工慨绳, 沒想到剛下飛機(jī)就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人真竖。 一個月前我還...
    沈念sama閱讀 45,511評論 2 354
  • 正文 我出身青樓脐雪,卻偏偏與公主長得像,于是被迫代替她去往敵國和親恢共。 傳聞我的和親對象是個殘疾皇子战秋,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 42,802評論 2 345

推薦閱讀更多精彩內(nèi)容

  • Spring Cloud為開發(fā)人員提供了快速構(gòu)建分布式系統(tǒng)中一些常見模式的工具(例如配置管理,服務(wù)發(fā)現(xiàn)讨韭,斷路器脂信,智...
    卡卡羅2017閱讀 134,599評論 18 139
  • Kafka入門經(jīng)典教程-Kafka-about云開發(fā) http://www.aboutyun.com/threa...
    葡萄喃喃囈語閱讀 10,812評論 4 54
  • 本文轉(zhuǎn)載自http://dataunion.org/?p=9307 背景介紹Kafka簡介Kafka是一種分布式的...
    Bottle丶Fish閱讀 5,431評論 0 34
  • 背景介紹 Kafka簡介 Kafka是一種分布式的,基于發(fā)布/訂閱的消息系統(tǒng)透硝。主要設(shè)計目標(biāo)如下: 以時間復(fù)雜度為O...
    高廣超閱讀 12,820評論 8 167
  • 一狰闪、入門1、簡介Kafka is a distributed,partitioned,replicated com...
    HxLiang閱讀 3,342評論 0 9