Kafka將EMQX的消息傳遞給消費(fèi)者處理(Windows平臺(tái))

1够滑、Docker安裝Kafka

打開(kāi)Cmd命令行

docker pull wurstmeister/zookeeper
docker pull wurstmeister/kafka

創(chuàng)建docker-compose.yml文件

version: '1'
services:
  zookeeper:
    image: wurstmeister/zookeeper
    ports:
      - "2181:2181"
  kafka:
    image: wurstmeister/kafka
    depends_on: [ zookeeper ]
    ports:
      - "9092:9092"
    environment:
      KAFKA_ADVERTISED_HOST_NAME: 本機(jī)IP
      KAFKA_CREATE_TOPICS: "test:1:1"
      KAFKA_ZOOKEEPER_CONNECT: zookeeper:2181
    volumes:
      - 本地路徑(如D:\)docker.sock:/var/run/docker.sock

在docker-compose.yml文件目錄進(jìn)行服務(wù)打包

docker-compose build

啟動(dòng)服務(wù)

docker-compose up -d

創(chuàng)建兩個(gè)Topic為后面的程序使用

kafka-topics.sh --zookeeper 本機(jī)IP:2181 --create --replication-factor 1 --partitions 3 --topic first  // 生產(chǎn)者使用 
kafka-topics.sh --zookeeper 本機(jī)IP:2181 --create --replication-factor 1 --partitions 3 --topic second // 消費(fèi)者使用 

2囊颅、用Java獲取Emq(見(jiàn)之前的文檔)的數(shù)據(jù)虎眨,并由生產(chǎn)者發(fā)出

pom.xml(同消費(fèi)者)

<dependencies>
    <!--mqtt-->
    <dependency>
        <groupId>org.eclipse.paho</groupId>
        <artifactId>org.eclipse.paho.client.mqttv3</artifactId>
        <version>1.2.5</version>
    </dependency>
     <!--kafka-->
    <dependency>
        <groupId>org.apache.kafka</groupId>
        <artifactId>kafka-clients</artifactId>
        <version>2.6.0</version>
    </dependency>
    <dependency>
        <groupId>org.apache.kafka</groupId>
        <artifactId>kafka-streams</artifactId>
        <version>2.6.0</version>
    </dependency>
    <!--日志-->
    <dependency>
        <groupId>log4j</groupId>
        <artifactId>log4j</artifactId>
        <version>1.2.17</version>
    </dependency>
    <dependency>
        <groupId>org.slf4j</groupId>
        <artifactId>slf4j-nop</artifactId>
        <version>1.7.22</version>
    </dependency>
</dependencies>

MqttKafkaProducer.java

package cc.hiver.producer;

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.Producer;
import org.apache.kafka.clients.producer.ProducerRecord;

import java.util.Properties;
import java.util.UUID;
import java.util.concurrent.ExecutionException;

/**
 * MQTT生產(chǎn)者
 */
public class MqttKafkaProducer {
    /**
     * 向Kafka傳入數(shù)據(jù)
     * @param msgData
     */
    public static void pushData(String msgData) {
        Properties props = new Properties();
        // 集群地址叮姑,多個(gè)服務(wù)器用","分隔
        props.put("bootstrap.servers", "本機(jī)IP:9092");
        // 重新發(fā)送消息次數(shù)砾脑,到達(dá)次數(shù)返回錯(cuò)誤
        props.put("retries", 0);
        // Producer會(huì)嘗試去把發(fā)往同一個(gè)Partition的多個(gè)Requests進(jìn)行合并幼驶,batch.size指明了一次Batch合并后Requests總大小的上限。如果這個(gè)值設(shè)置的太小韧衣,可能會(huì)導(dǎo)致所有的Request都不進(jìn)行Batch盅藻。
        props.put("batch.size", 163840);
        // Producer默認(rèn)會(huì)把兩次發(fā)送時(shí)間間隔內(nèi)收集到的所有Requests進(jìn)行一次聚合然后再發(fā)送,以此提高吞吐量畅铭,而linger.ms則更進(jìn)一步氏淑,這個(gè)參數(shù)為每次發(fā)送增加一些delay,以此來(lái)聚合更多的Message硕噩。
        props.put("linger.ms", 1);
        // 在Producer端用來(lái)存放尚未發(fā)送出去的Message的緩沖區(qū)大小
        props.put("buffer.memory", 33554432);
        // key假残、value的序列化,此處以字符串為例炉擅,使用kafka已有的序列化類(lèi)
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        // props.put("partitioner.class", "com.kafka.demo.Partitioner");//分區(qū)操作辉懒,此處未寫(xiě)
        props.put("acks", "1");
        props.put("request.timeout.ms", "60000");
        props.put("compression.type", "lz4");
        //創(chuàng)建生產(chǎn)者
        Producer<String, String> producer = new KafkaProducer<String, String>(props);
        //通過(guò)時(shí)間做輪循,均勻分布設(shè)置的partition坑资,提高效率耗帕。
        int partition = (int) (System.currentTimeMillis() % 3);
        //寫(xiě)入名為"test-partition-1"的topic
        ProducerRecord<String, String> producerRecord = new ProducerRecord<String, String>("first", partition, UUID.randomUUID().toString(), msgData);
        try {
            producer.send(producerRecord).get();
        } catch (InterruptedException e) {
            e.printStackTrace();
        } catch (ExecutionException e) {
            e.printStackTrace();
        }
        System.out.println("寫(xiě)入emqtopic到first:" + msgData);
    }
}

OnMessageCallback.java

package cc.hiver.producer;

import org.eclipse.paho.client.mqttv3.IMqttDeliveryToken;
import org.eclipse.paho.client.mqttv3.MqttCallback;
import org.eclipse.paho.client.mqttv3.MqttMessage;

/**
 * 消息回調(diào)函數(shù)
 */
public class OnMessageCallback implements MqttCallback {
    public void connectionLost(Throwable cause) {
        // 連接丟失后穆端,一般在這里面進(jìn)行重連
        System.out.println("連接斷開(kāi)袱贮,可以做重連");
    }

    public void messageArrived(String topic, MqttMessage message) throws Exception {
        // subscribe后得到的消息會(huì)執(zhí)行到這里面
        System.out.println("接收消息主題:" + topic);
        System.out.println("接收消息Qos:" + message.getQos());
        System.out.println("接收消息內(nèi)容:" + new String(message.getPayload()));

        //接收到的消息發(fā)送到Kafka
        MqttKafkaProducer.pushData(new String(message.getPayload()));
    }

    public void deliveryComplete(IMqttDeliveryToken token) {
        System.out.println("deliveryComplete---------" + token.isComplete());
    }
}

ProducerApp.java

package cc.hiver.producer;

import org.eclipse.paho.client.mqttv3.MqttClient;
import org.eclipse.paho.client.mqttv3.MqttConnectOptions;
import org.eclipse.paho.client.mqttv3.MqttException;
import org.eclipse.paho.client.mqttv3.persist.MemoryPersistence;

/**
 * 生產(chǎn)者App
 */
public class ProducerApp {
    /**
     * 主程序
     *
     * @param args
     */
    public static void main(String[] args) {
        // 訂閱的主題
        String subTopic = "testtopic/#";
        // Broker服務(wù)
        String broker = "tcp://本機(jī)IP:1883";
        // 客戶(hù)端名稱(chēng)
        String clientId = "mqtt_java_hiver";
        MemoryPersistence persistence = new MemoryPersistence();

        try {
            MqttClient client = new MqttClient(broker, clientId, persistence);
            // MQTT 連接選項(xiàng)
            MqttConnectOptions connOpts = new MqttConnectOptions();
            connOpts.setUserName("admin");    // 用戶(hù)名
            connOpts.setPassword("public".toCharArray());     // 密碼
            // 保留會(huì)話
            connOpts.setCleanSession(true);
            // 設(shè)置回調(diào)
            client.setCallback(new OnMessageCallback());
            // 建立連接
            System.out.println("Connecting to broker: " + broker);
            client.connect(connOpts);
            System.out.println("Connected");
            // 訂閱
            client.subscribe(subTopic);
        } catch (MqttException me) {
            // 異常捕捉
            System.out.println("reason " + me.getReasonCode());
            System.out.println("msg " + me.getMessage());
            System.out.println("loc " + me.getLocalizedMessage());
            System.out.println("cause " + me.getCause());
            System.out.println("excep " + me);
            me.printStackTrace();
        }
    }
}

3、消費(fèi)者

LogProcessor.java

package cc.hiver.consumer;

import org.apache.kafka.streams.processor.Processor;
import org.apache.kafka.streams.processor.ProcessorContext;

/**
 * 日志清理
 */
public class LogProcessor implements Processor<byte[], byte[]> {

    private ProcessorContext context;

    public void init(ProcessorContext context) {
        this.context = context;
    }

    public void process(byte[] key, byte[] value) {
        String input = new String(value);
        if(input.contains("hello")) {
            System.out.println("logProcessor:" + input.toString());
            context.forward("logProcessor".getBytes(), input.getBytes());
        } else {
            // 這里可以進(jìn)行數(shù)據(jù)清理
            // 輸出到下一個(gè)topic
            context.forward("logProcessor".getBytes(), input.getBytes());
        }
    }

    public void punctuate(long timestamp) {

    }

    public void close() {

    }
}

ConsumerApp.java

package cc.hiver.consumer;

import java.util.Properties;
import org.apache.kafka.streams.KafkaStreams;
import org.apache.kafka.streams.StreamsConfig;
import org.apache.kafka.streams.Topology;
import org.apache.kafka.streams.processor.Processor;
import org.apache.kafka.streams.processor.ProcessorSupplier;

public class ConsumerApp {
    public static void main(String[] args) {
        // 定義輸入的topic
        String from = "first";
        // 定義輸出的topic
        String to = "second";

        // 設(shè)置參數(shù)
        Properties settings = new Properties();
        settings.put(StreamsConfig.APPLICATION_ID_CONFIG, "logFilter");
        settings.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG, "本機(jī)IP:9092");

        StreamsConfig config = new StreamsConfig(settings);

        // 構(gòu)建拓?fù)?        Topology builder = new Topology();

        builder.addSource("SOURCE", from)
                .addProcessor("PROCESS", new ProcessorSupplier<byte[], byte[]>() {

                    @Override
                    public Processor<byte[], byte[]> get() {
                        // 具體分析處理
                        return new LogProcessor();
                    }
                }, "SOURCE")
                .addSink("SINK", to, "PROCESS");

        // 創(chuàng)建kafka stream
        KafkaStreams streams = new KafkaStreams(builder, config);
        streams.start();
    }
}

4体啰、測(cè)試數(shù)據(jù)

Emq X Broker消息模擬

接收消息并通過(guò)Kafka轉(zhuǎn)發(fā)至消費(fèi)者

消費(fèi)者接收消息進(jìn)行處理

附錄:kafka集群管理界面

docker run -itd --name=kafka-manager -p 9000:9000 -e ZK_HOSTS="本機(jī)IP:2181" sheepkiller/kafka-manager

訪問(wèn):http://本機(jī)IP:9000


管理后臺(tái)
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末攒巍,一起剝皮案震驚了整個(gè)濱河市,隨后出現(xiàn)的幾起案子荒勇,更是在濱河造成了極大的恐慌柒莉,老刑警劉巖,帶你破解...
    沈念sama閱讀 211,561評(píng)論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件沽翔,死亡現(xiàn)場(chǎng)離奇詭異兢孝,居然都是意外死亡窿凤,警方通過(guò)查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,218評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門(mén)跨蟹,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)雳殊,“玉大人,你說(shuō)我怎么就攤上這事窗轩『煌海” “怎么了?”我有些...
    開(kāi)封第一講書(shū)人閱讀 157,162評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵痢艺,是天一觀的道長(zhǎng)仓洼。 經(jīng)常有香客問(wèn)我,道長(zhǎng)堤舒,這世上最難降的妖魔是什么色建? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 56,470評(píng)論 1 283
  • 正文 為了忘掉前任,我火速辦了婚禮舌缤,結(jié)果婚禮上镀岛,老公的妹妹穿的比我還像新娘。我一直安慰自己友驮,他們只是感情好漂羊,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,550評(píng)論 6 385
  • 文/花漫 我一把揭開(kāi)白布。 她就那樣靜靜地躺著卸留,像睡著了一般走越。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上耻瑟,一...
    開(kāi)封第一講書(shū)人閱讀 49,806評(píng)論 1 290
  • 那天旨指,我揣著相機(jī)與錄音,去河邊找鬼喳整。 笑死谆构,一個(gè)胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的框都。 我是一名探鬼主播搬素,決...
    沈念sama閱讀 38,951評(píng)論 3 407
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼魏保!你這毒婦竟也來(lái)了熬尺?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 37,712評(píng)論 0 266
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤谓罗,失蹤者是張志新(化名)和其女友劉穎粱哼,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體檩咱,經(jīng)...
    沈念sama閱讀 44,166評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡揭措,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,510評(píng)論 2 327
  • 正文 我和宋清朗相戀三年胯舷,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片绊含。...
    茶點(diǎn)故事閱讀 38,643評(píng)論 1 340
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡需纳,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出艺挪,到底是詐尸還是另有隱情不翩,我是刑警寧澤,帶...
    沈念sama閱讀 34,306評(píng)論 4 330
  • 正文 年R本政府宣布麻裳,位于F島的核電站口蝠,受9級(jí)特大地震影響,放射性物質(zhì)發(fā)生泄漏津坑。R本人自食惡果不足惜妙蔗,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,930評(píng)論 3 313
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望疆瑰。 院中可真熱鬧眉反,春花似錦、人聲如沸穆役。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,745評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)耿币。三九已至梳杏,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間淹接,已是汗流浹背十性。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 31,983評(píng)論 1 266
  • 我被黑心中介騙來(lái)泰國(guó)打工, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留塑悼,地道東北人劲适。 一個(gè)月前我還...
    沈念sama閱讀 46,351評(píng)論 2 360
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像厢蒜,于是被迫代替她去往敵國(guó)和親霞势。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,509評(píng)論 2 348

推薦閱讀更多精彩內(nèi)容