(3)sparkstreaming從kafka接入實時數(shù)據(jù)流最終實現(xiàn)數(shù)據(jù)可視化展示

(1)sparkstreaming從kafka接入實時數(shù)據(jù)流最終實現(xiàn)數(shù)據(jù)可視化展示,我們先看下整體方案架構(gòu):


image.png

(2)方案說明:
1)我們通過kafka與各個業(yè)務系統(tǒng)的數(shù)據(jù)對接跨琳,將各系統(tǒng)中的數(shù)據(jù)實時接到kafka自点;
2)通過sparkstreaming接入kafka數(shù)據(jù)流,定義時間窗口和計算窗口大小脉让,業(yè)務計算邏輯處理桂敛;
3)將結(jié)果數(shù)據(jù)寫入到mysql功炮;
4)通過可視化平臺接入mysql數(shù)據(jù)庫,這里使用的是NBI大數(shù)據(jù)可視化構(gòu)建平臺术唬;
5)在平臺上通過拖拽式構(gòu)建各種數(shù)據(jù)應用薪伏,數(shù)據(jù)展示;
(3)代碼演示:
定義一個kafka生產(chǎn)者粗仓,模擬數(shù)據(jù)源

package com.producers;

import com.alibaba.fastjson.JSONObject;
import com.pojo.WaterSensor;
import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.clients.producer.RecordMetadata;

import java.util.Properties;
import java.util.Random;

/**
 * Created by lj on 2022-07-18.
 */
public class Kafaka_Producer {
    public final static String bootstrapServers = "127.0.0.1:9092";

    public static void main(String[] args) {
        Properties props = new Properties();
        //設置Kafka服務器地址
        props.put("bootstrap.servers", bootstrapServers);
        //設置數(shù)據(jù)key的序列化處理類
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        //設置數(shù)據(jù)value的序列化處理類
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        KafkaProducer<String, String> producer = new KafkaProducer<>(props);

        try {
            int i = 0;
            Random r=new Random();  
            String[] lang = {"flink","spark","hadoop","hive","hbase","impala","presto","superset","nbi"};

            while(true) {
                Thread.sleep(2000);
                WaterSensor waterSensor = new WaterSensor(lang[r.nextInt(lang.length)]+"_kafka",i,i);
                i++;

                String msg = JSONObject.toJSONString(waterSensor);
                System.out.println(msg);
                RecordMetadata recordMetadata = producer.send(new ProducerRecord<>("kafka_data_waterSensor", null, null,  msg)).get();
//                System.out.println("recordMetadata: {"+ recordMetadata +"}");
            }

        } catch (Exception e) {
            System.out.println(e.getMessage());
        }
    }
}

根據(jù)業(yè)務需要嫁怀,定義各種消息對象

package com.pojo;

import java.io.Serializable;
import java.util.Date;

/**
 * Created by lj on 2022-07-13.
 */
public class WaterSensor implements Serializable {
    public String id;
    public long ts;
    public int vc;

    public WaterSensor(){

    }

    public WaterSensor(String id,long ts,int vc){
        this.id = id;
        this.ts = ts;
        this.vc = vc;
    }

    public int getVc() {
        return vc;
    }

    public void setVc(int vc) {
        this.vc = vc;
    }

    public String getId() {
        return id;
    }

    public void setId(String id) {
        this.id = id;
    }

    public long getTs() {
        return ts;
    }

    public void setTs(long ts) {
        this.ts = ts;
    }
}

sparkstreaming數(shù)據(jù)流計算

package com.examples;

import com.alibaba.fastjson.JSONObject;
import com.pojo.WaterSensor;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.apache.kafka.common.TopicPartition;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.function.Function;
import org.apache.spark.api.java.function.VoidFunction2;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;
import org.apache.spark.streaming.Durations;
import org.apache.spark.streaming.Time;
import org.apache.spark.streaming.api.java.JavaDStream;
import org.apache.spark.streaming.api.java.JavaInputDStream;
import org.apache.spark.streaming.api.java.JavaReceiverInputDStream;
import org.apache.spark.streaming.api.java.JavaStreamingContext;
import org.apache.spark.streaming.kafka010.ConsumerStrategies;
import org.apache.spark.streaming.kafka010.KafkaUtils;
import org.apache.spark.streaming.kafka010.LocationStrategies;

import java.util.*;

/**
 * Created by lj on 2022-07-18.
 */
public class SparkSql_Kafka {
    private static String appName = "spark.streaming.demo";
    private static String master = "local[*]";
    private static String topics = "kafka_data_waterSensor";
    private static String brokers = "127.0.0.1:9092";

    public static void main(String[] args) {
        //初始化sparkConf
        SparkConf sparkConf = new SparkConf().setMaster(master).setAppName(appName);

        //獲得JavaStreamingContext
        JavaStreamingContext ssc = new JavaStreamingContext(sparkConf, Durations.minutes(3));

        /**
         * 設置日志的級別: 避免日志重復
         */
        ssc.sparkContext().setLogLevel("ERROR");

        Collection<String> topicsSet = new HashSet<>(Arrays.asList(topics.split(",")));
        //kafka相關(guān)參數(shù),必要借浊!缺了會報錯
        Map<String, Object> kafkaParams = new HashMap<>();
        kafkaParams.put("metadata.broker.list", brokers) ;
        kafkaParams.put("bootstrap.servers", brokers);
        kafkaParams.put("group.id", "group1");
        kafkaParams.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        kafkaParams.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        kafkaParams.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
        
        //通過KafkaUtils.createDirectStream(...)獲得kafka數(shù)據(jù)塘淑,kafka相關(guān)參數(shù)由kafkaParams指定
        JavaInputDStream<ConsumerRecord<Object,Object>> lines = KafkaUtils.createDirectStream(
                ssc,
                LocationStrategies.PreferConsistent(),
                ConsumerStrategies.Subscribe(topicsSet, kafkaParams)
        );

        JavaDStream<WaterSensor> mapDStream = lines.map(new Function<ConsumerRecord<Object, Object>, WaterSensor>() {
            @Override
            public WaterSensor call(ConsumerRecord<Object, Object> s) throws Exception {
                WaterSensor waterSensor = JSONObject.parseObject(s.value().toString(),WaterSensor.class);
                return waterSensor;
            }
        }).window(Durations.minutes(9), Durations.minutes(6));      //指定窗口大小 和 滑動頻率 必須是批處理時間的整數(shù)倍;

        mapDStream.foreachRDD(new VoidFunction2<JavaRDD<WaterSensor>, Time>() {
            @Override
            public void call(JavaRDD<WaterSensor> waterSensorJavaRDD, Time time) throws Exception {
                SparkSession spark = JavaSparkSessionSingleton.getInstance(waterSensorJavaRDD.context().getConf());

                Dataset<Row> dataFrame = spark.createDataFrame(waterSensorJavaRDD, WaterSensor.class);
                // 創(chuàng)建臨時表
                dataFrame.createOrReplaceTempView("log");
                Dataset<Row> result = spark.sql("select * from log");
                System.out.println("========= " + time + "=========");
                //輸出前20條數(shù)據(jù)
                result.show();
                
                //數(shù)據(jù)寫入mysql
                writeDataToMysql(result);
            }
        });

        //開始作業(yè)
        ssc.start();
        try {
            ssc.awaitTermination();
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            ssc.close();
        }
    }
}

NBI大數(shù)據(jù)可視化構(gòu)建平臺對接mysql,構(gòu)建數(shù)據(jù)應用:


image.png

image.png

image.png

NBI可視化

?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末蚂斤,一起剝皮案震驚了整個濱河市存捺,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌曙蒸,老刑警劉巖召噩,帶你破解...
    沈念sama閱讀 207,113評論 6 481
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異逸爵,居然都是意外死亡具滴,警方通過查閱死者的電腦和手機,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,644評論 2 381
  • 文/潘曉璐 我一進店門师倔,熙熙樓的掌柜王于貴愁眉苦臉地迎上來构韵,“玉大人,你說我怎么就攤上這事趋艘∑;郑” “怎么了?”我有些...
    開封第一講書人閱讀 153,340評論 0 344
  • 文/不壞的土叔 我叫張陵瓷胧,是天一觀的道長显拳。 經(jīng)常有香客問我,道長搓萧,這世上最難降的妖魔是什么杂数? 我笑而不...
    開封第一講書人閱讀 55,449評論 1 279
  • 正文 為了忘掉前任,我火速辦了婚禮瘸洛,結(jié)果婚禮上揍移,老公的妹妹穿的比我還像新娘。我一直安慰自己反肋,他們只是感情好那伐,可當我...
    茶點故事閱讀 64,445評論 5 374
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般罕邀。 火紅的嫁衣襯著肌膚如雪畅形。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,166評論 1 284
  • 那天诉探,我揣著相機與錄音日熬,去河邊找鬼。 笑死阵具,一個胖子當著我的面吹牛碍遍,可吹牛的內(nèi)容都是我干的定铜。 我是一名探鬼主播阳液,決...
    沈念sama閱讀 38,442評論 3 401
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼揣炕!你這毒婦竟也來了帘皿?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 37,105評論 0 261
  • 序言:老撾萬榮一對情侶失蹤畸陡,失蹤者是張志新(化名)和其女友劉穎鹰溜,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體丁恭,經(jīng)...
    沈念sama閱讀 43,601評論 1 300
  • 正文 獨居荒郊野嶺守林人離奇死亡曹动,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,066評論 2 325
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了牲览。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片墓陈。...
    茶點故事閱讀 38,161評論 1 334
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖第献,靈堂內(nèi)的尸體忽然破棺而出贡必,到底是詐尸還是另有隱情,我是刑警寧澤庸毫,帶...
    沈念sama閱讀 33,792評論 4 323
  • 正文 年R本政府宣布仔拟,位于F島的核電站,受9級特大地震影響飒赃,放射性物質(zhì)發(fā)生泄漏利花。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 39,351評論 3 307
  • 文/蒙蒙 一载佳、第九天 我趴在偏房一處隱蔽的房頂上張望晋被。 院中可真熱鬧,春花似錦刚盈、人聲如沸羡洛。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,352評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽欲侮。三九已至崭闲,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間威蕉,已是汗流浹背刁俭。 一陣腳步聲響...
    開封第一講書人閱讀 31,584評論 1 261
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留韧涨,地道東北人牍戚。 一個月前我還...
    沈念sama閱讀 45,618評論 2 355
  • 正文 我出身青樓,卻偏偏與公主長得像虑粥,于是被迫代替她去往敵國和親如孝。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 42,916評論 2 344

推薦閱讀更多精彩內(nèi)容