Flink-SQL如何連接外部資源

Flink-SQL如何連接外部資源

最近項目中需要把FlinkSQL對標SparkSQL做一套可視化頁面躯畴,但網(wǎng)上針對Flink的相關博客很少肠缔,官網(wǎng)的例子給的也不太全膏秫。目前大多數(shù)人給的結論就是現(xiàn)在Flink Table/SQL的功能還不穩(wěn)定浴栽,都在等待阿里的Blink和Flink合并后在使用。這篇我想用現(xiàn)在最新發(fā)行版1.7.2給大家點參考demo方妖。

目前官網(wǎng)支持的Connectors

官網(wǎng)支持的連接器和對應依賴

**注意 :目前1.72版本的CSV只支持批處理不支持流處理,如果流處理的環(huán)境使用會報下面的錯誤罚攀。
Exception in thread "main"org.apache.flink.table.api.NoMatchingTableFactoryException: Could not find a suitable table factory for 'org.apache.flink.table.factories.DeserializationSchemaFactory' in
the classpath.

Reason: No context matches.
**

編程范式

tableEnvironment
  .connect(...)      //  需要傳入繼承ConnectorDescriptor的實現(xiàn)類 eg/ Kafka,FileSystem
  .withFormat(...)  // 需要傳入繼承FormatDescriptor的實現(xiàn)類 eg/ Json,Avor,Csv 
  .withSchema(...)  // 需要傳入new Schema() 這里邊的Schema是FIink注冊表的字段和類型
  .inAppendMode()  
  /** 支持三種格式
    inAppendMode(只支持動態(tài)表的insert過來的數(shù)據(jù))
    inRetractMode (支持動態(tài)刷新數(shù)據(jù)表 包括update 和 delete党觅,但性能會受影響)
    inUpsertMode (因為操作的是單條數(shù)據(jù)雌澄,所以性能高于inRetractMode)
**/
  .registerTableSource("MyTable") // 注冊的表名稱

Example1 Kafka連接器 JSON -> CSV

package mqz.connector;

import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.api.common.typeinfo.Types;
import org.apache.flink.core.fs.FileSystem;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.table.api.Table;
import org.apache.flink.table.api.TableEnvironment;
import org.apache.flink.table.api.java.StreamTableEnvironment;
import org.apache.flink.table.descriptors.Json;
import org.apache.flink.table.descriptors.Kafka;
import org.apache.flink.table.descriptors.Schema;
import org.apache.flink.table.sinks.CsvTableSink;
import org.apache.flink.types.Row;

/**
 * @author maqingze
 * @version v1.0
 * @date 2019/3/7 11:24
 */
public class KafkaConnectorFormatJSON2CSV {
    private final static String SOURCE_TOPIC = "source";
    private final static String SINK_TOPIC = "sink";
    private final static String ZOOKEEPER_CONNECT = "hadoop003:2181,hadoop004:2181";
    private final static String GROUP_ID = "group1";
    private final static String METADATA_BROKER_LIST = "hadoop003:9092,hadoop004:9092";

    public static void main(String[] args) throws Exception {

        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        StreamTableEnvironment tEnv = TableEnvironment.getTableEnvironment(env);
        tEnv.connect(
            new Kafka()
                .version("0.10")
                .topic(SOURCE_TOPIC)
                .startFromEarliest()
                .property("zookeeper.connect", ZOOKEEPER_CONNECT)
                .property("bootstrap.servers", METADATA_BROKER_LIST)
        )
            .withFormat(
            new Json()
                .schema(
                    org.apache.flink.table.api.Types.ROW(
                        new String[]{"id", "product", "amount"},
                        new TypeInformation[]{
                            org.apache.flink.table.api.Types.LONG()
                            , org.apache.flink.table.api.Types.STRING()
                            , org.apache.flink.table.api.Types.INT()
                        }))
                .failOnMissingField(true)   // optional: flag whether to fail if a field is missing or not, false by default
            )
            .withSchema(
                new Schema()
                    .field("id", Types.LONG)
                    .field("product", Types.STRING)
                    .field("amount", Types.INT)
            )
            .inAppendMode()
            .registerTableSource("sourceTable");

        Table result = tEnv.sqlQuery("select * from sourceTable ");

        DataStream<Row> rowDataStream = tEnv.toAppendStream(result, Row.class);

        rowDataStream.print();

        CsvTableSink sink = new CsvTableSink(
            "D:\\Aupload\\flink\\sink.csv",                  // 輸出路徑
            "|",                   // 字段分隔符
            1,                     // 寫入的文件個數(shù)
            FileSystem.WriteMode.OVERWRITE);  // 是否覆蓋原文件 還有NO_OVERWRITE模式

        tEnv.registerTableSink(
            "csvOutputTable",
            new String[]{"f0", "f1", "f2"},
            new TypeInformation[]{Types.LONG, Types.STRING, Types.INT},
            sink);

        result.insertInto("csvOutputTable");

        env.execute(" tesst kafka connector demo");

    }

}

Example2 Kafka連接器 JSON -> JSON

package mqz.connector;

import org.apache.flink.api.common.typeinfo.TypeInformation;
import org.apache.flink.api.common.typeinfo.Types;
import org.apache.flink.core.fs.FileSystem;
import org.apache.flink.streaming.api.datastream.DataStream;
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
import org.apache.flink.table.api.Table;
import org.apache.flink.table.api.TableEnvironment;
import org.apache.flink.table.api.java.StreamTableEnvironment;
import org.apache.flink.table.descriptors.Json;
import org.apache.flink.table.descriptors.Kafka;
import org.apache.flink.table.descriptors.Schema;
import org.apache.flink.table.sinks.CsvTableSink;
import org.apache.flink.types.Row;

/**
 * @author maqingze
 * @version v1.0
 * @date 2019/3/7 11:24
 */
public class KafkaConnectorFormatJSON2JSON {
    private final static String SOURCE_TOPIC = "source";
    private final static String SINK_TOPIC = "sink";
    private final static String ZOOKEEPER_CONNECT = "hadoop003:2181,hadoop004:2181";
    private final static String GROUP_ID = "group1";
    private final static String METADATA_BROKER_LIST = "hadoop003:9092,hadoop004:9092";

    public static void main(String[] args) throws Exception {
        StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
        StreamTableEnvironment tEnv = TableEnvironment.getTableEnvironment(env);
        tEnv.connect(
            new Kafka()
                .version("0.10")
                .topic(SOURCE_TOPIC)
                .startFromEarliest()
                .property("zookeeper.connect", ZOOKEEPER_CONNECT)
                .property("bootstrap.servers", METADATA_BROKER_LIST)
        )
            .withFormat(
                new Json()
                    .schema(
                        org.apache.flink.table.api.Types.ROW(
                            new String[]{"id", "product", "amount"},
                            new TypeInformation[]{
                                org.apache.flink.table.api.Types.LONG()
                                , org.apache.flink.table.api.Types.STRING()
                                , org.apache.flink.table.api.Types.INT()
                            }))
                    .failOnMissingField(true)   // optional: flag whether to fail if a field is missing or not, false by default
            )
            .withSchema(
                new Schema()
                    .field("id", Types.LONG)
                    .field("product", Types.STRING)
                    .field("amount", Types.INT)
            )
            .inAppendMode()
            .registerTableSource("sourceTable");

        tEnv.connect(
            new Kafka()
                .version("0.10")    // required: valid connector versions are
                //   "0.8", "0.9", "0.10", "0.11", and "universal"
                .topic(SINK_TOPIC)       // required: topic name from which the table is read
                // optional: connector specific properties
                .property("zookeeper.connect", ZOOKEEPER_CONNECT)
                .property("bootstrap.servers", METADATA_BROKER_LIST)
                .property("group.id", GROUP_ID)
                // optional: select a startup mode for Kafka offsets
                .startFromEarliest()
                .sinkPartitionerFixed()         // each Flink partition ends up in at-most one Kafka partition (default)
        ).withFormat(
            new Json()
                .schema(
                    org.apache.flink.table.api.Types.ROW(
                        new String[]{"yid", "yproduct", "yamount"},
                        new TypeInformation[]{
                            org.apache.flink.table.api.Types.LONG()
                            , org.apache.flink.table.api.Types.STRING()
                            , org.apache.flink.table.api.Types.INT()
                        }))
                .failOnMissingField(true)   // optional: flag whether to fail if a field is missing or not, false by default
        )
            .withSchema(
                new Schema()
                    .field("id", Types.LONG)
                    .field("product", Types.STRING)
                    .field("amount", Types.INT)
            )
            .inAppendMode()
            .registerTableSink("sinkTable");


        tEnv.sqlUpdate("insert into sinkTable(id,product,amount) select id,product,33 from sourceTable  ");

        env.execute(" tesst kafka connector demo");

    }

}


項目全代碼

GitHub

?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市杯瞻,隨后出現(xiàn)的幾起案子镐牺,更是在濱河造成了極大的恐慌,老刑警劉巖魁莉,帶你破解...
    沈念sama閱讀 212,718評論 6 492
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件睬涧,死亡現(xiàn)場離奇詭異,居然都是意外死亡沛厨,警方通過查閱死者的電腦和手機宙地,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,683評論 3 385
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來逆皮,“玉大人宅粥,你說我怎么就攤上這事〉缫ィ” “怎么了秽梅?”我有些...
    開封第一講書人閱讀 158,207評論 0 348
  • 文/不壞的土叔 我叫張陵,是天一觀的道長剿牺。 經(jīng)常有香客問我企垦,道長,這世上最難降的妖魔是什么晒来? 我笑而不...
    開封第一講書人閱讀 56,755評論 1 284
  • 正文 為了忘掉前任钞诡,我火速辦了婚禮,結果婚禮上湃崩,老公的妹妹穿的比我還像新娘荧降。我一直安慰自己,他們只是感情好攒读,可當我...
    茶點故事閱讀 65,862評論 6 386
  • 文/花漫 我一把揭開白布朵诫。 她就那樣靜靜地躺著,像睡著了一般薄扁。 火紅的嫁衣襯著肌膚如雪剪返。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 50,050評論 1 291
  • 那天邓梅,我揣著相機與錄音脱盲,去河邊找鬼。 笑死震放,一個胖子當著我的面吹牛宾毒,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 39,136評論 3 410
  • 文/蒼蘭香墨 我猛地睜開眼诈铛,長吁一口氣:“原來是場噩夢啊……” “哼乙各!你這毒婦竟也來了?” 一聲冷哼從身側響起幢竹,我...
    開封第一講書人閱讀 37,882評論 0 268
  • 序言:老撾萬榮一對情侶失蹤耳峦,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后焕毫,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體蹲坷,經(jīng)...
    沈念sama閱讀 44,330評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,651評論 2 327
  • 正文 我和宋清朗相戀三年邑飒,在試婚紗的時候發(fā)現(xiàn)自己被綠了循签。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 38,789評論 1 341
  • 序言:一個原本活蹦亂跳的男人離奇死亡疙咸,死狀恐怖县匠,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情撒轮,我是刑警寧澤芙代,帶...
    沈念sama閱讀 34,477評論 4 333
  • 正文 年R本政府宣布欧穴,位于F島的核電站改艇,受9級特大地震影響焊唬,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜顶瞳,卻給世界環(huán)境...
    茶點故事閱讀 40,135評論 3 317
  • 文/蒙蒙 一玖姑、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧慨菱,春花似錦客峭、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,864評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽等恐。三九已至洲劣,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間课蔬,已是汗流浹背囱稽。 一陣腳步聲響...
    開封第一講書人閱讀 32,099評論 1 267
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留二跋,地道東北人战惊。 一個月前我還...
    沈念sama閱讀 46,598評論 2 362
  • 正文 我出身青樓,卻偏偏與公主長得像扎即,于是被迫代替她去往敵國和親吞获。 傳聞我的和親對象是個殘疾皇子况凉,可洞房花燭夜當晚...
    茶點故事閱讀 43,697評論 2 351

推薦閱讀更多精彩內(nèi)容