240 發(fā)簡信
IP屬地:上海
  • Flink實戰(zhàn)之入庫任務調(diào)優(yōu)

    背景 在調(diào)試flink寫hdfs和hive時素跺,任務總是報各種各樣的異常耗美,其中255問題最多徙融,異常信息如下: 這段異常是yarn報出來的捕犬,根本原因...

  • Flink實戰(zhàn)之寫Hive性能問題

    上一篇中寫了Kafka to Hive的樣例舍扰,在實際測試過程中坦敌,發(fā)現(xiàn)性能比較差侣诵。 問題1 我使用的是Flink1.11.1版本,這個版本有個性能...

  • Flink實戰(zhàn)之Kafka To Hive

    背景 傳統(tǒng)的入庫任務一般借助于MapReduce或者Spark來寫hive表狱窘,一般都是天級別最多小時級別的任務杜顺。隨著實時性要求越來越高,傳統(tǒng)的入...

  • Flink實戰(zhàn)之合并小文件

    背景 Flink的filesystem connector支持寫入hdfs蘸炸,同時支持基于Checkpoint的滾動策略躬络,每次做Checkpoin...

  • Flink實戰(zhàn)之FileSystem-parquet支持ZSTD壓縮

    前言 ZSTD壓縮算法是現(xiàn)在最流行壓縮算法了,有著高壓縮比和壓縮性能強的有點幻馁,已經(jīng)被各大框架所使用洗鸵。目前hadoop 3.1.0版本已經(jīng)支持ZS...

  • Flink實戰(zhàn)之Flink必須依賴Hadoop2.7+?

    背景 最近在用filesystem connector來寫hdfs仗嗦,底層是通過StreamFileSink實現(xiàn)的膘滨。在看官方文檔[https://...

  • Flink源碼閱讀之FileSystem Connector

    代碼在flink-table-runtime-blink模塊,用戶指南參考官網(wǎng)[https://ci.apache.org/projects/f...

  • Flink實戰(zhàn)之擴展JDBC Dialect

    前言 Flink jdbc connect已經(jīng)為依賴于jdbc進行操作的數(shù)據(jù)庫系統(tǒng)提供了非常完善的功能。對于擴展只需要擴展其Dialect即可稀拐。...

  • Flink實戰(zhàn)之Flink SQL connector支持并行度配置

    背景 目前flink sql是不支持source/sink并行度配置的火邓,flink sql中各算子并行度默認是根據(jù)source的partitio...

個人介紹
簡書文章不定期更新,很多沒有從CSDN搬過來,喜歡的可以去https://blog.csdn.net/weixin_41608066
亚洲A日韩AV无卡,小受高潮白浆痉挛av免费观看,成人AV无码久久久久不卡网站,国产AV日韩精品