68、Spark SQL之Parquet數(shù)據(jù)源之合并元數(shù)據(jù)

合并元數(shù)據(jù)

如同ProtocolBuffer狱从,Avro膨蛮,Thrift一樣,Parquet也是支持元數(shù)據(jù)合并的季研。用戶可以在一開始就定義一個簡單的元數(shù)據(jù)敞葛,然后隨著業(yè)務(wù)需要,逐漸往元數(shù)據(jù)中添加更多的列与涡。在這種情況下制肮,用戶可能會創(chuàng)建多個Parquet文件,有著多個不同的但是卻互相兼容的元數(shù)據(jù)递沪。Parquet數(shù)據(jù)源支持自動推斷出這種情況,并且進(jìn)行多個Parquet文件的元數(shù)據(jù)的合并综液。

因為元數(shù)據(jù)合并是一種相對耗時的操作款慨,而且在大多數(shù)情況下不是一種必要的特性,從Spark 1.5.0版本開始谬莹,默認(rèn)是關(guān)閉Parquet文件的自動合并元數(shù)據(jù)的特性的檩奠。可以通過以下兩種方式開啟Parquet數(shù)據(jù)源的自動合并元數(shù)據(jù)的特性:
1附帽、讀取Parquet文件時埠戳,將數(shù)據(jù)源的選項,mergeSchema蕉扮,設(shè)置為true
2整胃、使用SQLContext.setConf()方法,將spark.sql.parquet.mergeSchema參數(shù)設(shè)置為true

案例:合并學(xué)生的基本信息喳钟,和成績信息的元數(shù)據(jù)
Java版本

public class ParquetMergeSchema {
    public static void main(String[] args) {
        SparkConf conf = new SparkConf().setAppName("ParquetMergeSchemaJava").setMaster("local");
        JavaSparkContext sparkContext = new JavaSparkContext(conf);
        SQLContext sqlContext = new SQLContext(sparkContext);

        // 創(chuàng)建一個DataFrame屁使,作為學(xué)生的基本信息在岂,并寫入一個parquet文件中
        List<String> studentWithNameAndAge = new ArrayList<String>();
        studentWithNameAndAge.add("zhaojun,18");
        studentWithNameAndAge.add("fengxiangbin,17");
        JavaRDD<String> studentWithNameAndAgeRDD = sparkContext.parallelize(studentWithNameAndAge, 2);
        JavaRDD<Row> studentWithNameAndAgeRowRDD = studentWithNameAndAgeRDD.map(new Function<String, Row>() {
            @Override
            public Row call(String v1) throws Exception {
                return RowFactory.create(v1.split(",")[0], Integer.parseInt(v1.split(",")[1]));
            }
        });
        List<StructField> fieldList = new ArrayList<StructField>();
        fieldList.add(DataTypes.createStructField("name", DataTypes.StringType, true));
        fieldList.add(DataTypes.createStructField("age", DataTypes.IntegerType, true));
        StructType structType = DataTypes.createStructType(fieldList);

        DataFrame studentWithNameAndAgeDF = sqlContext.createDataFrame(studentWithNameAndAgeRowRDD, structType);
        studentWithNameAndAgeDF.write().format("parquet").mode(SaveMode.Append).save("E:\\testdata\\sparksql\\student");

        // 創(chuàng)建第二個DataFrame,作為學(xué)生的成績信息蛮寂,并寫入一個parquet文件中
        List<String> studentWithNameAndGrade = new ArrayList<String>();
        studentWithNameAndGrade.add("zhaoj,B");
        studentWithNameAndGrade.add("fengxiang,A");
        JavaRDD<String> studentWithNameAndGradeRDD = sparkContext.parallelize(studentWithNameAndGrade, 2);
        JavaRDD<Row> studentWithNameAndGradeRowRDD = studentWithNameAndGradeRDD.map(new Function<String, Row>() {
            @Override
            public Row call(String v1) throws Exception {
                return RowFactory.create(v1.split(",")[0], v1.split(",")[1]);
            }
        });
        fieldList = new ArrayList<StructField>();
        fieldList.add(DataTypes.createStructField("name", DataTypes.StringType, true));
        fieldList.add(DataTypes.createStructField("grade", DataTypes.StringType, true));
        structType = DataTypes.createStructType(fieldList);

        DataFrame studentWithNameAndGradeDF = sqlContext.createDataFrame(studentWithNameAndGradeRowRDD, structType);
        studentWithNameAndGradeDF.write().format("parquet").mode(SaveMode.Append).save("E:\\testdata\\sparksql\\student");


        // 首先蔽午,第一個DataFrame和第二個DataFrame的元數(shù)據(jù)肯定是不一樣的吧
        // 一個是包含了name和age兩個列,一個是包含了name和grade兩個列
        // 所以酬蹋, 這里期望的是及老,讀取出來的表數(shù)據(jù),自動合并兩個文件的元數(shù)據(jù)范抓,出現(xiàn)三個列骄恶,name、age尉咕、grade
        // 用mergeSchema的方式叠蝇,讀取students表中的數(shù)據(jù)年缎,進(jìn)行元數(shù)據(jù)的合并
        DataFrame df = sqlContext.read().option("mergeSchema", "true").parquet("E:\\testdata\\sparksql\\student");
        df.schema();
        df.show();
    }
}

Scala版本

object ParquetMergeSchema {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setMaster("local").setAppName("ParquetPartitionDiscoveryScala")
    val sparkContext = new SparkContext(conf)
    val sqlContext = new SQLContext(sparkContext)

    import sqlContext.implicits._
    // 創(chuàng)建一個DataFrame悔捶,作為學(xué)生的基本信息,并寫入一個parquet文件中
    val studentWithNameAndAge = Array(("Zhao Jun", 18),("Feng Xiangbin", 17))
    val studentWithNameAndAgeDF = sparkContext.parallelize(studentWithNameAndAge, 2).toDF("name", "age")
    studentWithNameAndAgeDF.write.format("parquet").mode(SaveMode.Append).save("E:\\testdata\\sparksql\\student_scala")

    // 創(chuàng)建第二個DataFrame单芜,作為學(xué)生的成績信息蜕该,并寫入一個parquet文件中
    val studentWithNameAndGrade = Array(("Zhao Jun", "B"),("Feng Xiangbin", "A"))
    val studentWithNameAndGradeDF = sparkContext.parallelize(studentWithNameAndGrade, 2).toDF("name", "grade")
    studentWithNameAndGradeDF.write.format("parquet").mode(SaveMode.Append).save("E:\\testdata\\sparksql\\student_scala")

    // 首先,第一個DataFrame和第二個DataFrame的元數(shù)據(jù)肯定是不一樣的吧
    // 一個是包含了name和age兩個列洲鸠,一個是包含了name和grade兩個列
    // 所以堂淡, 這里期望的是,讀取出來的表數(shù)據(jù)扒腕,自動合并兩個文件的元數(shù)據(jù)绢淀,出現(xiàn)三個列,name瘾腰、age皆的、grade
    val df = sqlContext.read.option("mergeSchema", "true").load("E:\\testdata\\sparksql\\student_scala")
    df.schema
    df.show()
  }
}
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市蹋盆,隨后出現(xiàn)的幾起案子费薄,更是在濱河造成了極大的恐慌,老刑警劉巖栖雾,帶你破解...
    沈念sama閱讀 219,539評論 6 508
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件楞抡,死亡現(xiàn)場離奇詭異,居然都是意外死亡析藕,警方通過查閱死者的電腦和手機召廷,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 93,594評論 3 396
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人柱恤,你說我怎么就攤上這事数初。” “怎么了梗顺?”我有些...
    開封第一講書人閱讀 165,871評論 0 356
  • 文/不壞的土叔 我叫張陵泡孩,是天一觀的道長。 經(jīng)常有香客問我寺谤,道長仑鸥,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,963評論 1 295
  • 正文 為了忘掉前任变屁,我火速辦了婚禮眼俊,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘粟关。我一直安慰自己疮胖,他們只是感情好,可當(dāng)我...
    茶點故事閱讀 67,984評論 6 393
  • 文/花漫 我一把揭開白布闷板。 她就那樣靜靜地躺著澎灸,像睡著了一般。 火紅的嫁衣襯著肌膚如雪遮晚。 梳的紋絲不亂的頭發(fā)上性昭,一...
    開封第一講書人閱讀 51,763評論 1 307
  • 那天,我揣著相機與錄音县遣,去河邊找鬼糜颠。 笑死,一個胖子當(dāng)著我的面吹牛萧求,可吹牛的內(nèi)容都是我干的其兴。 我是一名探鬼主播,決...
    沈念sama閱讀 40,468評論 3 420
  • 文/蒼蘭香墨 我猛地睜開眼夸政,長吁一口氣:“原來是場噩夢啊……” “哼忌警!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起秒梳,我...
    開封第一講書人閱讀 39,357評論 0 276
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎箕速,沒想到半個月后酪碘,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 45,850評論 1 317
  • 正文 獨居荒郊野嶺守林人離奇死亡盐茎,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 38,002評論 3 338
  • 正文 我和宋清朗相戀三年兴垦,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 40,144評論 1 351
  • 序言:一個原本活蹦亂跳的男人離奇死亡探越,死狀恐怖狡赐,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情钦幔,我是刑警寧澤枕屉,帶...
    沈念sama閱讀 35,823評論 5 346
  • 正文 年R本政府宣布,位于F島的核電站鲤氢,受9級特大地震影響搀擂,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜卷玉,卻給世界環(huán)境...
    茶點故事閱讀 41,483評論 3 331
  • 文/蒙蒙 一哨颂、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧相种,春花似錦威恼、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 32,026評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至食茎,卻和暖如春蒂破,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背别渔。 一陣腳步聲響...
    開封第一講書人閱讀 33,150評論 1 272
  • 我被黑心中介騙來泰國打工附迷, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人哎媚。 一個月前我還...
    沈念sama閱讀 48,415評論 3 373
  • 正文 我出身青樓喇伯,卻偏偏與公主長得像,于是被迫代替她去往敵國和親拨与。 傳聞我的和親對象是個殘疾皇子稻据,可洞房花燭夜當(dāng)晚...
    茶點故事閱讀 45,092評論 2 355

推薦閱讀更多精彩內(nèi)容