HDFS 若有子目錄缸废,Spark 是不能遞歸讀取子目錄聪铺,需要在 spark-submit 中配置以下參數(shù):
-- conf spark.hadoop.mapreduce.input.fileinputformat.input.dir.recursive=true\
-- conf spark.hive.mapred.supports.subdirectories=true```
HDFS 若有子目錄缸废,Spark 是不能遞歸讀取子目錄聪铺,需要在 spark-submit 中配置以下參數(shù):
-- conf spark.hadoop.mapreduce.input.fileinputformat.input.dir.recursive=true\
-- conf spark.hive.mapred.supports.subdirectories=true```