import org.apache.log4j.{Level, Logger}
import org.apache.spark.{SparkConf, SparkContext}
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.SparkSession
object TestFileCopy {
def main(args: Array[String]): Unit = {
Logger.getLogger("org.apache.spark").setLevel(Level.WARN)
val conf: SparkConf = new SparkConf()
.setIfMissing("spark.master", "local[4]")
.setAppName("Test File Copy App")
val spark: SparkSession = SparkSession.builder.config(conf).getOrCreate()
//獲取 SparkSession 的 SparkContext
val sc: SparkContext = spark.sparkContext
// hdfsFileCopy1(sc)
hdfsFileCopy2(sc)
sc.stop()
}
def hdfsFileCopy1(sc: SparkContext){
// 在輸入數(shù)據(jù)之前先將hadoop config配置為cluster1集群
sc.hadoopConfiguration.addResource("cluster1/core-site.xml")
sc.hadoopConfiguration.addResource("cluster1/hdfs-site.xml")
val sourceDatePath = "hdfs://cluster1/tmp/"
val source: RDD[String] = sc.textFile(sourceDatePath + "aaa.txt")
source.foreach(println(_))
// 再將 hadoop config 設(shè)為cluster2集群
sc.hadoopConfiguration.addResource("cluster2/core-site.xml")
sc.hadoopConfiguration.addResource("cluster2/hdfs-site.xml")
val targetDatePath = "hdfs://cluster2/tmp/hdb/"
source.saveAsTextFile(targetDatePath)
}
def hdfsFileCopy2(sc: SparkContext){
// cluster1
sc.hadoopConfiguration.set("fs.defaultFS", "hdfs://cluster1");
sc.hadoopConfiguration.set("dfs.nameservices", "cluster1");
sc.hadoopConfiguration.set("dfs.ha.namenodes.cluster1", "namenode98,namenode143");
sc.hadoopConfiguration.set("dfs.namenode.rpc-address.cluster1.namenode98", "cdh-nn-01:8020");
sc.hadoopConfiguration.set("dfs.namenode.rpc-address.cluster1.namenode143", "cdh-nn-02:8020");
sc.hadoopConfiguration.set("dfs.client.failover.proxy.provider.cluster1", "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider");
val sourceDatePath = "hdfs://cluster1/tmp/"
val source: RDD[String] = sc.textFile(sourceDatePath + "aaa.txt")
source.foreach(println(_))
// cluster2
sc.hadoopConfiguration.set("fs.defaultFS", "hdfs://cluster2");
sc.hadoopConfiguration.set("dfs.nameservices", "cluster2");
sc.hadoopConfiguration.set("dfs.ha.namenodes.cluster2", "namenode424,namenode417");
sc.hadoopConfiguration.set("dfs.namenode.rpc-address.cluster2.namenode424", "node-nn-01:8020");
sc.hadoopConfiguration.set("dfs.namenode.rpc-address.cluster2.namenode417", "node-nn-02:8020");
sc.hadoopConfiguration.set("dfs.client.failover.proxy.provider.cluster2", "org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider");
val targetDatePath = "hdfs://cluster2/tmp/hdb/"
source.saveAsTextFile(targetDatePath)
}
}
使用 Spark 跨集群同步HDFS數(shù)據(jù)
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
- 文/潘曉璐 我一進(jìn)店門(mén)止后,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái)瞎惫,“玉大人,你說(shuō)我怎么就攤上這事译株」侠” “怎么了?”我有些...
- 文/不壞的土叔 我叫張陵歉糜,是天一觀的道長(zhǎng)乘寒。 經(jīng)常有香客問(wèn)我,道長(zhǎng)匪补,這世上最難降的妖魔是什么伞辛? 我笑而不...
- 正文 為了忘掉前任烂翰,我火速辦了婚禮,結(jié)果婚禮上蚤氏,老公的妹妹穿的比我還像新娘刽酱。我一直安慰自己,他們只是感情好瞧捌,可當(dāng)我...
- 文/花漫 我一把揭開(kāi)白布棵里。 她就那樣靜靜地躺著,像睡著了一般姐呐。 火紅的嫁衣襯著肌膚如雪殿怜。 梳的紋絲不亂的頭發(fā)上,一...
- 那天曙砂,我揣著相機(jī)與錄音头谜,去河邊找鬼。 笑死鸠澈,一個(gè)胖子當(dāng)著我的面吹牛柱告,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播笑陈,決...
- 文/蒼蘭香墨 我猛地睜開(kāi)眼际度,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼!你這毒婦竟也來(lái)了涵妥?” 一聲冷哼從身側(cè)響起乖菱,我...
- 序言:老撾萬(wàn)榮一對(duì)情侶失蹤,失蹤者是張志新(化名)和其女友劉穎蓬网,沒(méi)想到半個(gè)月后窒所,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體,經(jīng)...
- 正文 獨(dú)居荒郊野嶺守林人離奇死亡帆锋,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
- 正文 我和宋清朗相戀三年吵取,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片锯厢。...
- 正文 年R本政府宣布徙菠,位于F島的核電站,受9級(jí)特大地震影響郁岩,放射性物質(zhì)發(fā)生泄漏婿奔。R本人自食惡果不足惜缺狠,卻給世界環(huán)境...
- 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望萍摊。 院中可真熱鬧挤茄,春花似錦、人聲如沸冰木。這莊子的主人今日做“春日...
- 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)踊沸。三九已至歇终,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間逼龟,已是汗流浹背评凝。 一陣腳步聲響...
- 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像匀钧,于是被迫代替她去往敵國(guó)和親翎碑。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...