Hive on Spark配置

1. Hive引擎簡介

Hive引擎包括:默認(rèn)MR星持、tez碳想、spark
Hive on Spark:Hive既作為存儲元數(shù)據(jù)又負(fù)責(zé)SQL的解析優(yōu)化,語法是HQL語法川陆,執(zhí)行引擎變成了Spark剂习,Spark負(fù)責(zé)采用RDD執(zhí)行。
Spark on Hive : Hive只作為存儲元數(shù)據(jù)书劝,Spark負(fù)責(zé)SQL解析優(yōu)化进倍,語法是Spark SQL語法,Spark負(fù)責(zé)采用RDD執(zhí)行购对。

2. Hive on Spark配置

1)兼容性說明

注意:官網(wǎng)下載的Hive3.1.2和Spark3.0.0默認(rèn)是不兼容的猾昆。因?yàn)镠ive3.1.2支持的Spark版本是2.4.5,所以需要我們重新編譯Hive3.1.2版本骡苞。

編譯步驟:官網(wǎng)下載Hive3.1.2源碼垂蜗,修改pom文件中引用的Spark版本為3.0.0楷扬,如果編譯通過,直接打包獲取jar包贴见。如果報(bào)錯(cuò)烘苹,就根據(jù)提示,修改相關(guān)方法片部,直到不報(bào)錯(cuò)镣衡,打包獲取jar包。

2)在Hive所在節(jié)點(diǎn)部署Spark

如果之前已經(jīng)部署了Spark档悠,則該步驟可以跳過廊鸥,但要檢查SPARK_HOME的環(huán)境變量配置是否正確。

(1)Spark官網(wǎng)下載jar包地址:http://spark.apache.org/downloads.html

(2)上傳并解壓解壓spark-3.0.0-bin-hadoop3.2.tgz

[root@bigdata101 src]# tar -zxvf spark-3.0.0-bin-hadoop3.2.tgz 

(3)配置SPARK_HOME環(huán)境變量

[root@bigdata101 src]# vim /root/.bash_profile 
添加如下內(nèi)容
# SPARK_HOME
export SPARK_HOME=/usr/local/src/spark-3.0.0-bin-hadoop3.2
export PATH=$PATH:$SPARK_HOME/bin 
source 使其生效
[root@bigdata101 spark-3.0.0-bin-hadoop3.2]# source /root/.bash_profile

3)在hive中創(chuàng)建spark配置文件并賦予權(quán)限

[root@bigdata101 spark-3.0.0-bin-hadoop3.2]# cd /usr/local/src/apache-hive-3.1.0-bin/conf/
[root@bigdata101 conf]# vim spark-defaults.conf 
添加如下內(nèi)容(在執(zhí)行任務(wù)時(shí)辖所,會根據(jù)如下參數(shù)執(zhí)行)
spark.master                               yarn
spark.eventLog.enabled                   true
spark.eventLog.dir                        hdfs://bigdata101:9000/spark-history
spark.executor.memory                    1g
spark.driver.memory                    1g

[root@bigdata101 conf]# chmod 777 spark-defaults.conf

在HDFS創(chuàng)建如下路徑惰说,用于存儲歷史日志

[root@bigdata101 apache-hive-3.1.0-bin]# hadoop fs -mkdir /spark-history

4)向HDFS上傳Spark純凈版jar包
說明1:由于Spark3.0.0非純凈版默認(rèn)支持的是hive2.3.7版本,直接使用會和安裝的Hive3.1.2出現(xiàn)兼容性問題缘回。所以采用Spark純凈版jar包吆视,不包含hadoop和hive相關(guān)依賴,避免沖突酥宴。
說明2:Hive任務(wù)最終由Spark來執(zhí)行啦吧,Spark任務(wù)資源分配由Yarn來調(diào)度,該任務(wù)有可能被分配到集群的任何一個(gè)節(jié)點(diǎn)幅虑。所以需要將Spark的依賴上傳到HDFS集群路徑丰滑,這樣集群中任何一個(gè)節(jié)點(diǎn)都能獲取到。
(1)上傳并解壓spark-3.0.0-bin-without-hadoop.tgz

[root@bigdata101 src]# tar -zxvf spark-3.0.0-bin-without-hadoop.tgz

(2)上傳Spark純凈版jar包到HDFS

[root@bigdata101 src]# hadoop fs -mkdir /spark-jars
[root@bigdata101 src]# hadoop fs -put spark-3.0.0-bin-without-hadoop/jars/* /spark-jars 

5)修改hive-site.xml文件

[root@bigdata101 src]# vim apache-hive-3.1.0-bin/conf/hive-site.xml

添加如下內(nèi)容

<!--Spark依賴位置(注意:端口號9000必須和namenode的端口號一致)-->
<property>
    <name>spark.yarn.jars</name>
    <value>hdfs://bigdata101:9000/spark-jars/*</value>
</property>
  
<!--Hive執(zhí)行引擎-->
<property>
    <name>hive.execution.engine</name>
    <value>spark</value>
</property>

6)修改spark-env.sh文件

[root@bigdata101 conf]# pwd
/usr/local/src/spark-3.0.0-bin-hadoop3.2/conf
[root@bigdata101 conf]# mv spark-env.sh.template spark-env.sh
[root@bigdata101 conf]# vim spark-env.sh
然后在該文件中添加:
export SPARK_DIST_CLASSPATH=$(hadoop classpath)

3. Hive on Spark測試

(1)啟動hive客戶端

[root@bigdata101 spark-3.0.0-bin-hadoop3.2]# hive

(2)創(chuàng)建一張測試表

hive (default)> create table student(id int, name string);

(3)通過insert測試效果

hive (default)> insert into table student values(1,'abc');
填坑筆記1:spark客戶端連接失敗

報(bào)錯(cuò)詳細(xì)日志如下:



解決方法:在hive-site.xml中添加如下屬性增加連接客戶端時(shí)長

[root@bigdata101 ~]# cd /usr/local/src/apache-hive-3.1.2-bin
[root@bigdata101 apache-hive-3.1.2-bin]# vim conf/hive-site.xml 
<property>
    <name>hive.spark.client.connect.timeout</name>
    <value>90000ms</value>
</property>
填坑筆記2:執(zhí)行數(shù)倉插入數(shù)據(jù)語句報(bào)錯(cuò)

報(bào)錯(cuò)具體日志如下:



報(bào)錯(cuò)原因:
執(zhí)行hive語句倒庵,這個(gè)時(shí)候在hive的目錄下回產(chǎn)生很多staging_hive文件褒墨,而且是操作哪個(gè)表,就在哪個(gè)表中產(chǎn)生擎宝。hive也會產(chǎn)生staging_hive郁妈,但是hive產(chǎn)生后會被移除,而spark執(zhí)行引擎不會移除绍申,所以我們需要手動處理這種情況噩咪。
解決方法:在hive-site.xml中修改如下屬性

修改前:
<property>
    <name>hive.exec.stagingdir</name>
    <value>hive-staging</value>
</property>
修改后:
<property>
    <name>hive.exec.stagingdir</name>
    <value>/tmp/staging/hive-staging</value>
</property>

寫shell腳本,定時(shí)去/tmp/hive/staging/staging目錄下清除文件极阅,注意胃碾,清除文件一定要清除昨天的,今天產(chǎn)生的有可能正好在用筋搏,如果被移除了仆百,則會報(bào)錯(cuò)

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個(gè)濱河市奔脐,隨后出現(xiàn)的幾起案子俄周,更是在濱河造成了極大的恐慌吁讨,老刑警劉巖,帶你破解...
    沈念sama閱讀 206,968評論 6 482
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件峦朗,死亡現(xiàn)場離奇詭異建丧,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)波势,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 88,601評論 2 382
  • 文/潘曉璐 我一進(jìn)店門翎朱,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人尺铣,你說我怎么就攤上這事闭翩。” “怎么了迄埃?”我有些...
    開封第一講書人閱讀 153,220評論 0 344
  • 文/不壞的土叔 我叫張陵,是天一觀的道長兑障。 經(jīng)常有香客問我侄非,道長,這世上最難降的妖魔是什么流译? 我笑而不...
    開封第一講書人閱讀 55,416評論 1 279
  • 正文 為了忘掉前任逞怨,我火速辦了婚禮,結(jié)果婚禮上福澡,老公的妹妹穿的比我還像新娘叠赦。我一直安慰自己,他們只是感情好革砸,可當(dāng)我...
    茶點(diǎn)故事閱讀 64,425評論 5 374
  • 文/花漫 我一把揭開白布除秀。 她就那樣靜靜地躺著,像睡著了一般算利。 火紅的嫁衣襯著肌膚如雪册踩。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,144評論 1 285
  • 那天效拭,我揣著相機(jī)與錄音暂吉,去河邊找鬼。 笑死缎患,一個(gè)胖子當(dāng)著我的面吹牛慕的,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播挤渔,決...
    沈念sama閱讀 38,432評論 3 401
  • 文/蒼蘭香墨 我猛地睜開眼肮街,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了蚂蕴?” 一聲冷哼從身側(cè)響起低散,我...
    開封第一講書人閱讀 37,088評論 0 261
  • 序言:老撾萬榮一對情侶失蹤俯邓,失蹤者是張志新(化名)和其女友劉穎,沒想到半個(gè)月后熔号,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體稽鞭,經(jīng)...
    沈念sama閱讀 43,586評論 1 300
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,028評論 2 325
  • 正文 我和宋清朗相戀三年引镊,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了朦蕴。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 38,137評論 1 334
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡弟头,死狀恐怖吩抓,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情赴恨,我是刑警寧澤疹娶,帶...
    沈念sama閱讀 33,783評論 4 324
  • 正文 年R本政府宣布,位于F島的核電站伦连,受9級特大地震影響雨饺,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜惑淳,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 39,343評論 3 307
  • 文/蒙蒙 一额港、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧歧焦,春花似錦移斩、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,333評論 0 19
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至舰涌,卻和暖如春风罩,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背舵稠。 一陣腳步聲響...
    開封第一講書人閱讀 31,559評論 1 262
  • 我被黑心中介騙來泰國打工超升, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人哺徊。 一個(gè)月前我還...
    沈念sama閱讀 45,595評論 2 355
  • 正文 我出身青樓室琢,卻偏偏與公主長得像,于是被迫代替她去往敵國和親落追。 傳聞我的和親對象是個(gè)殘疾皇子盈滴,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 42,901評論 2 345

推薦閱讀更多精彩內(nèi)容