spark集群安裝

一票从、安裝概述

本文將繼續(xù)配置我的虛擬機(jī)漫雕,此文章需要基于hadoop平臺(tái)安裝成功才可spark集群滨嘱,如需參考請(qǐng)點(diǎn)擊鏈接:http://www.reibang.com/p/1bbfbb3968b6,我的虛擬機(jī)的情況也在此篇文章說(shuō)明了浸间,jdk及hadoop是安裝spark集群的依賴(lài)環(huán)境太雨,此處不再贅述了。spark所選版本3.0.3魁蒜,而spark 3.0+是基于scala 2.12版本編譯的囊扳,所以還需要安裝scala2.12。

二兜看、軟件選擇

  1. spark版本的選擇锥咸,附spark官網(wǎng)的地址,http://spark.apache.org/downloads.html
    image.png
  2. scala版本的選擇细移,附scala官網(wǎng)的地址搏予,https://www.scala-lang.org/download/2.12.2.html
    image.png

三、scala環(huán)境的安裝弧轧,三臺(tái)機(jī)器都要執(zhí)行以下操作

  1. 首先上傳scala壓縮包上傳到hadoop用戶(hù)的根目錄
[hadoop@hadoop01 ~]# ll
total 633388
drwxrwxrwx. 11 hadoop hadoop       173 Nov 13 09:08 hadoop-2.10.1
-rw-r--r--.  1 hadoop hadoop 408587111 Nov 12 11:07 hadoop-2.10.1.tar.gz
-rw-r--r--.  1 hadoop hadoop  19596088 Nov 30 17:14 scala-2.12.2.tgz
[hadoop@hadoop01 ~]# 
  1. 非必要步驟雪侥,如后續(xù)上傳文件出現(xiàn)此權(quán)限問(wèn)題,也可使用此方法劣针。當(dāng)用戶(hù)權(quán)限不是hadoop時(shí)校镐,可使用chown命令修改用戶(hù)權(quán)限,此命令需要在root用戶(hù)下執(zhí)行
[hadoop@hadoop01 ~]$ exit
exit
You have new mail in /var/spool/mail/root
[root@hadoop01 ~]# cd /home/hadoop/
[root@hadoop01 hadoop]# ll
total 633388
drwxrwxrwx. 11 hadoop hadoop       173 Nov 13 09:08 hadoop-2.10.1
-rw-r--r--.  1 hadoop hadoop 408587111 Nov 12 11:07 hadoop-2.10.1.tar.gz
-rw-r--r--.  1 hadoop hadoop  19596088 Nov 30 17:14 scala-2.12.2.tgz
[root@hadoop01 hadoop]$ chown -R hadoop:hadoop scala-2.12.2.tgz 
[root@hadoop01 hadoop]# su hadoop
  1. 解壓scala文件
[hadoop@hadoop01 ~]$ tar -zxvf scala-2.12.2.tgz
[hadoop@hadoop01 ~]$ cd scala-2.12.2
[hadoop@hadoop01 scala-2.12.2]$ pwd
/home/hadoop/scala-2.12.2 
  1. 修改scala的環(huán)境變量
[hadoop@hadoop01 scala-2.12.2]$ vim ~/.bashrc

export HADOOP_HOME=/home/hadoop/hadoop-2.10.1
export SCALA_HOME=/home/hadoop/scala-2.12.2
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SCALA_HOME/bin
  1. 使環(huán)境變量生效
[hadoop@hadoop01 scala-2.12.2]# source ~/.bashrc
  1. 驗(yàn)證scala是否安裝成功
[root@hadoop01 scala-2.12.2]# scala -version
Scala code runner version 2.12.2 -- Copyright 2002-2017, LAMP/EPFL and Lightbend, Inc.

三捺典、spark環(huán)境的安裝

  1. 首先上傳spark壓縮包上傳到hadoop01虛擬機(jī)hadoop用戶(hù)的根目錄
[hadoop@hadoop01 ~]$ ll
total 633388
drwxrwxrwx. 11 hadoop hadoop       173 Nov 13 09:08 hadoop-2.10.1
-rw-r--r--.  1 hadoop hadoop 408587111 Nov 12 11:07 hadoop-2.10.1.tar.gz
drwxrwxr-x.  6 hadoop hadoop        50 Apr 13  2017 scala-2.12.2
-rw-r--r--.  1 hadoop hadoop  19596088 Nov 30 17:14 scala-2.12.2.tgz
-rw-r--r--.  1 hadoop hadoop 220400553 Nov 30 17:14 spark-3.0.3-bin-hadoop2.7.tgz
You have new mail in /var/spool/mail/root
  1. 解壓spark文件
[hadoop@hadoop01 ~]$ tar -zxvf spark-3.0.3-bin-hadoop2.7.tgz
[hadoop@hadoop01 ~]$ cd spark-3.0.3-bin-hadoop2.7
[hadoop@hadoop01 spark-3.0.3-bin-hadoop2.7]$ pwd
/home/hadoop/spark-3.0.3-bin-hadoop2.7 
  1. 配置slaves文件
[hadoop@hadoop01 spark-3.0.3-bin-hadoop2.7]$ cd conf
[hadoop@hadoop01 conf]$ mv slaves.template slaves
[hadoop@hadoop01 conf]$ vim slaves 

#將localhost修改成一下三個(gè)節(jié)點(diǎn)的名稱(chēng)
hadoop01
hadoop02
hadoop03
  1. 配置spark-env.sh文件
[hadoop@hadoop01 conf]$ mv spark-env.sh.template spark-env.sh
[hadoop@hadoop01 conf]$ vim spark-env.sh

export MASTER=spark://172.16.100.26:7077
export SPARK_MASTER_IP=172.16.100.26
  1. 配置spark的環(huán)境變量
[hadoop@hadoop01 conf]$ vim ~/.bashrc

export JAVA_HOME=/usr/local/java
export HADOOP_HOME=/home/hadoop/hadoop-2.10.1
export SCALA_HOME=/home/hadoop/scala-2.12.2
export SPARK_HOME=/home/hadoop/spark-3.0.3-bin-hadoop2.7
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$SCALA_HOME/bin:$SPARK_HOME/bin
  1. 使環(huán)境變量生效
[hadoop@hadoop01 conf]$ source ~/.bashrc 
  1. 將hadoop01節(jié)點(diǎn)的spark軟件拷貝到hadoop02鸟廓、hadoop03節(jié)點(diǎn)的根目錄
[hadoop@hadoop01 ~]$ scp -r spark-3.0.3-bin-hadoop2.7 hadoop@hadoop02:~
[hadoop@hadoop01 ~]$ scp -r spark-3.0.3-bin-hadoop2.7 hadoop@hadoop03:~
  1. 修改hadoop02、hadoop03節(jié)點(diǎn)的環(huán)境變量襟己,操作命令按照5引谜、6的方法
  2. 啟動(dòng)spark集群
[hadoop@hadoop01 sbin]$ ./stop-all.sh 
hadoop02: stopping org.apache.spark.deploy.worker.Worker
hadoop03: stopping org.apache.spark.deploy.worker.Worker
hadoop01: no org.apache.spark.deploy.worker.Worker to stop
stopping org.apache.spark.deploy.master.Master

[hadoop@hadoop01 sbin]$ ./start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /home/hadoop/spark-3.0.3-bin-hadoop2.7/logs/spark-hadoop-org.apache.spark.deploy.master.Master-1-hadoop01.out
hadoop01: starting org.apache.spark.deploy.worker.Worker, logging to /home/hadoop/spark-3.0.3-bin-hadoop2.7/logs/spark-hadoop-org.apache.spark.deploy.worker.Worker-1-hadoop01.out
hadoop03: starting org.apache.spark.deploy.worker.Worker, logging to /home/hadoop/spark-3.0.3-bin-hadoop2.7/logs/spark-hadoop-org.apache.spark.deploy.worker.Worker-1-hadoop03.out
hadoop02: starting org.apache.spark.deploy.worker.Worker, logging to /home/hadoop/spark-3.0.3-bin-hadoop2.7/logs/spark-hadoop-org.apache.spark.deploy.worker.Worker-1-hadoop02.out
  1. 在網(wǎng)頁(yè)上通過(guò)ui界面驗(yàn)證啟動(dòng)結(jié)果,http://172.16.100.26:8080


    image.png

四擎浴、我遇到的問(wèn)題

  1. 在安裝jdk時(shí)员咽,將環(huán)境變量配置在/etc/profile中,想要把jdk當(dāng)成全局變量去使用贮预,所以我在3.5步驟去配置當(dāng)前用戶(hù)的環(huán)境變量時(shí)贝室,沒(méi)有設(shè)置JAVA_HOME,于是啟動(dòng)報(bào)了如下錯(cuò)誤:
[hadoop@hadoop01 sbin]$ ./start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /home/hadoop/spark-3.0.3-bin-hadoop2.7/logs/spark-hadoop-org.apache.spark.deploy.master.Master-1-hadoop01.out
hadoop03: starting org.apache.spark.deploy.worker.Worker, logging to /home/hadoop/spark-3.0.3-bin-hadoop2.7/logs/spark-hadoop-org.apache.spark.deploy.worker.Worker-1-hadoop03.out
hadoop02: starting org.apache.spark.deploy.worker.Worker, logging to /home/hadoop/spark-3.0.3-bin-hadoop2.7/logs/spark-hadoop-org.apache.spark.deploy.worker.Worker-1-hadoop02.out
hadoop01: starting org.apache.spark.deploy.worker.Worker, logging to /home/hadoop/spark-3.0.3-bin-hadoop2.7/logs/spark-hadoop-org.apache.spark.deploy.worker.Worker-1-hadoop01.out
hadoop01: failed to launch: nice -n 0 /home/hadoop/spark-3.0.3-bin-hadoop2.7/bin/spark-class org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://hadoop01:7077
hadoop01:   JAVA_HOME is not set
hadoop01: full log in /home/hadoop/spark-3.0.3-bin-hadoop2.7/logs/spark-hadoop-org.apache.spark.deploy.worker.Worker-1-hadoop01.out

很明顯仿吞,是由于讀取不到j(luò)ava的環(huán)境變量滑频,于是我在當(dāng)前目錄的.bashrc文件中配置了,成功啟動(dòng)唤冈,想不通為什么會(huì)這樣峡迷,全局變量中設(shè)置的環(huán)境變量怎么就不生效吶?姑且把它當(dāng)成spark的遺留小問(wèn)題吧,等我想起來(lái)再來(lái)探尋答案;娓恪M堋!

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
  • 序言:七十年代末夯辖,一起剝皮案震驚了整個(gè)濱河市琉预,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌楼雹,老刑警劉巖模孩,帶你破解...
    沈念sama閱讀 212,454評(píng)論 6 493
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場(chǎng)離奇詭異贮缅,居然都是意外死亡,警方通過(guò)查閱死者的電腦和手機(jī)介却,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,553評(píng)論 3 385
  • 文/潘曉璐 我一進(jìn)店門(mén)谴供,熙熙樓的掌柜王于貴愁眉苦臉地迎上來(lái),“玉大人齿坷,你說(shuō)我怎么就攤上這事桂肌。” “怎么了永淌?”我有些...
    開(kāi)封第一講書(shū)人閱讀 157,921評(píng)論 0 348
  • 文/不壞的土叔 我叫張陵崎场,是天一觀(guān)的道長(zhǎng)。 經(jīng)常有香客問(wèn)我遂蛀,道長(zhǎng)谭跨,這世上最難降的妖魔是什么? 我笑而不...
    開(kāi)封第一講書(shū)人閱讀 56,648評(píng)論 1 284
  • 正文 為了忘掉前任李滴,我火速辦了婚禮螃宙,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘所坯。我一直安慰自己谆扎,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 65,770評(píng)論 6 386
  • 文/花漫 我一把揭開(kāi)白布芹助。 她就那樣靜靜地躺著堂湖,像睡著了一般。 火紅的嫁衣襯著肌膚如雪状土。 梳的紋絲不亂的頭發(fā)上无蜂,一...
    開(kāi)封第一講書(shū)人閱讀 49,950評(píng)論 1 291
  • 那天,我揣著相機(jī)與錄音声诸,去河邊找鬼酱讶。 笑死,一個(gè)胖子當(dāng)著我的面吹牛彼乌,可吹牛的內(nèi)容都是我干的泻肯。 我是一名探鬼主播渊迁,決...
    沈念sama閱讀 39,090評(píng)論 3 410
  • 文/蒼蘭香墨 我猛地睜開(kāi)眼,長(zhǎng)吁一口氣:“原來(lái)是場(chǎng)噩夢(mèng)啊……” “哼灶挟!你這毒婦竟也來(lái)了琉朽?” 一聲冷哼從身側(cè)響起,我...
    開(kāi)封第一講書(shū)人閱讀 37,817評(píng)論 0 268
  • 序言:老撾萬(wàn)榮一對(duì)情侶失蹤稚铣,失蹤者是張志新(化名)和其女友劉穎箱叁,沒(méi)想到半個(gè)月后,有當(dāng)?shù)厝嗽跇?shù)林里發(fā)現(xiàn)了一具尸體惕医,經(jīng)...
    沈念sama閱讀 44,275評(píng)論 1 303
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡耕漱,尸身上長(zhǎng)有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 36,592評(píng)論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了抬伺。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片螟够。...
    茶點(diǎn)故事閱讀 38,724評(píng)論 1 341
  • 序言:一個(gè)原本活蹦亂跳的男人離奇死亡,死狀恐怖峡钓,靈堂內(nèi)的尸體忽然破棺而出妓笙,到底是詐尸還是另有隱情,我是刑警寧澤能岩,帶...
    沈念sama閱讀 34,409評(píng)論 4 333
  • 正文 年R本政府宣布寞宫,位于F島的核電站,受9級(jí)特大地震影響拉鹃,放射性物質(zhì)發(fā)生泄漏辈赋。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 40,052評(píng)論 3 316
  • 文/蒙蒙 一毛俏、第九天 我趴在偏房一處隱蔽的房頂上張望炭庙。 院中可真熱鬧,春花似錦煌寇、人聲如沸焕蹄。這莊子的主人今日做“春日...
    開(kāi)封第一講書(shū)人閱讀 30,815評(píng)論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽(yáng)腻脏。三九已至,卻和暖如春银锻,著一層夾襖步出監(jiān)牢的瞬間永品,已是汗流浹背。 一陣腳步聲響...
    開(kāi)封第一講書(shū)人閱讀 32,043評(píng)論 1 266
  • 我被黑心中介騙來(lái)泰國(guó)打工击纬, 沒(méi)想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留鼎姐,地道東北人。 一個(gè)月前我還...
    沈念sama閱讀 46,503評(píng)論 2 361
  • 正文 我出身青樓,卻偏偏與公主長(zhǎng)得像炕桨,于是被迫代替她去往敵國(guó)和親饭尝。 傳聞我的和親對(duì)象是個(gè)殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 43,627評(píng)論 2 350

推薦閱讀更多精彩內(nèi)容

  • 一献宫、 Hadoop分布式集群搭建 1 集群部署準(zhǔn)備 采用兩臺(tái)CentOS 虛擬器,詳細(xì)信息如下: 2 修改主機(jī)名...
    WeiminSun閱讀 6,271評(píng)論 0 2
  • 注意事項(xiàng) Hadoop是根據(jù)%JAVA_HOME%钥平,%HADOOP_HOME%來(lái)確定位置的,所以需要在環(huán)境變量中設(shè)...
    奔跑地蝸牛閱讀 1,188評(píng)論 0 0
  • spark官網(wǎng)學(xué)習(xí)文檔[http://spark.apache.org/docs/latest/] Spark集群...
    Hi杯酒故人閱讀 381評(píng)論 0 0
  • spark集群安裝 安裝環(huán)境:linux centos6.x 注意:此處直接使用spark是可以不需要安裝hado...
    我發(fā)際線(xiàn)很高閱讀 740評(píng)論 0 0
  • 準(zhǔn)備工作 機(jī)器及角色 三臺(tái)機(jī)器創(chuàng)建賬號(hào)及免密登錄賬號(hào):hadoop 三臺(tái)機(jī)器安裝Java1.8環(huán)境過(guò)程略 三臺(tái)機(jī)器...
    heichong閱讀 568評(píng)論 0 1