Hadoop2.7.4+Spark2.2.0滴滴云分布式集群搭建過程

1.在滴滴云申請三臺服務(wù)器(CentOS系統(tǒng)64位7.3)

Master Worker1 Worker2
公網(wǎng)116.85.9.118 公網(wǎng)116.85.9.117 公網(wǎng)116.85.9.119
內(nèi)網(wǎng)10.254.0.58 內(nèi)網(wǎng)10.254.0.94 內(nèi)網(wǎng)10.254.0.88
單核2G內(nèi)存 單核1G內(nèi)存 單核1G內(nèi)存

2.修改hosts文件

修改三臺服務(wù)器的hosts文件,vim /etc/hosts(需要權(quán)限加上sudo vim /etc/hosts),在原文件的基礎(chǔ)最后面加上:

10.254.0.58 Master
10.254.0.94 Worker1
10.254.0.88 Worker2

修改完成后保存執(zhí)行如下命令,可以讓修改立即生效

source /etc/hosts

3.ssh無密碼驗證配置

參考ssh免密登陸逢倍,為了讓幾臺機器之間可以互相免密登陸,可以把公私鑰對上傳到三臺服務(wù)器上(為了方便使用同樣的密鑰景图,你也可以重新生成)

4.安裝基礎(chǔ)環(huán)境(JAVA和SCALA環(huán)境)

4.1安裝Java

下載jdk-8u171-linux-x64.tar.gz,解壓到/usr/local目錄较雕,配置環(huán)境變量,在/etc/profile中添加

export JAVA_HOME=/usr/local/jdk1.8.0_121
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/rt.jar
4.2安裝scala

下載scala安裝包scala-2.11.8.rpm安裝,rpm -ivh scala-2.11.8.rpm
添加Scala環(huán)境變量,在/etc/profile中添加:

export SCALA_HOME=/usr/share/scala
export PATH=$SCALA_HOME/bin:$PATH
5.Hadoop2.7.4完全分布式搭建

首先在本地下載hadoop-2.7.4.tar.gz挚币,使用命令將hadoop上傳到Master

scp -r Documents/hadoop-2.7.4.tar.gz dc2-user@116.85.9.118:  
tar -zxvf hadoop-2.7.4.tar.gz
mv hadoop-2.7.4 /opt

修改/etc/profile亮蒋,增加如下內(nèi)容:

 export HADOOP_HOME=/opt/hadoop-2.7.4/
 export PATH=$PATH:$HADOOP_HOME/bin
 export PATH=$PATH:$HADOOP_HOME/sbin
 export HADOOP_MAPRED_HOME=$HADOOP_HOME
 export HADOOP_COMMON_HOME=$HADOOP_HOME
 export HADOOP_HDFS_HOME=$HADOOP_HOME
 export YARN_HOME=$HADOOP_HOME
 export HADOOP_ROOT_LOGGER=INFO,console
 export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
 export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib"

修改完成后執(zhí)行:source /etc/profile
修改$HADOOP_HOME/etc/hadoop/hadoop-env.sh,修改JAVA_HOME 如下:

 export JAVA_HOME=/usr/local/jdk1.8.0_171

修改$HADOOP_HOME/etc/hadoop/slaves妆毕,將原來的localhost刪除慎玖,改成如下內(nèi)容:

Worker1
Worker2

修改$HADOOP_HOME/etc/hadoop/core-site.xml

<configuration>
      <property>
          <name>fs.defaultFS</name>
          <value>hdfs://Master:9000</value>
      </property>
      <property>
         <name>io.file.buffer.size</name>
         <value>131072</value>
     </property>
     <property>
          <name>hadoop.tmp.dir</name>
          <value>/opt/hadoop-2.7.4/tmp</value>
     </property>
</configuration>

修改$HADOOP_HOME/etc/hadoop/hdfs-site.xml

<configuration>
    <property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>Master:50090</value>
    </property>
    <property>
      <name>dfs.replication</name>
      <value>2</value>
    </property>
    <property>
      <name>dfs.namenode.name.dir</name>
      <value>file:/opt/hadoop-2.7.4/hdfs/name</value>
    </property>
    <property>
      <name>dfs.datanode.data.dir</name>
      <value>file:/opt/hadoop-2.7.4/hdfs/data</value>
    </property>
</configuration>

修改$HADOOP_HOME/etc/hadoop/mapred-site.xml

<configuration>
 <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  <property>
          <name>mapreduce.jobhistory.address</name>
          <value>Master:10020</value>
  </property>
  <property>
          <name>mapreduce.jobhistory.address</name>
          <value>Master:19888</value>
  </property>
</configuration>

修改$HADOOP_HOME/etc/hadoop/yarn-site.xml

<configuration>
     <property>
         <name>yarn.nodemanager.aux-services</name>
         <value>mapreduce_shuffle</value>
     </property>
     <property>
         <name>yarn.resourcemanager.address</name>
         <value>Master:8032</value>
     </property>
     <property>
         <name>yarn.resourcemanager.scheduler.address</name>
         <value>Master:8030</value>
     </property>
     <property>
         <name>yarn.resourcemanager.resource-tracker.address</name>
         <value>Master:8031</value>
     </property>
     <property>
         <name>yarn.resourcemanager.admin.address</name>
         <value>Master:8033</value>
     </property>
     <property>
         <name>yarn.resourcemanager.webapp.address</name>
         <value>Master:8088</value>
     </property>
</configuration>

復制Master節(jié)點的hadoop文件夾到Worker1和Worker2上。

scp -r /opt/hadoop-2.7.4 dc2-user@Worker1:
scp -r /opt/hadoop-2.7.4 dc2-user@Worker2:

然后在mv到/opt目錄下

在Worker1和Worker2上分別修改/etc/profile设塔,過程同Master一樣凄吏。

在Master節(jié)點啟動集群

啟動之前格式化一下namenode:

hadoop namenode -format
啟動:
/opt/hadoop-2.7.4/sbin/start-all.sh

至此hadoop的完全分布式環(huán)境搭建完畢。
查看集群是否啟動成功:

jps

Master顯示:

SecondaryNameNode
ResourceManager
NameNode

Slave顯示:

NodeManager
DataNode

這里Master申請2G內(nèi)存闰蛔,如果申請1G痕钢,后面配置spark最少要1G,否則啟動內(nèi)存不夠

Spark2.2.0完全分布式環(huán)境搭建

將spark-2.2.0-bin-hadoop2.7上傳到Master序六,也是放在/opt目錄下
修改/etc/profie任连,增加如下內(nèi)容:

export SPARK_HOME=/opt/spark-2.2.0-bin-hadoop2.7/
export PATH=$PATH:$SPARK_HOME/bin
cp spark-env.sh.template spark-env.sh

修改$SPARK_HOME/conf/spark-env.sh,添加如下內(nèi)容

export JAVA_HOME=/usr/local/jdk1.8.0_171
export SCALA_HOME=/usr/share/scala
export HADOOP_HOME=/opt/hadoop-2.7.4
export HADOOP_CONF_DIR=/opt/hadoop-2.7.4/etc/hadoop
export SPARK_MASTER_IP=10.254.0.58
export SPARK_MASTER_HOST=10.254.0.58
export SPARK_LOCAL_IP=10.254.0.58
export SPARK_WORKER_MEMORY=1g
export SPARK_WORKER_CORES=2
export SPARK_HOME=/opt/spark-2.2.0-bin-hadoop2.7
export SPARK_DIST_CLASSPATH=$(/opt/hadoop-2.7.4/bin/hadoop classpath)
cp slaves.template slaves

修改$SPARK_HOME/conf/slaves例诀,添加如下內(nèi)容:

Worker1
Worker2

注意這里如果把Master也添加到這里随抠,Master將即使主機又做工作機
將配置好的spark文件復制到Worker1和Worker2節(jié)點。

scp /opt/spark-2.2.0-bin-hadoop2.7 dc2-user@Worker1:
scp /opt/spark-2.2.0-bin-hadoop2.7 dc2-user@Worker2:

修改Worker1和Worker2配置,在Worker1和Worker2上分別修改/etc/profile繁涂,增加Spark的配置拱她,過程同Master一樣。
在Worker1和Worker2修改$SPARK_HOME/conf/spark-env.sh扔罪,將export SPARK_LOCAL_IP改成Worker1和Worker2對應(yīng)節(jié)點的IP秉沼。

在Master節(jié)點啟動集群。
/opt/spark-2.2.0-bin-hadoop2.7/sbin/start-all.sh
查看集群是否啟動成功:
jps

Master在Hadoop的基礎(chǔ)上新增了:

Master

Slave在Hadoop的基礎(chǔ)上新增了:

Worker
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市唬复,隨后出現(xiàn)的幾起案子矗积,更是在濱河造成了極大的恐慌,老刑警劉巖敞咧,帶你破解...
    沈念sama閱讀 210,978評論 6 490
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件棘捣,死亡現(xiàn)場離奇詭異,居然都是意外死亡休建,警方通過查閱死者的電腦和手機乍恐,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 89,954評論 2 384
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來丰包,“玉大人禁熏,你說我怎么就攤上這事∫乇耄” “怎么了瞧毙?”我有些...
    開封第一講書人閱讀 156,623評論 0 345
  • 文/不壞的土叔 我叫張陵,是天一觀的道長寄症。 經(jīng)常有香客問我宙彪,道長,這世上最難降的妖魔是什么有巧? 我笑而不...
    開封第一講書人閱讀 56,324評論 1 282
  • 正文 為了忘掉前任释漆,我火速辦了婚禮,結(jié)果婚禮上篮迎,老公的妹妹穿的比我還像新娘男图。我一直安慰自己,他們只是感情好甜橱,可當我...
    茶點故事閱讀 65,390評論 5 384
  • 文/花漫 我一把揭開白布逊笆。 她就那樣靜靜地躺著,像睡著了一般岂傲。 火紅的嫁衣襯著肌膚如雪难裆。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 49,741評論 1 289
  • 那天镊掖,我揣著相機與錄音乃戈,去河邊找鬼。 笑死亩进,一個胖子當著我的面吹牛症虑,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播归薛,決...
    沈念sama閱讀 38,892評論 3 405
  • 文/蒼蘭香墨 我猛地睜開眼谍憔,長吁一口氣:“原來是場噩夢啊……” “哼驶冒!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起韵卤,我...
    開封第一講書人閱讀 37,655評論 0 266
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎崇猫,沒想到半個月后沈条,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 44,104評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡诅炉,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,451評論 2 325
  • 正文 我和宋清朗相戀三年蜡歹,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片涕烧。...
    茶點故事閱讀 38,569評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡月而,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出议纯,到底是詐尸還是另有隱情父款,我是刑警寧澤,帶...
    沈念sama閱讀 34,254評論 4 328
  • 正文 年R本政府宣布瞻凤,位于F島的核電站憨攒,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏阀参。R本人自食惡果不足惜肝集,卻給世界環(huán)境...
    茶點故事閱讀 39,834評論 3 312
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望蛛壳。 院中可真熱鬧杏瞻,春花似錦、人聲如沸衙荐。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,725評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽赫模。三九已至树肃,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間瀑罗,已是汗流浹背胸嘴。 一陣腳步聲響...
    開封第一講書人閱讀 31,950評論 1 264
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留斩祭,地道東北人劣像。 一個月前我還...
    沈念sama閱讀 46,260評論 2 360
  • 正文 我出身青樓,卻偏偏與公主長得像摧玫,于是被迫代替她去往敵國和親耳奕。 傳聞我的和親對象是個殘疾皇子绑青,可洞房花燭夜當晚...
    茶點故事閱讀 43,446評論 2 348

推薦閱讀更多精彩內(nèi)容