啟動(dòng)hadoop集群
在hadoop01上輸入start-dfs.sh
在hadoop01上輸入start-yarn.sh
在hadoop02上/opt/modules/app/hadoop/sbin輸入./yarn-daemon.sh start resourcemanager啟動(dòng)ResourceManager
在hadoop01上/opt/modules/app/hadoop/sbin/輸入mr-jobhistory-daemon.sh start historyserver啟動(dòng)historyserver
在windows上配置主機(jī)名
然后使用主機(jī)名啟動(dòng)
hadoop01:50070
hadoop02:8088
1.克隆虛擬機(jī)3個(gè) 配置上ip
http://www.reibang.com/p/c04532d6a4da
2.修改主機(jī)名
vim /etc/sysconfig/network
hadoop01
hadoop02
hadoop03
然后重啟虛擬機(jī)
reboot 命令
3.綁定虛擬機(jī)的主機(jī)名和IP
vim /etc/hosts
192.168.121.140 hadoop01
192.168.121.141 hadoop02
192.168.121.142 hadoop03
4.規(guī)劃
hadoop01 hadoop02 hadoop03
Namenode ResourceManager
DataNode DataNode DataNodede
NodeManager NodeManager NodeManager
HistoryServer SecondayNameNode
5.在一臺(tái)主機(jī)上裝hadoop 然后使用scp命令拷貝到其他虛擬機(jī)上
6.在opt里建modules/app 目錄
mkdir -p modules/app
將 hadoop-2.8.3.jar.gz文件解壓到這個(gè)文件下
tar -zxvf hadoop-2.8.3.jar.gz
修改名字為hadoop
mv hadoop-2.8.3 hadoop
7. 配置Hadoop JDK路徑修改hadoop-env.sh箩帚、mapred-env.sh校赤、yarn-env.sh文件中的JDK路徑:
java -version
添加環(huán)境變量
vim /etc/profile
export HADOOP_HOME=/opt/modules/app/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
source /etc /profile 生效
在/opt/modules/app/hadoop/etc/hadoop 修改配置文件hadoop-env.sh、mapred-env.sh癌佩、yarn-env.sh添加java_home的環(huán)境變量
export JAVA_HOME="/opt/jdk1.8"
8嗜憔、 配置core-site.xml
vim core-site.xml
<configuration> //Namenode主機(jī)地址 這上是放在hadoop01上
<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop01:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/modules/app/hadoop2.5.0/data/tmp</value>
</property>
</configuration>
fs.defaultFS為NameNode的地址秃励。
hadoop.tmp.dir為hadoop臨時(shí)目錄的地址,默認(rèn)情況下吉捶,NameNode和DataNode的數(shù)據(jù)文件都會(huì)存在這個(gè)目錄下的對(duì)應(yīng)子目錄下夺鲜。應(yīng)該保證此目錄是存在的皆尔,如果不存在,先創(chuàng)建币励。
mkdir -p /opt/modules/app/hadoop2.5.0/data/tmp
9慷蠕、 在/opt/modules/app/hadoop/etc/hadoop 修改配置hdfs-site.xml
啟動(dòng)secondnamenode在hadoop03上主機(jī)上
vim hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop03:50090</value>
</property>
</configuration>
dfs.namenode.secondary.http-address是指定secondaryNameNode的http訪(fǎng)問(wèn)地址和端口號(hào),因?yàn)樵谝?guī)劃中榄审,我們將hadoop03規(guī)劃為SecondaryNameNode服務(wù)器砌们。
所以這里設(shè)置為:hadoop03:50090
10杆麸、 在/opt/modules/app/hadoop/etc/hadoop 修改配置slaves
vim slaves
hadoop01
hadoop02
hadoop03
slaves文件是指定HDFS上有哪些DataNode節(jié)點(diǎn)搁进。
11、在/opt/modules/app/hadoop/etc/hadoop 修改 配置yarn-site.xml
vim yarn-site.xml
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop02</value>
</property>
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>106800</value>
</property>
根據(jù)規(guī)劃yarn.resourcemanager.hostname這個(gè)指定resourcemanager服務(wù)器指向hadoop02
yarn.log-aggregation-enable是配置是否啟用日志聚集功能昔头。
yarn.log-aggregation.retain-seconds是配置聚集的日志在HDFS上最多保存多長(zhǎng)時(shí)間
12饼问、 在/opt/modules/app/hadoop/etc/hadoop 修改配置mapred-site.xml
從mapred-site.xml.template復(fù)制一個(gè)mapred-site.xml文件。
cp mapred-site.xml.template mapred-site.xml
vim mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>hadoop01:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>hadoop01:19888</value>
</property>
mapreduce.framework.name設(shè)置mapreduce任務(wù)運(yùn)行在yarn上揭斧。
mapreduce.jobhistory.address是設(shè)置mapreduce的歷史服務(wù)器安裝在hadoop01機(jī)器上莱革。
mapreduce.jobhistory.webapp.address是設(shè)置歷史服務(wù)器的web頁(yè)面地址和端口號(hào)。
13.設(shè)置SSH無(wú)密碼登錄
Hadoop集群中的各個(gè)機(jī)器間會(huì)相互地通過(guò)SSH訪(fǎng)問(wèn)讹开,每次訪(fǎng)問(wèn)都輸入密碼是不現(xiàn)實(shí)的盅视,所以要配置各個(gè)機(jī)器間的
所有虛擬機(jī)都要做
SSH是無(wú)密碼登錄的。
1). 在hadoop01上生成公鑰
在/opt/modules/app/hadoop里輸入ssh-keygen -t rsa
一路回車(chē)
2).把公鑰發(fā)給所有電腦(包括自己)
yum install ssh-clients
yum install -y openssh-clients
[hadoop@hadoop01 hadoop]$ ssh-copy-id hadoop01
[hadoop@hadoop02 hadoop]$ ssh-copy-id hadoop02
[hadoop@hadoop03 hadoop]$ ssh-copy-id hadoop03
3). 設(shè)置hadoop02旦万、hadoop03到其他機(jī)器的無(wú)密鑰登錄
同樣的在hadoop02闹击、hadoop03上生成公鑰和私鑰后,將公鑰分發(fā)到三 臺(tái)機(jī)器上成艘。
4).把上述1.2命令在其他虛擬機(jī)上再做一遍,分發(fā)公鑰
14.分發(fā)Hadoop文件
1赏半、 首先在其他兩臺(tái)機(jī)器上創(chuàng)建存放Hadoop的目錄
[hadoop@hadoop02 ~]$ mkdir /opt/modules/app
[hadoop@hadoop03 ~]$ mkdir /opt/modules/app
2、 通過(guò)Scp分發(fā)
Hadoop根目錄下的share/doc目錄是存放的hadoop的文檔淆两,文件相當(dāng)大断箫,建議在分發(fā)之前將這個(gè)目錄刪除掉,可以節(jié)省硬盤(pán)空間并能提高分發(fā)的速度秋冰。
doc目錄大小有1.6G仲义。
[hadoop@hadoop01 hadoop]$ du -sh /opt/modules/app/hadoop/share/doc
1.6G
rm -rf /opt/modules/app/hadoop/share/doc
[hadoop@hadoop02 hadoop]$ scp -r /opt/modules/app/hadoop/ hadoop02:/opt/modules/app
[hadoop@hadoop03 hadoop]$ scp -r /opt/modules/app/hadoop/ hadoop03:/opt/modules/app
15.格式化NameNode
1).在NameNode機(jī)器上執(zhí)行格式化:
[hadoop@hadoop01 hadoop]$hdfs namenode -format
/opt/modules/app/hadoop-2.5.0/data/tmp
注意:
如果需要重新格式化NameNode,需要先將原來(lái)NameNode和DataNode下的文件全部刪除,不然會(huì)報(bào)錯(cuò)剑勾,NameNode和DataNode所在目錄是在core-site.xml中hadoop.tmp.dir埃撵、dfs.namenode.name.dir、dfs.datanode.data.dir屬性配置的甥材。
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/modules/app/hadoop-2.5.0/data/tmp</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file://${hadoop.tmp.dir}/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file://${hadoop.tmp.dir}/dfs/data</value>
</property>
因?yàn)槊看胃袷交⒘恚J(rèn)是創(chuàng)建一個(gè)集群ID,并寫(xiě)入NameNode和DataNode的VERSION文件中(VERSION文件所在目錄為dfs/name/current 和 dfs/data/current)洲赵,重新格式化時(shí)鸳惯,默認(rèn)會(huì)生成一個(gè)新的集群ID,如果不刪除原來(lái)的目錄商蕴,會(huì)導(dǎo)致namenode中的VERSION文件中是新的集群ID,而DataNode中是舊的集群ID,不一致時(shí)會(huì)報(bào)錯(cuò)芝发。
另一種方法是格式化時(shí)指定集群ID參數(shù)绪商,指定為舊的集群ID。
16.啟動(dòng)hadoop集群
1)辅鲸、 啟動(dòng)HDFS
[hadoop@hadoop01 hadoop]$ start-dfs.sh
2)格郁、 啟動(dòng)YARN
[hadoop@hadoop01 hadoop]$ /opt/modules/app/hadoop/sbin/start-yarn.sh
在hadoop02上啟動(dòng)ResourceManager:
[hadoop@hadoop02 hadoop]$ sbin/yarn-daemon.sh start resourcemanager
3)、 啟動(dòng)日志服務(wù)器
因?yàn)槲覀円?guī)劃的是在hadoop01服務(wù)器上運(yùn)行MapReduce日志服務(wù)独悴,所以要在hadoop01上啟動(dòng)例书。
[hadoop@hadoop01 ~]$ /opt/modules/app/hadoop/sbin/mr-jobhistory-daemon.sh start historyserver
starting historyserver, logging to /opt/modules/app/hadoop/logs/mapred-hadoop-historyserver-hadoop01
[hadoop@bigdata-senior03 ~]$ jps
3570 Jps
3537 JobHistoryServer
3310 SecondaryNameNode
3213 DataNode
3392 NodeManager
4)、 查看HDFS Web頁(yè)面
5)刻炒、 查看YARN Web 頁(yè)面
6).修改C:\Windows\System32\drivers\etc下的hosts文件
添加
192.168.121.140 hadoop01
192.168.121.141 hadoop02
192.168.121.142 hadoop03