1. 下載安裝
官網(wǎng)下載鏈接
1.1 這里選擇安裝的是2.9.2愧旦,使用下面命令進(jìn)行下載:
1 # cd ~/software
2 wget http://apache.communilink.net/hadoop/common/hadoop-2.9.2/hadoop-2.9.2.tar.gz
1.2 解壓重命名
1 tar -xzvf hadoop-2.9.2.tar.gz
2 mv hadoop-2.9.2 hadoop
1.3 配置環(huán)境變量
使用vim編輯~/.bashrc文件趁蕊,加入以下配置(目錄換成自己的安裝目錄):
1 export HADOOP_HOME=/software/hadoop
2 export HADOOP_INSTALL=$HADOOP_HOME
3 export HADOOP_MAPRED_HOME=$HADOOP_HOME
4 export HADOOP_COMMON_HOME=$HADOOP_HOME
5 export HADOOP_HDFS_HOME=$HADOOP_HOME
6 export YARN_HOME=$HADOOP_HOME
7 export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
8 export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
9 export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
使用source命令使配置生效: source ~/.bashrc
可以使用echo $PATH 輸出查看是否正確
2. 簡(jiǎn)單配置
2.1 編輯core-site.xml
文件位置:$HADOOP_HOME/etc/hadoop/core-site.xml
命令:
1 cd /software/hadoop/etc/hadoop
2 vim core-site.xml
配置如下:
1 <configuration>
2 <!-- 指定運(yùn)行端口 -->
3 <property>
4 <name>fs.defaultFS</name>
5 <value>hdfs://localhost:9000</value>
6 </property>
7 <!-- 指定臨時(shí)目錄 -->
8 <property>
9 <name>hadoop.tmp.dir</name>
10 <value>/data/hadoop/tmp</value>
11 </property>
12 </configuration>
2.2 編輯hdfs-site.xml
文件位置: $HADOOP_HOME/etc/hadoop/hdfs-site.xml
命令:
1 cd /software/hadoop/etc/hadoop
2 vim hdfs-site.xml
配置:
1 <configuration>
2 <!-- 備份數(shù)量 -->
3 <property>
4 <name>dfs.replication</name>
5 <value>1</value>
6 </property>
7 </configuration>
2.3 編輯mapred-site.xml
位置:$HADOOP_HOME/etc/hadoop/mapred-site.xml.template
命令:
1 cd /software/hadoop/etc/hadoop
2 # 復(fù)制并重命名
3 cp mapred-site.xml.template mapred-site.xml
4 vim mapred-site.xml
配置:
1 <configuration>
2 <!-- 配置資源管理器 -->
3 <property>
4 <name>mapreduce.framework.name</name>
5 <value>yarn</value>
6 </property>
7 </configuration>
2.4 編輯yarn-site.xml
位置: $HADOOP_HOME/etc/hadoop/yarn-site.xml
命令:
1 cd /software/hadoop/etc/hadoop
2 vim yarn-site.xml
配置:
1 <configuration>
2 <property>
3 <name>yarn.nodemanager.aux-services</name>
4 <value>mapreduce_shuffle</value>
5 </property>
6 </configuration>
3. 啟動(dòng)Hadoop
1 # 第一次糯而,格式化namenode
2 hdfs namenode -format
3 # 運(yùn)行HDFS
4 start-dfs.sh
5 # 運(yùn)行yarn
6 start-yarn.sh
7 # 查看運(yùn)行狀況(前提是安裝jdk并配置環(huán)境變量)
8 jps
9 # 停止hdfs
10 stop-dfs.sh
11 # 停止yarn
12 stop-yarn.sh
原文鏈接:https://www.cnblogs.com/dintalk/p/12234254.html
最后編輯于 :
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者