1.java環(huán)境配置
1.官網(wǎng)下載安裝包:
https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html
image.png
2.解壓該安裝包并把它放到對應(yīng)目錄下:
獲取root權(quán)限
:$ su
password:
根目錄下創(chuàng)建java目錄
:# mkdir /java
移動(dòng)安裝包到該目錄下
解壓到當(dāng)前目錄
:# tar -xvf jdk-8u191-linux.tar.gz
3.配置環(huán)境變量
打開environment文件
:# gedit /etc/environment
修改如下:保存使環(huán)境變量生效
:# source /etc/environment
4.查看是否配置成功
:# java -version
出現(xiàn)如下內(nèi)容,則配置成功5.設(shè)為永久環(huán)境變量
打開profile文件
:# gedit /etc/profile
在文件最后增加如下(如果你的文件路徑和我不同,記得修改):使環(huán)境變量生效
:# source /etc/profile
6.重啟系統(tǒng)
重啟系統(tǒng)
:# reboot
重啟完成后查看java環(huán)境變量
:# java -version
2.安裝ssh
檢查是否安裝了ssh服務(wù)
:# apt-cache policy openssh-client openssh-server
安裝ssh服務(wù)
:# apt-get install openssh-server
查看ssh服務(wù)開啟情況
:# ps -e|grep ssh
開啟ssh服務(wù)
:# sudo /etc/init.d/ssh start
修改配置文件(否則root用戶無法訪問)
打開ssh的配置文件
:# gedit /etc/ssh/sshd_config
增加語句
:# PermitRootLogin yes
修改如下重啟ssh服務(wù)
:# sudo /etc/init.d/ssh restart
若想實(shí)現(xiàn)遠(yuǎn)程訪問,在此基礎(chǔ)上請參考這篇博客:https://blog.csdn.net/Venry_/article/details/85233991
3.hadoop偽分布式安裝配置
1.從官網(wǎng)下載安裝包https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.9.2/hadoop-2.9.2.tar.gz
2.解壓安裝包
和解壓jdk一樣,新建一個(gè)hadoop文件夾侮攀,然后將安裝包移動(dòng)過來進(jìn)行解壓
:# mkdir /hadoop
:# mv 下載路徑 /hadoop
:# tar -xvf /hadoop/hadoop-2.9.2.tar.gzip
3.配置hadoop環(huán)境變量
打開profile文件
:# gedit /etc/profile
修改如下(如果你的文件路徑和我不同未巫,記得修改):保存profile文件
:# source /etc/profile
4.添加jdk
打開hadoop-env.sh文件
:# gedit /hadoop/hadoop-2.9.2/etc/hadoop/hadoop-env.sh
修改如下:5.修改core-site.xml
打開
:# gedit hadoop/hadoop-2.9.2/etc/hadoop/core-site.xml
修改內(nèi)容(如果你的文件路徑和我不同扫尺,記得修改):
<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/hadoop/hadoop-2.9.2/tmp</value>
<description>Abase for other temporary directories.</description>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
修改截圖6.修改hdfs-site.xml
打開
:# gedit hadoop/hadoop-2.9.2/etc/hadoop/hdfs-site.xml
修改內(nèi)容(如果你的文件路徑和我不同约急,記得修改):
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/hadoop/hadoop-2.9.2/tmp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/hadoop/hadoop-2.9.2/tmp/dfs/data</value>
</property>
</configuration>
修改截圖7.配置完成后零远,執(zhí)行namenode的初始化
:# ./hadoop/hadoop-2.9.2/bin/hdfs namenode -format
8.啟動(dòng)namenode和datanode進(jìn)程
:# ./hadoop/hadoop-2.9.2/sbin/start-dfs.sh
運(yùn)行截圖特別注意:如果在執(zhí)行此步驟時(shí),輸完密碼后厌蔽,出現(xiàn)ssh拒絕登錄的情況,如下:
localhost:permission denied,please try again
你需要再次編輯ssh配置文件牵辣,即/etc/ssh/sshd_config,然后找到PermitRootLogin prohibit-password將其注釋掉奴饮,如下:
#PermitRootLogin prohibit-password
然后重啟ssh服務(wù):
:# sudo service ssh restart
現(xiàn)在再次重啟namenode和datanode進(jìn)程服務(wù)就不會(huì)拒絕登入了纬向!
9.查看信息
成功啟動(dòng)后,可以訪問 Web 界面 http://localhost:50070 查看 NameNode 和 Datanode 信息戴卜,還可以在線查看 HDFS 中的文件逾条。