前言
Hadoop在大數(shù)據(jù)技術(shù)體系中的地位至關(guān)重要瞪讼,Hadoop是大數(shù)據(jù)技術(shù)的基礎(chǔ)戳气,對(duì)Hadoop基礎(chǔ)知識(shí)的掌握的扎實(shí)程度秉扑,會(huì)決定在大數(shù)據(jù)技術(shù)道路上走多遠(yuǎn)。
這是一篇入門文章馁筐,Hadoop的學(xué)習(xí)方法很多涂召,網(wǎng)上也有很多學(xué)習(xí)路線圖。本文的思路是:以安裝部署Apache Hadoop2.x版本為主線眯漩,來(lái)介紹Hadoop2.x的架構(gòu)組成芹扭、各模塊協(xié)同工作原理麻顶、技術(shù)細(xì)節(jié)。安裝不是目的舱卡,通過(guò)安裝認(rèn)識(shí)Hadoop才是目的辅肾。
第一部分:Linux環(huán)境安裝
Hadoop是運(yùn)行在Linux,雖然借助工具也可以運(yùn)行在Windows上轮锥,但是建議還是運(yùn)行在Linux系統(tǒng)上矫钓,第一部分介紹Linux環(huán)境的安裝、配置舍杜、Java JDK安裝等新娜。
第二部分:Hadoop本地模式安裝
Hadoop本地模式只是用于本地開發(fā)調(diào)試,或者快速安裝體驗(yàn)Hadoop既绩,這部分做簡(jiǎn)單的介紹概龄。
第三部分:Hadoop偽分布式模式安裝
學(xué)習(xí)Hadoop一般是在偽分布式模式下進(jìn)行。這種模式是在一臺(tái)機(jī)器上各個(gè)進(jìn)程上運(yùn)行Hadoop的各個(gè)模塊饲握,偽分布式的意思是雖然各個(gè)模塊是在各個(gè)進(jìn)程上分開運(yùn)行的私杜,但是只是運(yùn)行在一個(gè)操作系統(tǒng)上的,并不是真正的分布式救欧。
第四部分:完全分布式安裝
完全分布式模式才是生產(chǎn)環(huán)境采用的模式衰粹,Hadoop運(yùn)行在服務(wù)器集群上,生產(chǎn)環(huán)境一般都會(huì)做HA笆怠,以實(shí)現(xiàn)高可用铝耻。
第一部分:Linux環(huán)境安裝
第一步、配置Vmware NAT網(wǎng)絡(luò)
一蹬刷、Vmware網(wǎng)絡(luò)模式介紹
參考:http://blog.csdn.net/collection4u/article/details/14127671
二瓢捉、NAT模式配置
NAT是網(wǎng)絡(luò)地址轉(zhuǎn)換,是在宿主機(jī)和虛擬機(jī)之間增加一個(gè)地址轉(zhuǎn)換服務(wù)箍铭,負(fù)責(zé)外部和虛擬機(jī)之間的通訊轉(zhuǎn)接和IP轉(zhuǎn)換泊柬。
我們部署Hadoop集群椎镣,這里選擇NAT模式诈火,各個(gè)虛擬機(jī)通過(guò)NAT使用宿主機(jī)的IP來(lái)訪問外網(wǎng)。
我們的要求是集群中的各個(gè)虛擬機(jī)有固定的IP状答、可以訪問外網(wǎng)冷守,所以進(jìn)行如下設(shè)置:
1、 Vmware安裝后惊科,默認(rèn)的NAT設(shè)置如下:
2拍摇、 默認(rèn)的設(shè)置是啟動(dòng)DHCP服務(wù)的,NAT會(huì)自動(dòng)給虛擬機(jī)分配IP馆截,但是我們需要將各個(gè)機(jī)器的IP固定下來(lái)充活,所以要取消這個(gè)默認(rèn)設(shè)置蜂莉。
3、 為機(jī)器設(shè)置一個(gè)子網(wǎng)網(wǎng)段混卵,默認(rèn)是192.168.136網(wǎng)段映穗,我們這里設(shè)置為100網(wǎng)段,將來(lái)各個(gè)虛擬機(jī)Ip就為 192.168.100.*幕随。
4蚁滋、 點(diǎn)擊NAT設(shè)置按鈕,打開對(duì)話框赘淮,可以修改網(wǎng)關(guān)地址和DNS地址辕录。這里我們?yōu)镹AT指定DNS地址。
5梢卸、 網(wǎng)關(guān)地址為當(dāng)前網(wǎng)段里的.2地址走诞,好像是固定的,我們不做修改蛤高,先記住網(wǎng)關(guān)地址就好了速梗,后面會(huì)用到。
第二步襟齿、安裝Linux操作系統(tǒng)
三姻锁、Vmware上安裝Linux系統(tǒng)
1、 文件菜單選擇新建虛擬機(jī)
2猜欺、 選擇經(jīng)典類型安裝位隶,下一步。
3开皿、 選擇稍后安裝操作系統(tǒng)涧黄,下一步。
4赋荆、 選擇Linux系統(tǒng)笋妥,版本選擇CentOS 64位。
5窄潭、 命名虛擬機(jī)春宣,給虛擬機(jī)起個(gè)名字,將來(lái)顯示在Vmware左側(cè)嫉你。并選擇Linux系統(tǒng)保存在宿主機(jī)的哪個(gè)目錄下月帝,應(yīng)該一個(gè)虛擬機(jī)保存在一個(gè)目錄下,不能多個(gè)虛擬機(jī)使用一個(gè)目錄幽污。
6嚷辅、 指定磁盤容量,是指定分給Linux虛擬機(jī)多大的硬盤距误,默認(rèn)20G就可以簸搞,下一步扁位。
7、 點(diǎn)擊自定義硬件趁俊,可以查看贤牛、修改虛擬機(jī)的硬件配置,這里我們不做修改则酝。
8殉簸、 點(diǎn)擊完成后,就創(chuàng)建了一個(gè)虛擬機(jī)沽讹,但是此時(shí)的虛擬機(jī)還是一個(gè)空殼般卑,沒有操作系統(tǒng),接下來(lái)安裝操作系統(tǒng)爽雄。
9蝠检、 點(diǎn)擊編輯虛擬機(jī)設(shè)置,找到DVD挚瘟,指定操作系統(tǒng)ISO文件所在位置叹谁。
10、 點(diǎn)擊開啟此虛擬機(jī)乘盖,選擇第一個(gè)回車開始安裝操作系統(tǒng)焰檩。
11、 設(shè)置root密碼订框。
12析苫、 選擇Desktop,這樣就會(huì)裝一個(gè)Xwindow穿扳。
13衩侥、 先不添加普通用戶,其他用默認(rèn)的矛物,就把Linux安裝完畢了茫死。
四、設(shè)置網(wǎng)絡(luò)
因?yàn)閂mware的NAT設(shè)置中關(guān)閉了DHCP自動(dòng)分配IP功能履羞,所以Linux還沒有IP峦萎,需要我們?cè)O(shè)置網(wǎng)絡(luò)各個(gè)參數(shù)。
1吧雹、 用root進(jìn)入Xwindow骨杂,右擊右上角的網(wǎng)絡(luò)連接圖標(biāo),選擇修改連接雄卷。
2、 網(wǎng)絡(luò)連接里列出了當(dāng)前Linux里所有的網(wǎng)卡蛤售,這里只有一個(gè)網(wǎng)卡System eth0丁鹉,點(diǎn)擊編輯妒潭。
3、 配置IP揣钦、子網(wǎng)掩碼抛蚤、網(wǎng)關(guān)(和NAT設(shè)置的一樣)嫉父、DNS等參數(shù),因?yàn)镹AT里設(shè)置網(wǎng)段為100.*,所以這臺(tái)機(jī)器可以設(shè)置為192.168.100.10網(wǎng)關(guān)和NAT一致筋夏,為192.168.100.2
4、 用ping來(lái)檢查是否可以連接外網(wǎng)昌跌,如下圖秉撇,已經(jīng)連接成功。
五浑劳、修改Hostname
1阱持、 臨時(shí)修改hostname
[root@localhost Desktop]# hostname bigdata-senior01.chybinmy.com
這種修改方式,系統(tǒng)重啟后就會(huì)失效魔熏。
2衷咽、 永久修改hostname
想永久修改,應(yīng)該修改配置文件 /etc/sysconfig/network蒜绽。
命令:[root@bigdata-senior01 ~] vim /etc/sysconfig/network
打開文件后镶骗,
NETWORKING=yes #使用網(wǎng)絡(luò)
HOSTNAME=bigdata-senior01.chybinmy.com #設(shè)置主機(jī)名
六、配置Host
命令:[root@bigdata-senior01 ~] vim /etc/hosts
添加hosts: 192.168.100.10 bigdata-senior01.chybinmy.com
七躲雅、關(guān)閉防火墻
學(xué)習(xí)環(huán)境可以直接把防火墻關(guān)閉掉卖词。
(1) 用root用戶登錄后,執(zhí)行查看防火墻狀態(tài)吏夯。
[root@bigdata-senior01 hadoop]# service iptables status
(2) 用[root@bigdata-senior01 hadoop]# service iptables stop關(guān)閉防火墻此蜈,這個(gè)是臨時(shí)關(guān)閉防火墻。
[root@bigdata-senior01 hadoop-2.5.0]# service iptables stop
iptables: Setting chains to policy ACCEPT: filter [ OK ]
iptables: Flushing firewall rules: [ OK ]
iptables: Unloading modules: [ OK ]
(3) 如果要永久關(guān)閉防火墻用噪生。
[root@bigdata-senior01 hadoop]# chkconfig iptables off
關(guān)閉裆赵,這種需要重啟才能生效。
八跺嗽、關(guān)閉selinux
selinux是Linux一個(gè)子安全機(jī)制战授,學(xué)習(xí)環(huán)境可以將它禁用。
[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim /etc/sysconfig/selinux
# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
# enforcing - SELinux security policy is enforced.
# permissive - SELinux prints warnings instead of enforcing.
# disabled - No SELinux policy is loaded.
SELINUX=disabled
# SELINUXTYPE= can take one of these two values:
# targeted - Targeted processes are protected,
# mls - Multi Level Security protection.
SELINUXTYPE=targeted
第三步桨嫁、安裝JDK
九植兰、安裝Java JDK
1、 查看是否已經(jīng)安裝了java JDK璃吧。
[root@bigdata-senior01 Desktop]# java –version
注意:Hadoop機(jī)器上的JDK楣导,最好是Oracle的Java JDK,不然會(huì)有一些問題畜挨,比如可能沒有JPS命令筒繁。
如果安裝了其他版本的JDK噩凹,卸載掉。
2毡咏、 安裝java JDK
(1) 去下載Oracle版本Java JDK:jdk-7u67-linux-x64.tar.gz
(2) 將jdk-7u67-linux-x64.tar.gz解壓到/opt/modules目錄下
[root@bigdata-senior01 /]# tar -zxvf jdk-7u67-linux-x64.tar.gz -C /opt/modules
(3) 添加環(huán)境變量
設(shè)置JDK的環(huán)境變量 JAVA_HOME驮宴。需要修改配置文件/etc/profile,追加
export JAVA_HOME="/opt/modules/jdk1.7.0_67"
export PATH=$JAVA_HOME/bin:$PATH
修改完畢后呕缭,執(zhí)行 source /etc/profile
(4)安裝后再次執(zhí)行 java –version,可以看見已經(jīng)安裝完成堵泽。
[root@bigdata-senior01 /]# java -version
java version "1.7.0_67"
Java(TM) SE Runtime Environment (build 1.7.0_67-b01)
Java HotSpot(TM) 64-Bit Server VM (build 24.65-b04, mixed mode)
第二部分:Hadoop本地模式安裝
第四步、Hadoop部署模式
Hadoop部署模式有:本地模式恢总、偽分布模式迎罗、完全分布式模式。
區(qū)分的依據(jù)是NameNode离熏、DataNode佳谦、ResourceManager、NodeManager等模塊運(yùn)行在幾個(gè)JVM進(jìn)程滋戳、幾個(gè)機(jī)器钻蔑。
模式名稱 | 各個(gè)模塊占用的JVM進(jìn)程數(shù) | 各個(gè)模塊運(yùn)行在幾個(gè)機(jī)器數(shù)上 |
---|---|---|
本地模式 | 1個(gè) | 1個(gè) |
偽分布式模式 | N個(gè) | 1個(gè) |
完全分布式模式 | N個(gè) | N個(gè) |
第五步、本地模式部署
十奸鸯、本地模式介紹
本地模式是最簡(jiǎn)單的模式咪笑,所有模塊都運(yùn)行與一個(gè)JVM進(jìn)程中,使用的本地文件系統(tǒng)娄涩,而不是HDFS窗怒,本地模式主要是用于本地開發(fā)過(guò)程中的運(yùn)行調(diào)試用。下載hadoop安裝包后不用任何設(shè)置蓄拣,默認(rèn)的就是本地模式扬虚。
十一、解壓hadoop后就是直接可以使用
1球恤、 創(chuàng)建一個(gè)存放本地模式hadoop的目錄
[hadoop@bigdata-senior01 modules]$ mkdir /opt/modules/hadoopstandalone
2辜昵、 解壓hadoop文件
[hadoop@bigdata-senior01 modules]$ tar -zxf /opt/sofeware/hadoop-2.5.0.tar.gz -C /opt/modules/hadoopstandalone/
3、 確保JAVA_HOME環(huán)境變量已經(jīng)配置好
[hadoop@bigdata-senior01 modules]$ echo ${JAVA_HOME}
/opt/modules/jdk1.7.0_67
十二咽斧、運(yùn)行MapReduce程序堪置,驗(yàn)證
我們這里用hadoop自帶的wordcount例子來(lái)在本地模式下測(cè)試跑mapreduce。
1张惹、 準(zhǔn)備mapreduce輸入文件wc.input
[hadoop@bigdata-senior01 modules]$ cat /opt/data/wc.input
hadoop mapreduce hive
hbase spark storm
sqoop hadoop hive
spark hadoop
2舀锨、 運(yùn)行hadoop自帶的mapreduce Demo
[hadoop@bigdata-senior01 hadoopstandalone]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /opt/data/wc.input output2
這里可以看到j(luò)ob ID中有l(wèi)ocal字樣,說(shuō)明是運(yùn)行在本地模式下的宛逗。
3坎匿、 查看輸出文件
本地模式下,mapreduce的輸出是輸出到本地。
[hadoop@bigdata-senior01 hadoopstandalone]$ ll output2
total 4
-rw-r--r-- 1 hadoop hadoop 60 Jul 7 12:50 part-r-00000
-rw-r--r-- 1 hadoop hadoop 0 Jul 7 12:50 _SUCCESS
輸出目錄中有_SUCCESS文件說(shuō)明JOB運(yùn)行成功碑诉,part-r-00000是輸出結(jié)果文件彪腔。
第三部分:Hadoop偽分布式模式安裝
第六步侥锦、偽分布式Hadoop部署過(guò)程
十三进栽、Hadoop所用的用戶設(shè)置
1、 創(chuàng)建一個(gè)名字為hadoop的普通用戶
[root@bigdata-senior01 ~]# useradd hadoop
[root@bigdata-senior01 ~]# passwd hadoop
2恭垦、 給hadoop用戶sudo權(quán)限
[root@bigdata-senior01 ~]# vim /etc/sudoers
設(shè)置權(quán)限快毛,學(xué)習(xí)環(huán)境可以將hadoop用戶的權(quán)限設(shè)置的大一些,但是生產(chǎn)環(huán)境一定要注意普通用戶的權(quán)限限制番挺。
root ALL=(ALL) ALL
hadoop ALL=(root) NOPASSWD:ALL
注意:如果root用戶無(wú)權(quán)修改sudoers文件唠帝,先手動(dòng)為root用戶添加寫權(quán)限。
[root@bigdata-senior01 ~]# chmod u+w /etc/sudoers
3玄柏、 切換到hadoop用戶
[root@bigdata-senior01 ~]# su - hadoop
[hadoop@bigdata-senior01 ~]$
4襟衰、 創(chuàng)建存放hadoop文件的目錄
[hadoop@bigdata-senior01 ~]$ sudo mkdir /opt/modules
5、 將hadoop文件夾的所有者指定為hadoop用戶
如果存放hadoop的目錄的所有者不是hadoop粪摘,之后hadoop運(yùn)行中可能會(huì)有權(quán)限問題瀑晒,那么就講所有者改為hadoop。
[hadoop@bigdata-senior01 ~]# sudo chown -R hadoop:hadoop /opt/modules
十四徘意、解壓Hadoop目錄文件
1苔悦、 復(fù)制hadoop-2.5.0.tar.gz到/opt/modules目錄下。
2椎咧、 解壓hadoop-2.5.0.tar.gz
[hadoop@bigdata-senior01 ~]# cd /opt/modules
[hadoop@bigdata-senior01 hadoop]# tar -zxvf hadoop-2.5.0.tar.gz
十五玖详、配置Hadoop
1、 配置Hadoop環(huán)境變量
[hadoop@bigdata-senior01 hadoop]# vim /etc/profile
追加配置:
export HADOOP_HOME="/opt/modules/hadoop-2.5.0"
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
執(zhí)行:source /etc/profile 使得配置生效
驗(yàn)證HADOOP_HOME參數(shù):
[hadoop@bigdata-senior01 /]$ echo $HADOOP_HOME
/opt/modules/hadoop-2.5.0
2勤讽、 配置 hadoop-env.sh蟋座、mapred-env.sh、yarn-env.sh文件的JAVA_HOME參數(shù)
[hadoop@bigdata-senior01 ~]$ sudo vim ${HADOOP_HOME}/etc/hadoop/hadoop-env.sh
修改JAVA_HOME參數(shù)為:
export JAVA_HOME="/opt/modules/jdk1.7.0_67"
3脚牍、 配置core-site.xml
配置hostname向臀,host,關(guān)閉防火墻的方法參見第一部分
[hadoop@bigdata-senior01 ~]{HADOOP_HOME}/etc/hadoop/core-site.xml
(1) fs.defaultFS參數(shù)配置的是HDFS的地址莫矗。
<property>
<name>fs.defaultFS</name>
<value>hdfs://bigdata-senior01.chybinmy.com:8020</value>
</property>
(2) hadoop.tmp.dir
配置的是Hadoop臨時(shí)目錄飒硅,比如HDFS的NameNode數(shù)據(jù)默認(rèn)都存放這個(gè)目錄下,查看*-default.xml
等默認(rèn)配置文件作谚,就可以看到很多依賴${hadoop.tmp.dir}
的配置三娩。
默認(rèn)的hadoop.tmp.dir
是/tmp/hadoop-${user.name}
,此時(shí)有個(gè)問題就是NameNode會(huì)將HDFS的元數(shù)據(jù)存儲(chǔ)在這個(gè)/tmp目錄下,如果操作系統(tǒng)重啟了妹懒,系統(tǒng)會(huì)清空/tmp目錄下的東西雀监,導(dǎo)致NameNode元數(shù)據(jù)丟失,是個(gè)非常嚴(yán)重的問題,所有我們應(yīng)該修改這個(gè)路徑会前。
- 創(chuàng)建臨時(shí)目錄:
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo mkdir -p /opt/data/tmp
- 將臨時(shí)目錄的所有者修改為hadoop
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo chown –R hadoop:hadoop /opt/data/tmp
- 修改hadoop.tmp.dir
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/data/tmp</value>
</property>
十六好乐、配置、格式化瓦宜、啟動(dòng)HDFS
1蔚万、 配置hdfs-site.xml
[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim ${HADOOP_HOME}/etc/hadoop/hdfs-site.xml
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
dfs.replication配置的是HDFS存儲(chǔ)時(shí)的備份數(shù)量,因?yàn)檫@里是偽分布式環(huán)境只有一個(gè)節(jié)點(diǎn)临庇,所以這里設(shè)置為1反璃。
2、 格式化HDFS
[hadoop@bigdata-senior01 ~]$ hdfs namenode –format
格式化是對(duì)HDFS這個(gè)分布式文件系統(tǒng)中的DataNode進(jìn)行分塊假夺,統(tǒng)計(jì)所有分塊后的初始元數(shù)據(jù)的存儲(chǔ)在NameNode中淮蜈。
格式化后,查看core-site.xml里hadoop.tmp.dir(本例是/opt/data/tmp目錄)指定的目錄下是否有了dfs目錄已卷,如果有梧田,說(shuō)明格式化成功。
注意:
格式化時(shí)侧蘸,這里注意hadoop.tmp.dir目錄的權(quán)限問題裁眯,應(yīng)該hadoop普通用戶有讀寫權(quán)限才行,可以將/opt/data的所有者改為hadoop闺魏。
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo chown -R hadoop:hadoop /opt/data查看NameNode格式化后的目錄未状。
[hadoop@bigdata-senior01 ~]$ ll /opt/data/tmp/dfs/name/current
fsimage是NameNode元數(shù)據(jù)在內(nèi)存滿了后析桥,持久化保存到的文件搔课。
fsimage*.md5
是校驗(yàn)文件,用于校驗(yàn)fsimage的完整性蔗牡。
seen_txid
是hadoop的版本
vession文件里保存:
namespaceID:NameNode的唯一ID。
clusterID:集群ID欺旧,NameNode和DataNode的集群ID應(yīng)該一致,表明是一個(gè)集群沦偎。
#Mon Jul 04 17:25:50 CST 2016
namespaceID=2101579007
clusterID=CID-205277e6-493b-4601-8e33-c09d1d23ece4
cTime=0
storageType=NAME_NODE
blockpoolID=BP-1641019026-127.0.0.1-1467624350057
layoutVersion=-57
3、 啟動(dòng)NameNode
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/sbin/hadoop-daemon.sh start namenode
starting namenode, logging to /opt/modules/hadoop-2.5.0/logs/hadoop-hadoop-namenode-bigdata-senior01.chybinmy.com.out
4扭粱、 啟動(dòng)DataNode
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/sbin/hadoop-daemon.sh start datanode
starting datanode, logging to /opt/modules/hadoop-2.5.0/logs/hadoop-hadoop-datanode-bigdata-senior01.chybinmy.com.out
5贺奠、 啟動(dòng)SecondaryNameNode
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/sbin/hadoop-daemon.sh start secondarynamenode
starting secondarynamenode, logging to /opt/modules/hadoop-2.5.0/logs/hadoop-hadoop-secondarynamenode-bigdata-senior01.chybinmy.com.out
6眉孩、 JPS命令查看是否已經(jīng)啟動(dòng)成功广恢,有結(jié)果就是啟動(dòng)成功了踏幻。
[hadoop@bigdata-senior01 hadoop-2.5.0]$ jps
3034 NameNode
3233 Jps
3193 SecondaryNameNode
3110 DataNode
7界赔、 HDFS上測(cè)試創(chuàng)建目錄、上傳酒来、下載文件
HDFS上創(chuàng)建目錄
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/bin/hdfs dfs -mkdir /demo1
上傳本地文件到HDFS上
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/bin/hdfs dfs -put
${HADOOP_HOME}/etc/hadoop/core-site.xml /demo1
讀取HDFS上的文件內(nèi)容
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/bin/hdfs dfs -cat /demo1/core-site.xml
從HDFS上下載文件到本地
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -get /demo1/core-site.xml
十七显拜、配置、啟動(dòng)YARN
1爹袁、 配置mapred-site.xml
默認(rèn)沒有mapred-site.xml文件远荠,但是有個(gè)mapred-site.xml.template配置模板文件。復(fù)制模板生成mapred-site.xml失息。
[hadoop@bigdata-senior01 hadoop-2.5.0]# cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
添加配置如下:
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
指定mapreduce運(yùn)行在yarn框架上譬淳。
2、 配置yarn-site.xml
添加配置如下:
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>bigdata-senior01.chybinmy.com</value>
</property>
yarn.nodemanager.aux-services配置了yarn的默認(rèn)混洗方式盹兢,選擇為mapreduce的默認(rèn)混洗算法邻梆。
-
yarn.resourcemanager.hostname指定了Resourcemanager運(yùn)行在哪個(gè)節(jié)點(diǎn)上。
enter image description here
3绎秒、 啟動(dòng)Resourcemanager
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/sbin/yarn-daemon.sh start resourcemanager
4浦妄、 啟動(dòng)nodemanager
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/sbin/yarn-daemon.sh start nodemanager
5、 查看是否啟動(dòng)成功
[hadoop@bigdata-senior01 hadoop-2.5.0]$ jps
3034 NameNode
4439 NodeManager
4197 ResourceManager
4543 Jps
3193 SecondaryNameNode
3110 DataNode
可以看到ResourceManager见芹、NodeManager已經(jīng)啟動(dòng)成功了剂娄。
6、 YARN的Web頁(yè)面
YARN的Web客戶端端口號(hào)是8088玄呛,通過(guò)http://192.168.100.10:8088/可以查看阅懦。
十八、運(yùn)行MapReduce Job
在Hadoop的share目錄里徘铝,自帶了一些jar包耳胎,里面帶有一些mapreduce實(shí)例小例子惯吕,位置在share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar,可以運(yùn)行這些例子體驗(yàn)剛搭建好的Hadoop平臺(tái)怕午,我們這里來(lái)運(yùn)行最經(jīng)典的WordCount實(shí)例混埠。
1、 創(chuàng)建測(cè)試用的Input文件
創(chuàng)建輸入目錄:
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -mkdir -p /wordcountdemo/input
創(chuàng)建原始文件:
在本地/opt/data目錄創(chuàng)建一個(gè)文件wc.input,內(nèi)容如下诗轻。
將wc.input文件上傳到HDFS的/wordcountdemo/input目錄中:
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -put /opt/data/wc.input /wordcountdemo/input
2钳宪、 運(yùn)行WordCount MapReduce Job
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-
2.5.0.jar wordcount /wordcountdemo/input /wordcountdemo/output
3、 查看輸出結(jié)果目錄
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -ls /wordcountdemo/output
-rw-r--r-- 1 hadoop supergroup 0 2016-07-05 05:12 /wordcountdemo/output/_SUCCESS
-rw-r--r-- 1 hadoop supergroup 60 2016-07-05 05:12 /wordcountdemo/output/part-r-00000
output目錄中有兩個(gè)文件扳炬,_SUCCESS文件是空文件吏颖,有這個(gè)文件說(shuō)明Job執(zhí)行成功。
part-r-00000文件是結(jié)果文件恨樟,其中-r-說(shuō)明這個(gè)文件是Reduce階段產(chǎn)生的結(jié)果半醉,mapreduce程序執(zhí)行時(shí),可以沒有reduce階段劝术,但是肯定會(huì)有map階段缩多,如果沒有reduce階段這個(gè)地方有是-m-。
一個(gè)reduce會(huì)產(chǎn)生一個(gè)part-r-開頭的文件养晋。
查看輸出文件內(nèi)容衬吆。
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -cat /wordcountdemo/output/part-r-00000
hadoop 3
hbase 1
hive 2
mapreduce 1
spark 2
sqoop 1
storm 1
結(jié)果是按照鍵值排好序的。
十九绳泉、停止Hadoop
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/hadoop-daemon.sh stop namenode
stopping namenode
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/hadoop-daemon.sh stop datanode
stopping datanode
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/yarn-daemon.sh stop resourcemanager
stopping resourcemanager
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/yarn-daemon.sh stop nodemanager
stopping nodemanager
二十逊抡、 Hadoop各個(gè)功能模塊的理解
1、 HDFS模塊
HDFS負(fù)責(zé)大數(shù)據(jù)的存儲(chǔ)零酪,通過(guò)將大文件分塊后進(jìn)行分布式存儲(chǔ)方式冒嫡,突破了服務(wù)器硬盤大小的限制,解決了單臺(tái)機(jī)器無(wú)法存儲(chǔ)大文件的問題四苇,HDFS是個(gè)相對(duì)獨(dú)立的模塊孝凌,可以為YARN提供服務(wù),也可以為HBase等其他模塊提供服務(wù)月腋。
2蟀架、 YARN模塊
YARN是一個(gè)通用的資源協(xié)同和任務(wù)調(diào)度框架,是為了解決Hadoop1.x中MapReduce里NameNode負(fù)載太大和其他問題而創(chuàng)建的一個(gè)框架罗售。
YARN是個(gè)通用框架辜窑,不止可以運(yùn)行MapReduce,還可以運(yùn)行Spark寨躁、Storm等其他計(jì)算框架穆碎。
3、 MapReduce模塊
MapReduce是一個(gè)計(jì)算框架职恳,它給出了一種數(shù)據(jù)處理的方式所禀,即通過(guò)Map階段方面、Reduce階段來(lái)分布式地流式處理數(shù)據(jù)。它只適用于大數(shù)據(jù)的離線處理色徘,對(duì)實(shí)時(shí)性要求很高的應(yīng)用不適用恭金。
第七步、開啟歷史服務(wù)
二十一褂策、歷史服務(wù)介紹
Hadoop開啟歷史服務(wù)可以在web頁(yè)面上查看Yarn上執(zhí)行job情況的詳細(xì)信息横腿。可以通過(guò)歷史服務(wù)器查看已經(jīng)運(yùn)行完的Mapreduce作業(yè)記錄斤寂,比如用了多少個(gè)Map耿焊、用了多少個(gè)Reduce、作業(yè)提交時(shí)間遍搞、作業(yè)啟動(dòng)時(shí)間罗侯、作業(yè)完成時(shí)間等信息。
二十二溪猿、開啟歷史服務(wù)
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/mr-jobhistory-daemon.sh start historyserver钩杰、
開啟后,可以通過(guò)Web頁(yè)面查看歷史服務(wù)器:
http://bigdata-senior01.chybinmy.com:19888/
二十三诊县、Web查看job執(zhí)行歷史
1讲弄、 運(yùn)行一個(gè)mapreduce任務(wù)
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-
2.5.0.jar wordcount /wordcountdemo/input /wordcountdemo/output1
2、 job執(zhí)行中
3翎冲、 查看job歷史
歷史服務(wù)器的Web端口默認(rèn)是19888垂睬,可以查看Web界面。
但是在上面所顯示的某一個(gè)Job任務(wù)頁(yè)面的最下面抗悍,Map和Reduce個(gè)數(shù)的鏈接上,點(diǎn)擊進(jìn)入Map的詳細(xì)信息頁(yè)面钳枕,再查看某一個(gè)Map或者Reduce的詳細(xì)日志是看不到的缴渊,是因?yàn)闆]有開啟日志聚集服務(wù)。
二十四鱼炒、開啟日志聚集
4衔沼、 日志聚集介紹
MapReduce是在各個(gè)機(jī)器上運(yùn)行的,在運(yùn)行過(guò)程中產(chǎn)生的日志存在于各個(gè)機(jī)器上昔瞧,為了能夠統(tǒng)一查看各個(gè)機(jī)器的運(yùn)行日志指蚁,將日志集中存放在HDFS上,這個(gè)過(guò)程就是日志聚集自晰。
5凝化、 開啟日志聚集
配置日志聚集功能:
Hadoop默認(rèn)是不啟用日志聚集的。在yarn-site.xml文件里配置啟用日志聚集酬荞。
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>106800</value>
</property>
yarn.log-aggregation-enable:是否啟用日志聚集功能搓劫。
yarn.log-aggregation.retain-seconds:設(shè)置日志保留時(shí)間瞧哟,單位是秒。
將配置文件分發(fā)到其他節(jié)點(diǎn):
[hadoop@bigdata-senior01 hadoop]$ scp /opt/modules/hadoop-2.5.0/etc/hadoop/yarn-site.xml bigdata-senior02.chybinmy.com:/opt/modules/hadoop-2.5.0/etc/hadoop/
[hadoop@bigdata-senior01 hadoop]$ scp /opt/modules/hadoop-2.5.0/etc/hadoop/yarn-site.xml bigdata-senior03.chybinmy.com:/opt/modules/hadoop-2.5.0/etc/hadoop/
重啟Yarn進(jìn)程:
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/stop-yarn.sh
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/start-yarn.sh
重啟HistoryServer進(jìn)程:
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/mr-jobhistory-daemon.sh stop historyserver
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/mr-jobhistory-daemon.sh start historyserver
6枪向、 測(cè)試日志聚集
運(yùn)行一個(gè)demo MapReduce勤揩,使之產(chǎn)生日志:
bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /input /output1
查看日志:
運(yùn)行Job后,就可以在歷史服務(wù)器Web頁(yè)面查看各個(gè)Map和Reduce的日志了秘蛔。
第四部分:完全分布式安裝
第八步陨亡、完全布式環(huán)境部署Hadoop
完全分部式是真正利用多臺(tái)Linux主機(jī)來(lái)進(jìn)行部署Hadoop,對(duì)Linux機(jī)器集群進(jìn)行規(guī)劃深员,使得Hadoop各個(gè)模塊分別部署在不同的多臺(tái)機(jī)器上负蠕。
二十五、環(huán)境準(zhǔn)備
1辨液、 克隆虛擬機(jī)
Vmware左側(cè)選中要克隆的機(jī)器虐急,這里對(duì)原有的BigData01機(jī)器進(jìn)行克隆,虛擬機(jī)菜單中滔迈,選中管理菜單下的克隆命令止吁。
選擇“創(chuàng)建完整克隆”,虛擬機(jī)名稱為BigData02燎悍,選擇虛擬機(jī)文件保存路徑敬惦,進(jìn)行克隆。
再次克隆一個(gè)名為BigData03的虛擬機(jī)谈山。
2俄删、 配置網(wǎng)絡(luò)
修改網(wǎng)卡名稱:
在BigData02和BigData03機(jī)器上編輯網(wǎng)卡信息。執(zhí)行sudo vim /etc/udev/rules.d/70-persistent-net.rules命令奏路。因?yàn)槭菑腂igData01機(jī)器克隆來(lái)的畴椰,所以會(huì)保留BigData01的網(wǎng)卡eth0,并且再添加一個(gè)網(wǎng)卡eth1鸽粉。并且eth0的Mac地址和BigData01的地址是一樣的斜脂,Mac地址不允許相同,所以要?jiǎng)h除eth0触机,只保留eth1網(wǎng)卡帚戳,并且要將eth1改名為eth0。將修改后的eth0的mac地址復(fù)制下來(lái)儡首,修改network-scripts文件中的HWADDR屬性片任。
sudo vim /etc/sysconfig/network-scripts/ifcfg-eth0
修改網(wǎng)絡(luò)參數(shù):
BigData02機(jī)器IP改為192.168.100.12
BigData03機(jī)器IP改為192.168.100.13
3、 配置Hostname
BigData02配置hostname為 bigdata-senior02.chybinmy.com
BigData03配置hostname為 bigdata-senior03.chybinmy.com
4蔬胯、 配置hosts
BigData01对供、BigData02、BigData03三臺(tái)機(jī)器hosts都配置為:
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo vim /etc/hosts
192.168.100.10 bigdata-senior01.chybinmy.com
192.168.100.12 bigdata-senior02.chybinmy.com
192.168.100.13 bigdata-senior03.chybinmy.com
5笔宿、 配置Windows上的SSH客戶端
在本地Windows中的SSH客戶端上添加對(duì)BigData02犁钟、BigData03機(jī)器的SSH鏈接棱诱。
二十六、服務(wù)器功能規(guī)劃
bigdata-senior01.chybinmy.com | bigdata-senior02.chybinmy.com | bigdata-senior03.chybinmy.com |
---|---|---|
NameNode | ResourceManage | |
DataNode | DataNode | DataNode |
NodeManager | NodeManager | NodeManager |
HistoryServer | SecondaryNameNode |
二十七涝动、在第一臺(tái)機(jī)器上安裝新的Hadoop
為了和之前BigData01機(jī)器上安裝偽分布式Hadoop區(qū)分開來(lái)迈勋,我們將BigData01上的Hadoop服務(wù)都停止掉,然后在一個(gè)新的目錄/opt/modules/app下安裝另外一個(gè)Hadoop醋粟。
我們采用先在第一臺(tái)機(jī)器上解壓靡菇、配置Hadoop,然后再分發(fā)到其他兩臺(tái)機(jī)器上的方式來(lái)安裝集群米愿。
6厦凤、 解壓Hadoop目錄:
[hadoop@bigdata-senior01 modules]$ tar -zxf /opt/sofeware/hadoop-2.5.0.tar.gz -C /opt/modules/app/
7、 配置Hadoop JDK路徑修改hadoop-env.sh育苟、mapred-env.sh较鼓、yarn-env.sh文件中的JDK路徑:
export JAVA_HOME="/opt/modules/jdk1.7.0_67"
8、 配置core-site.xml
[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim etc/hadoop/core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://bigdata-senior01.chybinmy.com:8020</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/modules/app/hadoop-2.5.0/data/tmp</value>
</property>
</configuration>
fs.defaultFS為NameNode的地址违柏。
hadoop.tmp.dir為hadoop臨時(shí)目錄的地址博烂,默認(rèn)情況下,NameNode和DataNode的數(shù)據(jù)文件都會(huì)存在這個(gè)目錄下的對(duì)應(yīng)子目錄下漱竖。應(yīng)該保證此目錄是存在的禽篱,如果不存在,先創(chuàng)建馍惹。
9躺率、 配置hdfs-site.xml
[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>bigdata-senior03.chybinmy.com:50090</value>
</property>
</configuration>
dfs.namenode.secondary.http-address是指定secondaryNameNode的http訪問地址和端口號(hào),因?yàn)樵谝?guī)劃中万矾,我們將BigData03規(guī)劃為SecondaryNameNode服務(wù)器悼吱。
所以這里設(shè)置為:bigdata-senior03.chybinmy.com:50090
10、 配置slaves
[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim etc/hadoop/slaves
bigdata-senior01.chybinmy.com
bigdata-senior02.chybinmy.com
bigdata-senior03.chybinmy.com
slaves文件是指定HDFS上有哪些DataNode節(jié)點(diǎn)良狈。
11舆绎、 配置yarn-site.xml
[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim etc/hadoop/yarn-site.xml
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>bigdata-senior02.chybinmy.com</value>
</property>
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>106800</value>
</property>
根據(jù)規(guī)劃yarn.resourcemanager.hostname
這個(gè)指定resourcemanager服務(wù)器指向bigdata-senior02.chybinmy.com
。
yarn.log-aggregation-enable
是配置是否啟用日志聚集功能们颜。
yarn.log-aggregation.retain-seconds
是配置聚集的日志在HDFS上最多保存多長(zhǎng)時(shí)間。
12猎醇、 配置mapred-site.xml
從mapred-site.xml.template復(fù)制一個(gè)mapred-site.xml文件窥突。
[hadoop@bigdata-senior01 hadoop-2.5.0]$ cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>bigdata-senior01.chybinmy.com:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>bigdata-senior01.chybinmy.com:19888</value>
</property>
</configuration>
mapreduce.framework.name設(shè)置mapreduce任務(wù)運(yùn)行在yarn上。
mapreduce.jobhistory.address是設(shè)置mapreduce的歷史服務(wù)器安裝在BigData01機(jī)器上硫嘶。
mapreduce.jobhistory.webapp.address是設(shè)置歷史服務(wù)器的web頁(yè)面地址和端口號(hào)阻问。
二十八、設(shè)置SSH無(wú)密碼登錄
Hadoop集群中的各個(gè)機(jī)器間會(huì)相互地通過(guò)SSH訪問沦疾,每次訪問都輸入密碼是不現(xiàn)實(shí)的称近,所以要配置各個(gè)機(jī)器間的
SSH是無(wú)密碼登錄的第队。
1、 在BigData01上生成公鑰
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ssh-keygen -t rsa
一路回車刨秆,都設(shè)置為默認(rèn)值凳谦,然后再當(dāng)前用戶的Home目錄下的.ssh
目錄中會(huì)生成公鑰文件(id_rsa.pub)
和私鑰文件(id_rsa)
。
2衡未、 分發(fā)公鑰
yum install ssh-clients
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ssh-copy-id bigdata-senior01.chybinmy.com
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ssh-copy-id bigdata-senior02.chybinmy.com
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ssh-copy-id bigdata-senior03.chybinmy.com
3尸执、 設(shè)置BigData02、BigData03到其他機(jī)器的無(wú)密鑰登錄
同樣的在BigData02缓醋、BigData03上生成公鑰和私鑰后如失,將公鑰分發(fā)到三臺(tái)機(jī)器上。
二十九送粱、分發(fā)Hadoop文件
1褪贵、 首先在其他兩臺(tái)機(jī)器上創(chuàng)建存放Hadoop的目錄
[hadoop@bigdata-senior02 ~]$ mkdir /opt/modules/app
[hadoop@bigdata-senior03 ~]$ mkdir /opt/modules/app
2、 通過(guò)Scp分發(fā)
Hadoop根目錄下的share/doc目錄是存放的hadoop的文檔抗俄,文件相當(dāng)大脆丁,建議在分發(fā)之前將這個(gè)目錄刪除掉,可以節(jié)省硬盤空間并能提高分發(fā)的速度橄镜。
doc目錄大小有1.6G偎快。
[hadoop@bigdata-senior01 hadoop-2.5.0]$ du -sh /opt/modules/app/hadoop-2.5.0/share/doc
1.6G /opt/modules/app/hadoop-2.5.0/share/doc
[hadoop@bigdata-senior01 hadoop-2.5.0]$ scp -r /opt/modules/app/hadoop-2.5.0/ bigdata-senior02.chybinmy.com:/opt/modules/app
[hadoop@bigdata-senior01 hadoop-2.5.0]$ scp -r /opt/modules/app/hadoop-2.5.0/ bigdata-senior03.chybinmy.com:/opt/modules/app
三十、格式NameNode
在NameNode機(jī)器上執(zhí)行格式化:
[hadoop@bigdata-senior01 hadoop-2.5.0]$ /opt/modules/app/hadoop-2.5.0/bin/hdfs namenode –format
注意:
如果需要重新格式化NameNode,需要先將原來(lái)NameNode和DataNode下的文件全部刪除洽胶,不然會(huì)報(bào)錯(cuò)晒夹,NameNode和DataNode所在目錄是在core-site.xml
中hadoop.tmp.dir
、dfs.namenode.name.dir
姊氓、dfs.datanode.data.dir
屬性配置的丐怯。
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/data/tmp</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>file://${hadoop.tmp.dir}/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file://${hadoop.tmp.dir}/dfs/data</value>
</property>
因?yàn)槊看胃袷交J(rèn)是創(chuàng)建一個(gè)集群ID翔横,并寫入NameNode和DataNode的VERSION文件中(VERSION文件所在目錄為dfs/name/current 和 dfs/data/current)读跷,重新格式化時(shí),默認(rèn)會(huì)生成一個(gè)新的集群ID,如果不刪除原來(lái)的目錄禾唁,會(huì)導(dǎo)致namenode中的VERSION文件中是新的集群ID,而DataNode中是舊的集群ID效览,不一致時(shí)會(huì)報(bào)錯(cuò)。
另一種方法是格式化時(shí)指定集群ID參數(shù)荡短,指定為舊的集群ID丐枉。
三十一、啟動(dòng)集群
1掘托、 啟動(dòng)HDFS
[hadoop@bigdata-senior01 hadoop-2.5.0]$ /opt/modules/app/hadoop-2.5.0/sbin/start-dfs.sh
2瘦锹、 啟動(dòng)YARN
[hadoop@bigdata-senior01 hadoop-2.5.0]$ /opt/modules/app/hadoop-2.5.0/sbin/start-yarn.sh
在BigData02上啟動(dòng)ResourceManager:
[hadoop@bigdata-senior02 hadoop-2.5.0]$ sbin/yarn-daemon.sh start resourcemanager
3、 啟動(dòng)日志服務(wù)器
因?yàn)槲覀円?guī)劃的是在BigData03服務(wù)器上運(yùn)行MapReduce日志服務(wù),所以要在BigData03上啟動(dòng)弯院。
[hadoop@bigdata-senior03 ~]$ /opt/modules/app/hadoop-2.5.0/sbin/mr-jobhistory-daemon.sh start historyserver
starting historyserver, logging to /opt/modules/app/hadoop-2.5.0/logs/mapred-hadoop-historyserver-bigda ta-senior03.chybinmy.com.out
[hadoop@bigdata-senior03 ~]$ jps
3570 Jps
3537 JobHistoryServer
3310 SecondaryNameNode
3213 DataNode
3392 NodeManager
4辱士、 查看HDFS Web頁(yè)面
http://bigdata-senior01.chybinmy.com:50070/
5、 查看YARN Web 頁(yè)面
http://bigdata-senior02.chybinmy.com:8088/cluster
三十二听绳、測(cè)試Job
我們這里用hadoop自帶的wordcount例子來(lái)在本地模式下測(cè)試跑mapreduce颂碘。
1、 準(zhǔn)備mapreduce輸入文件wc.input
[hadoop@bigdata-senior01 modules]$ cat /opt/data/wc.input
hadoop mapreduce hive
hbase spark storm
sqoop hadoop hive
spark hadoop
2辫红、 在HDFS創(chuàng)建輸入目錄input
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -mkdir /input
3凭涂、 將wc.input上傳到HDFS
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -put /opt/data/wc.input /input/wc.input
4、 運(yùn)行hadoop自帶的mapreduce Demo
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /input/wc.input /output
5贴妻、 查看輸出文件
[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -ls /output
Found 2 items
-rw-r--r-- 3 hadoop supergroup 0 2016-07-14 16:36 /output/_SUCCESS
-rw-r--r-- 3 hadoop supergroup 60 2016-07-14 16:36 /output/part-r-00000