Hadoop集群環(huán)境搭建

前言

Hadoop在大數(shù)據(jù)技術(shù)體系中的地位至關(guān)重要上忍,Hadoop是大數(shù)據(jù)技術(shù)的基礎(chǔ),對Hadoop基礎(chǔ)知識的掌握的扎實程度,會決定在大數(shù)據(jù)技術(shù)道路上走多遠事甜。

這是一篇入門文章馒疹,Hadoop的學習方法很多佳簸,網(wǎng)上也有很多學習路線圖。本文的思路是:以安裝部署Apache Hadoop2.x版本為主線颖变,來介紹Hadoop2.x的架構(gòu)組成生均、各模塊協(xié)同工作原理、技術(shù)細節(jié)腥刹。安裝不是目的马胧,通過安裝認識Hadoop才是目的。

第一部分:Linux環(huán)境安裝

Hadoop是運行在Linux衔峰,雖然借助工具也可以運行在Windows上佩脊,但是建議還是運行在Linux系統(tǒng)上蛙粘,第一部分介紹Linux環(huán)境的安裝、配置威彰、Java JDK安裝等出牧。

第二部分:Hadoop本地模式安裝

Hadoop本地模式只是用于本地開發(fā)調(diào)試,或者快速安裝體驗Hadoop歇盼,這部分做簡單的介紹舔痕。

第三部分:Hadoop偽分布式模式安裝

學習Hadoop一般是在偽分布式模式下進行。這種模式是在一臺機器上各個進程上運行Hadoop的各個模塊豹缀,偽分布式的意思是雖然各個模塊是在各個進程上分開運行的伯复,但是只是運行在一個操作系統(tǒng)上的,并不是真正的分布式邢笙。

第四部分:完全分布式安裝

完全分布式模式才是生產(chǎn)環(huán)境采用的模式啸如,Hadoop運行在服務器集群上,生產(chǎn)環(huán)境一般都會做HA鸣剪,以實現(xiàn)高可用组底。

第一部分:Linux環(huán)境安裝

第一步、配置Vmware NAT網(wǎng)絡

一筐骇、Vmware網(wǎng)絡模式介紹

參考:http://blog.csdn.net/collection4u/article/details/14127671

二债鸡、NAT模式配置

NAT是網(wǎng)絡地址轉(zhuǎn)換,是在宿主機和虛擬機之間增加一個地址轉(zhuǎn)換服務,負責外部和虛擬機之間的通訊轉(zhuǎn)接和IP轉(zhuǎn)換。

我們部署Hadoop集群维贺,這里選擇NAT模式,各個虛擬機通過NAT使用宿主機的IP來訪問外網(wǎng)棺弊。

我們的要求是集群中的各個虛擬機有固定的IP、可以訪問外網(wǎng)擒悬,所以進行如下設(shè)置:

1模她、 Vmware安裝后,默認的NAT設(shè)置如下:

enter image description here

2懂牧、 默認的設(shè)置是啟動DHCP服務的侈净,NAT會自動給虛擬機分配IP,但是我們需要將各個機器的IP固定下來僧凤,所以要取消這個默認設(shè)置畜侦。

3、 為機器設(shè)置一個子網(wǎng)網(wǎng)段躯保,默認是192.168.136網(wǎng)段旋膳,我們這里設(shè)置為100網(wǎng)段,將來各個虛擬機Ip就為 192.168.100.*途事。

4验懊、 點擊NAT設(shè)置按鈕擅羞,打開對話框,可以修改網(wǎng)關(guān)地址和DNS地址义图。這里我們?yōu)镹AT指定DNS地址祟滴。

enter image description here

5、 網(wǎng)關(guān)地址為當前網(wǎng)段里的.2地址歌溉,好像是固定的,我們不做修改骑晶,先記住網(wǎng)關(guān)地址就好了痛垛,后面會用到。

第二步桶蛔、安裝Linux操作系統(tǒng)

三匙头、Vmware上安裝Linux系統(tǒng)

1、 文件菜單選擇新建虛擬機

2仔雷、 選擇經(jīng)典類型安裝蹂析,下一步。

3碟婆、 選擇稍后安裝操作系統(tǒng)电抚,下一步。

4竖共、 選擇Linux系統(tǒng)蝙叛,版本選擇CentOS 64位。

enter image description here

5公给、 命名虛擬機借帘,給虛擬機起個名字,將來顯示在Vmware左側(cè)淌铐。并選擇Linux系統(tǒng)保存在宿主機的哪個目錄下肺然,應該一個虛擬機保存在一個目錄下,不能多個虛擬機使用一個目錄腿准。

enter image description here

6际起、 指定磁盤容量,是指定分給Linux虛擬機多大的硬盤释涛,默認20G就可以加叁,下一步。

7唇撬、 點擊自定義硬件它匕,可以查看、修改虛擬機的硬件配置窖认,這里我們不做修改豫柬。

8告希、 點擊完成后,就創(chuàng)建了一個虛擬機烧给,但是此時的虛擬機還是一個空殼燕偶,沒有操作系統(tǒng),接下來安裝操作系統(tǒng)础嫡。

9指么、 點擊編輯虛擬機設(shè)置,找到DVD榴鼎,指定操作系統(tǒng)ISO文件所在位置伯诬。

enter image description here

10、 點擊開啟此虛擬機巫财,選擇第一個回車開始安裝操作系統(tǒng)盗似。

enter image description here

11、 設(shè)置root密碼平项。

enter image description here

12赫舒、 選擇Desktop,這樣就會裝一個Xwindow闽瓢。

enter image description here

13接癌、 先不添加普通用戶,其他用默認的扣讼,就把Linux安裝完畢了扔涧。

四、設(shè)置網(wǎng)絡

因為Vmware的NAT設(shè)置中關(guān)閉了DHCP自動分配IP功能届谈,所以Linux還沒有IP枯夜,需要我們設(shè)置網(wǎng)絡各個參數(shù)。

1艰山、 用root進入Xwindow湖雹,右擊右上角的網(wǎng)絡連接圖標,選擇修改連接曙搬。

enter image description here

2摔吏、 網(wǎng)絡連接里列出了當前Linux里所有的網(wǎng)卡,這里只有一個網(wǎng)卡System eth0纵装,點擊編輯征讲。

enter image description here

3、 配置IP橡娄、子網(wǎng)掩碼诗箍、網(wǎng)關(guān)(和NAT設(shè)置的一樣)、DNS等參數(shù)挽唉,因為NAT里設(shè)置網(wǎng)段為100.*滤祖,所以這臺機器可以設(shè)置為192.168.100.10網(wǎng)關(guān)和NAT一致筷狼,為192.168.100.2

enter image description here

4、 用ping來檢查是否可以連接外網(wǎng)匠童,如下圖埂材,已經(jīng)連接成功。

enter image description here

五汤求、修改Hostname

1俏险、 臨時修改hostname

[root@localhost Desktop]# hostname bigdata-senior01.chybinmy.com

這種修改方式,系統(tǒng)重啟后就會失效扬绪。

2寡喝、 永久修改hostname

想永久修改,應該修改配置文件 /etc/sysconfig/network勒奇。

命令:[root@bigdata-senior01 ~] vim /etc/sysconfig/network

打開文件后,

NETWORKING=yes  #使用網(wǎng)絡
HOSTNAME=bigdata-senior01.chybinmy.com  #設(shè)置主機名

六巧骚、配置Host

命令:[root@bigdata-senior01 ~] vim /etc/hosts
添加hosts: 192.168.100.10 bigdata-senior01.chybinmy.com

七赊颠、關(guān)閉防火墻

學習環(huán)境可以直接把防火墻關(guān)閉掉。

(1) 用root用戶登錄后劈彪,執(zhí)行查看防火墻狀態(tài)竣蹦。

[root@bigdata-senior01 hadoop]# service iptables status

(2) 用[root@bigdata-senior01 hadoop]# service iptables stop關(guān)閉防火墻,這個是臨時關(guān)閉防火墻沧奴。

[root@bigdata-senior01 hadoop-2.5.0]# service iptables stop
iptables: Setting chains to policy ACCEPT: filter          [  OK  ]
iptables: Flushing firewall rules:                         [  OK  ]
iptables: Unloading modules:                               [  OK  ]

(3) 如果要永久關(guān)閉防火墻用痘括。

[root@bigdata-senior01 hadoop]# chkconfig iptables off

關(guān)閉,這種需要重啟才能生效滔吠。

八纲菌、關(guān)閉selinux

selinux是Linux一個子安全機制,學習環(huán)境可以將它禁用疮绷。

[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim /etc/sysconfig/selinux
# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
#     enforcing - SELinux security policy is enforced.
#     permissive - SELinux prints warnings instead of enforcing.
#     disabled - No SELinux policy is loaded.
SELINUX=disabled
# SELINUXTYPE= can take one of these two values:
#     targeted - Targeted processes are protected,
#     mls - Multi Level Security protection.
SELINUXTYPE=targeted
enter image description here

第三步翰舌、安裝JDK

九、安裝Java JDK

1冬骚、 查看是否已經(jīng)安裝了java JDK椅贱。

[root@bigdata-senior01 Desktop]# java –version

注意:Hadoop機器上的JDK,最好是Oracle的Java JDK只冻,不然會有一些問題庇麦,比如可能沒有JPS命令。
如果安裝了其他版本的JDK喜德,卸載掉山橄。

2、 安裝java JDK

(1) 去下載Oracle版本Java JDK:jdk-7u67-linux-x64.tar.gz

(2) 將jdk-7u67-linux-x64.tar.gz解壓到/opt/modules目錄下

[root@bigdata-senior01 /]# tar -zxvf jdk-7u67-linux-x64.tar.gz -C /opt/modules

(3) 添加環(huán)境變量

設(shè)置JDK的環(huán)境變量 JAVA_HOME舍悯。需要修改配置文件/etc/profile驾胆,追加

export JAVA_HOME="/opt/modules/jdk1.7.0_67"
export PATH=$JAVA_HOME/bin:$PATH

修改完畢后涣澡,執(zhí)行 source /etc/profile

(4)安裝后再次執(zhí)行 java –version,可以看見已經(jīng)安裝完成。

[root@bigdata-senior01 /]# java -version
java version "1.7.0_67"
Java(TM) SE Runtime Environment (build 1.7.0_67-b01)
Java HotSpot(TM) 64-Bit Server VM (build 24.65-b04, mixed mode)

第二部分:Hadoop本地模式安裝

第四步丧诺、Hadoop部署模式

Hadoop部署模式有:本地模式入桂、偽分布模式、完全分布式模式驳阎。
區(qū)分的依據(jù)是NameNode抗愁、DataNode、ResourceManager呵晚、NodeManager等模塊運行在幾個JVM進程蜘腌、幾個機器。

模式名稱 各個模塊占用的JVM進程數(shù) 各個模塊運行在幾個機器數(shù)上
本地模式 1個 1個
偽分布式模式 N個 1個
完全分布式模式 N個 N個

第五步饵隙、本地模式部署

十撮珠、本地模式介紹

本地模式是最簡單的模式,所有模塊都運行與一個JVM進程中金矛,使用的本地文件系統(tǒng)芯急,而不是HDFS,本地模式主要是用于本地開發(fā)過程中的運行調(diào)試用驶俊。下載hadoop安裝包后不用任何設(shè)置娶耍,默認的就是本地模式。

十一饼酿、解壓hadoop后就是直接可以使用

1榕酒、 創(chuàng)建一個存放本地模式hadoop的目錄

[hadoop@bigdata-senior01 modules]$ mkdir /opt/modules/hadoopstandalone

2、 解壓hadoop文件

[hadoop@bigdata-senior01 modules]$ tar -zxf /opt/sofeware/hadoop-2.5.0.tar.gz  -C /opt/modules/hadoopstandalone/

3故俐、 確保JAVA_HOME環(huán)境變量已經(jīng)配置好

[hadoop@bigdata-senior01 modules]$ echo ${JAVA_HOME}
/opt/modules/jdk1.7.0_67

十二想鹰、運行MapReduce程序,驗證

我們這里用hadoop自帶的wordcount例子來在本地模式下測試跑mapreduce药版。

1杖挣、 準備mapreduce輸入文件wc.input

[hadoop@bigdata-senior01 modules]$ cat /opt/data/wc.input
hadoop mapreduce hive
hbase spark storm
sqoop hadoop hive
spark hadoop

2、 運行hadoop自帶的mapreduce Demo

[hadoop@bigdata-senior01 hadoopstandalone]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /opt/data/wc.input output2
enter image description here

這里可以看到job ID中有l(wèi)ocal字樣刚陡,說明是運行在本地模式下的惩妇。

3、 查看輸出文件

本地模式下筐乳,mapreduce的輸出是輸出到本地歌殃。

[hadoop@bigdata-senior01 hadoopstandalone]$ ll output2
total 4
-rw-r--r-- 1 hadoop hadoop 60 Jul  7 12:50 part-r-00000
-rw-r--r-- 1 hadoop hadoop  0 Jul  7 12:50 _SUCCESS

輸出目錄中有_SUCCESS文件說明JOB運行成功,part-r-00000是輸出結(jié)果文件蝙云。

第三部分:Hadoop偽分布式模式安裝

第六步氓皱、偽分布式Hadoop部署過程

十三、Hadoop所用的用戶設(shè)置

1、 創(chuàng)建一個名字為hadoop的普通用戶

[root@bigdata-senior01 ~]# useradd hadoop
[root@bigdata-senior01 ~]# passwd hadoop

2波材、 給hadoop用戶sudo權(quán)限

[root@bigdata-senior01 ~]# vim /etc/sudoers

設(shè)置權(quán)限股淡,學習環(huán)境可以將hadoop用戶的權(quán)限設(shè)置的大一些,但是生產(chǎn)環(huán)境一定要注意普通用戶的權(quán)限限制廷区。

root    ALL=(ALL)       ALL
hadoop ALL=(root) NOPASSWD:ALL

注意:如果root用戶無權(quán)修改sudoers文件唯灵,先手動為root用戶添加寫權(quán)限。

[root@bigdata-senior01 ~]# chmod u+w /etc/sudoers

3隙轻、 切換到hadoop用戶

[root@bigdata-senior01 ~]# su - hadoop
[hadoop@bigdata-senior01 ~]$

4埠帕、 創(chuàng)建存放hadoop文件的目錄

[hadoop@bigdata-senior01 ~]$ sudo mkdir /opt/modules

5、 將hadoop文件夾的所有者指定為hadoop用戶

如果存放hadoop的目錄的所有者不是hadoop玖绿,之后hadoop運行中可能會有權(quán)限問題敛瓷,那么就講所有者改為hadoop。

[hadoop@bigdata-senior01 ~]# sudo chown -R hadoop:hadoop /opt/modules

十四斑匪、解壓Hadoop目錄文件

1呐籽、 復制hadoop-2.5.0.tar.gz到/opt/modules目錄下。

2蚀瘸、 解壓hadoop-2.5.0.tar.gz

[hadoop@bigdata-senior01 ~]# cd /opt/modules
[hadoop@bigdata-senior01 hadoop]# tar -zxvf hadoop-2.5.0.tar.gz

十五狡蝶、配置Hadoop

1、 配置Hadoop環(huán)境變量

[hadoop@bigdata-senior01 hadoop]# vim /etc/profile

追加配置:

export HADOOP_HOME="/opt/modules/hadoop-2.5.0"
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

執(zhí)行:source /etc/profile 使得配置生效

驗證HADOOP_HOME參數(shù):

[hadoop@bigdata-senior01 /]$ echo $HADOOP_HOME
/opt/modules/hadoop-2.5.0

2苍姜、 配置 hadoop-env.sh、mapred-env.sh悬包、yarn-env.sh文件的JAVA_HOME參數(shù)

[hadoop@bigdata-senior01 ~]$ sudo vim  ${HADOOP_HOME}/etc/hadoop/hadoop-env.sh
修改JAVA_HOME參數(shù)為:
export JAVA_HOME="/opt/modules/jdk1.7.0_67"

3衙猪、 配置core-site.xml

enter image description here

配置hostname,host布近,關(guān)閉防火墻的方法參見第一部分

[hadoop@bigdata-senior01 ~]{HADOOP_HOME}/etc/hadoop/core-site.xml
(1) fs.defaultFS參數(shù)配置的是HDFS的地址垫释。

<property>
<name>fs.defaultFS</name>
<value>hdfs://bigdata-senior01.chybinmy.com:8020</value>
</property>

(2) hadoop.tmp.dir配置的是Hadoop臨時目錄,比如HDFS的NameNode數(shù)據(jù)默認都存放這個目錄下撑瞧,查看*-default.xml等默認配置文件棵譬,就可以看到很多依賴${hadoop.tmp.dir}的配置。

默認的hadoop.tmp.dir/tmp/hadoop-${user.name},此時有個問題就是NameNode會將HDFS的元數(shù)據(jù)存儲在這個/tmp目錄下预伺,如果操作系統(tǒng)重啟了订咸,系統(tǒng)會清空/tmp目錄下的東西,導致NameNode元數(shù)據(jù)丟失酬诀,是個非常嚴重的問題脏嚷,所有我們應該修改這個路徑。

  • 創(chuàng)建臨時目錄:
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo mkdir -p /opt/data/tmp
  • 將臨時目錄的所有者修改為hadoop
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo chown –R hadoop:hadoop /opt/data/tmp
  • 修改hadoop.tmp.dir
 <property>
   <name>hadoop.tmp.dir</name>
    <value>/opt/data/tmp</value>
  </property>

十六瞒御、配置父叙、格式化、啟動HDFS

1、 配置hdfs-site.xml

enter image description here
[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim ${HADOOP_HOME}/etc/hadoop/hdfs-site.xml
    <property>
       <name>dfs.replication</name>
       <value>1</value>
    </property>

dfs.replication配置的是HDFS存儲時的備份數(shù)量趾唱,因為這里是偽分布式環(huán)境只有一個節(jié)點涌乳,所以這里設(shè)置為1。

2甜癞、 格式化HDFS

enter image description here
[hadoop@bigdata-senior01 ~]$ hdfs namenode –format

格式化是對HDFS這個分布式文件系統(tǒng)中的DataNode進行分塊夕晓,統(tǒng)計所有分塊后的初始元數(shù)據(jù)的存儲在NameNode中。

格式化后带欢,查看core-site.xml里hadoop.tmp.dir(本例是/opt/data/tmp目錄)指定的目錄下是否有了dfs目錄运授,如果有,說明格式化成功乔煞。

注意:

  1. 格式化時吁朦,這里注意hadoop.tmp.dir目錄的權(quán)限問題,應該hadoop普通用戶有讀寫權(quán)限才行渡贾,可以將/opt/data的所有者改為hadoop逗宜。
    [hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo chown -R hadoop:hadoop /opt/data

  2. 查看NameNode格式化后的目錄。

   [hadoop@bigdata-senior01 ~]$ ll /opt/data/tmp/dfs/name/current
enter image description here

fsimage是NameNode元數(shù)據(jù)在內(nèi)存滿了后空骚,持久化保存到的文件纺讲。

fsimage*.md5 是校驗文件,用于校驗fsimage的完整性囤屹。

seen_txid 是hadoop的版本

vession文件里保存:

  • namespaceID:NameNode的唯一ID熬甚。

  • clusterID:集群ID,NameNode和DataNode的集群ID應該一致肋坚,表明是一個集群乡括。

#Mon Jul 04 17:25:50 CST 2016
namespaceID=2101579007
clusterID=CID-205277e6-493b-4601-8e33-c09d1d23ece4
cTime=0
storageType=NAME_NODE
blockpoolID=BP-1641019026-127.0.0.1-1467624350057
layoutVersion=-57

3、 啟動NameNode

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/sbin/hadoop-daemon.sh start namenode
starting namenode, logging to /opt/modules/hadoop-2.5.0/logs/hadoop-hadoop-namenode-bigdata-senior01.chybinmy.com.out
enter image description here

4智厌、 啟動DataNode

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/sbin/hadoop-daemon.sh start datanode
starting datanode, logging to /opt/modules/hadoop-2.5.0/logs/hadoop-hadoop-datanode-bigdata-senior01.chybinmy.com.out
enter image description here

5诲泌、 啟動SecondaryNameNode

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/sbin/hadoop-daemon.sh start secondarynamenode
starting secondarynamenode, logging to /opt/modules/hadoop-2.5.0/logs/hadoop-hadoop-secondarynamenode-bigdata-senior01.chybinmy.com.out
enter image description here

6、 JPS命令查看是否已經(jīng)啟動成功铣鹏,有結(jié)果就是啟動成功了敷扫。

[hadoop@bigdata-senior01 hadoop-2.5.0]$ jps
3034 NameNode
3233 Jps
3193 SecondaryNameNode
3110 DataNode
enter image description here

7、 HDFS上測試創(chuàng)建目錄诚卸、上傳葵第、下載文件

HDFS上創(chuàng)建目錄

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/bin/hdfs dfs -mkdir /demo1

上傳本地文件到HDFS上

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/bin/hdfs dfs -put 
${HADOOP_HOME}/etc/hadoop/core-site.xml /demo1

讀取HDFS上的文件內(nèi)容

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/bin/hdfs dfs -cat /demo1/core-site.xml
enter image description here

從HDFS上下載文件到本地

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -get /demo1/core-site.xml
enter image description here

十七、配置合溺、啟動YARN

1羹幸、 配置mapred-site.xml

默認沒有mapred-site.xml文件,但是有個mapred-site.xml.template配置模板文件辫愉。復制模板生成mapred-site.xml栅受。

[hadoop@bigdata-senior01 hadoop-2.5.0]# cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml

添加配置如下:

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

指定mapreduce運行在yarn框架上。

enter image description here

2、 配置yarn-site.xml

添加配置如下:

<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>
<property>
    <name>yarn.resourcemanager.hostname</name>
    <value>bigdata-senior01.chybinmy.com</value>
 </property>
  • yarn.nodemanager.aux-services配置了yarn的默認混洗方式屏镊,選擇為mapreduce的默認混洗算法依疼。

  • yarn.resourcemanager.hostname指定了Resourcemanager運行在哪個節(jié)點上。

    enter image description here

3而芥、 啟動Resourcemanager

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/sbin/yarn-daemon.sh start resourcemanager
enter image description here

4律罢、 啟動nodemanager

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ${HADOOP_HOME}/sbin/yarn-daemon.sh start nodemanager
enter image description here

5棍丐、 查看是否啟動成功

[hadoop@bigdata-senior01 hadoop-2.5.0]$ jps
3034 NameNode
4439 NodeManager
4197 ResourceManager
4543 Jps
3193 SecondaryNameNode
3110 DataNode

可以看到ResourceManager误辑、NodeManager已經(jīng)啟動成功了。

enter image description here

6歌逢、 YARN的Web頁面

YARN的Web客戶端端口號是8088巾钉,通過http://192.168.100.10:8088/可以查看。

enter image description here

十八秘案、運行MapReduce Job

在Hadoop的share目錄里砰苍,自帶了一些jar包,里面帶有一些mapreduce實例小例子阱高,位置在share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar赚导,可以運行這些例子體驗剛搭建好的Hadoop平臺,我們這里來運行最經(jīng)典的WordCount實例赤惊。

1吼旧、 創(chuàng)建測試用的Input文件

創(chuàng)建輸入目錄:

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -mkdir -p /wordcountdemo/input

創(chuàng)建原始文件:

在本地/opt/data目錄創(chuàng)建一個文件wc.input,內(nèi)容如下。

enter image description here

將wc.input文件上傳到HDFS的/wordcountdemo/input目錄中:

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -put /opt/data/wc.input /wordcountdemo/input
enter image description here

2未舟、 運行WordCount MapReduce Job

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-
2.5.0.jar wordcount /wordcountdemo/input /wordcountdemo/output
enter image description here

3圈暗、 查看輸出結(jié)果目錄

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -ls /wordcountdemo/output
-rw-r--r--   1 hadoop supergroup          0 2016-07-05 05:12 /wordcountdemo/output/_SUCCESS
-rw-r--r--   1 hadoop supergroup         60 2016-07-05 05:12 /wordcountdemo/output/part-r-00000
enter image description here
  • output目錄中有兩個文件,_SUCCESS文件是空文件处面,有這個文件說明Job執(zhí)行成功厂置。

  • part-r-00000文件是結(jié)果文件菩掏,其中-r-說明這個文件是Reduce階段產(chǎn)生的結(jié)果魂角,mapreduce程序執(zhí)行時养盗,可以沒有reduce階段审葬,但是肯定會有map階段,如果沒有reduce階段這個地方有是-m-凿掂。

  • 一個reduce會產(chǎn)生一個part-r-開頭的文件瞧栗。

  • 查看輸出文件內(nèi)容斯稳。

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -cat /wordcountdemo/output/part-r-00000
hadoop  3
hbase   1
hive    2
mapreduce       1
spark   2
sqoop   1
storm   1

結(jié)果是按照鍵值排好序的。

十九迹恐、停止Hadoop

 [hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/hadoop-daemon.sh stop namenode
stopping namenode
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/hadoop-daemon.sh stop datanode
stopping datanode
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/yarn-daemon.sh stop resourcemanager
stopping resourcemanager
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/yarn-daemon.sh stop nodemanager
stopping nodemanager
enter image description here

二十挣惰、 Hadoop各個功能模塊的理解

1、 HDFS模塊

HDFS負責大數(shù)據(jù)的存儲,通過將大文件分塊后進行分布式存儲方式憎茂,突破了服務器硬盤大小的限制珍语,解決了單臺機器無法存儲大文件的問題,HDFS是個相對獨立的模塊竖幔,可以為YARN提供服務板乙,也可以為HBase等其他模塊提供服務。

2拳氢、 YARN模塊

YARN是一個通用的資源協(xié)同和任務調(diào)度框架募逞,是為了解決Hadoop1.x中MapReduce里NameNode負載太大和其他問題而創(chuàng)建的一個框架。

YARN是個通用框架馋评,不止可以運行MapReduce放接,還可以運行Spark、Storm等其他計算框架栗恩。

3透乾、 MapReduce模塊

MapReduce是一個計算框架,它給出了一種數(shù)據(jù)處理的方式磕秤,即通過Map階段乳乌、Reduce階段來分布式地流式處理數(shù)據(jù)。它只適用于大數(shù)據(jù)的離線處理市咆,對實時性要求很高的應用不適用汉操。

第七步、開啟歷史服務

二十一蒙兰、歷史服務介紹

Hadoop開啟歷史服務可以在web頁面上查看Yarn上執(zhí)行job情況的詳細信息磷瘤。可以通過歷史服務器查看已經(jīng)運行完的Mapreduce作業(yè)記錄搜变,比如用了多少個Map采缚、用了多少個Reduce、作業(yè)提交時間挠他、作業(yè)啟動時間扳抽、作業(yè)完成時間等信息。

二十二殖侵、開啟歷史服務

[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/mr-jobhistory-daemon.sh start historyserver贸呢、

開啟后,可以通過Web頁面查看歷史服務器:

http://bigdata-senior01.chybinmy.com:19888/

二十三拢军、Web查看job執(zhí)行歷史

1楞陷、 運行一個mapreduce任務

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-
2.5.0.jar wordcount /wordcountdemo/input /wordcountdemo/output1

2、 job執(zhí)行中

enter image description here

3茉唉、 查看job歷史

enter image description here
enter image description here

歷史服務器的Web端口默認是19888固蛾,可以查看Web界面结执。

但是在上面所顯示的某一個Job任務頁面的最下面,Map和Reduce個數(shù)的鏈接上艾凯,點擊進入Map的詳細信息頁面昌犹,再查看某一個Map或者Reduce的詳細日志是看不到的,是因為沒有開啟日志聚集服務览芳。

二十四斜姥、開啟日志聚集

4、 日志聚集介紹

MapReduce是在各個機器上運行的沧竟,在運行過程中產(chǎn)生的日志存在于各個機器上铸敏,為了能夠統(tǒng)一查看各個機器的運行日志,將日志集中存放在HDFS上悟泵,這個過程就是日志聚集杈笔。

5、 開啟日志聚集

配置日志聚集功能:

Hadoop默認是不啟用日志聚集的糕非。在yarn-site.xml文件里配置啟用日志聚集蒙具。

<property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
 </property>
<property>
    <name>yarn.log-aggregation.retain-seconds</name>
    <value>106800</value>
 </property>

yarn.log-aggregation-enable:是否啟用日志聚集功能。

yarn.log-aggregation.retain-seconds:設(shè)置日志保留時間朽肥,單位是秒禁筏。

將配置文件分發(fā)到其他節(jié)點:

[hadoop@bigdata-senior01 hadoop]$ scp /opt/modules/hadoop-2.5.0/etc/hadoop/yarn-site.xml bigdata-senior02.chybinmy.com:/opt/modules/hadoop-2.5.0/etc/hadoop/
[hadoop@bigdata-senior01 hadoop]$ scp /opt/modules/hadoop-2.5.0/etc/hadoop/yarn-site.xml bigdata-senior03.chybinmy.com:/opt/modules/hadoop-2.5.0/etc/hadoop/

重啟Yarn進程:

[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/stop-yarn.sh
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/start-yarn.sh

重啟HistoryServer進程:

[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/mr-jobhistory-daemon.sh stop historyserver
[hadoop@bigdata-senior01 hadoop-2.5.0]$ sbin/mr-jobhistory-daemon.sh start historyserver

6、 測試日志聚集

運行一個demo MapReduce衡招,使之產(chǎn)生日志:

bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /input /output1

查看日志:

運行Job后篱昔,就可以在歷史服務器Web頁面查看各個Map和Reduce的日志了。

第四部分:完全分布式安裝

第八步始腾、完全布式環(huán)境部署Hadoop

完全分部式是真正利用多臺Linux主機來進行部署Hadoop州刽,對Linux機器集群進行規(guī)劃,使得Hadoop各個模塊分別部署在不同的多臺機器上浪箭。

二十五穗椅、環(huán)境準備

1、 克隆虛擬機

  • Vmware左側(cè)選中要克隆的機器奶栖,這里對原有的BigData01機器進行克隆匹表,虛擬機菜單中,選中管理菜單下的克隆命令驼抹。

  • 選擇“創(chuàng)建完整克隆”桑孩,虛擬機名稱為BigData02拜鹤,選擇虛擬機文件保存路徑框冀,進行克隆。

  • 再次克隆一個名為BigData03的虛擬機敏簿。

2明也、 配置網(wǎng)絡

修改網(wǎng)卡名稱:

在BigData02和BigData03機器上編輯網(wǎng)卡信息宣虾。執(zhí)行sudo vim /etc/udev/rules.d/70-persistent-net.rules命令。因為是從BigData01機器克隆來的温数,所以會保留BigData01的網(wǎng)卡eth0绣硝,并且再添加一個網(wǎng)卡eth1。并且eth0的Mac地址和BigData01的地址是一樣的撑刺,Mac地址不允許相同鹉胖,所以要刪除eth0,只保留eth1網(wǎng)卡够傍,并且要將eth1改名為eth0甫菠。將修改后的eth0的mac地址復制下來,修改network-scripts文件中的HWADDR屬性冕屯。

sudo vim /etc/sysconfig/network-scripts/ifcfg-eth0
enter image description here

修改網(wǎng)絡參數(shù):

BigData02機器IP改為192.168.100.12

BigData03機器IP改為192.168.100.13

3寂诱、 配置Hostname

BigData02配置hostname為 bigdata-senior02.chybinmy.com

BigData03配置hostname為 bigdata-senior03.chybinmy.com

4、 配置hosts

BigData01安聘、BigData02痰洒、BigData03三臺機器hosts都配置為:

[hadoop@bigdata-senior01 hadoop-2.5.0]$ sudo vim /etc/hosts
192.168.100.10 bigdata-senior01.chybinmy.com
192.168.100.12 bigdata-senior02.chybinmy.com
192.168.100.13 bigdata-senior03.chybinmy.com

5、 配置Windows上的SSH客戶端

在本地Windows中的SSH客戶端上添加對BigData02浴韭、BigData03機器的SSH鏈接丘喻。

二十六、服務器功能規(guī)劃

bigdata-senior01.chybinmy.com bigdata-senior02.chybinmy.com bigdata-senior03.chybinmy.com
NameNode ResourceManage
DataNode DataNode DataNode
NodeManager NodeManager NodeManager
HistoryServer SecondaryNameNode

二十七念颈、在第一臺機器上安裝新的Hadoop

為了和之前BigData01機器上安裝偽分布式Hadoop區(qū)分開來仓犬,我們將BigData01上的Hadoop服務都停止掉,然后在一個新的目錄/opt/modules/app下安裝另外一個Hadoop舍肠。
我們采用先在第一臺機器上解壓搀继、配置Hadoop,然后再分發(fā)到其他兩臺機器上的方式來安裝集群翠语。

6叽躯、 解壓Hadoop目錄:

[hadoop@bigdata-senior01 modules]$ tar -zxf /opt/sofeware/hadoop-2.5.0.tar.gz -C /opt/modules/app/

7、 配置Hadoop JDK路徑修改hadoop-env.sh肌括、mapred-env.sh点骑、yarn-env.sh文件中的JDK路徑:

export JAVA_HOME="/opt/modules/jdk1.7.0_67"

8、 配置core-site.xml

[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim etc/hadoop/core-site.xml
<configuration>
 <property>
   <name>fs.defaultFS</name>
   <value>hdfs://bigdata-senior01.chybinmy.com:8020</value>
 </property>
 <property>
   <name>hadoop.tmp.dir</name>
   <value>/opt/modules/app/hadoop-2.5.0/data/tmp</value>
 </property>
</configuration>

fs.defaultFS為NameNode的地址谍夭。

hadoop.tmp.dir為hadoop臨時目錄的地址黑滴,默認情況下,NameNode和DataNode的數(shù)據(jù)文件都會存在這個目錄下的對應子目錄下紧索。應該保證此目錄是存在的袁辈,如果不存在,先創(chuàng)建珠漂。

9晚缩、 配置hdfs-site.xml

[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim etc/hadoop/hdfs-site.xml
<configuration>
 <property>
   <name>dfs.namenode.secondary.http-address</name>
   <value>bigdata-senior03.chybinmy.com:50090</value>
 </property>
</configuration>

dfs.namenode.secondary.http-address是指定secondaryNameNode的http訪問地址和端口號尾膊,因為在規(guī)劃中,我們將BigData03規(guī)劃為SecondaryNameNode服務器荞彼。

所以這里設(shè)置為:bigdata-senior03.chybinmy.com:50090

10冈敛、 配置slaves

[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim etc/hadoop/slaves
bigdata-senior01.chybinmy.com
bigdata-senior02.chybinmy.com
bigdata-senior03.chybinmy.com

slaves文件是指定HDFS上有哪些DataNode節(jié)點。

11鸣皂、 配置yarn-site.xml

[hadoop@bigdata-senior01 hadoop-2.5.0]$ vim etc/hadoop/yarn-site.xml
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>bigdata-senior02.chybinmy.com</value>
    </property>
    <property>
        <name>yarn.log-aggregation-enable</name>
        <value>true</value>
    </property>
    <property>
        <name>yarn.log-aggregation.retain-seconds</name>
        <value>106800</value>
    </property>

根據(jù)規(guī)劃yarn.resourcemanager.hostname這個指定resourcemanager服務器指向bigdata-senior02.chybinmy.com抓谴。

yarn.log-aggregation-enable是配置是否啟用日志聚集功能。

yarn.log-aggregation.retain-seconds是配置聚集的日志在HDFS上最多保存多長時間寞缝。

12齐邦、 配置mapred-site.xml

從mapred-site.xml.template復制一個mapred-site.xml文件。

[hadoop@bigdata-senior01 hadoop-2.5.0]$ cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>bigdata-senior01.chybinmy.com:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>bigdata-senior01.chybinmy.com:19888</value>
    </property>
</configuration>

mapreduce.framework.name設(shè)置mapreduce任務運行在yarn上第租。

mapreduce.jobhistory.address是設(shè)置mapreduce的歷史服務器安裝在BigData01機器上措拇。

mapreduce.jobhistory.webapp.address是設(shè)置歷史服務器的web頁面地址和端口號。

二十八慎宾、設(shè)置SSH無密碼登錄

Hadoop集群中的各個機器間會相互地通過SSH訪問丐吓,每次訪問都輸入密碼是不現(xiàn)實的,所以要配置各個機器間的

SSH是無密碼登錄的趟据。

1券犁、 在BigData01上生成公鑰

[hadoop@bigdata-senior01 hadoop-2.5.0]$ ssh-keygen -t rsa

一路回車,都設(shè)置為默認值汹碱,然后再當前用戶的Home目錄下的.ssh目錄中會生成公鑰文件(id_rsa.pub)和私鑰文件(id_rsa)粘衬。

2、 分發(fā)公鑰

yum -y install openssh-server openssh-clients
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ssh-copy-id bigdata-senior01.chybinmy.com
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ssh-copy-id bigdata-senior02.chybinmy.com
[hadoop@bigdata-senior01 hadoop-2.5.0]$ ssh-copy-id bigdata-senior03.chybinmy.com

3咳促、 設(shè)置BigData02稚新、BigData03到其他機器的無密鑰登錄

同樣的在BigData02、BigData03上生成公鑰和私鑰后跪腹,將公鑰分發(fā)到三臺機器上褂删。

二十九、分發(fā)Hadoop文件

1冲茸、 首先在其他兩臺機器上創(chuàng)建存放Hadoop的目錄

[hadoop@bigdata-senior02 ~]$ mkdir /opt/modules/app
[hadoop@bigdata-senior03 ~]$ mkdir /opt/modules/app

2屯阀、 通過Scp分發(fā)

Hadoop根目錄下的share/doc目錄是存放的hadoop的文檔,文件相當大轴术,建議在分發(fā)之前將這個目錄刪除掉难衰,可以節(jié)省硬盤空間并能提高分發(fā)的速度。

doc目錄大小有1.6G逗栽。

[hadoop@bigdata-senior01 hadoop-2.5.0]$ du -sh /opt/modules/app/hadoop-2.5.0/share/doc
1.6G    /opt/modules/app/hadoop-2.5.0/share/doc
[hadoop@bigdata-senior01 hadoop-2.5.0]$ scp -r /opt/modules/app/hadoop-2.5.0/ bigdata-senior02.chybinmy.com:/opt/modules/app
[hadoop@bigdata-senior01 hadoop-2.5.0]$ scp -r /opt/modules/app/hadoop-2.5.0/ bigdata-senior03.chybinmy.com:/opt/modules/app

三十盖袭、格式NameNode

在NameNode機器上執(zhí)行格式化:

[hadoop@bigdata-senior01 hadoop-2.5.0]$ /opt/modules/app/hadoop-2.5.0/bin/hdfs namenode –format

注意:

如果需要重新格式化NameNode,需要先將原來NameNode和DataNode下的文件全部刪除,不然會報錯,NameNode和DataNode所在目錄是在core-site.xmlhadoop.tmp.dir苍凛、dfs.namenode.name.dirdfs.datanode.data.dir屬性配置的兵志。

<property>
     <name>hadoop.tmp.dir</name>
     <value>/opt/data/tmp</value>
  </property>
<property>
     <name>dfs.namenode.name.dir</name>
     <value>file://${hadoop.tmp.dir}/dfs/name</value>
  </property>
<property>
     <name>dfs.datanode.data.dir</name>
     <value>file://${hadoop.tmp.dir}/dfs/data</value>
  </property>

因為每次格式化醇蝴,默認是創(chuàng)建一個集群ID,并寫入NameNode和DataNode的VERSION文件中(VERSION文件所在目錄為dfs/name/current 和 dfs/data/current)想罕,重新格式化時悠栓,默認會生成一個新的集群ID,如果不刪除原來的目錄,會導致namenode中的VERSION文件中是新的集群ID,而DataNode中是舊的集群ID按价,不一致時會報錯惭适。

另一種方法是格式化時指定集群ID參數(shù),指定為舊的集群ID楼镐。

三十一癞志、啟動集群

1、 啟動HDFS

[hadoop@bigdata-senior01 hadoop-2.5.0]$ /opt/modules/app/hadoop-2.5.0/sbin/start-dfs.sh
enter image description here

2框产、 啟動YARN

[hadoop@bigdata-senior01 hadoop-2.5.0]$ /opt/modules/app/hadoop-2.5.0/sbin/start-yarn.sh

在BigData02上啟動ResourceManager:

[hadoop@bigdata-senior02 hadoop-2.5.0]$ sbin/yarn-daemon.sh start resourcemanager
enter image description here

3凄杯、 啟動日志服務器

因為我們規(guī)劃的是在BigData03服務器上運行MapReduce日志服務,所以要在BigData03上啟動秉宿。

[hadoop@bigdata-senior03 ~]$ /opt/modules/app/hadoop-2.5.0/sbin/mr-jobhistory-daemon.sh start historyserver
starting historyserver, logging to /opt/modules/app/hadoop-2.5.0/logs/mapred-hadoop-historyserver-bigda       ta-senior03.chybinmy.com.out
[hadoop@bigdata-senior03 ~]$ jps
3570 Jps
3537 JobHistoryServer
3310 SecondaryNameNode
3213 DataNode
3392 NodeManager

4戒突、 查看HDFS Web頁面

http://bigdata-senior01.chybinmy.com:50070/

5、 查看YARN Web 頁面

http://bigdata-senior02.chybinmy.com:8088/cluster

三十二描睦、測試Job

我們這里用hadoop自帶的wordcount例子來在本地模式下測試跑mapreduce膊存。

1、 準備mapreduce輸入文件wc.input

[hadoop@bigdata-senior01 modules]$ cat /opt/data/wc.input
hadoop mapreduce hive
hbase spark storm
sqoop hadoop hive
spark hadoop

2忱叭、 在HDFS創(chuàng)建輸入目錄input

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -mkdir /input

3隔崎、 將wc.input上傳到HDFS

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -put /opt/data/wc.input /input/wc.input

4、 運行hadoop自帶的mapreduce Demo

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /input/wc.input /output
enter image description here

5韵丑、 查看輸出文件

[hadoop@bigdata-senior01 hadoop-2.5.0]$ bin/hdfs dfs -ls /output
Found 2 items
-rw-r--r--   3 hadoop supergroup          0 2016-07-14 16:36 /output/_SUCCESS
-rw-r--r--   3 hadoop supergroup         60 2016-07-14 16:36 /output/part-r-00000
最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末仍稀,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子埂息,更是在濱河造成了極大的恐慌技潘,老刑警劉巖,帶你破解...
    沈念sama閱讀 216,470評論 6 501
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件千康,死亡現(xiàn)場離奇詭異享幽,居然都是意外死亡,警方通過查閱死者的電腦和手機拾弃,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,393評論 3 392
  • 文/潘曉璐 我一進店門值桩,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人豪椿,你說我怎么就攤上這事奔坟⌒埃” “怎么了?”我有些...
    開封第一講書人閱讀 162,577評論 0 353
  • 文/不壞的土叔 我叫張陵咳秉,是天一觀的道長婉支。 經(jīng)常有香客問我,道長澜建,這世上最難降的妖魔是什么向挖? 我笑而不...
    開封第一講書人閱讀 58,176評論 1 292
  • 正文 為了忘掉前任,我火速辦了婚禮炕舵,結(jié)果婚禮上何之,老公的妹妹穿的比我還像新娘。我一直安慰自己咽筋,他們只是感情好溶推,可當我...
    茶點故事閱讀 67,189評論 6 388
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著奸攻,像睡著了一般悼潭。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上舞箍,一...
    開封第一講書人閱讀 51,155評論 1 299
  • 那天舰褪,我揣著相機與錄音,去河邊找鬼疏橄。 笑死占拍,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的捎迫。 我是一名探鬼主播晃酒,決...
    沈念sama閱讀 40,041評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼窄绒!你這毒婦竟也來了贝次?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 38,903評論 0 274
  • 序言:老撾萬榮一對情侶失蹤彰导,失蹤者是張志新(化名)和其女友劉穎蛔翅,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體位谋,經(jīng)...
    沈念sama閱讀 45,319評論 1 310
  • 正文 獨居荒郊野嶺守林人離奇死亡山析,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 37,539評論 2 332
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了掏父。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片笋轨。...
    茶點故事閱讀 39,703評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出爵政,到底是詐尸還是另有隱情仅讽,我是刑警寧澤,帶...
    沈念sama閱讀 35,417評論 5 343
  • 正文 年R本政府宣布钾挟,位于F島的核電站洁灵,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏等龙。R本人自食惡果不足惜处渣,卻給世界環(huán)境...
    茶點故事閱讀 41,013評論 3 325
  • 文/蒙蒙 一伶贰、第九天 我趴在偏房一處隱蔽的房頂上張望蛛砰。 院中可真熱鬧,春花似錦黍衙、人聲如沸泥畅。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,664評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽位仁。三九已至,卻和暖如春方椎,著一層夾襖步出監(jiān)牢的瞬間聂抢,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,818評論 1 269
  • 我被黑心中介騙來泰國打工棠众, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留琳疏,地道東北人。 一個月前我還...
    沈念sama閱讀 47,711評論 2 368
  • 正文 我出身青樓闸拿,卻偏偏與公主長得像空盼,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子新荤,可洞房花燭夜當晚...
    茶點故事閱讀 44,601評論 2 353

推薦閱讀更多精彩內(nèi)容

  • 前言 Hadoop在大數(shù)據(jù)技術(shù)體系中的地位至關(guān)重要揽趾,Hadoop是大數(shù)據(jù)技術(shù)的基礎(chǔ),對Hadoop基礎(chǔ)知識的掌握的...
    數(shù)據(jù)萌新閱讀 1,457評論 1 1
  • 前言 Hadoop在大數(shù)據(jù)技術(shù)體系中的地位至關(guān)重要苛骨,Hadoop是大數(shù)據(jù)技術(shù)的基礎(chǔ)篱瞎,對Hadoop基礎(chǔ)知識的掌握的...
    piziyang12138閱讀 1,968評論 0 3
  • 前言 Hadoop在大數(shù)據(jù)技術(shù)體系中的地位至關(guān)重要,Hadoop是大數(shù)據(jù)技術(shù)的基礎(chǔ)痒芝,對Hadoop基礎(chǔ)知識的掌握的...
    __元昊__閱讀 164評論 0 0
  • 前言 Hadoop在大數(shù)據(jù)技術(shù)體系中的地位至關(guān)重要奔缠,Hadoop是大數(shù)據(jù)技術(shù)的基礎(chǔ),對Hadoop基礎(chǔ)知識的掌握的...
    weare_b646閱讀 118評論 0 0
  • 第四部分:完全分布式安裝 完全布式環(huán)境部署Hadoop完全分部式是真正利用多臺Linux主機來進行部署Hadoop...
    printf200閱讀 1,078評論 0 4