hadoop簡單的介紹圣拄,不會花太多時間嘴秸,hadoop當前大數(shù)據(jù)領(lǐng)域的事實上的一個標準
hadoop hdfs,提供的是分布式的文件存儲售担,數(shù)據(jù)存儲
hadoop yarn赁遗,提供的是分布式的資源調(diào)度
hadoop mapreduce,提供的是分布式的計算引擎族铆,跑在yarn上面的岩四,由yarn去做資源調(diào)度
hadoop hive,提供的是分布式的數(shù)據(jù)倉庫引擎哥攘,基于mapreduce
hadoop hbase剖煌,提供的是分布式的NoSQL數(shù)據(jù)庫,基于hdfs去做的
1逝淹、使用課程提供的hadoop-2.7.1.tar.gz耕姊,使用WinSCP上傳到CentOS的/usr/local目錄下。
2栅葡、將hadoop包進行解壓縮:tar -zxvf hadoop-2.7.1.tar.gz
3茉兰、對hadoop目錄進行重命名:mv hadoop-2.7.1 hadoop
4、配置hadoop相關(guān)環(huán)境變量
vi .bashrc
export HADOOP_HOME=/usr/local/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source .bashrc
5欣簇、在/usr/local目錄下創(chuàng)建data目錄
6规脸、修改配置文件
core-site.xml
<property>
<name>fs.defaultFS</name>
<value>hdfs://elasticsearch01:9000</value>
</property>
hdfs-site.xml
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/data/datanode</value>
</property>
yarn-site.xml
<property>
<name>yarn.resourcemanager.hostname</name>
<value>elasticsearch01</value>
</property>
mapred-site.xml
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
vi slaves
elasticsearch01
elasticsearch02
elasticsearch03
在另外兩臺機器上部署
1坯约、使用scp命令將elasticsearch01上面的hadoop安裝包和.bashrc配置文件都拷貝過去。
2莫鸭、要記得對.bashrc文件進行source闹丐,以讓它生效。
3被因、記得在另外兩臺機器的/usr/local目錄下創(chuàng)建data目錄卿拴。
啟動hdfs集群
su elasticsearch
chown -R elasticsearch /usr/local/hadoop
chown -R elasticsearch /usr/local/data
1、格式化namenode:在elasticsearch01(主節(jié)點)上執(zhí)行以下命令hdfs namenode -format
2梨与、啟動hdfs集群:start-dfs.sh
3堕花、驗證啟動是否成功:jps、50070端口
elasticsearch01:namenode粥鞋、datanode航徙、secondarynamenode
elasticsearch02:datanode
elasticsearch03:datanode
在host下配置IP映射
頁面http://elasticsearch01:5007