在Hadoop環(huán)境搭建中科吭,我們配置多個DataNode保證了DataNode的高可用搂捧,但是NameNode是單點的,在生產(chǎn)環(huán)境存在風險西乖。接下來配置Hadoop的高可用,其實就是NameNode的高可用坛增。
配置文件修改
- core-site.xml
<configuration>
<!-- 注意fs.defaultFS获雕、ha.zookeeper.quorum配置項 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://mycluster</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/bigdata/software/hadoop-2.7.3/data/temp</value>
</property>
<property>
<name>ha.zookeeper.quorum</name>
<value>master,slave01,slave02</value>
</property>
</configuration>
- hdfs-site.xml
<configuration>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>slave01:50090</value>
</property>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<!-- HA配置開始 -->
<property>
<name>dfs.nameservices</name>
<value>mycluster</value>
</property>
<property>
<name>dfs.ha.namenodes.mycluster</name>
<value>nn1,nn2</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn1</name>
<value>master:9000</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn1</name>
<value>master:50070</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn2</name>
<value>slave01:9000</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn2</name>
<value>slave01:50070</value>
</property>
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://master:8485;slave01:8485;slave02:8485/mycluster</value>
</property>
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/usr/local/bigdata/software/hadoop-2.7.3/data/journal</value>
</property>
<property>
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
<property>
<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/home/hadoop/.ssh/id_rsa</value>
</property>
<property>
<name>dfs.ha.fencing.ssh.connect-timeout</name>
<value>30000</value>
</property>
<!-- HA配置結束 -->
<property>
<name>dfs.namenode.name.dir</name>
<value>file:/usr/local/bigdata/software/hadoop-2.7.3/data/temp/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>file:/usr/local/bigdata/software/hadoop-2.7.3/data/temp/dfs/data</value>
</property>
</configuration>
啟動集群
當前機器的配置為master、slave01收捣、slave02届案,master和slave01為NameNode
啟動zookeeper集群
啟動journalnode集群
hadoop-daemons.sh start journalnode格式化zkfc,讓在zookeeper中生成ha節(jié)點
hdfs zkfc -formatZK格式化hdfs
hadoop namenode –format-
啟動NameNode
在master節(jié)點執(zhí)行
hadoop-daemon.sh start namenode把NameNode的數(shù)據(jù)同步到slave01上
hdfs namenode –bootstrapStandby
啟動slave02上的namenode作為standby
sbin/hadoop-daemon.sh start namenode 啟動啟動datanode
hadoop-daemons.sh start datanode啟動yarn
start-yarn.sh啟動ZKFC
hadoop-daemons.sh start zkfc
遇到的問題
- 主被切換失敗
配置如下:
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
fs.ha.fencing.methods參數(shù)解釋:
系統(tǒng)在任何時候只有一個namenode節(jié)點處于active狀態(tài)。在主備切換的時候罢艾,standby namenode會變成active狀態(tài)楣颠,原來的active namenode就不能再處于active狀態(tài)了,否則兩個namenode同時處于active狀態(tài)會有問題咐蚯。所以在failover的時候要設置防止2個namenode都處于active狀態(tài)的方法童漩,可以是Java類或者腳本。
fencing的方法目前有兩種春锋,sshfence和shell
sshfence方法是指通過ssh登陸到active namenode節(jié)點殺掉namenode進程矫膨,所以你需要設置ssh無密碼登陸,還要保證有殺掉namenode進程的權限。
啟動后發(fā)現(xiàn)namenode日志:org.apache.hadoop.ha.ActiveStandbyElector: Exception handling the winning of election
解決:
namenode節(jié)點執(zhí)行:yum -y install psmisc
注意點
-
Hadoop配置HA后侧馅,HBase集群配置的修改
- hbase-site.xml中直奋,rootdir改為和hadoop的dfs.nameservices一樣,
- hadoop的core-site.xml和hdfs-site.xml拷貝到hbase的conf下施禾,然后重啟hbase
-
同步主namenode數(shù)據(jù)到備namenode
1.是一個新的HDFS集群脚线,還要首先執(zhí)行格式化命令"hdfs namenode -format",緊接著啟動本NameNode進程弥搞。2.存在一個已經(jīng)格式化過的NameNode邮绿,并且已經(jīng)啟動了。那么應該把該NameNode的數(shù)據(jù)同步到另一個沒有格式化的NameNode攀例。在未格式化過的NameNode上執(zhí)行命令"hdfs namenode -bootstrapStandby"船逮。
3.非HA集群轉成HA集群,應該運行命令"hdfs namenode -initializeSharedEdits"粤铭,這會初始化JournalNode中的數(shù)據(jù)挖胃。