您好,登錄后才能下訂單哦!
這篇文章主要為大家展示了“Hadoop框架中如何配置HDFS高可用環境”,內容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領大家一起研究并學習一下“Hadoop框架中如何配置HDFS高可用環境”這篇文章吧。
在單點或者少數節點故障的情況下,集群還可以正常的提供服務,HDFS高可用機制可以通過配置Active/Standby兩個NameNodes節點實現在集群中對NameNode的熱備來消除單節點故障問題,如果單個節點出現故障,可通過該方式將NameNode快速切換到另外一個節點上。
基于兩個NameNode做高可用,依賴共享Edits文件和Zookeeper集群;
每個NameNode節點配置一個ZKfailover進程,負責監控所在NameNode節點狀態;
NameNode與ZooKeeper集群維護一個持久會話;
如果Active節點故障停機,ZooKeeper通知Standby狀態的NameNode節點;
在ZKfailover進程檢測并確認故障節點無法工作后;
ZKfailover通知Standby狀態的NameNode節點切換為Active狀態繼續服務;
ZooKeeper在大數據體系中非常重要,協調不同組件的工作,維護并傳遞數據,例如上述高可用下自動故障轉移就依賴于ZooKeeper組件。
服務列表 | HDFS文件 | YARN調度 | 單服務 | 共享文件 | Zk集群 |
---|---|---|---|---|---|
hop01 | DataNode | NodeManager | NameNode | JournalNode | ZK-hop01 |
hop02 | DataNode | NodeManager | ResourceManager | JournalNode | ZK-hop02 |
hop03 | DataNode | NodeManager | SecondaryNameNode | JournalNode | ZK-hop03 |
創建目錄
[root@hop01 opt]# mkdir hopHA
拷貝Hadoop目錄
cp -r /opt/hadoop2.7/ /opt/hopHA/
配置core-site.xml
<configuration> <!-- NameNode集群模式 --> <property> <name>fs.defaultFS</name> <value>hdfs://mycluster</value> </property> <!-- 指定hadoop運行時產生文件的存儲目錄 --> <property> <name>hadoop.tmp.dir</name> <value>/opt/hopHA/hadoop2.7/data/tmp</value> </property> </configuration>
配置hdfs-site.xml,添加內容如下
<!-- 分布式集群名稱 --> <property> <name>dfs.nameservices</name> <value>mycluster</value> </property> <!-- 集群中NameNode節點 --> <property> <name>dfs.ha.namenodes.mycluster</name> <value>nn1,nn2</value> </property> <!-- NN1 RPC通信地址 --> <property> <name>dfs.namenode.rpc-address.mycluster.nn1</name> <value>hop01:9000</value> </property> <!-- NN2 RPC通信地址 --> <property> <name>dfs.namenode.rpc-address.mycluster.nn2</name> <value>hop02:9000</value> </property> <!-- NN1 Http通信地址 --> <property> <name>dfs.namenode.http-address.mycluster.nn1</name> <value>hop01:50070</value> </property> <!-- NN2 Http通信地址 --> <property> <name>dfs.namenode.http-address.mycluster.nn2</name> <value>hop02:50070</value> </property> <!-- 指定NameNode元數據在JournalNode上的存放位置 --> <property> <name>dfs.namenode.shared.edits.dir</name> <value>qjournal://hop01:8485;hop02:8485;hop03:8485/mycluster</value> </property> <!-- 配置隔離機制,即同一時刻只能有一臺服務器對外響應 --> <property> <name>dfs.ha.fencing.methods</name> <value>sshfence</value> </property> <!-- 使用隔離機制時需要ssh無秘鑰登錄--> <property> <name>dfs.ha.fencing.ssh.private-key-files</name> <value>/root/.ssh/id_rsa</value> </property> <!-- 聲明journalnode服務器存儲目錄--> <property> <name>dfs.journalnode.edits.dir</name> <value>/opt/hopHA/hadoop2.7/data/jn</value> </property> <!-- 關閉權限檢查--> <property> <name>dfs.permissions.enable</name> <value>false</value> </property> <!-- 訪問代理類失敗自動切換實現方式--> <property> <name>dfs.client.failover.proxy.provider.mycluster</name> <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value> </property>
依次啟動journalnode服務
[root@hop01 hadoop2.7]# pwd /opt/hopHA/hadoop2.7 [root@hop01 hadoop2.7]# sbin/hadoop-daemon.sh start journalnode
刪除hopHA下數據
[root@hop01 hadoop2.7]# rm -rf data/ logs/
NN1格式化并啟動NameNode
[root@hop01 hadoop2.7]# pwd /opt/hopHA/hadoop2.7 bin/hdfs namenode -format sbin/hadoop-daemon.sh start namenode
NN2同步NN1數據
[root@hop02 hadoop2.7]# bin/hdfs namenode -bootstrapStandby
NN2啟動NameNode
[root@hop02 hadoop2.7]# sbin/hadoop-daemon.sh start namenode
查看當前狀態
在NN1上啟動全部DataNode
[root@hop01 hadoop2.7]# sbin/hadoop-daemons.sh start datanode
NN1切換為Active狀態
[root@hop01 hadoop2.7]# bin/hdfs haadmin -transitionToActive nn1 [root@hop01 hadoop2.7]# bin/hdfs haadmin -getServiceState nn1 active
配置hdfs-site.xml,新增內容如下,同步集群
<property> <name>dfs.ha.automatic-failover.enabled</name> <value>true</value> </property>
配置core-site.xml,新增內容如下,同步集群
<property> <name>ha.zookeeper.quorum</name> <value>hop01:2181,hop02:2181,hop03:2181</value> </property>
關閉全部HDFS服務
[root@hop01 hadoop2.7]# sbin/stop-dfs.sh
啟動Zookeeper集群
/opt/zookeeper3.4/bin/zkServer.sh start
hop01初始化HA在Zookeeper中狀態
[root@hop01 hadoop2.7]# bin/hdfs zkfc -formatZK
hop01啟動HDFS服務
[root@hop01 hadoop2.7]# sbin/start-dfs.sh
NameNode節點啟動ZKFailover
這里hop01和hop02先啟動的服務狀態就是Active,這里先啟動hop02。
[hadoop2.7]# sbin/hadoop-daemon.sh start zkfc
結束hop02的NameNode進程
kill -9 14422
等待一下查看hop01狀態
[root@hop01 hadoop2.7]# bin/hdfs haadmin -getServiceState nn1 active
基本流程和思路與HDFS機制類似,依賴Zookeeper集群,當Active節點故障時,Standby節點會切換為Active狀態持續服務。
環境同樣基于hop01和hop02來演示。
配置yarn-site.xml,同步集群下服務
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <!--啟用HA機制--> <property> <name>yarn.resourcemanager.ha.enabled</name> <value>true</value> </property> <!--聲明Resourcemanager服務--> <property> <name>yarn.resourcemanager.cluster-id</name> <value>cluster-yarn01</value> </property> <property> <name>yarn.resourcemanager.ha.rm-ids</name> <value>rm1,rm2</value> </property> <property> <name>yarn.resourcemanager.hostname.rm1</name> <value>hop01</value> </property> <property> <name>yarn.resourcemanager.hostname.rm2</name> <value>hop02</value> </property> <!--Zookeeper集群的地址--> <property> <name>yarn.resourcemanager.zk-address</name> <value>hop01:2181,hop02:2181,hop03:2181</value> </property> <!--啟用自動恢復機制--> <property> <name>yarn.resourcemanager.recovery.enabled</name> <value>true</value> </property> <!--指定狀態存儲Zookeeper集群--> <property> <name>yarn.resourcemanager.store.class</name> <value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value> </property> </configuration>
重啟journalnode節點
sbin/hadoop-daemon.sh start journalnode
在NN1服務格式化并啟動
[root@hop01 hadoop2.7]# bin/hdfs namenode -format [root@hop01 hadoop2.7]# sbin/hadoop-daemon.sh start namenode
NN2上同步NN1元數據
[root@hop02 hadoop2.7]# bin/hdfs namenode -bootstrapStandby
啟動集群下DataNode
[root@hop01 hadoop2.7]# sbin/hadoop-daemons.sh start datanode
NN1設置為Active狀態
先啟動hop01即可,然后啟動hop02。
[root@hop01 hadoop2.7]# sbin/hadoop-daemon.sh start zkfc
hop01啟動yarn
[root@hop01 hadoop2.7]# sbin/start-yarn.sh
hop02啟動ResourceManager
[root@hop02 hadoop2.7]# sbin/yarn-daemon.sh start resourcemanager
查看狀態
[root@hop01 hadoop2.7]# bin/yarn rmadmin -getServiceState rm1
以上是“Hadoop框架中如何配置HDFS高可用環境”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。