ssh-keygen和ssh-copy-id命令),用于后續Standby NameNode切換時的操作。HDFS高可用的關鍵配置集中在core-site.xml和hdfs-site.xml中,需在所有節點上保持一致。
core-site.xml定義了HDFS的默認文件系統和ZooKeeper集群信息(用于故障轉移協調):
<configuration>
<!-- 指定HDFS的邏輯集群名稱,客戶端將通過該名稱訪問集群 -->
<property>
<name>fs.defaultFS</name>
<value>hdfs://mycluster</value>
</property>
<!-- 指定ZooKeeper集群地址,用于監控NameNode狀態和管理故障轉移 -->
<property>
<name>ha.zookeeper.quorum</name>
<value>zk1:2181,zk2:2181,zk3:2181</value>
</property>
</configuration>
hdfs-site.xml是HDFS高可用的核心配置文件,主要包含NameNode、JournalNode和故障轉移相關參數:
<configuration>
<!-- 定義HDFS集群的邏輯名稱(需與core-site.xml中的fs.defaultFS一致) -->
<property>
<name>dfs.nameservices</name>
<value>mycluster</value>
</property>
<!-- 列出集群中的所有NameNode ID(如nn1、nn2) -->
<property>
<name>dfs.ha.namenodes.mycluster</name>
<value>nn1,nn2</value>
</property>
<!-- 配置每個NameNode的RPC地址(Active和Standby節點的通信地址) -->
<property>
<name>dfs.namenode.rpc-address.mycluster.nn1</name>
<value>namenode1:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn2</name>
<value>namenode2:8020</value>
</property>
<!-- 配置每個NameNode的HTTP地址(Web UI訪問地址) -->
<property>
<name>dfs.namenode.http-address.mycluster.nn1</name>
<value>namenode1:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn2</name>
<value>namenode2:50070</value>
</property>
<!-- 指定JournalNode集群地址(用于存儲NameNode的編輯日志,確保Active和Standby元數據一致) -->
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://journalnode1:8485;journalnode2:8485;journalnode3:8485/mycluster</value>
</property>
<!-- 配置客戶端故障轉移代理(自動切換Active NameNode) -->
<property>
<name>dfs.client.failover.proxy.provider.mycluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>
<!-- 配置故障轉移時的隔離方法(如SSH殺死Standby進程,確保只有一個Active NameNode) -->
<property>
<name>dfs.ha.fencing.methods</name>
<value>sshfence</value>
</property>
<!-- 配置SSH私鑰路徑(用于故障轉移時的遠程操作) -->
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/home/hadoop/.ssh/id_rsa</value>
</property>
<!-- 配置JournalNode的數據存儲目錄 -->
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/opt/hadoop/journalnode/data</value>
</property>
</configuration>
若使用ZooKeeper實現自動故障轉移,需在ZooKeeper節點上部署并啟動ZooKeeper集群(至少3個節點),并確保Hadoop集群能訪問ZooKeeper服務。
JournalNode是HDFS高可用的關鍵組件,用于同步Active NameNode的編輯日志到Standby NameNode,確保兩者元數據一致。在所有JournalNode節點上執行以下命令啟動服務:
$HADOOP_HOME/sbin/hadoop-daemon.sh start journalnode
啟動后,可通過jps命令檢查JournalNode進程是否運行(顯示JournalNode進程即成功)。
$HADOOP_HOME/bin/hdfs namenode -format
$HADOOP_HOME/sbin/hadoop-daemon.sh start namenode
bootstrapStandby命令,將Active NameNode的元數據同步到Standby NameNode:$HADOOP_HOME/bin/hdfs namenode -bootstrapStandby
$HADOOP_HOME/sbin/hadoop-daemon.sh start namenode
在所有DataNode節點上啟動DataNode服務,DataNode會自動向Active NameNode和Standby NameNode報告數據塊信息:
$HADOOP_HOME/sbin/hadoop-daemon.sh start datanode
hdfs dfsadmin -report
輸出應顯示兩個NameNode(一個Active,一個Standby)和多個DataNode。hdfs --daemon stop namenode),等待10-30秒后,再次執行hdfs dfsadmin -report,確認Standby NameNode已自動切換為Active狀態,且集群仍能正常提供服務。通過以上步驟,即可在Linux環境下實現HDFS的高可用,確保在NameNode故障時快速切換,保障數據的高可用性和集群的持續運行。