以下是在CentOS上配置HDFS的詳細步驟:
sudo yum install java-1.8.0-openjdk-devel
安裝JDK 8或更高版本,并通過java -version
驗證安裝。/etc/sysconfig/network-scripts/ifcfg-ens33
等文件,確保節點間能通信。同時配置主機名,修改/etc/hostname
和/etc/hosts
文件。/usr/local/hadoop
。編輯/etc/profile.d/hadoop.sh
文件,添加export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
、export HADOOP_HOME=/usr/local/hadoop
和export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
,然后執行source /etc/profile.d/hadoop.sh
使配置生效。
fs.defaultFS
為hdfs://namenode:9000
,還可配置hadoop.tmp.dir
等。dfs.replication
(副本數)、dfs.namenode.name.dir
(NameNode數據目錄)、dfs.datanode.data.dir
(DataNode數據目錄)等。在NameNode節點上執行ssh-keygen -t rsa
生成密鑰對,然后使用ssh-copy-id
將公鑰復制到所有DataNode節點,實現無密碼登錄。
在NameNode節點上執行hdfs namenode -format
,僅在首次啟動前執行。
在NameNode節點上執行start-dfs.sh
啟動HDFS集群。
使用jps
命令檢查NameNode、DataNode等進程是否正常運行,也可通過訪問http://namenode:50070
查看HDFS狀態。
使用firewall-cmd
命令開放Hadoop所需端口,如9000、50010、50070等,然后執行firewall-cmd --reload
使配置生效。
以上步驟為基本配置,實際生產環境中可根據需求進行優化,如配置高可用性等。