在CentOS系統下配置HDFS(Hadoop Distributed File System)數據存儲涉及多個步驟,包括安裝Hadoop、配置HDFS以及啟動相關服務。以下是一個基本的指南:
首先,從Apache Hadoop官方網站下載適合你系統的Hadoop版本。
wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
將下載的文件解壓到指定目錄。
tar -xzvf hadoop-3.3.4.tar.gz -C /opt/
編輯/etc/profile.d/hadoop.sh
文件,添加以下內容:
export HADOOP_HOME=/opt/hadoop-3.3.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
使環境變量生效:
source /etc/profile.d/hadoop.sh
core-site.xml
編輯$HADOOP_HOME/etc/hadoop/core-site.xml
文件,添加以下配置:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://your_namenode_host:9000</value>
</property>
</configuration>
將your_namenode_host
替換為你的NameNode主機名或IP地址。
hdfs-site.xml
編輯$HADOOP_HOME/etc/hadoop/hdfs-site.xml
文件,添加以下配置:
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/path/to/namenode/data</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/path/to/datanode/data</value>
</property>
</configuration>
將/path/to/namenode/data
和/path/to/datanode/data
替換為你希望存儲NameNode和DataNode數據的實際路徑。
在首次啟動HDFS之前,需要對HDFS進行格式化:
hdfs namenode -format
start-dfs.sh
使用以下命令檢查NameNode和DataNode是否正常運行:
jps
你應該能看到NameNode
和DataNode
進程。
訪問HDFS Web界面:
http://your_namenode_host:50070/
你應該能看到HDFS的狀態和存儲信息。
確保防火墻允許HDFS所需的端口(默認是9000、50010、50020、50070、50075、50090):
firewall-cmd --permanent --zone=public --add-port=9000/tcp
firewall-cmd --permanent --zone=public --add-port=50010/tcp
firewall-cmd --permanent --zone=public --add-port=50020/tcp
firewall-cmd --permanent --zone=public --add-port=50070/tcp
firewall-cmd --permanent --zone=public --add-port=50075/tcp
firewall-cmd --permanent --zone=public --add-port=50090/tcp
firewall-cmd --reload
為了方便管理,可以配置SSH無密碼登錄:
ssh-keygen -t rsa
ssh-copy-id hadoop@your_namenode_host
將hadoop
替換為你的Hadoop用戶。
通過以上步驟,你應該能夠在CentOS系統下成功配置HDFS數據存儲。根據實際需求,可能還需要進行更多的配置和優化。