在CentOS上配置Hadoop分布式文件系統(HDFS)的資源管理涉及多個步驟,包括安裝Hadoop、配置環境變量、修改配置文件以及啟動HDFS服務。以下是詳細的配置指南:
首先,確保你的CentOS系統已經安裝了Java環境,因為Hadoop是基于Java的。然后,下載并安裝Hadoop。
# 下載Hadoop
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
tar -xzvf hadoop-3.3.1.tar.gz
sudo mv hadoop-3.3.1 /usr/local/hadoop
編輯/etc/profile
文件,添加Hadoop的環境變量。
# 編輯 /etc/profile 文件
sudo vi /etc/profile
# 添加以下內容到文件末尾
export HADOOP_HOME=/usr/local/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
# 保存并退出
source /etc/profile
配置Hadoop文件系統的默認URI。
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
配置HDFS的存儲目錄和副本數。
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/hdfs/datanode</value>
</property>
</configuration>
在所有節點上配置SSH免密登錄,以便NameNode可以無密碼訪問DataNode。
# 生成SSH密鑰對
ssh-keygen -t rsa
# 將公鑰復制到其他節點
ssh-copy-id slave1
ssh-copy-id slave2
ssh-copy-id slave3
ssh-copy-id slave4
在啟動HDFS集群之前,需要格式化NameNode。
hdfs namenode -format
在所有節點上啟動HDFS服務。
sbin/start-dfs.sh
使用以下命令驗證HDFS服務是否啟動成功。
jps
你應該能看到NameNode和DataNode進程在運行。
使用以下Shell命令來管理HDFS資源。
hadoop fs -ls /
hadoop fs -put local/path/to/file hdfs://namenode:port/destination/path
hadoop fs -get hdfs://namenode:port/source/path local/path/to/destination
hadoop fs -rm -r /path/to/directory
通過以上步驟,你可以在CentOS上配置HDFS資源管理。請注意,這只是一個基本的配置指南,實際生產環境中可能需要更多的配置和優化。