在CentOS系統上搭建HDFS(Hadoop分布式文件系統)需要以下幾個步驟:
Hadoop依賴于Java,因此首先需要安裝Java環境。
sudo yum install java-1.8.0-openjdk-devel
驗證Java安裝:
java -version
從Apache Hadoop官方網站下載最新版本的Hadoop,并解壓到指定目錄。
wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
tar -xzvf hadoop-3.3.4.tar.gz -C /usr/local/
重命名解壓后的目錄:
sudo mv /usr/local/hadoop-3.3.4 /usr/local/hadoop
編輯/etc/profile.d/hadoop.sh文件,添加以下內容:
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
使配置生效:
source /etc/profile.d/hadoop.sh
驗證Hadoop安裝:
hadoop version
編輯Hadoop配置文件,主要涉及core-site.xml、hdfs-site.xml和yarn-site.xml。
編輯$HADOOP_HOME/etc/hadoop/core-site.xml文件,添加以下內容:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
編輯$HADOOP_HOME/etc/hadoop/hdfs-site.xml文件,添加以下內容:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/data/datanode</value>
</property>
</configuration>
編輯$HADOOP_HOME/etc/hadoop/yarn-site.xml文件,添加以下內容:
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
在首次啟動HDFS之前,需要對NameNode進行格式化。
hdfs namenode -format
啟動HDFS集群:
start-dfs.sh
驗證HDFS狀態:
jps
你應該能看到NameNode和DataNode進程。
打開瀏覽器,訪問http://<your-namenode-ip>:50070,可以看到HDFS的管理界面。
停止HDFS集群:
stop-dfs.sh
以上步驟完成了在CentOS系統上搭建HDFS的基本過程。根據實際需求,可能還需要進行更多的配置和優化。