在Linux上搭建HDFS(Hadoop分布式文件系統)測試環境,可以按照以下步驟進行:
Hadoop需要Java運行環境,首先確保你的系統上安裝了Java。
sudo apt update
sudo apt install openjdk-8-jdk
驗證Java安裝:
java -version
從Apache Hadoop官方網站下載最新版本的Hadoop,并解壓到本地目錄。
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz
tar -xzvf hadoop-3.3.4.tar.gz -C /usr/local/
編輯/etc/profile
文件,添加Hadoop的環境變量。
sudo nano /etc/profile
在文件末尾添加以下內容:
export HADOOP_HOME=/usr/local/hadoop-3.3.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
保存并退出編輯器,然后使配置生效:
source /etc/profile
編輯Hadoop的核心配置文件core-site.xml
。
nano $HADOOP_HOME/etc/hadoop/core-site.xml
添加以下內容:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
編輯HDFS的配置文件hdfs-site.xml
。
nano $HADOOP_HOME/etc/hadoop/hdfs-site.xml
添加以下內容:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop-3.3.4/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop-3.3.4/data/datanode</value>
</property>
</configuration>
在首次啟動HDFS之前,需要對NameNode進行格式化。
hdfs namenode -format
啟動HDFS集群。
start-dfs.sh
檢查HDFS是否正常運行。
jps
你應該能看到以下進程:
訪問HDFS Web界面:
打開瀏覽器,訪問http://localhost:50070
,你應該能看到HDFS的狀態頁面。
停止HDFS集群。
stop-dfs.sh
如果你需要重新格式化HDFS,可以刪除數據目錄中的內容。
rm -rf /usr/local/hadoop-3.3.4/data/*
然后重新格式化:
hdfs namenode -format
如果你需要運行MapReduce作業,還需要配置YARN。
編輯yarn-site.xml
。
nano $HADOOP_HOME/etc/hadoop/yarn-site.xml
添加以下內容:
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
啟動YARN:
start-yarn.sh
驗證YARN是否正常運行:
jps
你應該能看到以下進程:
訪問YARN Web界面:
打開瀏覽器,訪問http://localhost:8088
,你應該能看到YARN的狀態頁面。
通過以上步驟,你就可以在Linux上成功搭建一個HDFS測試環境。