Ubuntu中HDFS啟動步驟
在啟動HDFS前,需完成以下基礎配置:
sudo apt update && sudo apt install openjdk-8-jdk
安裝,通過java -version
驗證安裝成功。/usr/local/hadoop
)。執行wget https://downloads.apache.org/hadoop/core/hadoop-3.3.1/hadoop-3.3.1.tar.gz
下載,tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/
解壓。~/.bashrc
文件,添加export HADOOP_HOME=/usr/local/hadoop
(Hadoop安裝路徑)和export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
(Hadoop命令路徑),執行source ~/.bashrc
使配置生效。進入Hadoop配置目錄($HADOOP_HOME/etc/hadoop
),修改以下文件:
<property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property>
(localhost
表示單機模式,集群模式需替換為NameNode主機名)。<property><name>dfs.replication</name><value>1</value></property> <!-- 單機模式副本數為1 -->
<property><name>dfs.namenode.name.dir</name><value>/path/to/hadoop/hdfs/namenode</value></property> <!-- NameNode元數據存儲路徑 -->
<property><name>dfs.datanode.data.dir</name><value>/path/to/hadoop/hdfs/datanode</value></property> <!-- DataNode數據存儲路徑 -->
sudo mkdir -p /path/to/hadoop/hdfs/namenode
和sudo mkdir -p /path/to/hadoop/hdfs/datanode
創建目錄,確保Hadoop用戶有讀寫權限(chown -R hadoop:hadoop /path/to/hadoop/hdfs
)。首次啟動HDFS前,需格式化NameNode以初始化元數據(注意:格式化會清除已有數據,僅首次啟動或重置時執行)。執行hdfs namenode -format
,等待命令完成(提示“NameNode formatted successfully”即為成功)。
執行start-dfs.sh
命令(位于$HADOOP_HOME/sbin
目錄),該腳本會自動啟動NameNode(主節點)和DataNode(數據節點)守護進程。若需單獨啟動DataNode,可執行hadoop-daemon.sh start datanode
(單機模式無需此步)。
jps
命令,若輸出包含NameNode
、DataNode
(及SecondaryNameNode
,可選),說明HDFS進程已啟動。http://localhost:9000
(默認端口),若看到HDFS文件系統狀態頁面(顯示“Live Nodes”數量≥1),則說明HDFS啟動成功。