# 怎么啟動并驗證Hadoop分布式集群
## 一、啟動Hadoop集群
### 1. 環境準備
確保所有節點已完成以下配置:
- JDK 1.8+ 安裝
- SSH免密登錄配置
- `hadoop-env.sh`、`core-site.xml`、`hdfs-site.xml`、`mapred-site.xml`、`yarn-site.xml` 文件正確配置
- `workers` 文件包含所有DataNode主機名
### 2. 格式化HDFS
首次啟動需格式化NameNode:
```bash
hdfs namenode -format
start-dfs.sh
成功啟動后進程應包含: - NameNode(主節點) - DataNode(工作節點) - SecondaryNameNode(備份節點)
start-yarn.sh
驗證ResourceManager和NodeManager進程是否運行。
http://<namenode_ip>:9870
http://<resourcemanager_ip>:8088
# 創建測試目錄
hdfs dfs -mkdir /test
# 上傳本地文件
hdfs dfs -put localfile.txt /test/
# 查看文件列表
hdfs dfs -ls /test
# 刪除測試目錄
hdfs dfs -rm -r /test
運行示例MapReduce作業:
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar pi 2 5
查看關鍵日志確認無報錯:
tail -n 100 $HADOOP_HOME/logs/hadoop-*-namenode-*.log
tail -n 100 $HADOOP_HOME/logs/hadoop-*-datanode-*.log
netstat -tunlp | grep java
df -h
查看磁盤使用/tmp
目錄權限和SELinux狀態提示:建議首次啟動時逐個組件手動啟動(
hadoop-daemon.sh start namenode
),便于問題定位。
通過以上步驟,即可完成Hadoop集群的啟動與基礎驗證。實際生產環境中還需進行性能基準測試(如TestDFSIO)和HA配置驗證。 “`
(全文約560字)
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。