# Linux環境下部署Hadoop 2.x的方式
## 環境準備
1. **系統要求**:推薦使用Ubuntu/CentOS等主流Linux發行版,確保已安裝JDK 1.7+。
2. **用戶配置**:創建專用用戶(如`hadoop`)并配置SSH免密登錄:
```bash
ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
下載解壓:
wget https://archive.apache.org/dist/hadoop/core/hadoop-2.10.1/hadoop-2.10.1.tar.gz
tar -xzvf hadoop-2.10.1.tar.gz -C /opt/
配置環境變量:
編輯~/.bashrc,追加:
export HADOOP_HOME=/opt/hadoop-2.10.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
核心配置:
fs.defaultFS為HDFS地址(如hdfs://localhost:9000)dfs.replication)等參數格式化與啟動:
hdfs namenode -format # 首次需格式化
start-dfs.sh && start-yarn.sh
通過jps命令檢查進程,訪問http://<IP>:50070確認Web UI正常顯示。
“`
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。