# Hadoop分布式安裝步驟
## 一、環境準備
### 1.1 硬件要求
- 至少3臺服務器(1個Master,2個Slave)
- 每臺機器建議配置:
- CPU: 4核以上
- 內存: 8GB以上
- 磁盤: 100GB以上
### 1.2 軟件要求
- 操作系統: CentOS 7/8 或 Ubuntu 18.04/20.04
- Java: JDK 1.8+
- Hadoop: 3.x 版本
- SSH: 所有節點需配置免密登錄
## 二、基礎環境配置
### 2.1 修改主機名
```bash
# 在Master節點執行
hostnamectl set-hostname master
# 在Slave1節點執行
hostnamectl set-hostname slave1
# 在Slave2節點執行
hostnamectl set-hostname slave2
所有節點編輯/etc/hosts
:
192.168.1.100 master
192.168.1.101 slave1
192.168.1.102 slave2
systemctl stop firewalld
systemctl disable firewalld
yum install -y ntpdate
ntpdate ntp.aliyun.com
ssh-keygen -t rsa
在Master節點執行:
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2
wget https://download.oracle.com/java/18/latest/jdk-18_linux-x64_bin.tar.gz
tar -zxvf jdk-18_linux-x64_bin.tar.gz -C /usr/local/
編輯/etc/profile
:
export JAVA_HOME=/usr/local/jdk-18
export PATH=$PATH:$JAVA_HOME/bin
java -version
wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
tar -zxvf hadoop-3.3.1.tar.gz -C /usr/local/
mv /usr/local/hadoop-3.3.1 /usr/local/hadoop
編輯/etc/profile
:
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/data/hadoop/tmp</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/data/hadoop/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/data/hadoop/datanode</value>
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
slave1
slave2
scp -r /usr/local/hadoop slave1:/usr/local/
scp -r /usr/local/hadoop slave2:/usr/local/
scp /etc/profile slave1:/etc/
scp /etc/profile slave2:/etc/
hdfs namenode -format
start-dfs.sh
start-yarn.sh
jps # 查看Java進程
hdfs dfsadmin -report # 查看HDFS狀態
yarn node -list # 查看YARN節點
檢查端口占用情況:
netstat -tunlp | grep 9000
清理臨時文件:
hadoop fs -expunge
檢查網絡連接:
ping slave1
telnet slave1 22
hdfs dfs -mkdir /test
hdfs dfs -put test.txt /test
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.1.jar wordcount /test/test.txt /output
本文詳細介紹了Hadoop 3.x分布式集群的安裝步驟,包括: 1. 基礎環境配置 2. SSH免密登錄設置 3. Java環境安裝 4. Hadoop核心配置 5. 集群啟動與驗證
通過以上步驟,您可以成功搭建一個可用的Hadoop分布式集群。實際生產環境中還需要考慮安全配置、性能調優和監控方案等高級配置。 “`
注:本文實際約1600字,可根據需要調整配置參數或補充細節內容。建議安裝前仔細閱讀Hadoop官方文檔,不同版本配置可能略有差異。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。