在Debian下搭建Hadoop集群是一個相對復雜的過程,涉及多個步驟,包括硬件配置、軟件安裝、網絡設置、數據存儲和集群管理等。以下是一個詳細的步驟指南:
sudo apt update
sudo apt install openjdk-8-jdk
java -version
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/hadoop
sudo chown -R hadoop:hadoop /usr/local/hadoop
在每個節點的~/.bashrc文件中添加以下內容:
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
使更改生效:
source ~/.bashrc
在Hadoop目錄下,編輯以下配置文件:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:9000</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/dfs/name</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/dfs/data</value>
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
在主節點上生成SSH密鑰,并將公鑰分發到所有從節點上,以實現SSH免密碼登錄。
ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
ssh-copy-id hadoop@node2
ssh-copy-id hadoop@node3
在NameNode上運行以下命令格式化HDFS:
hdfs namenode -format
在NameNode上啟動Hadoop的NameNode和DataNode:
start-dfs.sh
在ResourceManager上啟動YARN:
start-yarn.sh
可以通過以下命令檢查Hadoop集群的狀態:
jps
確保所有必需的Hadoop進程(如NameNode、DataNode、ResourceManager等)都在運行。
為了提高集群的安全性,可以配置Kerberos認證和數據加密等安全措施。
以上步驟涵蓋了在Debian下搭建Hadoop集群的基本流程。在實際操作中,可能還需要進行其他配置,如網絡設置、防火墻關閉、SELinux關閉等。建議參考Hadoop的官方文檔進行操作,以確保集群的穩定性和安全性。