在Debian系統上安裝Hadoop的步驟如下:
首先,確保你的Debian系統上已經安裝了Java。你可以使用以下命令來安裝OpenJDK 8:
sudo apt update
sudo apt install openjdk-8-jdk
驗證Java安裝成功:
java -version
訪問Apache Hadoop官方網站,下載適合你需求的Hadoop版本。例如,下載Hadoop 3.3.1:
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
解壓下載的Hadoop安裝包到/usr/local目錄:
sudo tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/
為了方便使用Hadoop命令,將其路徑添加到系統的環境變量中。編輯~/.bashrc文件:
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
使環境變量生效:
source ~/.bashrc
進入Hadoop的配置目錄/usr/local/hadoop/etc/hadoop,編輯以下配置文件:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:9000</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/hdfs/data</value>
</property>
</configuration>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>
為了在Hadoop節點之間實現免密登錄,需要生成SSH密鑰并分發到各個節點。
在主節點上生成SSH密鑰:
ssh-keygen -t rsa
將公鑰復制到其他節點的authorized_keys文件中:
ssh-copy-id hadoop@node2_ip
ssh-copy-id hadoop@node3_ip
在NameNode上運行以下命令格式化HDFS:
hdfs namenode -format
在NameNode上啟動Hadoop的NameNode和DataNode:
start-dfs.sh
在ResourceManager上啟動YARN:
start-yarn.sh
可以通過Hadoop的Web界面來驗證安裝是否成功。訪問NameNode的Web界面:
http://namenode_ip:9870
通過ResourceManager的Web界面檢查Hadoop集群的狀態:
http://resourcemanager_ip:8088
以上步驟應該可以幫助你在Debian系統上成功安裝和配置Hadoop。如果在安裝過程中遇到問題,可以參考Hadoop官方文檔或相關社區資源。