在Debian上配置Hadoop資源管理,通常涉及以下幾個關鍵步驟:
安裝Java開發工具包(JDK): Hadoop需要JDK來運行,因此首先需要安裝JDK??梢允褂靡韵旅畎惭bOpenJDK:
sudo apt update
sudo apt install openjdk-11-jdk
下載并解壓Hadoop: 從Hadoop官方網站下載適用于Debian的Hadoop安裝包,然后解壓到指定目錄。例如:
wget http://archive.cloudera.com/cdh5/hadoop/stable/hadoop-2.7.7/hadoop-2.7.7.tar.gz
tar -zxvf hadoop-2.7.7.tar.gz -C /usr/local/hadoop
配置環境變量:
編輯~/.bashrc
文件,添加Hadoop的安裝路徑和bin目錄到PATH環境變量中:
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
然后使配置生效:
source ~/.bashrc
配置Hadoop配置文件:
進入Hadoop配置文件目錄/usr/local/hadoop/etc/hadoop
,對四個配置文件進行更改:
core-site.xml:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
</property>
</configuration>
hdfs-site.xml:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/hdfs/datanode</value>
</property>
</configuration>
mapred-site.xml:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
yarn-site.xml:
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>localhost</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
配置SSH免密碼登錄: 在所有節點上配置SSH免密碼登錄,以便能夠無密碼啟動Hadoop服務:
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
格式化HDFS并啟動Hadoop集群: 在NameNode節點上,運行以下命令格式化HDFS文件系統:
hdfs namenode -format
然后啟動Hadoop集群:
start-dfs.sh
start-yarn.sh
驗證配置: 使用以下命令檢查Hadoop服務是否成功啟動:
jps
訪問Hadoop管理界面: