在Linux上部署Hadoop集群是一個相對復雜的過程,需要多個步驟和配置。以下是一個基本的指南,假設你使用的是Ubuntu 24.2作為操作系統。
sudo apt update
sudo apt install openjdk-11-jdk
wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz
sudo tar -zxvf hadoop-3.3.5.tar.gz -C /opt/hadoop
編輯~/.bashrc
文件,添加以下內容:
export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64
export HADOOP_HOME=/opt/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
使配置生效:
source ~/.bashrc
HADOOP_HOME/etc/hadoop/
目錄下。以下是需要配置的主要配置文件:core-site.xml
hdfs-site.xml
mapred-site.xml
yarn-site.xml
這些文件的配置取決于你的具體需求,你可能需要配置HDFS的副本數量、YARN的資源管理器等。
ssh-keygen -t rsa
ssh-copy-id hadoop@node2
ssh-copy-id hadoop@node3
hdfs namenode -format
start-dfs.sh
start-yarn.sh
使用以下命令檢查所有必需的Hadoop進程是否在運行:
jps
訪問Hadoop Web界面驗證是否啟動成功:
可以使用Ambari等工具來監控和管理Hadoop集群。
wget https://downloads.apache.org/ambari/ambari/2.7.3/packages/apache-ambari-2.7.3.0-bin.tar.gz
tar -xzf apache-ambari-2.7.3.0-bin.tar.gz
cd apache-ambari-2.7.3.0
./bin/ambari-server setup
./bin/ambari-server start
訪問Ambari Web界面,通常是 http://namenode_ip:8080。
通過以上步驟,你可以在Linux上成功部署一個基本的Hadoop集群。根據具體需求,你可能還需要進行更多的配置和優化。