在CentOS下安裝HDFS(Hadoop分布式文件系統)通常涉及以下幾個步驟:
sudo yum install java-1.8.0-openjdk-devel
java -version
ssh-keygen -t rsa
ssh-copy-id hadoop@namenode
ssh-copy-id hadoop@datanode1
ssh-copy-id hadoop@datanode2
從Apache Hadoop官方網站下載最新版本的Hadoop,并解壓到指定目錄。
wget https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz
tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/
sudo mv /usr/local/hadoop-3.3.1 /usr/local/hadoop
編輯 /etc/profile.d/hadoop.sh 文件,添加以下內容:
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
使環境變量生效:
source /etc/profile.d/hadoop.sh
編輯Hadoop配置文件,通常位于 HADOOP_HOME/etc/hadoop 目錄下。
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:9000</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/data/datanode</value>
</property>
</configuration>
在NameNode節點上執行以下命令格式化HDFS:
hdfs namenode -format
在NameNode節點上啟動HDFS和YARN:
start-dfs.sh
start-yarn.sh
使用 jps 命令檢查HDFS進程是否啟動成功。你應該看到NameNode、SecondaryNameNode、DataNode、ResourceManager和NodeManager進程。
關閉防火墻或配置防火墻允許Hadoop服務通信。
sudo systemctl stop firewalld
sudo chkconfig firewalld off
以上步驟是一個基本的指南,具體的安裝過程可能會因版本和特定需求而有所不同。建議參考Hadoop官方文檔或相關的教程進行操作。