在CentOS上搭建Hadoop分布式文件系統(HDFS)是一個相對復雜的過程,需要多個步驟。以下是一個基本的搭建步驟指南,假設你需要搭建一個包含多個節點的HDFS集群。
HDFS需要Java運行環境,通常是JDK 8。
yum install -y java-1.8.0-openjdk-devel
在每個節點上修改主機名,并配置靜態IP地址。
# 修改主機名
hostnamectl set-hostname node1
# 配置靜態IP
vi /etc/sysconfig/network-scripts/ifcfg-eth0
# 添加或修改以下內容
BOOTPROTO=static
IPADDR=192.168.1.101
NETMASK=255.255.255.0
GATEWAY=192.168.1.1
ONBOOT=yes
在每個節點上生成SSH密鑰,并將公鑰復制到其他節點。
ssh-keygen -t rsa
ssh-copy-id node2
ssh-copy-id node3
從Apache Hadoop官網下載所需版本的Hadoop安裝包。
wget http://archive.apache.org/dist/hadoop/core/hadoop-3.2.10/hadoop-3.2.10.tar.gz
將下載的Hadoop安裝包解壓到指定目錄。
tar -zxvf hadoop-3.2.10.tar.gz -C /opt/hadoop
編輯/etc/profile
文件,添加Hadoop環境變量。
export HADOOP_HOME=/opt/hadoop/hadoop-3.2.10
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
使配置生效。
source /etc/profile
在$HADOOP_HOME/etc/hadoop/
目錄下編輯core-site.xml
文件。
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://node1:9000</value>
</property>
</configuration>
在$HADOOP_HOME/etc/hadoop/
目錄下編輯hdfs-site.xml
文件。
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/opt/hadoop/data/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/opt/hadoop/data/datanode</value>
</property>
</configuration>
在$HADOOP_HOME/etc/hadoop/
目錄下編輯mapred-site.xml
和yarn-site.xml
文件。
在NameNode節點上執行以下命令格式化文件系統。
hdfs namenode -format
在NameNode節點上啟動HDFS。
start-dfs.sh
使用以下命令驗證Hadoop集群是否正常運行。
jps
打開瀏覽器,訪問http://node1:50070
,查看HDFS管理界面。
以上步驟是一個基本的HDFS搭建流程,具體配置可能會因版本和環境的不同而有所差異。建議參考官方文檔進行詳細配置。