溫馨提示×

CentOS HDFS集群如何搭建與配置

小樊
37
2025-07-27 03:22:41
欄目: 智能運維

在CentOS上搭建和配置HDFS(Hadoop分布式文件系統)集群是一個復雜的過程,涉及多個步驟。以下是一個基本的指南,幫助你完成這個過程:

環境準備

  1. 安裝Java環境

    • HDFS需要Java運行環境,通常是JDK 8。
    yum install -y java-1.8.0-openjdk-devel
    
    • 配置Java環境變量:
      echo "export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk" >> /etc/profile
      source /etc/profile
      java -version
      
  2. 配置主機名和靜態IP

    • 在每個節點上修改主機名:
      hostnamectl set-hostname node1
      
    • 配置靜態IP地址:
      vi /etc/sysconfig/network-scripts/ifcfg-eth0
      # 添加或修改以下內容
      BOOTPROTO=static
      IPADDR=192.168.1.101
      NETMASK=255.255.255.0
      GATEWAY=192.168.1.1
      ONBOOT=yes
      
  3. 配置SSH免密登錄

    • 在每個節點上生成SSH密鑰,并將公鑰復制到其他節點:
      ssh-keygen -t rsa
      ssh-copy-id node2
      ssh-copy-id node3
      

安裝Hadoop

  1. 下載Hadoop

    • 從Apache Hadoop官網下載所需版本的Hadoop安裝包。例如,下載Hadoop 3.2.10:
      wget http://archive.apache.org/dist/hadoop/core/hadoop-3.2.10/hadoop-3.2.10.tar.gz
      
  2. 解壓Hadoop

    • 將下載的Hadoop安裝包解壓到指定目錄:
      tar -zxvf hadoop-3.2.10.tar.gz -C /opt/hadoop
      
  3. 配置環境變量

    • 編輯 /etc/profile 文件,添加Hadoop環境變量:
      export HADOOP_HOME=/opt/hadoop/hadoop-3.2.10
      export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
      
    • 使配置生效:
      source /etc/profile
      

配置Hadoop

  1. 配置core-site.xml

    • HADOOP_HOME/etc/hadoop/ 目錄下編輯 core-site.xml 文件:
      <configuration>
          <property>
              <name>fs.defaultFS</name>
              <value>hdfs://node1:9000</value>
          </property>
          <property>
              <name>hadoop.tmp.dir</name>
              <value>/opt/hadoop/data</value>
          </property>
      </configuration>
      
  2. 配置hdfs-site.xml

    • HADOOP_HOME/etc/hadoop/ 目錄下編輯 hdfs-site.xml 文件:
      <configuration>
          <property>
              <name>dfs.replication</name>
              <value>2</value>
          </property>
          <property>
              <name>dfs.namenode.name.dir</name>
              <value>/opt/hadoop/data/namenode</value>
          </property>
          <property>
              <name>dfs.datanode.data.dir</name>
              <value>/opt/hadoop/data/datanode</value>
          </property>
      </configuration>
      
  3. 配置mapred-site.xml和yarn-site.xml

    • HADOOP_HOME/etc/hadoop/ 目錄下編輯 mapred-site.xmlyarn-site.xml 文件:
      <!-- mapred-site.xml -->
      <configuration>
          <property>
              <name>mapreduce.framework.name</name>
              <value>yarn</value>
          </property>
      </configuration>
      
      <!-- yarn-site.xml -->
      <configuration>
          <property>
              <name>yarn.resourcemanager.hostname</name>
              <value>node1</value>
          </property>
          <property>
              <name>yarn.nodemanager.aux-services</name>
              <value>mapreduce_shuffle</value>
          </property>
      </configuration>
      

格式化NameNode

在NameNode節點上執行以下命令格式化文件系統:

hdfs namenode -format

啟動Hadoop集群

在NameNode節點上啟動HDFS:

start-dfs.sh

驗證Hadoop集群

使用以下命令驗證Hadoop集群是否正常運行:

jps

訪問HDFS Web界面

打開瀏覽器,訪問 http://node1:50070,查看HDFS管理界面。

高可用性配置(可選)

  1. 配置JournalNode

    • 至少配置一個JournalNode以實現數據日志的共享。
  2. 配置ZooKeeper

    • 使用ZooKeeper進行NameNode的主備切換。
    • 修改 hdfs-site.xml 文件以啟用高可用性特性,如 dfs.nameservices、dfs.ha.namenodes 等。

以上步驟提供了一個基本的HDFS集群搭建流程,具體配置可能會根據實際環境和需求有所不同。建議參考官方文檔進行詳細配置。

0
亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女