在CentOS上部署和配置Hadoop分布式文件系統(HDFS)是一個相對復雜的過程,但以下步驟將指導你完成整個過程。以下是基于CentOS 7的詳細步驟:
安裝JDK:
/usr/lib/java-1.8.0
。/etc/profile
文件,添加以下內容:export JAVA_HOME=/usr/lib/java-1.8.0/jdk1.8.0_131
export JRE_HOME=/usr/lib/java-1.8.0/jre1.8.0_131
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/lib/tools.jar
export LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/amd64:$JAVA_HOME/jre/lib/amd64/server
source /etc/profile
安裝SSH:
sudo yum install -y openssh-server openssh-clients
sudo systemctl start sshd
sudo systemctl enable sshd
ssh-keygen -t rsa -P ""
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
ssh localhost
安裝Hadoop:
/usr/local/hadoop
。/etc/profile
文件,添加以下內容:export HADOOP_HOME=/usr/local/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
source /etc/profile
配置 core-site.xml
:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://localhost:9000</value>
</property>
</configuration>
配置 hdfs-site.xml
:
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/hadoop/hdfs/namenode</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/hadoop/hdfs/datanode</value>
</property>
</configuration>
格式化NameNode:
hdfs namenode -format
啟動HDFS:
sbin/start-dfs.sh
驗證啟動:
jps
命令查看啟動的進程,確保NameNode和DataNode進程已啟動。http://localhost:50070
,查看HDFS的Web界面。通過以上步驟,你應該能夠在CentOS上成功部署和配置HDFS。如果在啟動過程中遇到問題,請檢查日志文件以獲取更多信息。