要檢查CentOS上的HDFS(Hadoop分布式文件系統)配置是否正確,可以按照以下步驟進行:
確保Hadoop的環境變量已經正確設置。編輯/etc/profile
或~/.bashrc
文件,添加以下內容:
export HADOOP_HOME=/path/to/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
然后運行以下命令使環境變量生效:
source /etc/profile
# 或者
source ~/.bashrc
Hadoop的主要配置文件位于$HADOOP_HOME/etc/hadoop
目錄下。主要需要檢查以下幾個文件:
core-site.xml
確保配置了正確的默認文件系統:
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://namenode:8020</value>
</property>
</configuration>
hdfs-site.xml
確保配置了NameNode和DataNode的地址:
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.name.dir</name>
<value>/path/to/namenode/data</value>
</property>
<property>
<name>dfs.datanode.data.dir</name>
<value>/path/to/datanode/data</value>
</property>
</configuration>
yarn-site.xml
如果使用YARN,確保配置了ResourceManager和NodeManager:
<configuration>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>resourcemanager-hostname</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
mapred-site.xml
如果使用MapReduce,確保配置了JobHistoryServer:
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
<property>
<name>mapreduce.jobhistory.address</name>
<value>jobhistoryserver-hostname:10020</value>
</property>
<property>
<name>mapreduce.jobhistory.webapp.address</name>
<value>jobhistoryserver-hostname:19888</value>
</property>
</configuration>
確保所有服務都已正確啟動:
start-dfs.sh
start-yarn.sh
使用以下命令檢查Hadoop服務的狀態:
jps
你應該看到以下進程:
通過瀏覽器訪問以下URL來檢查Hadoop集群的狀態:
http://namenode:50070
http://resourcemanager:8088
http://jobhistoryserver:19888
創建一個測試文件并上傳到HDFS:
hdfs dfs -mkdir /test
hdfs dfs -put /path/to/local/file.txt /test/
然后檢查文件是否成功上傳:
hdfs dfs -ls /test
如果遇到問題,可以查看Hadoop的日志文件,通常位于$HADOOP_HOME/logs
目錄下。
通過以上步驟,你應該能夠檢查并確認CentOS上的HDFS配置是否正確。