在CentOS上使用HDFS文件系統時,以下是一些有用的技巧和步驟:
/etc/profile
文件,添加Java路徑:export JAVA_HOME=/usr/lib/java-1.8.0/jdk1.8.0_144
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=$JAVA_HOME/jre/lib/ext:$JAVA_HOME/lib/tools.jar
source /etc/profile
/etc/profile
文件,添加Hadoop路徑:export HADOOP_HOME=/opt/hadoop/hadoop-2.8.1
export PATH=$HADOOP_HOME/bin:$PATH
export CLASSPATH=$HADOOP_HOME/lib/*
source /etc/profile
ssh-keygen -t rsa
ssh-copy-id localhost
hdfs namenode -format
sbin/start-dfs.sh
http://<namenode-ip>:50070
hdfs-site.xml
文件,添加HA相關配置:<property>
<name>dfs.nameservices</name>
<value>mycluster</value>
</property>
<property>
<name>dfs.ha.namenodes.mycluster</name>
<value>nn1,nn2</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn1</name>
<value>namenode1:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.mycluster.nn2</name>
<value>namenode2:8020</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn1</name>
<value>namenode1:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.mycluster.nn2</name>
<value>namenode2:50070</value>
</property>
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://journalnode1:8485;journalnode2:8485;journalnode3:8485/mycluster</value>
</property>
hadoop-env.sh
文件中設置 HADOOP_NAMENODE_OPTS
來調整NameNode的內存。jmap -heap
命令查看和調整NameNode和DataNode的內存占用。hdfs-site.xml
文件,增加 dfs.namenode.handler.count
的值,以提高NameNode處理DataNode心跳和客戶端元數據操作的并發能力。core-site.xml
中的 fs.trash.interval
和 fs.trash.checkpoint.interval
值來啟用和管理回收站功能。hdfs-site.xml
中修改 dfs.namenode.name.dir
參數,配置多個目錄以提高數據的可靠性。dfs.datanode.data.dir
參數,為DataNode配置多個目錄,以便分散數據存儲。通過以上步驟和技巧,您可以在CentOS上成功安裝、配置和優化HDFS文件系統。