CentOS上集成HDFS與其他服務需按步驟配置,以下是關鍵操作:
JAVA_HOME
環境變量。authorized_keys
,實現無密碼通信。HADOOP_HOME
、PATH
)。core-site.xml
:設置默認文件系統URI(如hdfs://localhost:9000
)。hdfs-site.xml
:配置副本數、數據存儲路徑等。hdfs namenode -format
。start-dfs.sh
啟動NameNode、DataNode等進程。yarn-site.xml
,設置ResourceManager地址及mapreduce_shuffle
服務等。start-yarn.sh
,通過jps
查看ResourceManager、NodeManager進程。wordcount
)測試資源調度。zoo.cfg
,在NameNode節點創建myid
文件。hdfs-site.xml
中指定ZooKeeper集群地址、JournalNode共享存儲路徑,啟用自動故障切換。hdfs haadmin -transitionToActive
切換主備節點。SPARK_HOME
及PATH
。spark-env.sh
中指定HDFS地址,在core-site.xml
中配置Spark臨時目錄。server.properties
,通過HDFS Sink將數據寫入HDFS。jps
查看各服務進程是否正常運行。http://namenode:50070
)、YARN(http://resourcemanager:8088
)驗證狀態。/var/log/hadoop
或服務日志,排查配置錯誤。參考來源:[1,2,4,5,6,7,8,9,10,11]