在Linux中擴展Hadoop集群的步驟如下:
環境檢查:
/etc/hosts
文件。Hadoop安裝與配置同步:
添加到workers文件(或slaves文件):
$HADOOP_HOME/etc/hadoop/workers
文件中添加新節點的主機名。若啟用了白名單,修改dfs.hosts:
$HADOOP_HOME/etc/hadoop/dfs.hosts
文件中。在新節點上執行以下命令:
$HADOOP_HOME/sbin/hadoop-daemon.sh start datanode
$HADOOP_HOME/sbin/yarn-daemon.sh start nodemanager
可選:在主節點上運行balancer以平衡數據。
查看HDFS節點狀態:
hdfs dfsadmin -report
查看HDFS節點狀態。http://<namenode_host>:9870/dfshealth.html
查看。查看YARN節點狀態:
http://<resourcemanager_host>:8088/cluster/nodes
查看。測試任務提交:
hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar pi 5 100
測試任務提交。auto_add_node.sh
。請注意,具體的步驟可能會根據Hadoop版本和集群配置有所不同。在執行擴展操作之前,建議詳細閱讀相關版本的官方文檔,并確保所有節點的時間同步,以避免潛在的問題。