在Debian系統上提交Hadoop作業通常涉及以下步驟:
環境準備:
HADOOP_HOME和PATH。編寫MapReduce程序:
上傳JAR文件到HDFS:
hadoop fs -put命令將JAR文件上傳到HDFS的某個目錄中。hadoop fs -put /path/to/your-job.jar /user/hadoop/job.jar
準備輸入數據:
hadoop fs -put /path/to/input /user/hadoop/input
提交作業:
hadoop jar命令提交作業。hadoop jar /user/hadoop/job.jar com.yourcompany.YourJobClass /user/hadoop/input /user/hadoop/output
其中:
/user/hadoop/job.jar 是你的JAR文件在HDFS上的路徑。com.yourcompany.YourJobClass 是你的主類(包含main方法的類)。/user/hadoop/input 是輸入數據在HDFS上的路徑。/user/hadoop/output 是輸出數據在HDFS上的路徑。監控作業:
yarn application -list命令查看作業的運行狀態。yarn application -list
yarn application -status <application_id>查看特定作業的詳細狀態。獲取作業輸出:
hadoop fs -get命令將輸出數據從HDFS下載到本地文件系統。hadoop fs -get /user/hadoop/output /path/to/local/output
清理:
hadoop fs -rm -r /user/hadoop/input
hadoop fs -rm -r /user/hadoop/output
以上步驟是在Debian系統上提交Hadoop作業的基本流程。根據具體需求和環境配置,可能需要進行一些調整。