這篇文章主要為大家展示了“hadoop-001-啟動hadoop 2.5.2 遇到的datanode啟動失敗怎么辦”,內容簡而易懂,條理清晰,希望能夠幫助大家解決疑惑,下面讓小編帶領大家一起研究并學習一下“hadoop-001-啟動hadoop 2.5.2 遇到的datanode啟動失敗怎么辦”這篇文章吧。
打開日志文件
localhost: starting datanode, logging to /opt/hadoop/logs/hadoop-root-datanode-localhost.out
發現報錯
2016-01-17 11:43:53,019 INFO org.apache.hadoop.ipc.Server: IPC Server listener on 50020: starting |
從日志上看,加粗的部分說明了問題
datanode的clusterID 和 namenode的clusterID 不匹配。
解決辦法:
根據日志中的路徑,/opt/hadoop/data/hadoop-root/dfs/
能看到 data和name兩個文件夾,
由 hdfs-site.xml 默認配置文件可以看出,data 和 name 文件目錄依賴 core-site.xml 的 hadoop.tmp.dir 參數
| dfs.namenode.name.dir | file://${hadoop.tmp.dir}/dfs/name |
| dfs.datanode.data.dir | file://${hadoop.tmp.dir}/dfs/data |
本系統
hadoop.tmp.dir配置如下
<property> <name>hadoop.tmp.dir</name> <value>/opt/hadoop/data/hadoop-${user.name}</value> </property> |
將name/current下的VERSION中的clusterID復制到data/current下的VERSION中,覆蓋掉原來的clusterID
讓兩個保持一致
然后重啟,啟動后執行jps,查看進程
[root@localhost hadoop]# jps
9518 SecondaryNameNode
9291 DataNode
9912 Jps
9138 NameNode
7626 ResourceManager
7797 NodeManager
出現該問題的原因:在第一次格式化dfs后,啟動并使用了hadoop,后來又重新執行了格式化命令(hdfs namenode -format),這時namenode的clusterID會重新生成,而datanode的clusterID 保持不變。
以上是“hadoop-001-啟動hadoop 2.5.2 遇到的datanode啟動失敗怎么辦”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。