溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何實現Hadoop Hdfs配置

發布時間:2021-11-17 15:27:12 來源:億速云 閱讀:192 作者:小新 欄目:開發技術

這篇文章將為大家詳細講解有關如何實現Hadoop Hdfs配置,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

Hadoop Hdfs配置

環境:

Jdk1.6
Hadoop-2.20.1
Fuse-2.8.1
--------------------------------------------------------------------------------

Jdk1.6下載地址
http://cds.sun.com/is-bin/INTERSHOP.enfinity/WFS/CDS-CDS_Developer-Site/en_US/-/USD/VerifyItem-Start/jdk-6u14-linux-i586.bin?BundledLineItemUUID=.1JIBe.mR4oAAAEh2jkH4cNK&OrderID=SHBIBe.mbIYAAAEhwDkH4cNK&ProductID=4ZhIBe.o8c4AAAEhkh0zLjfT&FileName=/jdk-6u14-linux-i586.bin
hadoop-2.20.1下載地址http://www.apache.org/dyn/closer.cgi/hadoop/core/
Fuse-2.8.1下載地址http://sourceforge.net/projects/fuse/files/fuse-2.X/

NameNode192.168.1.11Centos5.3hostnamemaster-dfs
JobTracker192.168.1.11(這個也可單獨配置一臺)
DataNode192.168.1.12Centos5.3hostname:data-dfs
Client192.168.1.13Centos5.3hostname:client-dfs

Hadoop Hdfs配置先決條件

配置ssh自動登陸,詳細見http://hadoop.apache.org/common/docs/r0.20.0/quickstart.html

安裝

1、JDK安裝,解壓到/usr/local/jdk1.6,并配置/etc/profile環境

exportJAVA_HOME=/usr/local/jdk1.6
exportPATH=$JAVA_HOME/bin:$JAVA_HOME/jre:$PATH
exportCLASSPATH=$JAVA_HOME/lib:$JAVA_HOME/lib/tools.jar
2、下載Hadoop解壓到每臺服務器的/data/soft目錄下,***目錄都相同。
tarzxvfhadoop-2.20.1.tar.gz
配置

配置說明
Hadoop Hdfs配置過程中Hadoop的具體配置選項說明詳見http://www.hadoop.org.cn/document/cn/r0.18.2/cluster_setup.html

1、修改conf/hadoop-env.sh,添加jdk支持,exportJAVA_HOME=/usr/local/jdk1.6
2、cd/data/soft/hadoop-2.20.1修改hadoop目錄下的conf/core-site.xml文件,增加以下內容:

<configuration> <property> <name>fs.default.name</name> <value>hdfs://ws:54310</value>//你的namenode的配置,機器名加端口  </property> <property> <name>dfs.name.dir</name> <value>/data/hdfs/hdfs1</value>//NameNode持久存儲名字空間及事務日志的本地文件系統路徑。  </property> <property> <name>dfs.data.dir</name>//DataNode存放塊數據的本地文件系統路徑,逗號分割的列表。  <value>/data/hdfs/hdfsdata1</value> </property> <property> <name>hadoop.tmp.dir</name>>//Hadoop的默認臨時路徑,這個***配置,然后在新增節點或者其他情況下莫名其妙的DataNode啟動不了,就刪除此文件中的tmp目錄即可。不過如果刪除了NameNode機器的此目錄,那么就需要重新執行NameNode格式化的命令了。  <value>/data/hdfs/hdfstmp</value> <description>Abaseforothertemporarydirectories.</description> </property> <property> <name>dfs.replication</name>//數據需要備份的數量,默認是三  <value>1</value> </property> </configuration>

3、修改conf/mapred-site.xml增加如下內容:

<property> <name>mapred.job.tracker</name>//JobTracker的主機(或者IP)和端口。  <value>ws:54311</value> </property>

4、配置/masters,修改conf//masters
master-dfs
修改hosts文件vi/etc/hosts

192.168.1.11master-dfs
192.168.1.12data-dfs

關于“如何實現Hadoop Hdfs配置”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。

向AI問一下細節
推薦閱讀:
  1. Hadoop
  2. Hadoop 入門

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女