溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何使用docker搭建hadoop分布式集群

發布時間:2022-05-26 15:02:15 來源:億速云 閱讀:453 作者:iii 欄目:大數據

這篇文章主要講解了“如何使用docker搭建hadoop分布式集群”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“如何使用docker搭建hadoop分布式集群”吧!

一:環境準備:

1:首先要有一個centos7操作系統,可以在虛擬機中安裝。

2:在centos7中安裝docker,docker的版本為1.8.2

安裝步驟如下:

<1>安裝制定版本的docker 

yum install -y docker-1.8.2-10.el7.centos

<2>安裝的時候可能會報錯,需要刪除這個依賴

如何使用docker搭建hadoop分布式集群

rpm -e lvm2-7:2.02.105-14.el7.x86_64

啟動docker

service docker start

驗證安裝結果:

如何使用docker搭建hadoop分布式集群 

<3>啟動之后執行docker info會看到下面有兩行警告信息

如何使用docker搭建hadoop分布式集群

需要關閉防火墻并重啟系統

systemctl stop firewalld
systemctl disable firewalld
#注意:執行完上面的命令之后需要重啟系統
reboot -h(重啟系統)

<4>運行容器可能會報錯

如何使用docker搭建hadoop分布式集群

需要關閉selinux

解決方法:

1:setenforce 0(立刻生效,不需要重啟操作系統)

2:修改/etc/selinux/config文件中的selinux=disabled ,然后重啟系統生效

建議兩個步驟都執行,這樣可以確保系統重啟之后selinux也是關閉狀態

3:需要先構建一個hadoop的基礎鏡像,使用dockerfile文件方式進行構建。

先構建一個具備ssh功能的鏡像,方便后期使用。(但是這樣對于容器的安全性會有影響)

注意:這個鏡像中的root用戶的密碼是root

mkdir centos-ssh-root 
cd centos-ssh-root 
vi dockerfile
# 選擇一個已有的os鏡像作為基礎 
from centos 

# 鏡像的作者 
maintainer crxy 

# 安裝openssh-server和sudo軟件包,并且將sshd的usepam參數設置成no 
run yum install -y openssh-server sudo 
run sed -i 's/usepam yes/usepam no/g' /etc/ssh/sshd_config 
#安裝openssh-clients
run yum install -y openssh-clients

# 添加測試用戶root,密碼root,并且將此用戶添加到sudoers里 
run echo "root:root" | chpasswd 
run echo "root  all=(all)    all" >> /etc/sudoers 
# 下面這兩句比較特殊,在centos6上必須要有,否則創建出來的容器sshd不能登錄 
run ssh-keygen -t dsa -f /etc/ssh/ssh_host_dsa_key 
run ssh-keygen -t rsa -f /etc/ssh/ssh_host_rsa_key 

# 啟動sshd服務并且暴露22端口 
run mkdir /var/run/sshd 
expose 22 
cmd ["/usr/sbin/sshd", "-d"]

構建命令:

docker build -t=”crxy/centos-ssh-root” .

查詢剛才構建成功的鏡像

如何使用docker搭建hadoop分布式集群 

4:基于這個鏡像再構建一個帶有jdk的鏡像
注意:jdk使用的是1.7版本的

mkdir centos-ssh-root-jdk 
cd centos-ssh-root-jdk 
cp ../jdk-7u75-linux-x64.tar.gz . 
vi dockerfile
from crxy/centos-ssh-root
add jdk-7u75-linux-x64.tar.gz /usr/local/
run mv /usr/local/jdk1.7.0_75 /usr/local/jdk1.7
env java_home /usr/local/jdk1.7
env path $java_home/bin:$path

構建命令:

docker build -t=”crxy/centos-ssh-root-jdk” .

查詢構建成功的鏡像

如何使用docker搭建hadoop分布式集群 

5:基于這個jdk鏡像再構建一個帶有hadoop的鏡像

注意:hadoop使用的是2.4.1版本的。

mkdir centos-ssh-root-jdk-hadoop 
cd centos-ssh-root-jdk-hadoop 
cp ../hadoop-2.4.1.tar.gz . 
vi dockerfile
from crxy/centos-ssh-root-jdk
add hadoop-2.4.1.tar.gz /usr/local
run mv /usr/local/hadoop-2.4.1 /usr/local/hadoop
env hadoop_home /usr/local/hadoop
env path $hadoop_home/bin:$path

構建命令:

docker build -t=”crxy/centos-ssh-root-jdk-hadoop” .

查詢構建成功的鏡像

如何使用docker搭建hadoop分布式集群

二:搭建hadoop分布式集群

1:集群規劃

準備搭建一個具有三個節點的集群,一主兩從

主節點:hadoop0 ip:192.168.2.10

從節點1:hadoop1 ip:192.168.2.11

從節點2:hadoop2 ip:192.168.2.12

但是由于docker容器重新啟動之后ip會發生變化,所以需要我們給docker設置固定ip。使用pipework給docker容器設置固定ip

2:啟動三個容器,分別作為hadoop0 hadoop1 hadoop2

在宿主機上執行下面命令,給容器設置主機名和容器的名稱,并且在hadoop0中對外開放端口50070 和8088

docker run --name hadoop0 --hostname hadoop0 -d -p -p 50070:50070 -p 8088:8088 crxy/centos-ssh-root-jdk-hadoop

docker run --name hadoop1 --hostname hadoop1 -d -p crxy/centos-ssh-root-jdk-hadoop

docker run --name hadoop2 --hostname hadoop2 -d -p crxy/centos-ssh-root-jdk-hadoop

使用docker ps 查看剛才啟動的是三個容器

如何使用docker搭建hadoop分布式集群

3:給這三臺容器設置固定ip

1:下載pipework 下載地址:

2:把下載的zip包上傳到宿主機服務器上,解壓,改名字

unzip pipework-master.zip
mv pipework-master pipework
cp -rp pipework/pipework /usr/local/bin/

3:安裝bridge-utils

yum -y install bridge-utils

4:創建網絡

brctl addbr br0
ip link set dev br0 up
ip addr add 192.168.2.1/24 dev br0

5:給容器設置固定ip

pipework br0 hadoop0 192.168.2.10/24
pipework br0 hadoop1 192.168.2.11/24
pipework br0 hadoop2 192.168.2.12/24

驗證一下,分別ping三個ip,能ping通就說明沒問題

如何使用docker搭建hadoop分布式集群

4:配置hadoop集群

先連接到hadoop0上, 使用命令

docker exec -it hadoop0 /bin/bash

下面的步驟就是hadoop集群的配置過程

1:設置主機名與ip的映射,修改三臺容器:vi /etc/hosts

添加下面配置

192.168.2.10  hadoop0
192.168.2.11  hadoop1
192.168.2.12  hadoop2

2:設置ssh免密碼登錄

在hadoop0上執行下面操作

cd ~
mkdir .ssh
cd .ssh
ssh-keygen -t rsa(一直按回車即可)
ssh-copy-id -i localhost
ssh-copy-id -i hadoop0
ssh-copy-id -i hadoop1
ssh-copy-id -i hadoop2
在hadoop1上執行下面操作
cd ~
cd .ssh
ssh-keygen -t rsa(一直按回車即可)
ssh-copy-id -i localhost
ssh-copy-id -i hadoop1
在hadoop2上執行下面操作
cd ~
cd .ssh
ssh-keygen -t rsa(一直按回車即可)
ssh-copy-id -i localhost
ssh-copy-id -i hadoop2

3:在hadoop0上修改hadoop的配置文件

進入到/usr/local/hadoop/etc/hadoop目錄

修改目錄下的配置文件core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml

(1)hadoop-env.sh

export java_home=/usr/local/jdk1.7

(2)core-site.xml

<configuration>
    <property>
        <name>fs.defaultfs</name>
        <value>hdfs://hadoop0:9000</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/usr/local/hadoop/tmp</value>
    </property>
     <property>
         <name>fs.trash.interval</name>
         <value>1440</value>
    </property>
</configuration>

(3)hdfs-site.xml

<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
  <property>
    <name>dfs.permissions</name>
    <value>false</value>
  </property>
</configuration>

(4)yarn-site.xml

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property> 
        <name>yarn.log-aggregation-enable</name> 
        <value>true</value> 
    </property>
</configuration>

(5)修改文件名:mv mapred-site.xml.template mapred-site.xml

vi mapred-site.xml

<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
</configuration>

(6)格式化

進入到/usr/local/hadoop目錄下

1、執行格式化命令

bin/hdfs namenode -format

注意:在執行的時候會報錯,是因為缺少which命令,安裝即可

執行下面命令安裝

yum install -y which

看到下面命令說明格式化成功。

如何使用docker搭建hadoop分布式集群

格式化操作不能重復執行。如果一定要重復格式化,帶參數-force即可。

(7)啟動偽分布hadoop

命令:

sbin/start-all.sh

第一次啟動的過程中需要輸入yes確認一下。

如何使用docker搭建hadoop分布式集群

使用jps,檢查進程是否正常啟動?能看到下面幾個進程表示偽分布啟動成功

[root@hadoop0 hadoop]# jps
3267 secondarynamenode
3003 namenode
3664 jps
3397 resourcemanager
3090 datanode
3487 nodemanager

(8)停止偽分布hadoop

命令:

sbin/stop-all.sh

(9)指定nodemanager的地址,修改文件yarn-site.xml

<property>
  <description>the hostname of the rm.</description>
  <name>yarn.resourcemanager.hostname</name>
  <value>hadoop0</value>
 </property>

(10)修改hadoop0中hadoop的一個配置文件etc/hadoop/slaves

刪除原來的所有內容,修改為如下

hadoop1
hadoop2

(11)在hadoop0中執行命令

 scp -rq /usr/local/hadoop  hadoop1:/usr/local
 scp -rq /usr/local/hadoop  hadoop2:/usr/local

(12)啟動hadoop分布式集群服務

執行sbin/start-all.sh

注意:在執行的時候會報錯,是因為兩個從節點缺少which命令,安裝即可

分別在兩個從節點執行下面命令安裝

yum install -y which

再啟動集群(如果集群已啟動,需要先停止)

sbin/start-all.sh

(13)驗證集群是否正常

首先查看進程:

hadoop0上需要有這幾個進程

[root@hadoop0 hadoop]# jps
4643 jps
4073 namenode
4216 secondarynamenode
4381 resourcemanager

hadoop1上需要有這幾個進程

[root@hadoop1 hadoop]# jps
715 nodemanager
849 jps
645 datanode

hadoop2上需要有這幾個進程

[root@hadoop2 hadoop]# jps
456 nodemanager
589 jps
388 datanode

使用程序驗證集群服務

創建一個本地文件

vi a.txt
hello you
hello me

上傳a.txt到hdfs上

hdfs dfs -put a.txt /

執行wordcount程序

cd /usr/local/hadoop/share/hadoop/mapreduce
hadoop jar hadoop-mapreduce-examples-2.4.1.jar wordcount /a.txt /out

查看程序執行結果

如何使用docker搭建hadoop分布式集群 

這樣就說明集群正常了。

通過瀏覽器訪問集群的服務
由于在啟動hadoop0這個容器的時候把50070和8088映射到宿主機的對應端口上了

復制代碼 代碼如下:

adb9eba7142b        crxy/centos-ssh-root-jdk-hadoop   "/usr/sbin/sshd -d"   about an hour ago   up about an hour    0.0.0.0:8088->8088/tcp, 0.0.0.0:50070->50070/tcp, 0.0.0.0:32770->22/tcp   hadoop0

所以在這可以直接通過宿主機訪問容器中hadoop集群的服務
宿主機的ip為:192.168.1.144

http://192.168.1.144:50070/

http://192.168.1.144:8088/

如何使用docker搭建hadoop分布式集群

如何使用docker搭建hadoop分布式集群

三:集群節點重啟

停止三個容器,在宿主機上執行下面命令

docker stop hadoop0
docker stop hadoop1
docker stop hadoop2

容器停止之后,之前設置的固定ip也會消失,重新再使用這幾個容器的時候還需要重新設置固定ip
先把之前停止的三個容器起來

docker start hadoop0
docker start hadoop1
docker start hadoop2

在宿主機上執行下面命令重新給容器設置固定ip

pipework br0 hadoop0 192.168.2.10/24
pipework br0 hadoop1 192.168.2.11/24
pipework br0 hadoop2 192.168.2.12/24

還需要重新在容器中配置主機名和ip的映射關系,每次都手工寫比較麻煩

寫一個腳本,runhosts.sh

#!/bin/bash
echo 192.168.2.10    hadoop0 >> /etc/hosts
echo 192.168.2.11    hadoop1 >> /etc/hosts
echo 192.168.2.12    hadoop2 >> /etc/hosts

添加執行權限,

chmod +x runhosts.sh

把這個腳本拷貝到所有節點,并且分別執行這個腳本

scp runhosts.sh hadoop1:~
scp runhosts.sh hadoop2:~

執行腳本的命令

./runhosts.sh

查看/etc/hosts文件中是否添加成功

如何使用docker搭建hadoop分布式集群

注意:有一些docker版本中不會在hosts文件中自動生成下面這些映射,所以我們才在這里手工給容器設置固定ip,并設置主機名和ip的映射關系。

172.17.0.25     hadoop0
172.17.0.25     hadoop0.bridge
172.17.0.26     hadoop1
172.17.0.26     hadoop1.bridge
172.17.0.27     hadoop2
172.17.0.27     hadoop2.bridge

啟動hadoop集群

sbin/start-all.sh

感謝各位的閱讀,以上就是“如何使用docker搭建hadoop分布式集群”的內容了,經過本文的學習后,相信大家對如何使用docker搭建hadoop分布式集群這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女