溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么用docker快速搭建Spark集群

發布時間:2021-08-12 12:40:44 來源:億速云 閱讀:216 作者:chen 欄目:服務器

本篇內容介紹了“怎么用docker快速搭建Spark集群”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

前言

Spark 是 Berkeley 開發的分布式計算的框架,相對于 Hadoop 來說,Spark 可以緩存中間結果到內存而提高某些需要迭代的計算場景的效率,目前收到廣泛關注。下面來一起看看使用docker快速搭建Spark集群的方法教程。

適用人群

  • 正在使用spark的開發者

  • 正在學習docker或者spark的開發者

準備工作

  • 安裝docker

  • (可選)下載java和spark with hadoop

Spark集群

Spark運行時架構圖

怎么用docker快速搭建Spark集群

如上圖: Spark集群由以下兩個部分組成

  • 集群管理器(Mesos, Yarn或者standalone Mode)

  • 工作節點(worker)

如何docker化(本例使用Standalone模式)

1、將spark集群拆分

      base(基礎鏡像)

      master(主節點鏡像)

      worker(工作鏡像)

2、編寫base Dockerfile

注: 為方便切換版本基礎鏡像選擇的是centos, 所以要下載java和spark, 方便調試, 可以下載好安裝文件后本地搭建一個靜態文件服務器, 使用Node.js 的http-server可以快速搞定

命令如下

 npm install http-server -g
 http-server -p 54321 ~/Downloads

正式開始寫Dockerfile

FROM centos:7
MAINTAINER RavenZZ <raven.zhu@outlook.com>

# 安裝系統工具
RUN yum update -y
RUN yum upgrade -y
RUN yum install -y byobu curl htop man unzip nano wget
RUN yum clean all

# 安裝 Java
ENV JDK_VERSION 8u11
ENV JDK_BUILD_VERSION b12
# 如果網速快,可以直接從源站下載
#RUN curl -LO "http://download.oracle.com/otn-pub/java/jdk/$JDK_VERSION-$JDK_BUILD_VERSION/jdk-$JDK_VERSION-linux-x64.rpm" -H 'Cookie: oraclelicense=accept-securebackup-cookie' && rpm -i jdk-$JDK_VERSION-linux-x64.rpm; rm -f jdk-$JDK_VERSION-linux-x64.rpm;
RUN curl -LO "http://192.168.199.102:54321/jdk-8u11-linux-x64.rpm" && rpm -i jdk-$JDK_VERSION-linux-x64.rpm; rm -f jdk-$JDK_VERSION-linux-x64.rpm;
ENV JAVA_HOME /usr/java/default
RUN yum remove curl; yum clean all
WORKDIR spark

RUN \
 curl -LO 'http://192.168.199.102:54321/spark-2.1.0-bin-hadoop2.7.tgz' && \
 tar zxf spark-2.1.0-bin-hadoop2.7.tgz

RUN rm -rf spark-2.1.0-bin-hadoop2.7.tgz
RUN mv spark-2.1.0-bin-hadoop2.7/* ./

ENV SPARK_HOME /spark
ENV PATH /spark/bin:$PATH
ENV PATH /spark/sbin:$PATH

3、編寫master Dockerfile

FROM ravenzz/spark-hadoop

MAINTAINER RavenZZ <raven.zhu@outlook.com>

COPY master.sh /

ENV SPARK_MASTER_PORT 7077
ENV SPARK_MASTER_WEBUI_PORT 8080
ENV SPARK_MASTER_LOG /spark/logs

EXPOSE 8080 7077 6066

CMD ["/bin/bash","/master.sh"]

4、編寫worker Dockerfile

 FROM ravenzz/spark-hadoop

 MAINTAINER RavenZZ <raven.zhu@outlook.com> 
 COPY worker.sh /

 ENV SPARK_WORKER_WEBUI_PORT 8081
 ENV SPARK_WORKER_LOG /spark/logs
 ENV SPARK_MASTER "spark://spark-master:32769"

 EXPOSE 8081

 CMD ["/bin/bash","/worker.sh"]

5、docker-compose

 version: '3'

services:
 spark-master:
 build:
 context: ./master
 dockerfile: Dockerfile
 ports:
 - "50001:6066"
 - "50002:7077" # SPARK_MASTER_PORT
 - "50003:8080" # SPARK_MASTER_WEBUI_PORT
 expose:
 - 7077

 spark-worker1:
 build:
 context: ./worker
 dockerfile: Dockerfile
 ports:
 - "50004:8081"
 links:
 - spark-master
 environment:
 - SPARK_MASTER=spark://spark-master:7077

 spark-worker2:
 build:
 context: ./worker
 dockerfile: Dockerfile
 ports:
 - "50005:8081"
 links:
 - spark-master
 environment:
 - SPARK_MASTER=spark://spark-master:7077

6、測試集群

docker-compose up

訪問http://localhost:50003/ 結果如圖

怎么用docker快速搭建Spark集群

“怎么用docker快速搭建Spark集群”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女