溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

MAPREDUCE原理篇(2)

發布時間:2020-06-28 10:04:22 來源:網絡 閱讀:839 作者:yushiwh 欄目:大數據

3.1 mapreduceshuffle機制

3.1.1 概述:

mapreduce中,map階段處理的數據如何傳遞給reduce階段,是mapreduce框架中最關鍵的一個流程,這個流程就叫shuffle;

shuffle: 洗牌、發牌——(核心機制:數據分區,排序,緩存);

具體來說:就是將maptask輸出的處理結果數據,分發給reducetask,并在分發的過程中,對數據按key進行了分區和排序;

 

3.1.2 主要流程:

Shuffle緩存流程:

MAPREDUCE原理篇(2) 

shuffleMR處理流程中的一個過程,它的每一個處理步驟是分散在各個map taskreduce task節點上完成的,整體來看,分為3個操作:

1、分區partition

2、Sort根據key排序

3、Combiner進行局部value的合并

 

3.1.3 詳細流程

1、 maptask收集我們的map()方法輸出的kv對,放到內存緩沖區中

2、 從內存緩沖區不斷溢出本地磁盤文件,可能會溢出多個文件

3、 多個溢出文件會被合并成大的溢出文件

4、 在溢出過程中,及合并的過程中,都要調用partitoner進行分組和針對key進行排序

5、 reducetask根據自己的分區號,去各個maptask機器上相應的結果分區數據

6、 reducetask會取到同一個分區的來自不同maptask的結果文件,reducetask會將這些文件再進行合并(歸并排序)

7、 合并成大文件后,shuffle的過程也就結束了,后面進入reducetask的邏輯運算過程(從文件中取出一個一個的鍵值對group,調用用戶自定義的reduce()方法)

 

Shuffle中的緩沖區大小會影響到mapreduce程序的執行效率,原則上說,緩沖區越大,磁盤io的次數越少,執行速度就越快

緩沖區的大小可以通過參數調整,  參數:io.sort.mb  默認100M

 

 

 

3.1.4 詳細流程示意圖

MAPREDUCE原理篇(2) 


3.2. MAPREDUCE中的序列化

3.2.1 概述

Java的序列化是一個重量級序列化框架(Serializable),一個對象被序列化后,會附帶很多額外的信息(各種校驗信息,header,繼承體系。。。。),不便于在網絡中高效傳輸;

所以,hadoop自己開發了一套序列化機制(Writable),精簡,高效

 

3.2.2 Jdk序列化和MR序列化之間的比較

簡單代碼驗證兩種序列化機制的差別:

public class TestSeri {

public static void main(String[] args) throws Exception {

//定義兩個ByteArrayOutputStream,用來接收不同序列化機制的序列化結果

ByteArrayOutputStream ba = new ByteArrayOutputStream();

ByteArrayOutputStream ba2 = new ByteArrayOutputStream();

 

//定義兩個DataOutputStream,用于將普通對象進行jdk標準序列化

DataOutputStream dout = new DataOutputStream(ba);

DataOutputStream dout2 = new DataOutputStream(ba2);

ObjectOutputStream obout = new ObjectOutputStream(dout2);

//定義兩個bean,作為序列化的源對象

ItemBeanSer itemBeanSer = new ItemBeanSer(1000L, 89.9f);

ItemBean itemBean = new ItemBean(1000L, 89.9f);

 

//用于比較String類型和Text類型的序列化差別

Text atext = new Text("a");

// atext.write(dout);

itemBean.write(dout);

 

byte[] byteArray = ba.toByteArray();

 

//比較序列化結果

System.out.println(byteArray.length);

for (byte b : byteArray) {

 

System.out.print(b);

System.out.print(":");

}

 

System.out.println("-----------------------");

 

String astr = "a";

// dout2.writeUTF(astr);

obout.writeObject(itemBeanSer);

 

byte[] byteArray2 = ba2.toByteArray();

System.out.println(byteArray2.length);

for (byte b : byteArray2) {

System.out.print(b);

System.out.print(":");

}

}

}

 

 

 

3.2.3 自定義對象實現MR中的序列化接口

如果需要將自定義的bean放在key中傳輸,則還需要實現comparable接口,因為mapreduce框中的shuffle過程一定會對key進行排序,此時,自定義的bean實現的接口應該是:

public  class  FlowBean  implements  WritableComparable<FlowBean>

需要自己實現的方法是:

/**

 * 反序列化的方法,反序列化時,從流中讀取到的各個字段的順序應該與序列化時寫出去的順序保持一致

 */

@Override

public void readFields(DataInput in) throws IOException {


upflow = in.readLong();

dflow = in.readLong();

sumflow = in.readLong();


 

}

 

/**

 * 序列化的方法

 */

@Override

public void write(DataOutput out) throws IOException {

 

out.writeLong(upflow);

out.writeLong(dflow);

//可以考慮不序列化總流量,因為總流量是可以通過上行流量和下行流量計算出來的

out.writeLong(sumflow);

 

}


@Override

public int compareTo(FlowBean o) {


//實現按照sumflow的大小倒序排序

return sumflow>o.getSumflow()?-1:1;

}

 

 

 

3.3. MapReduceYARN

3.3.1 YARN概述

Yarn是一個資源調度平臺,負責為運算程序提供服務器運算資源,相當于一個分布式的操作系統平臺,而mapreduce等運算程序則相當于運行于操作系統之上的應用程序

3.3.2 YARN的重要概念

1、 yarn并不清楚用戶提交的程序的運行機制

2、 yarn只提供運算資源的調度(用戶程序向yarn申請資源,yarn就負責分配資源)

3、 yarn中的主管角色叫ResourceManager

4、 yarn中具體提供運算資源的角色叫NodeManager

5、 這樣一來,yarn其實就與運行的用戶程序完全解耦,就意味著yarn上可以運行各種類型的分布式運算程序(mapreduce只是其中的一種),比如mapreduce、storm程序,spark程序,tez ……

6、 所以,spark、storm等運算框架都可以整合在yarn上運行,只要他們各自的框架中有符合yarn規范的資源請求機制即可

7、 Yarn就成為一個通用的資源調度平臺,從此,企業中以前存在的各種運算集群都可以整合在一個物理集群上,提高資源利用率,方便數據共享

 

3.3.3 Yarn中運行運算程序的示例

mapreduce程序的調度過程,如下圖

 

MAPREDUCE原理篇(2) 



向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

亚洲午夜精品一区二区_中文无码日韩欧免_久久香蕉精品视频_欧美主播一区二区三区美女