91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop中MapReducer的工作過程

發布時間:2021-08-25 16:07:56 來源:億速云 閱讀:163 作者:chen 欄目:數據安全

本篇內容介紹了“Hadoop中MapReducer的工作過程”的有關知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領大家學習一下如何處理這些情況吧!希望大家仔細閱讀,能夠學有所成!

1. 從輸入到輸出

一個MapReducer作業經過了inputmapcombinereduceoutput五個階段,其中combine階段并不一定發生,map輸出的中間結果被分到reduce的過程成為shuffle(數據清洗)。

Hadoop中MapReducer的工作過程

shuffle階段還會發生copy(復制)和sort(排序)。

在MapReduce的過程中,一個作業被分成Map和Reducer兩個計算階段,它們由一個或者多個Map任務和Reduce任務組成。如下圖所示,一個MapReduce作業從數據的流向可以分為Map任務和Reduce任務。當用戶向Hadoop提交一個MapReduce作業時,JobTracker則會根據各個TaskTracker周期性發送過來的心跳信息綜合考慮TaskTracker的資源剩余量,作業優先級,作業提交時間等因素,為TaskTracker分配合適的任務。Reduce任務默認會在Map任務數量完成5%后才開始啟動。

Hadoop中MapReducer的工作過程

Map任務的執行過程可以概括為:首先通過用戶指定的InputFormat類中的getSplits方法和next方法將輸入文件切片并解析成鍵值對作為map函數的輸入。然后map函數經過處理之后將中間結果交給指定的Partitioner處理,確保中間結果分發到指定的Reduce任務處理,此時如果用戶指定了Combiner,將執行combine操作。最后map函數將中間結果保存到本地。

Reduce任務的執行過程可以概括為:首先需要將已經完成Map任務的中間結果復制到Reduce任務所在的節點,待數據復制完成后,再以key進行排序,通過排序,將所有key相同的數據交給reduce函數處理,處理完成后,結果直接輸出到HDFS上。

2. input

如果使用HDFS上的文件作為MapReduce的輸入,MapReduce計算框架首先會用org.apache.hadoop.mapreduce.InputFomat類的子類FileInputFormat類將作為輸入HDFS上的文件切分形成輸入分片(InputSplit),每個InputSplit將作為一個Map任務的輸入,再將InputSplit解析為鍵值對。InputSplit的大小和數量對于MaoReduce作業的性能有非常大的影響。

InputSplit只是邏輯上對輸入數據進行分片,并不會將文件在磁盤上分成分片進行存儲。InputSplit只是記錄了分片的元數據節點信息,例如起始位置,長度以及所在的節點列表等。數據切分的算法需要確定InputSplit的個數,對于HDFS上的文件,FileInputFormat類使用computeSplitSize方法計算出InputSplit的大小,代碼如下:

  1. }

其中 minSize 由mapred-site.xml文件中的配置項mapred.min.split.size決定,默認為1;maxSize 由mapred-site.xml文件中的配置項mapred.max.split.size決定,默認為9223 372 036 854 775 807;而blockSize是由hdfs-site.xml文件中的配置項dfs.block.size決定,默認為67 108 864字節(64M)。所以InputSplit的大小確定公式為:



  1. 壓縮格式 工具 算法 文件擴展名 是否包含多個文件 是否可切分
    DEFLATE* N/A DEFLATE .deflate
    Gzip gzip DEFLATE .gz
    bzip2 bzip2 bzip2 .bz2
    LZO Lzop LZO .lzo

    map輸出的中間結果存儲的格式為IFile,IFile是一種支持航壓縮的存儲格式,支持上述壓縮算法。

    Reducer通過Http方式得到輸出文件的分區。將map輸出的中間結果發送到Reducer的工作線程的數量由mapred-site.xml文件的tasktracker.http.threds配置項決定,此配置針對每個節點,而不是每個Map任務,默認是40,可以根據作業大小,集群規模以及節點的計算能力而增大。

    4. shuffle

    shuffle,也叫數據清洗。在某些語境下,代表map函數產生輸出到reduce的消化輸入的整個過程。

    4.1 copy階段

    Map任務輸出的結果位于Map任務的TaskTracker所在的節點的本地磁盤上。TaskTracker需要為這些分區文件(map輸出)運行Reduce任務。但是,Reduce任務可能需要多個Map任務的輸出作為其特殊的分區文件。每個Map任務的完成時間可能不同,當只要有一個任務完成,Reduce任務就開始復制其輸出。這就是shuffle的copy階段。如下圖所示,Reduce任務有少量復制線程,可以并行取得Map任務的輸出,默認值為5個線程,該值可以通過設置mapred-site.xml的mapred.reduce.parallel.copies的配置項來改變。

    Hadoop中MapReducer的工作過程

    如果map輸出相當小,則會被復制到Reduce所在TaskTracker的內存的緩沖區中,緩沖區的大小由mapred-site.xml文件中的mapred.job.shuffle.input.buffer.percent配置項指定。否則,map輸出將會被復制到磁盤。一旦內存緩沖區達到閾值大小(由mapred-site.xml文件mapred.job.shuffle.merge.percent配置項決定)或緩沖區的文件數達到閾值大小(由mapred-site.xml文件mapred.inmem.merge.threshold配置項決定),則合并后溢寫到磁盤中。

    4.2 sort階段

    隨著溢寫到磁盤的文件增多,shuffle進行sort階段。這個階段將合并map的輸出文件,并維持其順序排序,其實做的是歸并排序。排序的過程是循環進行,如果有50個map的輸出文件,而合并因子(由mapred-site.xml文件的io.sort.factor配置項決定,默認為10)為10,合并操作將進行5次,每次將10個文件合并成一個文件,最后有5個文件,這5個文件由于不滿足合并條件(文件數小于合并因子),則不會進行合并,將會直接把5個文件交給Reduce函數處理。到此shuffle階段完成。

    從shuffle的過程可以看出,Map任務處理的是一個InputSplit,而Reduce任務處理的是所有Map任務同一個分區的中間結果。

    5. reduce及最后結果的輸出

    reduce階段操作的實質就是對經過shuffle處理后的文件調用reduce函數處理。由于經過了shuffle的處理,文件都是按鍵分區且有序,對相同分區的文件調用一次reduce函數處理。

    與map的中間結果不同的是,reduce的輸出一般為HDFS。

    6. sort

    排序貫穿于Map任務和Reduce任務,排序操作屬于MapReduce計算框架的默認行為,不管流程是否需要,都會進行排序。在MapReduce計算框架中,主要用到了兩種排序算法:快速排序和歸并排序。

    在Map任務和Reduce任務的過程中,一共發生了3次排序操作。

    (1)當map函數產生輸出時,會首先寫入內存的環形緩沖區,當達到設定的閾值,在刷寫磁盤之前,后臺線程會將緩沖區的數據劃分相應的分區。在每個分區中,后臺線程按鍵進行內排序。如下圖所示。

    (2)在Map任務完成之前,磁盤上存在多個已經分好區,并排好序,大小和緩沖區一樣的溢寫文件,這時溢寫文件將被合并成一個已分區且已排序的輸出文件。由于溢寫文件已經經過一次排序,所以合并文件時只需再做一次排序就可使輸出文件整體有序。如下圖所示。

    Hadoop中MapReducer的工作過程Hadoop中MapReducer的工作過程

    (3)在shuffle階段,需要將多個Map任務的輸出文件合并,由于經過第二次排序,所以合并文件時只需在做一次排序就可以使輸出文件整體有序。

    Hadoop中MapReducer的工作過程

  1. 在這3次排序中第一次是在內存緩沖區做的內排序,使用的算法是快速排序;第二次排序和第三次排序都是在文件合并階段發生的,使用的是歸并排序。

    7. 作業的進度組成

    一個MapReduce作業在Hadoop上運行時,客戶端的屏幕通常會打印作業日志,如下:

    Hadoop中MapReducer的工作過程

    對于一個大型的MapReduce作業來說,執行時間可能會比較比較長,通過日志了解作業的運行狀態和作業進度是非常重要的。對于Map來說,進度代表實際處理輸入所占比例,例如 map 60% reduce 0% 表示Map任務已經處理了作業輸入文件的60%,而Reduce任務還沒有開始。而對于Reduce的進度來說,情況比較復雜,從前面得知,reduce階段分為copy,sort 和 reduce,這三個步驟共同組成了reduce的進度,各占1/3。如果reduce已經處理了2/3的輸入,那么整個reduce的進度應該為1/3 + 1/3 + 1/3 * (2/3) = 5/9 ,因為reduce開始處理時,copy和sort已經完成。

“Hadoop中MapReducer的工作過程”的內容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業相關的知識可以關注億速云網站,小編將為大家輸出更多高質量的實用文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

迭部县| 垫江县| 安泽县| 玉屏| 扎囊县| 天柱县| 宜昌市| 亳州市| 大港区| 庐江县| 新疆| 甘肃省| 百色市| 铁力市| 普宁市| 灵寿县| 满洲里市| 兰州市| 藁城市| 怀柔区| 南昌市| 舒城县| 柘荣县| 土默特左旗| 台前县| 象州县| 兖州市| 新安县| 安泽县| 定结县| 巴东县| 萝北县| 搜索| 城步| 施秉县| 宁阳县| 普安县| 黎川县| 麻阳| 阿拉善盟| 平乐县|