91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hadoop之MapReduce框架原理是什么

發布時間:2023-03-28 11:32:55 來源:億速云 閱讀:124 作者:iii 欄目:開發技術

今天小編給大家分享一下hadoop之MapReduce框架原理是什么的相關知識點,內容詳細,邏輯清晰,相信大部分人都還太了解這方面的知識,所以分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后有所收獲,下面我們一起來了解一下吧。

    MapReduce框架的簡單運行機制:

    MapReduce是分為兩個階段的,MapperTask階段,和ReduceTask階段。(中間有一個Shuffle階段)

    Mapper階段,可以通過選擇什么方式(K,V的選擇對應不同的方法)來讀取數據,讀取后把數據交給Mapper來進行后續的業務邏輯(用戶寫),讓后進入Reduce階段通過Shuffle來拉取Mapper階段的數據,讓后通過OutputFormat(等方法)來寫出(可以是ES,mysql,hbase,文件)

    Mapper階段: 

    InputFormat數據輸入:

    切片與MapTask并行度決定機制:

    MapTask個數,決定了并行度(相當于在生成map集合的過程中有幾個人在干活),**(不一定越多越好,當數據量小的時候可能開啟的眾多MapTask的時間用一個MapTask已經計算完成)

    數據塊:Block是HDFS物理上把數據分成一塊一塊。數據塊是HDFS存儲數據單位。

    數據切片:數據切片只是在邏輯上對輸入進行分片,并不會在磁盤上將其切分成片進行存儲。數據切片是MapReduce程序計算輸入數據的單位,一個切片會對應啟動一個MapTask。

    hadoop之MapReduce框架原理是什么

    job提交過程源碼解析:

    因為我們找的job提交,所以在job提交函數哪里打個斷點,

    步入函數后   

    ensureState(JobState.DEFINE);  是確保你的狀態是正確的(狀態不對或者running 都會拋異常)

    setUseNewAPI();       處理Hadoop不同版本之間的API兼容

    connect();          連接,(客戶端需要與集群或者本機連接)

    checkSpecs(job); 校驗 校驗輸出路徑是否已經創建,是否有參

    return submitter.submitJobInternal(Job.this, cluster);   核心代碼    步入的時候需要點兩下,

    第一個步入是步入的參數Job  第二個才步入此方法 

    這個方法是提交job(在集群模式下,提交的job包含(通過客戶端方式把jar包提交給集群),在本地不需要提交jar包,jar在本地是存在的)

    還會進行切片,生成切片信息(幾個切片就有幾個MapTask)

    還會 生成xml文件

    綜上  job提交會交三樣東西(jar,xml文件,切片信息---》集群模式下)

    最后會刪除所有的信息文件

    切片邏輯:

    **(切片是每一個文件單獨切片)

    在本地是32m一塊,前邊說過,默認一塊對應一個切片,但是有前提條件,再你減去32m的時候,余下最后一塊如果大于1.1倍就重新分配切片,但如果小于1.1,則不能更新分片

    例子1:

    已有一個32.1m的數據   物理分塊是(32m+0.1m)切片分布是(1個切片,因為32.1/32=1.003125<1.1   所以使用一個切片)

    例子2:

    已有一個100m的數據

    100-32-32=36>32(36/32=1.125>1.1   所以最后36m需要分配兩個切片)

    **塊的大小沒辦法改變,但是可以調切片大小(maxSize讓切片調小)(minSize讓切片調大)

    hadoop之MapReduce框架原理是什么

    切片總結:

    hadoop之MapReduce框架原理是什么

    hadoop之MapReduce框架原理是什么

    (開一個MapTask  默認是占1g內存+1個cpu)

    hadoop之MapReduce框架原理是什么

    1)FileInputFormat實現類

    思考:在運行MapReduce程序時,輸入的文件格式包括:基于行的日志文件、二進制格式文件、數據庫表等。那么,針對不同的數據類型,MapReduce是如何讀取這些數據的呢?

    FileInputFormat常見的接口實現類包括:TextInputFormat、KeyValueTextInputFormat、NLineInputFormat、CombineTextInputFormat和自定義InputFormat等。(應用場景的不同選擇不同的接口實現類)

    TextInputFormat是默認的FileInputFormat實現類。按行讀取每條記錄。鍵是存儲該行在整個文件中的起始字節偏移量, LongWritable類型。值是這行的內容,不包括任何行終止符(換行符和回車符),Text類型。

    CombineTextInputFormat用于小文件過多的場景,它可以將多個小文件從邏輯上規劃到一個切片中,這樣,多個小文件就可以交給一個MapTask處理。

    進行虛擬存儲

    (1)虛擬存儲過程:

    將輸入目錄下所有文件大小,依次和設置的setMaxInputSplitSize(切片大小)值比較,如果不大于設置的最大值,邏輯上劃分一個塊。如果輸入文件大于設置的最大值且大于兩倍,那么以最大值切割一塊;當剩余數據大小超過設置的最大值且不大于最大值2倍,此時將文件均分成2個虛擬存儲塊(防止出現太小切片)。

    hadoop之MapReduce框架原理是什么

     測試:

    再不使用CombineTextInputFormat情況下(默認TextInputFormat)

    hadoop之MapReduce框架原理是什么

    可以看到切片為4

    添加代碼,設置實現類為CombineTextInputFormat     和   設置虛擬存儲切片大小

    // 如果不設置InputFormat,它默認用的是TextInputFormat.class
    job.setInputFormatClass(CombineTextInputFormat.class);
     
    //虛擬存儲切片最大值設置4m
    CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);

    hadoop之MapReduce框架原理是什么

    可以看到,現在是3個切片

    我們可以通過改變虛擬切片大小來改變調用的切片的數量

    綜上:影響切片的數量的因素為:(1)數據量的大小(2)切片的大小(一般會自動調整)(3)文件格式(有些文件是不可切片的)

    影響切片大小的因素:   HDFS中塊的大小(通過調maxsize,minsize與塊的大小進行比較來判斷)

    Shuffle階段:

    shuffle階段是一個從mapper階段出來的后的階段,會寫入(k,v)一個環形緩沖區(緩沖區分為兩半,一半存儲索引,一半存儲數據,默認100m,到達80%后會反向逆寫(減少時間消耗,提高效率,逆寫是因為不需要等待全部溢寫后在進行寫入操作)逆寫入文件前會進行分區(分區的個數與reduceTask的個數有關)排序(對key進行排序,但是存儲位置并不發生改變,只改變索引的位置,改變存儲位置消耗資源較大))寫入文件后會進行歸并排序(在有序的情況下,歸并是最高效的))

    排序:

    排序可以自定義排序,舉例全排序:

    自定義了一個Bean類,bean對象做為key傳輸,需要實現WritableComparable接口重寫compareTo方法,就可以實現排序。

     Combiner合并:

    并不滿足所有生產環境下,只有在不影響最終業務邏輯下才可以實現(求和就可以,算平均值就不可以) 

    combiner與reducetask區別如下:

    hadoop之MapReduce框架原理是什么

    ReduceTask階段:

    (1)Copy階段:ReduceTask從各個MapTask上遠程拷貝一片數據,并針對某一片數據,如果其大小超過一定閾值,則寫到磁盤上,否則直接放到內存中。

    (2)Sort階段:在遠程拷貝數據的同時,ReduceTask啟動了兩個后臺線程對內存和磁盤上的文件進行合并,以防止內存使用過多或磁盤上文件過多。按照MapReduce語義,用戶編寫reduce()函數輸入數據是按key進行聚集的一組數據。為了將key相同的數據聚在一起,Hadoop采用了基于排序的策略。由于各個MapTask已經實現對自己的處理結果進行了局部排序,因此,ReduceTask只需對所有數據進行一次歸并排序即可。

    (3)Reduce階段:reduce()函數將計算結果寫到HDFS上。

    ReduceTask的個數可以手動進行設置,設置幾就會產生幾個文件(分區同上)

    Reduce Join:

    簡述流程:

    (1)自定義bean對象(序列化反序列化函數---implements Writable)

    (2)寫mapper類     先重寫setup方法(因為本案例需要兩個文件,初始化(讀多個文 希望先獲取到文件名稱(多文件) 一個文件一個切片   setup方法是一個優化手段 獲取文件名稱)

    (3)寫reduce類(業務邏輯)   先創建一個集合(類型為bean類型)和bean對象用于存儲

    用for循環遍歷value(key是一樣的  一樣的key才會進入同一個reduce方法)

    獲取文件名判斷寫出不同的業務邏輯

    "order"表:

    先創建一個bean對象,用于存儲數據,用于后續寫入集合

    用到方法   BeanUtils.copyProperties(tmpOrderBean,value);  獲取原數據

    讓后加入上述創建的集合 orderBeans.add(tmpOrderBean);

    “pd”表:

    BeanUtils.copyProperties(pdBean,value);直接獲取原數據

    存儲結束,結合階段:

    使用增強for

    orderbean.setPname(pdBean.getPname());

    使用set函數直接設置集合中的pname

    讓后寫入

    context.write(orderbean,NullWritable.get());
    業務結束

    Reduce Join的缺點:這種方式中,合并的操作是在Reduce階段完成,Reduce端的處理壓力太大,Map節點的運算負載則很低,資源利用率不高,且在Reduce階段極易產生數據傾斜。

    Map Join:

    使用場景

    Map Join適用于一張表十分小、一張表很大的場景。

    Map端實現數據合并就解決了Reduce Join的缺點(數據傾斜)

    簡述流程:

    在map類中

    setup方法:將較小文件讀入緩存,將數據存儲到全局的map集合中,將緩存中的數據全部寫入

    重寫的map方法中:

    轉換成字符串在切割,通過切割后的數組獲取map集合中的pname

    讓后重新設置輸出文件的格式進行寫出

    以上就是“hadoop之MapReduce框架原理是什么”這篇文章的所有內容,感謝各位的閱讀!相信大家閱讀完這篇文章都有很大的收獲,小編每天都會為大家更新不同的知識,如果還想學習更多的知識,請關注億速云行業資訊頻道。

    向AI問一下細節

    免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

    AI

    南岸区| 大悟县| 高邮市| SHOW| 富川| 定南县| 宁海县| 贵南县| 普洱| 万州区| 龙泉市| 沁水县| 邯郸市| 夏河县| 铁岭县| 彩票| 玉山县| 新和县| 金山区| 错那县| 永平县| 冷水江市| 景宁| 镶黄旗| 即墨市| 清流县| 禹州市| 张家界市| 象州县| 兴安县| 开江县| 临夏市| 玉树县| 社会| 天柱县| 隆昌县| 安溪县| 固镇县| 邯郸县| 广宗县| 南宁市|