您好,登錄后才能下訂單哦!
今天小編給大家分享一下hadoop之MapReduce框架原理是什么的相關知識點,內容詳細,邏輯清晰,相信大部分人都還太了解這方面的知識,所以分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后有所收獲,下面我們一起來了解一下吧。
MapReduce是分為兩個階段的,MapperTask階段,和ReduceTask階段。(中間有一個Shuffle階段)
Mapper階段,可以通過選擇什么方式(K,V的選擇對應不同的方法)來讀取數據,讀取后把數據交給Mapper來進行后續的業務邏輯(用戶寫),讓后進入Reduce階段通過Shuffle來拉取Mapper階段的數據,讓后通過OutputFormat(等方法)來寫出(可以是ES,mysql,hbase,文件)
MapTask個數,決定了并行度(相當于在生成map集合的過程中有幾個人在干活),**(不一定越多越好,當數據量小的時候可能開啟的眾多MapTask的時間用一個MapTask已經計算完成)
數據塊:Block是HDFS物理上把數據分成一塊一塊。數據塊是HDFS存儲數據單位。
數據切片:數據切片只是在邏輯上對輸入進行分片,并不會在磁盤上將其切分成片進行存儲。數據切片是MapReduce程序計算輸入數據的單位,一個切片會對應啟動一個MapTask。
因為我們找的job提交,所以在job提交函數哪里打個斷點,
步入函數后
ensureState(JobState.DEFINE); 是確保你的狀態是正確的(狀態不對或者running 都會拋異常)
setUseNewAPI(); 處理Hadoop不同版本之間的API兼容
connect(); 連接,(客戶端需要與集群或者本機連接)
checkSpecs(job); 校驗 校驗輸出路徑是否已經創建,是否有參
return submitter.submitJobInternal(Job.this, cluster); 核心代碼 步入的時候需要點兩下,
第一個步入是步入的參數Job 第二個才步入此方法
這個方法是提交job(在集群模式下,提交的job包含(通過客戶端方式把jar包提交給集群),在本地不需要提交jar包,jar在本地是存在的)
還會進行切片,生成切片信息(幾個切片就有幾個MapTask)
還會 生成xml文件
綜上 job提交會交三樣東西(jar,xml文件,切片信息---》集群模式下)
最后會刪除所有的信息文件
**(切片是每一個文件單獨切片)
在本地是32m一塊,前邊說過,默認一塊對應一個切片,但是有前提條件,再你減去32m的時候,余下最后一塊如果大于1.1倍就重新分配切片,但如果小于1.1,則不能更新分片
例子1:
已有一個32.1m的數據 物理分塊是(32m+0.1m)切片分布是(1個切片,因為32.1/32=1.003125<1.1 所以使用一個切片)
例子2:
已有一個100m的數據
100-32-32=36>32(36/32=1.125>1.1 所以最后36m需要分配兩個切片)
**塊的大小沒辦法改變,但是可以調切片大小(maxSize讓切片調小)(minSize讓切片調大)
切片總結:
(開一個MapTask 默認是占1g內存+1個cpu)
思考:在運行MapReduce程序時,輸入的文件格式包括:基于行的日志文件、二進制格式文件、數據庫表等。那么,針對不同的數據類型,MapReduce是如何讀取這些數據的呢?
FileInputFormat常見的接口實現類包括:TextInputFormat、KeyValueTextInputFormat、NLineInputFormat、CombineTextInputFormat和自定義InputFormat等。(應用場景的不同選擇不同的接口實現類)
TextInputFormat是默認的FileInputFormat實現類。按行讀取每條記錄。鍵是存儲該行在整個文件中的起始字節偏移量, LongWritable類型。值是這行的內容,不包括任何行終止符(換行符和回車符),Text類型。
CombineTextInputFormat用于小文件過多的場景,它可以將多個小文件從邏輯上規劃到一個切片中,這樣,多個小文件就可以交給一個MapTask處理。
將輸入目錄下所有文件大小,依次和設置的setMaxInputSplitSize(切片大小)值比較,如果不大于設置的最大值,邏輯上劃分一個塊。如果輸入文件大于設置的最大值且大于兩倍,那么以最大值切割一塊;當剩余數據大小超過設置的最大值且不大于最大值2倍,此時將文件均分成2個虛擬存儲塊(防止出現太小切片)。
測試:
再不使用CombineTextInputFormat情況下(默認TextInputFormat)
可以看到切片為4
添加代碼,設置實現類為CombineTextInputFormat 和 設置虛擬存儲切片大小
// 如果不設置InputFormat,它默認用的是TextInputFormat.class job.setInputFormatClass(CombineTextInputFormat.class); //虛擬存儲切片最大值設置4m CombineTextInputFormat.setMaxInputSplitSize(job, 4194304);
可以看到,現在是3個切片
我們可以通過改變虛擬切片大小來改變調用的切片的數量
綜上:影響切片的數量的因素為:(1)數據量的大小(2)切片的大小(一般會自動調整)(3)文件格式(有些文件是不可切片的)
影響切片大小的因素: HDFS中塊的大小(通過調maxsize,minsize與塊的大小進行比較來判斷)
shuffle階段是一個從mapper階段出來的后的階段,會寫入(k,v)一個環形緩沖區(緩沖區分為兩半,一半存儲索引,一半存儲數據,默認100m,到達80%后會反向逆寫(減少時間消耗,提高效率,逆寫是因為不需要等待全部溢寫后在進行寫入操作)逆寫入文件前會進行分區(分區的個數與reduceTask的個數有關)排序(對key進行排序,但是存儲位置并不發生改變,只改變索引的位置,改變存儲位置消耗資源較大))寫入文件后會進行歸并排序(在有序的情況下,歸并是最高效的))
排序可以自定義排序,舉例全排序:
自定義了一個Bean類,bean對象做為key傳輸,需要實現WritableComparable接口重寫compareTo方法,就可以實現排序。
并不滿足所有生產環境下,只有在不影響最終業務邏輯下才可以實現(求和就可以,算平均值就不可以)
combiner與reducetask區別如下:
(1)Copy階段:ReduceTask從各個MapTask上遠程拷貝一片數據,并針對某一片數據,如果其大小超過一定閾值,則寫到磁盤上,否則直接放到內存中。
(2)Sort階段:在遠程拷貝數據的同時,ReduceTask啟動了兩個后臺線程對內存和磁盤上的文件進行合并,以防止內存使用過多或磁盤上文件過多。按照MapReduce語義,用戶編寫reduce()函數輸入數據是按key進行聚集的一組數據。為了將key相同的數據聚在一起,Hadoop采用了基于排序的策略。由于各個MapTask已經實現對自己的處理結果進行了局部排序,因此,ReduceTask只需對所有數據進行一次歸并排序即可。
(3)Reduce階段:reduce()函數將計算結果寫到HDFS上。
ReduceTask的個數可以手動進行設置,設置幾就會產生幾個文件(分區同上)
簡述流程:
(1)自定義bean對象(序列化反序列化函數---implements Writable)
(2)寫mapper類 先重寫setup方法(因為本案例需要兩個文件,初始化(讀多個文 希望先獲取到文件名稱(多文件) 一個文件一個切片 setup方法是一個優化手段 獲取文件名稱)
(3)寫reduce類(業務邏輯) 先創建一個集合(類型為bean類型)和bean對象用于存儲
用for循環遍歷value(key是一樣的 一樣的key才會進入同一個reduce方法)
獲取文件名判斷寫出不同的業務邏輯
"order"表:
先創建一個bean對象,用于存儲數據,用于后續寫入集合
用到方法 BeanUtils.copyProperties(tmpOrderBean,value); 獲取原數據
讓后加入上述創建的集合 orderBeans.add(tmpOrderBean);
“pd”表:
BeanUtils.copyProperties(pdBean,value);直接獲取原數據
存儲結束,結合階段:
使用增強for
orderbean.setPname(pdBean.getPname());
使用set函數直接設置集合中的pname
讓后寫入
context.write(orderbean,NullWritable.get());
業務結束
Reduce Join的缺點:這種方式中,合并的操作是在Reduce階段完成,Reduce端的處理壓力太大,Map節點的運算負載則很低,資源利用率不高,且在Reduce階段極易產生數據傾斜。
使用場景
Map Join適用于一張表十分小、一張表很大的場景。
Map端實現數據合并就解決了Reduce Join的缺點(數據傾斜)
簡述流程:
在map類中
setup方法:將較小文件讀入緩存,將數據存儲到全局的map集合中,將緩存中的數據全部寫入
重寫的map方法中:
轉換成字符串在切割,通過切割后的數組獲取map集合中的pname
讓后重新設置輸出文件的格式進行寫出
以上就是“hadoop之MapReduce框架原理是什么”這篇文章的所有內容,感謝各位的閱讀!相信大家閱讀完這篇文章都有很大的收獲,小編每天都會為大家更新不同的知識,如果還想學習更多的知識,請關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。