91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

YARN和MapReduce的內存優化怎么配置

發布時間:2022-01-04 14:55:17 來源:億速云 閱讀:122 作者:iii 欄目:服務器

本篇內容主要講解“YARN和MapReduce的內存優化怎么配置”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“YARN和MapReduce的內存優化怎么配置”吧!

在Hadoop2.x中, YARN負責管理MapReduce中的資源(內存, CPU等)并且將其打包成Container。
使之專注于其擅長的數據處理任務, 將無需考慮資源調度. 如下圖所示    
     YARN和MapReduce的內存優化怎么配置    
YARN會管理集群中所有機器的可用計算資源. 基于這些資源YARN會調度應用(比如MapReduce)發來的資源請求, 然后YARN會通過分配Co
ntainer來給每個應用提供處理能力, Container是YARN中處理能力的基本單元, 是對內存, CPU等的封裝. 


目前我這里的服務器情況:6臺slave,每臺:32G內存,2*6核CPU。

由于hadoop 1.x存在JobTracker和TaskTracker,資源管理有它們實現,在執行mapreduce作業時,資源分為map task和reduce task。
所有存在下面兩個參數分別設置每個TaskTracker可以運行的任務數:

  • <property>

  •         <name>mapred.tasktracker.map.tasks.maximum</name>

  •         <value>6</value>

  •         <description><![CDATA[CPU數量=服務器CPU總核數 / 每個CPU的核數;服務器CPU總核數 = more /proc/cpuinfo | grep 'processor' | wc -l;每個CPU的核數 = more /proc/cpui nfo | grep 'cpu cores']]></description>

  • </property>

  • <property>

  •         <name>mapred.tasktracker.reduce.tasks.maximum</name>

  •         <value>4</value>

  •         <description>一個task tracker最多可以同時運行的reduce任務數量</description>

  • </property>

但是在hadoop 2.x中,引入了Yarn架構做資源管理,在每個節點上面運行NodeManager負責節點資源的分配,而slot也不再像1.x那樣區分Map slot和Reduce slot。在Yarn上面Container是資源的分配的最小單元。

Yarn集群的內存分配配置在yarn-site.xml文件中配置:

  • <property>

  •         <name>yarn.nodemanager.resource.memory-mb</name>

  •         <value>22528</value>

  •         <discription>每個節點可用內存,單位MB</discription>

  •     </property>

  •     

  •     <property>

  •         <name>yarn.scheduler.minimum-allocation-mb</name>

  •         <value>1500</value>

  •         <discription>單個任務可申請最少內存,默認1024MB</discription>

  •     </property>

  •     

  •     <property>

  •         <name>yarn.scheduler.maximum-allocation-mb</name>

  •         <value>16384</value>

  •         <discription>單個任務可申請最大內存,默認8192MB</discription>

  •     </property>


 

由于我Yarn集群還需要跑Spark的任務,而Spark的Worker內存相對需要大些,所以需要調大單個任務的最大內存(默認為8G)。

而Mapreduce的任務的內存配置:

  • <property>

  •         <name>mapreduce.map.memory.mb</name>

  •         <value>1500</value>

  •         <description>每個Map任務的物理內存限制</description>

  •     </property>

  •     

  •     <property>

  •         <name>mapreduce.reduce.memory.mb</name>

  •         <value>3000</value>

  •         <description>每個Reduce任務的物理內存限制</description>

  •     </property>

  •     

  •     <property>

  •         <name>mapreduce.map.java.opts</name>

  •         <value>-Xmx1200m</value>

  •     </property>

  •     

  •     <property>

  •         <name>mapreduce.reduce.java.opts</name>

  •         <value>-Xmx2600m</value>

  •     </property>


mapreduce.map.memory.mb:每個map任務的內存,應該是大于或者等于Container的最小內存。
按照上面的配置:每個slave可以運行map的數據<= 22528/1500,reduce任務的數量<=22528/3000  。

mapreduce.map.memory.mb >mapreduce.map.java.opts
mapreduce.reduce.memory.mb >mapreduce.reduce.java.opts


mapreduce.map.java.opts / mapreduce.map.memory.mb
=0.70~0.80
mapreduce.reduce.java.opts / mapreduce.reduce.memory.mb
=0.70~0.80

在yarn container這種模式下,JVM進程跑在container中,mapreduce.{map|reduce}.java.opts 能夠通過Xmx設置JVM最大的heap的使用,
一般設置為0.75倍的memory.mb,

則預留些空間會存儲java,scala code等。

到此,相信大家對“YARN和MapReduce的內存優化怎么配置”有了更深的了解,不妨來實際操作一番吧!這里是億速云網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續學習!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

文安县| 同德县| 衡南县| 讷河市| 石楼县| 鹿泉市| 阿图什市| 临高县| 揭东县| 夏邑县| 佳木斯市| 元谋县| 平邑县| 修文县| 铁岭市| 汉寿县| 峨眉山市| 盱眙县| 赤水市| 旬邑县| 奈曼旗| 泰来县| 吴江市| 常熟市| 绥中县| 昌黎县| 灵武市| 永寿县| 分宜县| 普兰店市| 佳木斯市| 永昌县| 容城县| 巴青县| 莱芜市| 昌江| 峨眉山市| 祁门县| 蓝田县| 余姚市| 墨竹工卡县|