91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

如何解析Apache Spark 統一內存管理模型

發布時間:2021-12-17 13:41:21 來源:億速云 閱讀:96 作者:柒染 欄目:大數據

今天就跟大家聊聊有關如何解析Apache Spark 統一內存管理模型,可能很多人都不太了解,為了讓大家更加了解,小編給大家總結了以下內容,希望大家根據這篇文章可以有所收獲。

Apache Spark 統一內存管理模型詳解

下面將對 Spark 的內存管理模型進行分析,下面的分析全部是基于 Apache Spark 2.2.1 進行的。為了讓下面的文章看起來不枯燥,我不打算貼出代碼層面的東西。文章僅對統一內存管理模塊(UnifiedMemoryManager)進行分析,如對之前的靜態內存管理感興趣,請參閱網上其他文章。

我們都知道 Spark 能夠有效的利用內存并進行分布式計算,其內存管理模塊在整個系統中扮演著非常重要的角色。為了更好地利用 Spark,深入地理解其內存管理模型具有非常重要的意義,這有助于我們對 Spark 進行更好的調優;在出現各種內存問題時,能夠摸清頭腦,找到哪塊內存區域出現問題。下文介紹的內存模型全部指 Executor 端的內存模型, Driver 端的內存模型本文不做介紹。統一內存管理模塊包括了堆內內存(On-heap Memory)和堆外內存(Off-heap Memory)兩大區域,下面對這兩塊區域進行詳細的說明

堆內內存(On-heap Memory)

默認情況下,Spark 僅僅使用了堆內內存。Executor 端的堆內內存區域大致可以分為以下四大塊:

·Execution 內存:主要用于存放 Shuffle、Join、Sort、Aggregation 等計算過程中的臨時數據

·Storage 內存:主要用于存儲 spark 的 cache 數據,例如RDD的緩存、unroll數據;

·用戶內存(User Memory):主要用于存儲 RDD 轉換操作所需要的數據,例如 RDD 依賴等信息。

·預留內存(Reserved Memory):系統預留內存,會用來存儲Spark內部對象。

整個 Executor 端堆內內存如果用圖來表示的話,可以概括如下:

如何解析Apache Spark 統一內存管理模型

如果想及時了解Spark、Hadoop或者Hbase相關的文章,歡迎關注微信公共帳號:iteblog_hadoop

我們對上圖進行以下說明:

·systemMemory = Runtime.getRuntime.maxMemory,其實就是通過參數 spark.executor.memory 或 --executor-memory 配置的。

·reservedMemory 在 Spark 2.2.1 中是寫死的,其值等于 300MB,這個值是不能修改的(如果在測試環境下,我們可以通過 spark.testing.reservedMemory 參數進行修改);

·usableMemory = systemMemory - reservedMemory,這個就是 Spark 可用內存;

堆外內存(Off-heap Memory)

Spark 1.6 開始引入了Off-heap memory(詳見SPARK-11389)。這種模式不在 JVM 內申請內存,而是調用 Java 的 unsafe 相關 API 進行諸如 C 語言里面的 malloc() 直接向操作系統申請內存,由于這種方式不進過 JVM 內存管理,所以可以避免頻繁的 GC,這種內存申請的缺點是必須自己編寫內存申請和釋放的邏輯。

默認情況下,堆外內存是關閉的,我們可以通過 spark.memory.offHeap.enabled 參數啟用,并且通過 spark.memory.offHeap.size 設置堆外內存大小,單位為字節。如果堆外內存被啟用,那么 Executor 內將同時存在堆內和堆外內存,兩者的使用互補影響,這個時候 Executor 中的 Execution 內存是堆內的 Execution 內存和堆外的 Execution 內存之和,同理,Storage 內存也一樣。相比堆內內存,堆外內存只區分 Execution 內存和 Storage 內存,其內存分布如下圖所示:

如何解析Apache Spark 統一內存管理模型

如果想及時了解Spark、Hadoop或者Hbase相關的文章,歡迎關注微信公共帳號:iteblog_hadoop

上圖中的 maxOffHeapMemory 等于 spark.memory.offHeap.size 參數配置的。

Execution 內存和 Storage 內存動態調整

細心的同學肯定看到上面兩張圖中的 Execution 內存和 Storage 內存之間存在一條虛線,這是為什么呢?

用過 Spark 的同學應該知道,在 Spark 1.5 之前,Execution 內存和 Storage 內存分配是靜態的,換句話說就是如果 Execution 內存不足,即使 Storage 內存有很大空閑程序也是無法利用到的;反之亦然。這就導致我們很難進行內存的調優工作,我們必須非常清楚地了解 Execution 和 Storage 兩塊區域的內存分布。而目前 Execution 內存和 Storage 內存可以互相共享的。也就是說,如果 Execution 內存不足,而 Storage 內存有空閑,那么 Execution 可以從 Storage 中申請空間;反之亦然。所以上圖中的虛線代表 Execution 內存和 Storage 內存是可以隨著運作動態調整的,這樣可以有效地利用內存資源。Execution 內存和 Storage 內存之間的動態調整可以概括如下:如何解析Apache Spark 統一內存管理模型

如果想及時了解Spark、Hadoop或者Hbase相關的文章,歡迎關注微信公共帳號:iteblog_hadoop

具體的實現邏輯如下:

·程序提交的時候我們都會設定基本的 Execution 內存和 Storage 內存區域(通過 spark.memory.storageFraction 參數設置);

·在程序運行時,如果雙方的空間都不足時,則存儲到硬盤;將內存中的塊存儲到磁盤的策略是按照 LRU 規則進行的。若己方空間不足而對方空余時,可借用對方的空間;(存儲空間不足是指不足以放下一個完整的 Block)

·Execution 內存的空間被對方占用后,可讓對方將占用的部分轉存到硬盤,然后"歸還"借用的空間

·Storage 內存的空間被對方占用后,目前的實現是無法讓對方"歸還",因為需要考慮 Shuffle 過程中的很多因素,實現起來較為復雜;而且 Shuffle 過程產生的文件在后面一定會被使用到,而 Cache 在內存的數據不一定在后面使用。

注意,上面說的借用對方的內存需要借用方和被借用方的內存類型都一樣,都是堆內內存或者都是堆外內存,不存在堆內內存不夠去借用堆外內存的空間。

Task 之間內存分布

為了更好地使用使用內存,Executor 內運行的 Task 之間共享著 Execution 內存。具體的,Spark 內部維護了一個 HashMap 用于記錄每個 Task 占用的內存。當 Task 需要在 Execution 內存區域申請 numBytes 內存,其先判斷 HashMap 里面是否維護著這個 Task 的內存使用情況,如果沒有,則將這個 Task 內存使用置為0,并且以 TaskId 為 key,內存使用為 value 加入到 HashMap 里面。之后為這個 Task 申請 numBytes 內存,如果 Execution 內存區域正好有大于 numBytes 的空閑內存,則在 HashMap 里面將當前 Task 使用的內存加上 numBytes,然后返回;如果當前 Execution 內存區域無法申請到每個 Task 最小可申請的內存,則當前 Task 被阻塞,直到有其他任務釋放了足夠的執行內存,該任務才可以被喚醒。每個 Task 可以使用 Execution 內存大小范圍為 1/2N ~ 1/N,其中 N 為當前 Executor 內正在運行的 Task 個數。一個 Task 能夠運行必須申請到最小內存為 (1/2N * Execution 內存);當 N = 1 的時候,Task 可以使用全部的 Execution 內存。

比如如果 Execution 內存大小為 10GB,當前 Executor 內正在運行的 Task 個數為5,則該 Task 可以申請的內存范圍為 10 / (2 * 5) ~ 10 / 5,也就是 1GB ~ 2GB的范圍。

一個示例

為了更好的理解上面堆內內存和堆外內存的使用情況,這里給出一個簡單的例子。

只用了堆內內存

現在我們提交的 Spark 作業關于內存的配置如下:

--executor-memory 18g

由于沒有設置 spark.memory.fraction 和 spark.memory.storageFraction 參數,我們可以看到 Spark UI 關于 Storage Memory 的顯示如下:如何解析Apache Spark 統一內存管理模型

如果想及時了解Spark、Hadoop或者Hbase相關的文章,歡迎關注微信公共帳號:iteblog_hadoop

上圖很清楚地看到 Storage Memory 的可用內存是 10.1GB,這個數是咋來的呢?根據前面的規則,我們可以得出以下的計算:

systemMemory = spark.executor.memory
reservedMemory = 300MB
usableMemory = systemMemory - reservedMemory
StorageMemory= usableMemory * spark.memory.fraction * spark.memory.storageFraction

如果我們把數據代進去,得出以下的結果:

systemMemory = 18Gb = 19327352832 字節
reservedMemory = 300MB = 300 * 1024 * 1024 = 314572800
usableMemory = systemMemory - reservedMemory = 19327352832 - 314572800 = 19012780032
StorageMemory= usableMemory * spark.memory.fraction * spark.memory.storageFraction
             = 19012780032 * 0.6 * 0.5 = 5703834009.6 = 5.312109375GB

不對啊,和上面的 10.1GB 對不上啊。為什么呢?這是因為 Spark UI 上面顯示的 Storage Memory 可用內存其實等于 Execution 內存和 Storage 內存之和,也就是 usableMemory * spark.memory.fraction:

StorageMemory= usableMemory * spark.memory.fraction
             = 19012780032 * 0.6 = 11407668019.2 = 10.62421GB

還是不對,這是因為我們雖然設置了 --executor-memory 18g,但是 Spark 的 Executor 端通過 Runtime.getRuntime.maxMemory 拿到的內存其實沒這么大,只有 17179869184 字節,所以 systemMemory = 17179869184,然后計算的數據如下:

systemMemory = 17179869184 字節
reservedMemory = 300MB = 300 * 1024 * 1024 = 314572800
usableMemory = systemMemory - reservedMemory = 17179869184 - 314572800 = 16865296384
StorageMemory= usableMemory * spark.memory.fraction
             = 16865296384 * 0.6 = 9.42421875 GB

我們通過將上面的 16865296384 * 0.6 字節除于 1024 * 1024 * 1024 轉換成 9.42421875 GB,和 UI 上顯示的還是對不上,這是因為 Spark UI 是通過除于 1000 * 1000 * 1000 將字節轉換成 GB,如下:

systemMemory = 17179869184 字節
reservedMemory = 300MB = 300 * 1024 * 1024 = 314572800
usableMemory = systemMemory - reservedMemory = 17179869184 - 314572800 = 16865296384
StorageMemory= usableMemory * spark.memory.fraction
             = 16865296384 * 0.6 字節 =  16865296384 * 0.6 / (1000 * 1000 * 1000) = 10.1GB

現在終于對上了。

具體將字節轉換成 GB 的計算邏輯如下(core 模塊下面的 /core/src/main/resources/org/apache/spark/ui/static/utils.js):

function formatBytes(bytes, type) {
    if (type !== 'display') return bytes;
    if (bytes == 0) return '0.0 B';
    var k = 1000;
    var dm = 1;
    var sizes = ['B', 'KB', 'MB', 'GB', 'TB', 'PB', 'EB', 'ZB', 'YB'];
    var i = Math.floor(Math.log(bytes) / Math.log(k));
    return parseFloat((bytes / Math.pow(k, i)).toFixed(dm)) + ' ' + sizes[i];
}

我們設置了 --executor-memory 18g,但是 Spark 的 Executor 端通過 Runtime.getRuntime.maxMemory 拿到的內存其實沒這么大,只有 17179869184 字節,這個數據是怎么計算的?

Runtime.getRuntime.maxMemory 是程序能夠使用的最大內存,其值會比實際配置的執行器內存的值小。這是因為內存分配池的堆部分分為 Eden,Survivor 和 Tenured 三部分空間,而這里面一共包含了兩個 Survivor 區域,而這兩個 Survivor 區域在任何時候我們只能用到其中一個,所以我們可以使用下面的公式進行描述:

ExecutorMemory = Eden + 2 * Survivor + Tenured
Runtime.getRuntime.maxMemory =  Eden + Survivor + Tenured

上面的 17179869184 字節可能因為你的 GC 配置不一樣得到的數據不一樣,但是上面的計算公式是一樣的。

用了堆內和堆外內存

現在如果我們啟用了堆外內存,情況咋樣呢?我們的內存相關配置如下:

spark.executor.memory           18g
spark.memory.offHeap.enabled    true
spark.memory.offHeap.size       10737418240

從上面可以看出,堆外內存為 10GB,現在 Spark UI 上面顯示的 Storage Memory 可用內存為 20.9GB,如下:如何解析Apache Spark 統一內存管理模型

如果想及時了解Spark、Hadoop或者Hbase相關的文章,歡迎關注微信公共帳號:iteblog_hadoop

其實 Spark UI 上面顯示的 Storage Memory 可用內存等于堆內內存和堆外內存之和,計算公式如下:

堆內
systemMemory = 17179869184 字節
reservedMemory = 300MB = 300 * 1024 * 1024 = 314572800
usableMemory = systemMemory - reservedMemory = 17179869184 - 314572800 = 16865296384
totalOnHeapStorageMemory = usableMemory * spark.memory.fraction
                         = 16865296384 * 0.6 = 10119177830
堆外
totalOffHeapStorageMemory = spark.memory.offHeap.size = 10737418240
StorageMemory = totalOnHeapStorageMemory + totalOffHeapStorageMemory
              = (10119177830 + 10737418240) 字節
              = (20856596070 / (1000 * 1000 * 1000)) GB
              = 20.9 GB

看完上述內容,你們對如何解析Apache Spark 統一內存管理模型有進一步的了解嗎?如果還想了解更多知識或者相關內容,請關注億速云行業資訊頻道,感謝大家的支持。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

治多县| 娄烦县| 独山县| 界首市| 亚东县| 辽源市| 偃师市| 安宁市| 鹤山市| 来宾市| 栾川县| 海兴县| 汨罗市| 双流县| 噶尔县| 鲁山县| 陵水| 荆门市| 凉城县| 镇巴县| 吉水县| 墨竹工卡县| 大渡口区| 双江| 南安市| 高州市| 新津县| 峨边| 区。| 鞍山市| 元江| 富川| 富蕴县| 扎囊县| 云南省| 益阳市| 分宜县| 兰溪市| 苏尼特右旗| 泰安市| 维西|