91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Linux內核參數min_free_kbytes與lowmem_reserve_ratio是怎樣的

發布時間:2021-10-14 15:18:51 來源:億速云 閱讀:116 作者:柒染 欄目:編程語言

Linux內核參數min_free_kbytes與lowmem_reserve_ratio是怎樣的,相信很多沒有經驗的人對此束手無策,為此本文總結了問題出現的原因和解決方法,通過這篇文章希望你能解決這個問題。

1. min_free_kbytes

先看官方解釋:
This is used to force the Linux VM to keep a minimum number of kilobytes free. The VM uses this number to compute a watermark[WMARK_MIN] value for each lowmem zone in the system. Each lowmem zone gets a number of reserved free pages based proportionally on
its size.
Some minimal amount of memory is needed to satisfy PF_MEMALLOC allocations; if you set this to lower than 1024KB, your system will become subtly broken, and prone to deadlock under high loads.
Setting this too high will OOM your machine instantly.

解釋已經很清楚了,主要有以下幾個關鍵點:
1. 代表系統所保留空閑內存的最低限。
在系統初始化時會根據內存大小計算一個默認值,計算規則是:

  min_free_kbytes = sqrt(lowmem_kbytes * 16) = 4 * sqrt(lowmem_kbytes)(注:lowmem_kbytes即可認為是系統內存大小)

另外,計算出來的值有最小最大限制,最小為128K,最大為64M。
可以看出,min_free_kbytes隨著內存的增大不是線性增長,comments里提到了原因“because network bandwidth does not increase linearly with machine size”。隨著內存的增大,沒有必要也線性的預留出過多的內存,能保證緊急時刻的使用量便足矣。

2.min_free_kbytes的主要用途是計算影響內存回收的三個參數 watermark[min/low/high]
1) watermark[high] > watermark [low] > watermark[min],各個zone各一套
2)在系統空閑內存低于 watermark[low]時,開始啟動內核線程kswapd進行內存回收(每個zone一個),直到該zone的空閑內存數量達到watermark[high]后停止回收。如果上層申請內存的速度太快,導致空閑內存降至watermark[min]后,內核就會進行direct reclaim(直接回收),即直接在應用程序的進程上下文中進行回收,再用回收上來的空閑頁滿足內存申請,因此實際會阻塞應用程序,帶來一定的響應延遲,而且可能會觸發系統OOM。這是因為watermark[min]以下的內存屬于系統的自留內存,用以滿足特殊使用,所以不會給用戶態的普通申請來用。
3)三個watermark的計算方法:

 watermark[min] = min_free_kbytes換算為page單位即可,假設為min_free_pages。(因為是每個zone各有一套watermark參數,實際計算效果是根據各個zone大小所占內存總大小的比例,而算出來的per zone min_free_pages)
 watermark[low] = watermark[min] * 5 / 4
 watermark[high] = watermark[min] * 3 / 2

所以中間的buffer量為 high - low = low - min = per_zone_min_free_pages * 1/4。因為min_free_kbytes = 4* sqrt(lowmem_kbytes),也可以看出中間的buffer量也是跟內存的增長速度成開方關系。
4)可以通過/proc/zoneinfo查看每個zone的watermark
例如:

Node 0, zone      DMA
pages free     3960
       min      65
       low      81
       high     97


3.min_free_kbytes大小的影響
min_free_kbytes設的越大,watermark的線越高,同時三個線之間的buffer量也相應會增加。這意味著會較早的啟動kswapd進行回收,且會回收上來較多的內存(直至watermark[high]才會停止),這會使得系統預留過多的空閑內存,從而在一定程度上降低了應用程序可使用的內存量。極端情況下設置min_free_kbytes接近內存大小時,留給應用程序的內存就會太少而可能會頻繁地導致OOM的發生。
min_free_kbytes設的過小,則會導致系統預留內存過小。kswapd回收的過程中也會有少量的內存分配行為(會設上PF_MEMALLOC)標志,這個標志會允許kswapd使用預留內存;另外一種情況是被OOM選中殺死的進程在退出過程中,如果需要申請內存也可以使用預留部分。這兩種情況下讓他們使用預留內存可以避免系統進入deadlock狀態。

2. lowmem_reserve_ratio

官方解釋:
For some specialised workloads on highmem machines it is dangerous for the kernel to allow process memory to be allocated from the "lowmem"zone. This is because that memory could then be pinned via the mlock() system call, or by unavailability of swapspace.
And on large highmem machines this lack of reclaimable lowmem memory can be fatal.
So the Linux page allocator has a mechanism which prevents allocations which _could_ use highmem from using too much lowmem. This means that a certain amount of lowmem is defended from the possibility of being captured into pinned user memory.
The `lowmem_reserve_ratio' tunable determines how aggressive the kernel is in defending these lower zones.
If you have a machine which uses highmem or ISA DMA and your applications are using mlock(), or if you are running with no swap then you probably should change the lowmem_reserve_ratio setting.

1.作用
除了min_free_kbytes會在每個zone上預留一部分內存外,lowmem_reserve_ratio是在各個zone之間進行一定的防衛預留,主要是防止高端zone在沒內存的情況下過度使用低端zone的內存資源。
例如現在常見的一個node的機器有三個zone: DMA,DMA32和NORMAL。DMA和DMA32屬于低端zone,內存也較小,如96G內存的機器兩個zone總和才1G左右,NORMAL就相對屬于高端內存(現在一般沒有HIGH zone),而且數量較大(>90G)。低端內存有一定的特殊作用比如發生DMA時只能分配DMA zone的低端內存,因此需要在 盡量可以使用高端內存時 而 不使用低端內存,同時防止高端內存分配不足的時候搶占稀有的低端內存。

2. 計算方法

cat /proc/sys/vm/lowmem_reserve_ratio
256     256     32


內核利用上述的protection數組計算每個zone的預留page量,計算出來也是數組形式,從/proc/zoneinfo里可以查看:

Node 0, zone      DMA
 pages free     1355
       min      3
       low      3
       high     4
       :
       :
   numa_other   0
       protection: (0, 2004, 2004, 2004)
       ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
 pagesets
   cpu: 0 pcp: 0
       :

在進行內存分配時,這些預留頁數值和watermark相加來一起決定現在是滿足分配請求,還是認為空閑內存量過低需要啟動回收。
例如,如果一個normal區(index = 2)的頁申請來試圖分配DMA區的內存,且現在使用的判斷標準是watermark[low]時,內核計算出 page_free = 1355,而watermark + protection[2] = 3 + 2004 = 2007 > page_free,則認為空閑內存太少而不予以分配。如果分配請求本就來自DMA zone,則 protection[0] = 0會被使用,而滿足分配申請。

zone[i] 的 protection[j] 計算規則如下:

(i < j):
 zone[i]->protection[j]
 = (total sums of present_pages from zone[i+1] to zone[j] on the node)
   / lowmem_reserve_ratio[i];
(i = j):
  (should not be protected. = 0;
(i > j):
  (not necessary, but looks 0)

默認的 lowmem_reserve_ratio[i] 值是:

   256 (if zone[i] means DMA or DMA32 zone)
   32  (others).

從上面的計算規則可以看出,預留內存值是ratio的倒數關系,如果是256則代表 1/256,即為 0.39% 的高端zone內存大小。
如果想要預留更多頁,應該設更小一點的值,最小值是1(1/1 -> 100%)。

3. 和min_free_kbytes(watermark)的配合示例
下面是一段某線上服務器(96G)內存申請失敗時打印出的log:

[38905.295014] java: page allocation failure. order:1, mode:0x20, zone 2
[38905.295020] Pid: 25174, comm: java Not tainted 2.6.32-220.23.1.tb750.el5.x86_64 #1
...
[38905.295348] active_anon:5730961 inactive_anon:216708 isolated_anon:0
[38905.295349]  active_file:2251981 inactive_file:15562505 isolated_file:0
[38905.295350]  unevictable:1256 dirty:790255 writeback:0 unstable:0
[38905.295351]  free:113095 slab_reclaimable:577285 slab_unreclaimable:31941
[38905.295352]  mapped:7816 shmem:4 pagetables:13911 bounce:0
[38905.295355] Node 0 DMA free:15796kB min:4kB low:4kB high:4kB active_anon:0kB inactive_anon:0kB active_file:0kB inactive_file:0kB unevictable:0kB  isolated(anon):0kB isolated(file):0kB present:15332kB mlocked:0kB dirty:0kB writeback:0kB mapped:0kB shmem:0kB slab_reclaimable:0kB slab_unreclaimable:0kB kernel_stack:0kB pagetables:0kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:0 all_unreclaimable? yes
[38905.295365] lowmem_reserve[]: 0 1951 96891 96891
[38905.295369] Node 0 DMA32 free:380032kB min:800kB low:1000kB high:1200kB active_anon:46056kB inactive_anon:10876kB active_file:15968kB inactive_file:129772kB unevictable:0kB isolated(anon):0kB isolated(file):0kB present:1998016kB mlocked:0kB dirty:20416kB writeback:0kB mapped:0kB shmem:0kB slab_reclaimable:11716kB slab_unreclaimable:160kB kernel_stack:176kB pagetables:112kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:576 all_unreclaimable? no
[38905.295379] lowmem_reserve[]: 0 0 94940 94940
[38905.295383] Node 0 Normal free:56552kB min:39032kB low:48788kB high:58548kB active_anon:22877788kB inactive_anon:855956kB active_file:8991956kB inactive_file:62120248kB unevictable:5024kB isolated(anon):0kB isolated(file):0kB present:97218560kB mlocked:5024kB dirty:3140604kB writeback:0kB mapped:31264kB shmem:16kB slab_reclaimable:2297424kB slab_unreclaimable:127604kB kernel_stack:12528kB pagetables:55532kB unstable:0kB bounce:0kB writeback_tmp:0kB pages_scanned:0 all_unreclaimable? no
[38905.295393] lowmem_reserve[]: 0 0 0 0
[38905.295396] Node 0 DMA: 1*4kB 2*8kB 0*16kB 1*32kB 2*64kB 0*128kB 1*256kB 0*512kB 1*1024kB 1*2048kB 3*4096kB = 15796kB
[38905.295405] Node 0 DMA32: 130*4kB 65*8kB 75*16kB 72*32kB 95*64kB 22*128kB 10*256kB 7*512kB 4*1024kB 2*2048kB 86*4096kB = 380032kB
[38905.295414] Node 0 Normal: 12544*4kB 68*8kB 0*16kB 0*32kB 0*64kB 0*128kB 0*256kB 0*512kB 0*1024kB 0*2048kB 1*4096kB = 54816kB
[38905.295423] 17816926 total pagecache pages

1)從第一行log“order:1, mode:0x20”可以看出來是GFP_ATOMIC類型的申請,且order = 1(page = 2 )

2)第一次內存申請嘗試
在__alloc_pages_nodemask()里,首先調用 get_page_from_freelist() 嘗試第一次申請,使用的標志位是 ALLOC_WMARK_LOW|ALLOC_CPUSET,它會對每個zone都做 zone_watermark_ok()的檢查,使用的就是傳進的watermark[low]閾值。
在zone_watermark_ok()里會考慮z->lowmem_reserve[],導致在normal上的申請不會落到低端zone。比如對于DMA32:

free pages = 380032KB = 95008 pages < low(1000KB = 250 pages) +  lowmem_reserve[normal](94940) = 95190

所以就認為DMA32也不平不ok,同理更用不了DMA的內存。
而對于normal自己內存來說,free pages = 56552 KB = 14138 pages,也不用考慮lowmem_reserve(0),但這時還會考慮申請order(1),減去order 0的12544個page后只剩 14138 - 12544 = 1594,也小于 low / 2 = (48788KB=12197pages) / 2 = 6098 pages。
所以初次申請嘗試失敗,進入__alloc_pages_slowpath() 嘗試進行更為積極一些的申請。

3)第二次內存申請嘗試
__alloc_pages_slowpath()首先是通過 gfp_to_alloc_flags() 修改alloc_pages,設上更為強硬的標志位。這塊根據原來的GFP_ATOMIC會設上 ALLOC_WMARK_MIN | ALLOC_HARDER | ALLOC_HIGH。但注意的是不會設上 ALLOC_NO_WATERMARKS 標志位。這個標志位不再判斷zone的水位限制,屬于優先級最高的申請,可以動用所有的reserve內存,但條件是(!in_interrupt() && ((p->flags
& PF_MEMALLOC) || unlikely(test_thread_flag(TIF_MEMDIE)))),即要求不能在中斷上下文,且是正在進行回收(例如kswapd)或者正在退出的進程。

之后進入拿著新的alloc_pages重新進入get_page_from_pagelist() 嘗試第二次申請,雖然有了 ALLOC_HARDER和ALLOC_HIGH,但是不幸的是在3個zone的zone_watermark_ok檢查中還是都無法通過,例如對于DMA32:

free pages = 380032KB = 95008 pages
因為設上了ALLOC_HIGH 所以會將得到的watermark[min]減半,即min = min/2 = 800K / 2 = 400K = 100pages
而又因為設上了ALLOC_HARDER,會再將min砍去1/4,即min = 3 * min / 4 = 100 pages * 3 / 4 = 75 pages
即便如此,min(75 pages) +  lowmem_reserve[normal](94940) = 95015,仍大于free pages,仍認為無法分配內存,同理DMA也不不成功,而normal中 free pages里連續8K的頁太少也無法滿足分配

第二次失敗后,由于沒有ALLOC_NO_WATERMARK也不會進入__alloc_pages_high_priority 進行最高優先級的申請,同時由于是GFP_ATOMIC類型的分配不能阻塞回收或者進入OOM,因此就以申請失敗告終。

遇到此種情況可以適當調高 min_free_kbytes 使kswapd較早啟動回收,使系統一直留有較多的空閑內存,同時可以適度降低 lowmem_reserve_ratio(可選),使得內存不足的情況下(主要是normal zone)可以借用DMA32/DMA的內存救急(注意不能也不能過低)。

看完上述內容,你們掌握Linux內核參數min_free_kbytes與lowmem_reserve_ratio是怎樣的的方法了嗎?如果還想學到更多技能或想了解更多相關內容,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

梅河口市| 长白| 牟定县| 黎平县| 犍为县| 太原市| 高淳县| 阿拉尔市| 阜康市| 德州市| 黄龙县| 洪江市| 五台县| 信阳市| 天水市| 嵊州市| 岳阳市| 年辖:市辖区| 榆树市| 永康市| 都昌县| 新化县| 于都县| 九江市| 开化县| 克拉玛依市| 油尖旺区| 延边| 阿坝县| 南平市| 凤城市| 峨山| 云浮市| 额尔古纳市| 林甸县| 九寨沟县| 尤溪县| 容城县| 息烽县| 民勤县| 抚州市|