您好,登錄后才能下訂單哦!
這篇文章主要講解了“Linux中如何使用cgroups限制cpu”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“Linux中如何使用cgroups限制cpu”吧!
cgroups 里,可以用 cpu.cfs_period_us 和 cpu.cfs_quota_us 來限制該組中的所有進程在單位時間里可以使用的 cpu 時間。這里的 cfs 是完全公平調度器的縮寫。cpu.cfs_period_us 就是時間周期,默認為 100000,即百毫秒。cpu.cfs_quota_us 就是在這期間內可使用的 cpu 時間,默認 -1,即無限制。
跑一個耗 cpu 的程序
代碼如下:
# echo 'while True: pass'|python &
[1] 1532
top 一下可以看到,這進程占了 100% 的 cpu
代碼如下:
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
1532 root 20 0 112m 3684 1708 R 99.6 0.7 0:30.42 python
...
然后就來對這個進程做一下限制。先把 /foo 這個控制組的限制修改一下,然后把進程加入進去。
代碼如下:
echo 50000 >/sys/fs/cgroup/cpu/foo/cpu.cfs_quota_us
echo 1532 >/sys/fs/group/cpu/foo/tasks
可見,修改設置只需要寫入相應文件,將進程加入 cgroup 也只需將 pid 寫入到其中的 tasks 文件即可。這里將 cpu.cfs_quota_us 設為 50000,相對于 cpu.cfs_period_us 的 100000 即 50%。再 top 一下看看效果。
代碼如下:
PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND
1532 root 20 0 112m 3684 1708 R 50.2 0.7 5:00.31 python
...
可以看到,進程的 cpu 占用已經被成功地限制到了 50% 。這里,測試的虛擬機只有一個核心。在多核情況下,看到的值會不一樣。另外,cfs_quota_us 也是可以大于 cfs_period_us 的,這主要是對于多核情況。有 n 個核時,一個控制組中的進程自然最多就能用到 n 倍的 cpu 時間。
這兩個值在 cgroups 層次中是有限制的,下層的資源不能超過上層。具體的說,就是下層的 cpu.cfs_period_us 值不能小于上層的值,cpu.cfs_quota_us 值不能大于上層的值。
另外的一組 cpu.rt_period_us、cpu.rt_runtime_us 對應的是實時進程的限制,平時可能不會有機會用到。
在 cpu 子系統中,cpu.stat 就是用前面那種方法做的資源限制的統計了。nr_periods、nr_throttled 就是總共經過的周期,和其中受限制的周期。throttled_time 就是總共被控制組掐掉的 cpu 使用時間。
還有個 cpu.shares, 它也是用來限制 cpu 使用的。但是與 cpu.cfs_quota_us、cpu.cfs_period_us 有挺大區別。cpu.shares 不是限制進程能使用的絕對的 cpu 時間,而是控制各個組之間的配額。比如
代碼如下:
/cpu/cpu.shares : 1024
/cpu/foo/cpu.shares : 2048
那么當兩個組中的進程都滿負荷運行時,/foo 中的進程所能占用的 cpu 就是 / 中的進程的兩倍。如果再建一個 /foo/bar 的 cpu.shares 也是 1024,且也有滿負荷運行的進程,那 /、/foo、/foo/bar 的 cpu 占用比就是 1:2:1 。前面說的是各自都跑滿的情況。如果其他控制組中的進程閑著,那某一個組的進程完全可以用滿全部 cpu。可見通常情況下,這種方式在保證公平的情況下能更充分利用資源。
此外,還可以限定進程可以使用哪些 cpu 核心。cpuset 子系統就是處理進程可以使用的 cpu 核心和內存節點,以及其他一些相關配置。這部分的很多配置都和 NUMA 有關。其中 cpuset.cpus、cpuset.mems 就是用來限制進程可以使用的 cpu 核心和內存節點的。這兩個參數中 cpu 核心、內存節點都用 id 表示,之間用 “,” 分隔。比如 0,1,2 。也可以用 “-” 表示范圍,如 0-3 。兩者可以結合起來用。如“0-2,6,7”。在添加進程前,cpuset.cpus、cpuset.mems 必須同時設置,而且必須是兼容的,否則會出錯。例如
代碼如下:
# echo 0 >/sys/fs/cgroup/cpuset/foo/cpuset.cpus
# echo 0 >/sys/fs/cgroup/cpuset/foo/cpuset.mems
這樣, /foo 中的進程只能使用 cpu0 和內存節點0。用
代碼如下:
# cat /proc/<pid>/status|grep '_allowed_list'
可以驗證效果。
cgroups 除了用來限制資源使用外,還有資源統計的功能。做云計算的計費就可以用到它。有一個 cpuacct 子系統專門用來做 cpu 資源統計。cpuacct.stat 統計了該控制組中進程用戶態和內核態的 cpu 使用量,單位是 USER_HZ,也就是 jiffies、cpu 滴答數。每秒的滴答數可以用 getconf CLK_TCK 來獲取,通常是 100。將看到的值除以這個值就可以換算成秒。
cpuacct.usage 和 cpuacct.usage_percpu 是該控制組中進程消耗的 cpu 時間,單位是納秒。后者是分 cpu 統計的。
P.S. 2014-4-22
發現在 SLES 11 sp2、sp3 ,對應內核版本 3.0.13、 3.0.76 中,對 cpu 子系統,將 pid 寫入 cgroup.procs 不會實際生效,要寫入 tasks 才行。在其他環境中,更高版本或更低版本內核上均未發現。
感謝各位的閱讀,以上就是“Linux中如何使用cgroups限制cpu”的內容了,經過本文的學習后,相信大家對Linux中如何使用cgroups限制cpu這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。