您好,登錄后才能下訂單哦!
前言
首先我們來看如何標識一個TCP連接?系統是通過一個四元組來識別,(src_ip,src_port,dst_ip,dst_port)即源IP、源端口、目標IP、目標端口。比如我們有一臺服務192.168.0.1,開啟端口80.那么所有的客戶端都會連接到這臺服務的80端口上面。有一種誤解,就是我們常說一臺機器有65536個端口,那么承載的連接數就是65536個,這個說法是極其錯誤的,這就混淆了源端口和訪問目標端口。我們做壓測的時候,利用壓測客戶端,這個客戶端的連接數是受到端口數的限制,但是服務器上面的連接數可以達到成千上萬個,一般可以達到百萬(4C8G配置),至于上限是多少,需要看優化的程度。具體做法如下:
我們在壓測一臺目標服務器,想看下負載的連接數,當我們壓到一定數量的時候,控制臺突然報"too many open files",這是因為linux系統創建一個TCP連接的時候,都會創建一個socket句柄,每個socket句柄就是一個文件句柄。操作系統對打開的文件句柄數量是有限制的。Unix/Linux 基本哲學之一就是 "一切皆文件",要提高TCP承載量,就需要調整文件句柄。
第一步:修改文件句柄數量限制
# 查看當前用戶允許TCP打開的文件句柄最大數 ulimit -n # 修改文件句柄 vim /etc/security/limits.conf * soft nofile 655350 * hard nofile 655350
修改后,退出終端窗口,重新登錄(不需要重啟服務器),就能看到最新的結果了。這是優化的第一步,修改文件句柄限制。
注意:
soft nofile (軟限制)是指Linux在當前系統能夠承受的范圍內進一步限制用戶同時打開的文件數
hard nofile (硬限制)是根據系統硬件資源狀況(主要是系統內存)計算出來的系統最多可同時打開的文件數量
通常軟限制小于或等于硬限制
第二步:TCP參數調優
參數 | 默認配置 | 調整配置 | 說明 |
---|---|---|---|
fs.file-max | 1048576 | 9999999 | 所有進程打開的文件描述符數 |
fs.nr_open | 1635590 | 1635590 | 單個進程可分配的最大文件數 |
net.core.rmem_default | 124928 | 262144 | 默認的TCP讀取緩沖區 |
net.core.wmem_default | 124928 | 262144 | 默認的TCP發送緩沖區 |
net.core.rmem_max | 124928 | 8388608 | 默認的TCP最大讀取緩沖區 |
net.core.wmem_max | 124928 | 8388608 | 默認的TCP最大發送緩沖區 |
net.ipv4.tcp_wmem | 4096 16384 4194304 | 4096 16384 8388608 | TCP發送緩沖區 |
net.ipv4.tcp_rmem | 4096 87380 4194304 | 4096 87380 8388608 | TCP讀取緩沖區 |
net.ipv4.tcp_mem | 384657 512877 769314 | 384657 512877 3057792 | TCP內存大小 |
net.core.netdev_max_backlog | 1000 | 5000 | 在每個網絡接口接收數據包的速率比內核處理這些包的速率快時,允許送到隊列的數據包的最大數目 |
net.core.optmem_max | 20480 | 81920 | 每個套接字所允許的最大緩沖區的大小 |
net.core.somaxconn | 128 | 2048 | 每一個端口最大的監聽隊列的長度,這是個全局的參數 |
net.ipv4.tcp_fin_timeout | 60 | 30 | 對于本端斷開的socket連接,TCP保持在FIN-WAIT-2狀態的時間(秒)。對方可能會斷開連接或一直不結束連接或不可預料的進程死亡 |
net.core.netdev_max_backlog | 1000 | 10000 | 在每個網絡接口接收數據包的速率比內核處理這些包的速率快時,允許送到隊列的數據包的最大數目 |
net.ipv4.tcp_max_syn_backlog | 1024 | 2048 | 對于還未獲得對方確認的連接請求,可保存在隊列中的最大數目。如果服務器經常出現過載,可以嘗試增加這個數字 |
net.ipv4.tcp_max_tw_buckets | 5000 | 5000 | 系統在同時所處理的最大timewait sockets數目 |
net.ipv4.tcp_tw_reuse | 0 | 1 | 是否允許將TIME-WAIT sockets重新用于新的TCP連接 |
net.ipv4.tcp_keepalive_time | 7200 | 900 | 表示TCP鏈接在多少秒之后沒有數據報文傳輸時啟動探測報文(發送空的報文) |
net.ipv4.tcp_keepalive_intvl | 75 | 30 | 表示前一個探測報文和后一個探測報文之間的時間間隔 |
net.ipv4.tcp_keepalive_probes | 9 | 3 | 表示探測的次數 |
從上面的配置參數中我們可以知道,在Linux內核中為tcp發送和接收都做了緩沖隊列,這樣可以提高系統的吞吐量。
以上這些參數都是在 /etc/sysctl.conf 文件中定義的,有的參數在文件中可能沒有定義,系統給定了默認值,需要修改的話,直接在文件中添加或修改,然后執行sysctl -p命令讓其生效。
注意:
參數值并不是設置的越大越好,有的需要考慮服務器的硬件配置,參數對服務器上其它服務的影響等。
總結
以上就是這篇文章的全部內容了,希望本文的內容對大家的學習或者工作具有一定的參考學習價值,謝謝大家對億速云的支持。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。