溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

你知道一臺Linux服務器可以負載多少個連接嗎

發(fā)布時間:2020-09-26 14:36:17 來源:腳本之家 閱讀:141 作者:alterem 欄目:服務器

前言

首先我們來看如何標識一個TCP連接?系統(tǒng)是通過一個四元組來識別,(src_ip,src_port,dst_ip,dst_port)即源IP、源端口、目標IP、目標端口。比如我們有一臺服務192.168.0.1,開啟端口80.那么所有的客戶端都會連接到這臺服務的80端口上面。有一種誤解,就是我們常說一臺機器有65536個端口,那么承載的連接數(shù)就是65536個,這個說法是極其錯誤的,這就混淆了源端口和訪問目標端口。我們做壓測的時候,利用壓測客戶端,這個客戶端的連接數(shù)是受到端口數(shù)的限制,但是服務器上面的連接數(shù)可以達到成千上萬個,一般可以達到百萬(4C8G配置),至于上限是多少,需要看優(yōu)化的程度。具體做法如下:

我們在壓測一臺目標服務器,想看下負載的連接數(shù),當我們壓到一定數(shù)量的時候,控制臺突然報"too many open files",這是因為linux系統(tǒng)創(chuàng)建一個TCP連接的時候,都會創(chuàng)建一個socket句柄,每個socket句柄就是一個文件句柄。操作系統(tǒng)對打開的文件句柄數(shù)量是有限制的。Unix/Linux 基本哲學之一就是 "一切皆文件",要提高TCP承載量,就需要調(diào)整文件句柄。

第一步:修改文件句柄數(shù)量限制

# 查看當前用戶允許TCP打開的文件句柄最大數(shù)
ulimit -n

# 修改文件句柄
vim /etc/security/limits.conf

* soft nofile 655350
* hard nofile 655350

修改后,退出終端窗口,重新登錄(不需要重啟服務器),就能看到最新的結(jié)果了。這是優(yōu)化的第一步,修改文件句柄限制。

注意:
soft nofile (軟限制)是指Linux在當前系統(tǒng)能夠承受的范圍內(nèi)進一步限制用戶同時打開的文件數(shù)
hard nofile (硬限制)是根據(jù)系統(tǒng)硬件資源狀況(主要是系統(tǒng)內(nèi)存)計算出來的系統(tǒng)最多可同時打開的文件數(shù)量
通常軟限制小于或等于硬限制

第二步:TCP參數(shù)調(diào)優(yōu)

參數(shù) 默認配置 調(diào)整配置 說明
fs.file-max 1048576 9999999 所有進程打開的文件描述符數(shù)
fs.nr_open 1635590 1635590 單個進程可分配的最大文件數(shù)
net.core.rmem_default 124928 262144 默認的TCP讀取緩沖區(qū)
net.core.wmem_default 124928 262144 默認的TCP發(fā)送緩沖區(qū)
net.core.rmem_max 124928 8388608 默認的TCP最大讀取緩沖區(qū)
net.core.wmem_max 124928 8388608 默認的TCP最大發(fā)送緩沖區(qū)
net.ipv4.tcp_wmem 4096 16384 4194304 4096 16384 8388608 TCP發(fā)送緩沖區(qū)
net.ipv4.tcp_rmem 4096 87380 4194304 4096 87380 8388608 TCP讀取緩沖區(qū)
net.ipv4.tcp_mem 384657 512877 769314 384657 512877 3057792 TCP內(nèi)存大小
net.core.netdev_max_backlog 1000 5000 在每個網(wǎng)絡(luò)接口接收數(shù)據(jù)包的速率比內(nèi)核處理這些包的速率快時,允許送到隊列的數(shù)據(jù)包的最大數(shù)目
net.core.optmem_max 20480 81920 每個套接字所允許的最大緩沖區(qū)的大小
net.core.somaxconn 128 2048 每一個端口最大的監(jiān)聽隊列的長度,這是個全局的參數(shù)
net.ipv4.tcp_fin_timeout 60 30 對于本端斷開的socket連接,TCP保持在FIN-WAIT-2狀態(tài)的時間(秒)。對方可能會斷開連接或一直不結(jié)束連接或不可預料的進程死亡
net.core.netdev_max_backlog 1000 10000 在每個網(wǎng)絡(luò)接口接收數(shù)據(jù)包的速率比內(nèi)核處理這些包的速率快時,允許送到隊列的數(shù)據(jù)包的最大數(shù)目
net.ipv4.tcp_max_syn_backlog 1024 2048 對于還未獲得對方確認的連接請求,可保存在隊列中的最大數(shù)目。如果服務器經(jīng)常出現(xiàn)過載,可以嘗試增加這個數(shù)字
net.ipv4.tcp_max_tw_buckets 5000 5000 系統(tǒng)在同時所處理的最大timewait sockets數(shù)目
net.ipv4.tcp_tw_reuse 0 1 是否允許將TIME-WAIT sockets重新用于新的TCP連接
net.ipv4.tcp_keepalive_time 7200 900 表示TCP鏈接在多少秒之后沒有數(shù)據(jù)報文傳輸時啟動探測報文(發(fā)送空的報文)
net.ipv4.tcp_keepalive_intvl 75 30 表示前一個探測報文和后一個探測報文之間的時間間隔
net.ipv4.tcp_keepalive_probes 9 3 表示探測的次數(shù)

從上面的配置參數(shù)中我們可以知道,在Linux內(nèi)核中為tcp發(fā)送和接收都做了緩沖隊列,這樣可以提高系統(tǒng)的吞吐量。

以上這些參數(shù)都是在 /etc/sysctl.conf 文件中定義的,有的參數(shù)在文件中可能沒有定義,系統(tǒng)給定了默認值,需要修改的話,直接在文件中添加或修改,然后執(zhí)行sysctl -p命令讓其生效。

注意:
參數(shù)值并不是設(shè)置的越大越好,有的需要考慮服務器的硬件配置,參數(shù)對服務器上其它服務的影響等。

總結(jié)

以上就是這篇文章的全部內(nèi)容了,希望本文的內(nèi)容對大家的學習或者工作具有一定的參考學習價值,謝謝大家對億速云的支持。

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI