溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

CentOS6上mongodb連接數(shù)無法突破1000的解決辦法

發(fā)布時間:2020-07-15 11:28:26 來源:網(wǎng)絡(luò) 閱讀:2074 作者:UltraSQL 欄目:MongoDB數(shù)據(jù)庫

問題描述:

生產(chǎn)環(huán)境發(fā)現(xiàn)CPU滿負荷運行,MongoDB的連接數(shù)始終突破不了1000。


解決方案:

1、查看mongodb的日志,報下面的錯誤:

Wed Nov 21 15:26:09 [initandlisten] pthread_create failed: errno:11 Resource temporarily unavailable   
Wed Nov 21 15:26:09 [initandlisten] can't create new thread, closing connection

2、在一臺一樣的centos5的機器上測試,發(fā)現(xiàn)連接2000個連接一點問題都沒有。  
3、上google查找問題,關(guān)鍵字“mongod.conf can’t create new thread, closing connection”    
4、找到問題所在,原來centos6與之前centos5不同,多了一個默認的限制用戶nproc的配置文件 :/etc/security/limits.d/90-nproc.conf ,默認把普通用戶的nproc設(shè)置成1024,而mongodb正好又是使用mongod這個非root用戶跑的,所以連接數(shù)一直上不去了。    
5、更改/etc/security/limits.d/90-nproc.conf ,把1024改成20480 ,問題解決。

[root@test ~]# cat /etc/security/limits.d/90-nproc.conf    
# Default limit for number of user's processes to prevent    
# accidental fork bombs.    
# See rhbz #432903 for reasoning.
*          soft    nproc     20480


打開文件句柄數(shù)和最大用戶進程數(shù)限制:

在Linux下面部署應(yīng)用的時候,有時候會遇上Socket/File: Can’t open so many files的問題;這個值也會影響服務(wù)器的最大并發(fā)數(shù),其實Linux是有文件句柄限制的,而且Linux默認不是很高,一般都是1024,生產(chǎn)服務(wù)器用其實很容易就達到這個數(shù)量。下面說的是,如何通過正解配置來改正這個系統(tǒng)默認值。

 
查看方法

我們可以用ulimit -a來查看所有限制值  

[root@test ~]# ulimit -a    
core file size          (blocks, -c) 0    
data seg size           (kbytes, -d) unlimited    
scheduling priority             (-e) 0    
file size               (blocks, -f) unlimited    
pending signals                 (-i) 256469    
max locked memory       (kbytes, -l) 64    
max memory size         (kbytes, -m) unlimited    
open files                      (-n) 64000    
pipe size            (512 bytes, -p) 8    
POSIX message queues     (bytes, -q) 819200    
real-time priority              (-r) 0    
stack size              (kbytes, -s) 10240    
cpu time               (seconds, -t) unlimited    
max user processes              (-u) 65536    
virtual memory          (kbytes, -v) unlimited    
file locks                      (-x) unlimited

其中 "open files (-n)"是Linux操作系統(tǒng)對一個進程打開的文件句柄數(shù)量的限制,默認是1024。  
(也包含打開的SOCKET數(shù)量,可影響數(shù)據(jù)庫的并發(fā)連接數(shù)目)。


正確的做法,應(yīng)該是修改/etc/security/limits.conf  
里面有很詳細的注釋,比如    
hadoop  soft   nofile   32768    
hadoop hard nofile 65536

hadoop soft   nproc   32768  
hadoop hard nproc 65536

  
就可以將文件句柄限制統(tǒng)一改成軟32768,硬65536。配置文件最前面的是指domain,設(shè)置為星號代表全局,另外你也可以針對不同的用戶做出不同的限制。


注意:這個當中的硬限制是實際的限制,而軟限制,是warnning限制,只會做出warning;其實ulimit命令本身就有分軟硬設(shè)置,加-H就是硬,加-S就是軟

 
默認顯示的是軟限制,如果運行ulimit命令修改的時候沒有加上的話,就是兩個參數(shù)一起改變。

RHE6及以后 nproc的修改在/etc/security/limits.d/90-nproc.conf中


如何修改連接數(shù)限制:

臨時修改(當前shell下更改用戶可打開進程數(shù)):  

# ulimit -u xxx


永久修改, 保險的做法是同時修改/etc/security/limits.d/90-nproc.conf 和 /etc/security/limits.conf如下:


limits_conf = /etc/security/limits.conf: 
*   soft   nproc    s1    
*   hard   nproc    h2


nproc_conf = /etc/security/limits.d/90-nproc.conf:  
*   soft    nproc    s2    
*   hard    nproc    h3


s1,h2,s2,h3必須是具體有意義的數(shù). 此時ulimit -u顯示的值為=min(h2,h3)

因此通常就設(shè)置s1=s2=h2=h3, 例如在limits_conf和nproc_conf中同時加入:  
*   soft   nproc   65536    
*   hard   nproc   65536


向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI