溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

百萬(wàn)級(jí)高并發(fā)mongodb集群性能數(shù)十倍提升優(yōu)化實(shí)踐是怎樣的

發(fā)布時(shí)間:2021-09-29 11:00:22 來(lái)源:億速云 閱讀:123 作者:柒染 欄目:數(shù)據(jù)庫(kù)

百萬(wàn)級(jí)高并發(fā)mongodb集群性能數(shù)十倍提升優(yōu)化實(shí)踐是怎樣的,很多新手對(duì)此不是很清楚,為了幫助大家解決這個(gè)難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來(lái)學(xué)習(xí)下,希望你能有所收獲。

1、背景

線上某集群峰值TPS超過(guò)100萬(wàn)/秒左右(主要為寫流量,讀流量很低),峰值tps幾乎已經(jīng)到達(dá)集群上限,同時(shí)平均時(shí)延也超過(guò)100ms,隨著讀寫流量的進(jìn)一步增加,時(shí)延抖動(dòng)嚴(yán)重影響業(yè)務(wù)可用性。該集群采用mongodb天然的分片模式架構(gòu),數(shù)據(jù)均衡的分布于各個(gè)分片中,添加片鍵啟用分片功能后實(shí)現(xiàn)完美的負(fù)載均衡。集群每個(gè)節(jié)點(diǎn)流量監(jiān)控如下圖所示:

從上圖可以看出集群流量比較大,峰值已經(jīng)突破120萬(wàn)/秒,其中delete過(guò)期刪除的流量不算在總流量里面(delete由主觸發(fā)刪除,但是主上面不會(huì)顯示,只會(huì)在從節(jié)點(diǎn)拉取oplog的時(shí)候顯示)。如果算上主節(jié)點(diǎn)的delete流量,總tps超過(guò)150萬(wàn)/秒。

2.軟件優(yōu)化

在不增加服務(wù)器資源的情況下,首先做了如下軟件層面的優(yōu)化,并取得了理想的數(shù)倍性能提升:

業(yè)務(wù)層面優(yōu)化 Mongodb配置優(yōu)化 存儲(chǔ)引擎優(yōu)化

2.1 業(yè)務(wù)層面優(yōu)化

該集群總文檔近百億條,每條文檔記錄默認(rèn)保存三天,業(yè)務(wù)隨機(jī)散列數(shù)據(jù)到三天后任意時(shí)間點(diǎn)隨機(jī)過(guò)期淘汰。由于文檔數(shù)目很多,白天平峰監(jiān)控可以發(fā)現(xiàn)從節(jié)點(diǎn)經(jīng)常有大量delete操作,甚至部分時(shí)間點(diǎn)delete刪除操作數(shù)已經(jīng)超過(guò)了業(yè)務(wù)方讀寫流量,因此考慮把delete過(guò)期操作放入夜間進(jìn)行,過(guò)期索引添加方法如下:

Db.collection.createIndex( { "expireAt": 1 }, { expireAfterSeconds: 0 } )

上面的過(guò)期索引中expireAfterSeconds=0,代表collection集合中的文檔的過(guò)期時(shí)間點(diǎn)在expireAt時(shí)間點(diǎn)過(guò)期,例如:

db.collection.insert( {

//表示該文檔在夜間凌晨1點(diǎn)這個(gè)時(shí)間點(diǎn)將會(huì)被過(guò)期刪除

"expireAt": new Date('July 22, 2019 01:00:00'),       "logEvent": 2,   "logMessage": "Success!" } )

通過(guò)隨機(jī)散列expireAt在三天后的凌晨任意時(shí)間點(diǎn),即可規(guī)避白天高峰期觸發(fā)過(guò)期索引引入的集群大量delete,從而降低了高峰期集群負(fù)載,最終減少業(yè)務(wù)平均時(shí)延及抖動(dòng)。

Delete過(guò)期Tips1: expireAfterSeconds含義

1.在expireAt指定的絕對(duì)時(shí)間點(diǎn)過(guò)期,也就是12.22日凌晨2:01過(guò)期

Db.collection.createIndex( { "expireAt": 1 }, { expireAfterSeconds: 0 } )db.log_events.insert( { "expireAt": new Date(Dec 22, 2019 02:01:00'),"logEvent": 2,"logMessage": "Success!"})

2.在expireAt指定的時(shí)間往后推遲expireAfterSeconds秒過(guò)期,也就是當(dāng)前時(shí)間往后推遲60秒過(guò)期

db.log_events.insert( {"createdAt": new Date(),"logEvent": 2,"logMessage": "Success!"} )Db.collection.createIndex( { "expireAt": 1 }, { expireAfterSeconds: 60 } )

Delete過(guò)期Tips2: 為何mongostat只能監(jiān)控到從節(jié)點(diǎn)有delete操作,主節(jié)點(diǎn)沒(méi)有?

原因是過(guò)期索引只在master主節(jié)點(diǎn)觸發(fā),觸發(fā)后主節(jié)點(diǎn)會(huì)直接刪除調(diào)用對(duì)應(yīng)wiredtiger存儲(chǔ)引擎接口做刪除操作,不會(huì)走正常的客戶端鏈接處理流程,因此主節(jié)點(diǎn)上看不到delete統(tǒng)計(jì)。

主節(jié)點(diǎn)過(guò)期delete后會(huì)生存對(duì)于的delete oplog信息,從節(jié)點(diǎn)通過(guò)拉取主節(jié)點(diǎn)oplog然后模擬對(duì)于client回放,這樣就保證了主數(shù)據(jù)刪除的同時(shí)從數(shù)據(jù)也得以刪除,保證數(shù)據(jù)最終一致性。從節(jié)點(diǎn)模擬client回放過(guò)程將會(huì)走正常的client鏈接過(guò)程,因此會(huì)記錄delete count統(tǒng)計(jì),詳見(jiàn)如下代碼:

官方參考如下:https://docs.mongodb.com/manual/tutorial/expire-data/

2.2 Mongodb配置優(yōu)化(網(wǎng)絡(luò)IO復(fù)用,網(wǎng)絡(luò)IO和磁盤IO做分離)

由于集群tps高,同時(shí)整點(diǎn)有大量推送,因此整點(diǎn)并發(fā)會(huì)更高,mongodb默認(rèn)的一個(gè)請(qǐng)求一個(gè)線程這種模式將會(huì)嚴(yán)重影響系統(tǒng)負(fù)載,該默認(rèn)配置不適合高并發(fā)的讀寫應(yīng)用場(chǎng)景。官方介紹如下:

2.2.1 Mongodb內(nèi)部網(wǎng)絡(luò)線程模型實(shí)現(xiàn)原理

mongodb默認(rèn)網(wǎng)絡(luò)模型架構(gòu)是一個(gè)客戶端鏈接,mongodb會(huì)創(chuàng)建一個(gè)線程處理該鏈接fd的所有讀寫請(qǐng)求及磁盤IO操作。

Mongodb默認(rèn)網(wǎng)絡(luò)線程模型不適合高并發(fā)讀寫原因如下:

1. 在高并發(fā)的情況下,瞬間就會(huì)創(chuàng)建大量的線程,例如線上的這個(gè)集群,連接數(shù)會(huì)瞬間增加到1萬(wàn)左右,也就是操作系統(tǒng)需要瞬間創(chuàng)建1萬(wàn)個(gè)線程,這樣系統(tǒng)load負(fù)載就會(huì)很高。

2. 此外,當(dāng)鏈接請(qǐng)求處理完,進(jìn)入流量低峰期的時(shí)候,客戶端連接池回收鏈接,這時(shí)候mongodb服務(wù)端就需要銷毀線程,這樣進(jìn)一步加劇了系統(tǒng)負(fù)載,同時(shí)進(jìn)一步增加了數(shù)據(jù)庫(kù)的抖動(dòng),特別是在PHP這種短鏈接業(yè)務(wù)中更加明顯,頻繁的創(chuàng)建線程銷毀線程造成系統(tǒng)高負(fù)債。

3. 一個(gè)鏈接一個(gè)線程,該線程除了負(fù)責(zé)網(wǎng)絡(luò)收發(fā)外,還負(fù)責(zé)寫數(shù)據(jù)到存儲(chǔ)引擎,整個(gè)網(wǎng)絡(luò)I/O處理和磁盤I/O處理都由同一個(gè)線程負(fù)責(zé),本身架構(gòu)設(shè)計(jì)就是一個(gè)缺陷。

2.2.2 網(wǎng)絡(luò)線程模型優(yōu)化方法

為了適應(yīng)高并發(fā)的讀寫場(chǎng)景,mongodb-3.6開(kāi)始引入serviceExecutor: adaptive配置,該配置根據(jù)請(qǐng)求數(shù)動(dòng)態(tài)調(diào)整網(wǎng)絡(luò)線程數(shù),并盡量做到網(wǎng)絡(luò)IO復(fù)用來(lái)降低線程創(chuàng)建消耗引起的系統(tǒng)高負(fù)載問(wèn)題。此外,加上serviceExecutor: adaptive配置后,借助boost:asio網(wǎng)絡(luò)模塊實(shí)現(xiàn)網(wǎng)絡(luò)IO復(fù)用,同時(shí)實(shí)現(xiàn)網(wǎng)絡(luò)IO和磁盤IO分離。這樣高并發(fā)情況下,通過(guò)網(wǎng)絡(luò)鏈接IO復(fù)用和mongodb的鎖操作來(lái)控制磁盤IO訪問(wèn)線程數(shù),最終降低了大量線程創(chuàng)建和消耗帶來(lái)的高系統(tǒng)負(fù)載,最終通過(guò)該方式提升高并發(fā)讀寫性能。

2.2.3 網(wǎng)絡(luò)線程模型優(yōu)化前后性能對(duì)比

在該大流量集群中增加serviceExecutor: adaptive配置實(shí)現(xiàn)網(wǎng)絡(luò)IO復(fù)用及網(wǎng)絡(luò)IO與磁盤IO做分離后,該大流量集群時(shí)延大幅度降低,同時(shí)系統(tǒng)負(fù)載和慢日志也減少很多,具體如下:

2.2.3.1 優(yōu)化前后系統(tǒng)負(fù)載對(duì)比

驗(yàn)證方式:

1.該集群有多個(gè)分片,其中一個(gè)分片配置優(yōu)化后的主節(jié)點(diǎn)和同一時(shí)刻未優(yōu)化配置的主節(jié)點(diǎn)load負(fù)載比較:

未優(yōu)化配置的load

優(yōu)化配置的load

2.2.3.2 優(yōu)化前后慢日志對(duì)比

驗(yàn)證方式:

該集群有多個(gè)分片,其中一個(gè)分片配置優(yōu)化后的主節(jié)點(diǎn)和同一時(shí)刻未優(yōu)化配置的主節(jié)點(diǎn)慢日志數(shù)比較:

同一時(shí)間的慢日志數(shù)統(tǒng)計(jì):

未優(yōu)化配置的慢日志數(shù)(19621):

優(yōu)化配置后的慢日志數(shù)(5222):

2.2.3.3 優(yōu)化前后平均時(shí)延對(duì)比

驗(yàn)證方式:

該集群所有節(jié)點(diǎn)加上網(wǎng)絡(luò)IO復(fù)用配置后與默認(rèn)配置的平均時(shí)延對(duì)比如下:

從上圖可以看出,網(wǎng)絡(luò)IO復(fù)用后時(shí)延降低了1-2倍。

2.3 wiredtiger存儲(chǔ)引擎優(yōu)化

從上一節(jié)可以看出平均時(shí)延從200ms降低到了平均80ms左右,很顯然平均時(shí)延還是很高,如何進(jìn)一步提升性能降低時(shí)延?繼續(xù)分析集群,我們發(fā)現(xiàn)磁盤IO一會(huì)兒為0,一會(huì)兒持續(xù)性100%,并且有跌0現(xiàn)象,現(xiàn)象如下:

從圖中可以看出,I/O寫入一次性到2G,后面幾秒鐘內(nèi)I/O會(huì)持續(xù)性阻塞,讀寫I/O完全跌0,avgqu-sz、awit巨大,util次序性100%,在這個(gè)I/O跌0的過(guò)程中,業(yè)務(wù)方反應(yīng)的TPS同時(shí)跌0。

此外,在大量寫入IO后很長(zhǎng)一段時(shí)間util又持續(xù)為0%,現(xiàn)象如下:

總體IO負(fù)載曲線如下:

從圖中可以看出IO很長(zhǎng)一段時(shí)間持續(xù)為0%,然后又飆漲到100%持續(xù)很長(zhǎng)時(shí)間,當(dāng)IO util達(dá)到100%后,分析日志發(fā)現(xiàn)又大量滿日志,同時(shí)mongostat監(jiān)控流量發(fā)現(xiàn)如下現(xiàn)象:

從上可以看出我們定時(shí)通過(guò)mongostat獲取某個(gè)節(jié)點(diǎn)的狀態(tài)的時(shí)候,經(jīng)常超時(shí),超時(shí)的時(shí)候剛好是io util=100%的時(shí)候,這時(shí)候IO跟不上客戶端寫入速度造成阻塞。

有了以上現(xiàn)象,我們可以確定問(wèn)題是由于IO跟不上客戶端寫入速度引起,第2章我們已經(jīng)做了mongodb服務(wù)層的優(yōu)化,現(xiàn)在我們開(kāi)始著手wiredtiger存儲(chǔ)引擎層面的優(yōu)化,主要通過(guò)以下幾個(gè)方面:

cachesize調(diào)整 臟數(shù)據(jù)淘汰比例調(diào)整 checkpoint優(yōu)化

2.3.1 cachesize調(diào)整優(yōu)化(為何cacheSize越大性能越差)

前面的IO分析可以看出,超時(shí)時(shí)間點(diǎn)和I/O阻塞跌0的時(shí)間點(diǎn)一致,因此如何解決I/O跌0成為了解決改問(wèn)題的關(guān)鍵所在。

找個(gè)集群平峰期(總tps50萬(wàn)/s)查看當(dāng)時(shí)該節(jié)點(diǎn)的TPS,發(fā)現(xiàn)TPS不是很高,單個(gè)分片也就3-4萬(wàn)左右,為何會(huì)有大量的刷盤,瞬間能夠達(dá)到10G/S,造成IO util持續(xù)性跌0(因?yàn)镮O跟不上寫入速度)。

繼續(xù)分析wiredtiger存儲(chǔ)引擎刷盤實(shí)現(xiàn)原理,wiredtiger存儲(chǔ)引擎是一種B+樹(shù)存儲(chǔ)引擎,mongodb文檔首先轉(zhuǎn)換為KV寫入wiredtiger,在寫入過(guò)程中,內(nèi)存會(huì)越來(lái)越大,當(dāng)內(nèi)存中臟數(shù)據(jù)和內(nèi)存總占用率達(dá)到一定比例,就開(kāi)始刷盤。同時(shí)當(dāng)達(dá)到checkpoint限制也會(huì)觸發(fā)刷盤操作,查看任意一個(gè)mongod節(jié)點(diǎn)進(jìn)程狀態(tài),發(fā)現(xiàn)消耗的內(nèi)存過(guò)多,達(dá)到110G,如下圖所示:

于是查看mongod.conf配置文件,發(fā)現(xiàn)配置文件中配置的cacheSizeGB: 110G,可以看出,存儲(chǔ)引擎中KV總量幾乎已經(jīng)達(dá)到110G,按照5%臟頁(yè)開(kāi)始刷盤的比例,峰值情況下cachesSize設(shè)置得越大,里面得臟數(shù)據(jù)就會(huì)越多,而磁盤IO能力跟不上臟數(shù)據(jù)得產(chǎn)生速度,這種情況很可能就是造成磁盤I/O瓶頸寫滿,并引起I/O跌0的原因。

此外,查看該機(jī)器的內(nèi)存,可以看到內(nèi)存總大小為190G,其中已經(jīng)使用110G左右,幾乎是mongod的存儲(chǔ)引起占用,這樣會(huì)造成內(nèi)核態(tài)的page cache減少,大量寫入的時(shí)候內(nèi)核cache不足就會(huì)引起磁盤缺頁(yè)中斷,引起大量的寫盤。

解決辦法:通過(guò)上面的分析問(wèn)題可能是大量寫入的場(chǎng)景,臟數(shù)據(jù)太多容易造成一次性大量I/O寫入,于是我們可以考慮把存儲(chǔ)引起cacheSize調(diào)小到50G,來(lái)減少同一時(shí)刻I/O寫入的量,從而規(guī)避峰值情況下一次性大量寫入的磁盤I/O打滿阻塞問(wèn)題。

2.3.2 存儲(chǔ)引擎dirty臟數(shù)據(jù)淘汰優(yōu)化

調(diào)整cachesize大小解決了5s請(qǐng)求超時(shí)問(wèn)題,對(duì)應(yīng)告警也消失了,但是問(wèn)題還是存在,5S超時(shí)消失了,1s超時(shí)問(wèn)題還是偶爾會(huì)出現(xiàn)。

因此如何在調(diào)整cacheSize的情況下進(jìn)一步規(guī)避I/O大量寫的問(wèn)題成為了問(wèn)題解決的關(guān)鍵,進(jìn)一步分析存儲(chǔ)引擎原理,如何解決內(nèi)存和I/O的平衡關(guān)系成為了問(wèn)題解決的關(guān)鍵,mongodb默認(rèn)存儲(chǔ)因?yàn)閣iredtiger的cache淘汰策略相關(guān)的幾個(gè)配置如下:

調(diào)整cacheSize從120G到50G后,如果臟數(shù)據(jù)比例達(dá)到5%,則極端情況下如果淘汰速度跟不上客戶端寫入速度,這樣還是容易引起I/O瓶頸,最終造成阻塞。

解決辦法:如何進(jìn)一步減少持續(xù)性I/O寫入,也就是如何平衡cache內(nèi)存和磁盤I/O的關(guān)系成為問(wèn)題關(guān)鍵所在。

從上表中可以看出,如果臟數(shù)據(jù)及總內(nèi)占用存達(dá)到一定比例,后臺(tái)線程開(kāi)始選擇page進(jìn)行淘汰寫盤,如果臟數(shù)據(jù)及內(nèi)存占用比例進(jìn)一步增加,那么用戶線程就會(huì)開(kāi)始做page淘汰,這是個(gè)非常危險(xiǎn)的阻塞過(guò)程,造成用戶請(qǐng)求驗(yàn)證阻塞。

平衡cache和I/O的方法: 調(diào)整淘汰策略,讓后臺(tái)線程盡早淘汰數(shù)據(jù),避免大量刷盤,同時(shí)降低用戶線程閥值,避免用戶線程進(jìn)行page淘汰引起阻塞。

優(yōu)化調(diào)整存儲(chǔ)引起配置如下:

eviction_target: 75%   eviction_trigger:97%   eviction_dirty_target: %3   eviction_dirty_trigger:25%   evict.threads_min:8   evict.threads_min:12

總體思想是讓后臺(tái)evict盡量早點(diǎn)淘汰臟頁(yè)page到磁盤,同時(shí)調(diào)整evict淘汰線程數(shù)來(lái)加快臟數(shù)據(jù)淘汰,調(diào)整后mongostat及客戶端超時(shí)現(xiàn)象進(jìn)一步緩解。

2.3.3 存儲(chǔ)引擎checkpoint優(yōu)化調(diào)整

存儲(chǔ)引擎得checkpoint檢測(cè)點(diǎn),實(shí)際上就是做快照,把當(dāng)前存儲(chǔ)引擎的臟數(shù)據(jù)全部記錄到磁盤。觸發(fā)checkpoint的條件默認(rèn)又兩個(gè),觸發(fā)條件如下:

固定周期做一次checkpoint快照,默認(rèn)60s  
增量的redo log(也就是journal日志)達(dá)到2G

當(dāng)journal日志達(dá)到2G或者redo log沒(méi)有達(dá)到2G并且距離上一次時(shí)間間隔達(dá)到60s,wiredtiger將會(huì)觸發(fā)checkpoint,如果在兩次checkpoint的時(shí)間間隔類evict淘汰線程淘汰的dirty page越少,那么積壓的臟數(shù)據(jù)就會(huì)越多,也就是checkpoint的時(shí)候臟數(shù)據(jù)就會(huì)越多,造成checkpoint的時(shí)候大量的IO寫盤操作。如果我們把checkpoint的周期縮短,那么兩個(gè)checkpoint期間的臟數(shù)據(jù)相應(yīng)的也就會(huì)減少,磁盤IO 100%持續(xù)的時(shí)間也就會(huì)縮短。

checkpoint調(diào)整后的值如下:

checkpoint=(wait=25,log_size=1GB)

2.3.4 存儲(chǔ)引擎優(yōu)化前后IO對(duì)比

通過(guò)上面三個(gè)方面的存儲(chǔ)引擎優(yōu)化后,磁盤IO開(kāi)始平均到各個(gè)不同的時(shí)間點(diǎn),iostat監(jiān)控優(yōu)化后的IO負(fù)載如下:

從上面的io負(fù)載圖可以看出,之前的IO一會(huì)兒為0%,一會(huì)兒100%現(xiàn)象有所緩解,總結(jié)如下圖所示:

2.3.5 存儲(chǔ)引擎優(yōu)化前后時(shí)延對(duì)比

優(yōu)化前后時(shí)延對(duì)比如下(注: 該集群有幾個(gè)業(yè)務(wù)同時(shí)使用,優(yōu)化前后時(shí)延對(duì)比如下):

從上圖可以看出,存儲(chǔ)引擎優(yōu)化后時(shí)間延遲進(jìn)一步降低并趨于平穩(wěn),從平均80ms到平均20ms左右,但是還是不完美,有抖動(dòng)。

3 服務(wù)器系統(tǒng)磁盤IO問(wèn)題解決


3.1 服務(wù)器IO硬件問(wèn)題背景

如第3節(jié)所述,當(dāng)wiredtiger大量淘汰數(shù)據(jù)后,發(fā)現(xiàn)只要每秒磁盤寫入量超過(guò)500M/s,接下來(lái)的幾秒鐘內(nèi)util就會(huì)持續(xù)100%,w/s幾乎跌0,于是開(kāi)始懷疑磁盤硬件存在缺陷。

從上圖可以看出磁盤為nvMe的ssd盤,查看相關(guān)數(shù)據(jù)可以看出該盤IO性能很好,支持每秒2G寫入,iops能達(dá)到2.5W/S,而我們線上的盤只能每秒寫入最多500M。

3.2 服務(wù)器IO硬件問(wèn)題解決后性能對(duì)比

于是考慮把該分片集群的主節(jié)點(diǎn)全部遷移到另一款服務(wù)器,該服務(wù)器也是ssd盤,io性能達(dá)到2G/s寫入(注意:只遷移了主節(jié)點(diǎn),從節(jié)點(diǎn)還是在之前的IO-500M/s的服務(wù)器)。遷移完成后,發(fā)現(xiàn)性能得到了進(jìn)一步提升,時(shí)延遲降低到2-4ms/s,三個(gè)不同業(yè)務(wù)層面看到的時(shí)延監(jiān)控如下圖所示:

從上圖時(shí)延可以看出,遷移主節(jié)點(diǎn)到IO能力更好的機(jī)器后,時(shí)延進(jìn)一步降低到平均2-4ms。

雖然時(shí)延降低到了平均2-4ms,但是還是有很多幾十ms的尖刺,鑒于篇幅將在下一期分享大家原因,最終保存所有時(shí)延控制在5ms以內(nèi),并消除幾十ms的尖刺。

此外,nvme的ssd io瓶頸問(wèn)題原因,經(jīng)過(guò)和廠商確認(rèn)分析,最終定位到是linux內(nèi)核版本不匹配引起,如果大家nvme ssd盤有同樣問(wèn)題,記得升級(jí)linux版本到3.10.0-957.27.2.el7.x86_64版本,升級(jí)后nvme ssd的IO能力達(dá)到2G/s以上寫入。

4 總結(jié)及遺留問(wèn)題

通過(guò)mongodb服務(wù)層配置優(yōu)化、存儲(chǔ)引擎優(yōu)化、硬件IO提升三方面的優(yōu)化后,該大流量寫入集群的平均時(shí)延從之前的平均數(shù)百ms降低到了平均2-4ms,整體性能提升數(shù)十倍,效果明顯。

但是,從4.2章節(jié)優(yōu)化后的時(shí)延可以看出,集群偶爾還是會(huì)有抖動(dòng),鑒于篇幅,下期會(huì)分享如果消除4.2章節(jié)中的時(shí)延抖動(dòng),最終保持時(shí)間完全延遲控制在2-4ms,并且無(wú)任何超過(guò)10ms的抖動(dòng)。

注意: 文章中的一些優(yōu)化方法并不是一定適用于所有mongodb場(chǎng)景,請(qǐng)根據(jù)實(shí)際業(yè)務(wù)場(chǎng)景和硬件資源能力進(jìn)行優(yōu)化,而不是按部就班。

看完上述內(nèi)容是否對(duì)您有幫助呢?如果還想對(duì)相關(guān)知識(shí)有進(jìn)一步的了解或閱讀更多相關(guān)文章,請(qǐng)關(guān)注億速云行業(yè)資訊頻道,感謝您對(duì)億速云的支持。

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI