溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Netty 防止內(nèi)存泄漏措施

發(fā)布時間:2020-06-26 02:33:19 來源:網(wǎng)絡(luò) 閱讀:2680 作者:UMUTech 欄目:編程語言
  1. 背景
    1.1 直播平臺內(nèi)存泄漏問題
    某直播平臺,一些網(wǎng)紅的直播間在業(yè)務(wù)高峰期,會有 10W+ 的粉絲接入,如果瞬間發(fā)生大量客戶端連接掉線、或者一些客戶端網(wǎng)絡(luò)比較慢,發(fā)現(xiàn)基于 Netty 構(gòu)建的服務(wù)端內(nèi)存會飆升,發(fā)生內(nèi)存泄漏(OOM),導(dǎo)致直播卡頓、或者客戶端接收不到服務(wù)端推送的消息,用戶體驗受到很大影響。

1.2 問題分析
首先對 GC 數(shù)據(jù)進行分析,發(fā)現(xiàn)老年代已滿,發(fā)生多次 Full GC,耗時達 3 分多,系統(tǒng)已經(jīng)無法正常運行(示例):
Netty 防止內(nèi)存泄漏措施

圖 1 直播高峰期服務(wù)端 GC 統(tǒng)計數(shù)據(jù)
Dump 內(nèi)存堆棧進行分析,發(fā)現(xiàn)大量的發(fā)送任務(wù)堆積,導(dǎo)致內(nèi)存溢出(示例):
Netty 防止內(nèi)存泄漏措施

圖 2 直播高峰期服務(wù)端內(nèi)存 Dump 文件分析
通過以上分析可以看出,在直播高峰期,服務(wù)端向上萬客戶端推送消息時,發(fā)生了發(fā)送隊列積壓,引起內(nèi)存泄漏,最終導(dǎo)致服務(wù)端頻繁 GC,無法正常處理業(yè)務(wù)。

1.3 解決策略
服務(wù)端在進行消息發(fā)送的時候做保護,具體策略如下:

根據(jù)可接入的最大用戶數(shù)做客戶端并發(fā)接入數(shù)流控,需要根據(jù)內(nèi)存、CPU 處理能力,以及性能測試結(jié)果做綜合評估。

設(shè)置消息發(fā)送的高低水位,針對消息的平均大小、客戶端并發(fā)接入數(shù)、JVM 內(nèi)存大小進行計算,得出一個合理的高水位取值。服務(wù)端在推送消息時,對 Channel 的狀態(tài)進行判斷,如果達到高水位之后,Channel 的狀態(tài)會被 Netty 置為不可寫,此時服務(wù)端不要繼續(xù)發(fā)送消息,防止發(fā)送隊列積壓。

服務(wù)端基于上述策略優(yōu)化了代碼,內(nèi)存泄漏問題得到解決。

1.4. 總結(jié)
盡管 Netty 框架本身做了大量的可靠性設(shè)計,但是對于具體的業(yè)務(wù)場景,仍然需要用戶做針對特定領(lǐng)域和場景的可靠性設(shè)計,這樣才能提升應(yīng)用的可靠性。

除了消息發(fā)送積壓導(dǎo)致的內(nèi)存泄漏,Netty 還有其它常見的一些內(nèi)存泄漏點,本文將針對這些可能導(dǎo)致內(nèi)存泄漏的功能點進行分析和總結(jié)。

  1. 消息收發(fā)防內(nèi)存泄漏策略
    2.1. 消息接收
    2.1.1 消息讀取
    Netty 的消息讀取并不存在消息隊列,但是如果消息解碼策略不當,則可能會發(fā)生內(nèi)存泄漏,主要有如下幾點:

  2. 畸形碼流***:如果客戶端按照協(xié)議規(guī)范,將消息長度值故意偽造的非常大,可能會導(dǎo)致接收方內(nèi)存溢出。

  3. 代碼 BUG:錯誤的將消息長度字段設(shè)置或者編碼成一個非常大的值,可能會導(dǎo)致對方內(nèi)存溢出。

  4. 高并發(fā)場景:單個消息長度比較大,例如幾十 M 的小視頻,同時并發(fā)接入的客戶端過多,會導(dǎo)致所有 Channel 持有的消息接收 ByteBuf 內(nèi)存總和達到上限,發(fā)生 OOM。

避免內(nèi)存泄漏的策略如下:

無論采用哪種×××實現(xiàn),都對消息的最大長度做限制,當超過限制之后,拋出解碼失敗異常,用戶可以選擇忽略當前已經(jīng)讀取的消息,或者直接關(guān)閉鏈接。
以 Netty 的 DelimiterBasedFrameDecoder 代碼為例,創(chuàng)建 DelimiterBasedFrameDecoder 對象實例時,指定一個比較合理的消息最大長度限制,防止內(nèi)存溢出:

 復(fù)制代碼

/**
{1}

  • Creates a new instance.
    {1}
  • {1}
    *@parammaxFrameLength the maximum length of the decoded frame.
    {1}

  • A {@linkTooLongFrameException} is thrown if
    {1}
  • the length of the frame exceeds this value.
    {1}
    *@paramstripDelimiter whether the decoded frame should strip out the
    {1}
  • delimiter or not
    {1}
    @paramdelimiter the delimiter
    {1}
    /

publicDelimiterBasedFrameDecoder(

intmaxFrameLength,booleanstripDelimiter, ByteBuf delimiter) {

this(maxFrameLength, stripDelimiter,true, delimiter);

}
需要根據(jù)單個 Netty 服務(wù)端可以支持的最大客戶端并發(fā)連接數(shù)、消息的最大長度限制以及當前 JVM 配置的最大內(nèi)存進行計算,并結(jié)合業(yè)務(wù)場景,合理設(shè)置 maxFrameLength 的取值。
2.1.2 ChannelHandler 的并發(fā)執(zhí)行
Netty 的 ChannelHandler 支持串行和異步并發(fā)執(zhí)行兩種策略,在將 ChannelHandler 加入到 ChannelPipeline 時,如果指定了 EventExecutorGroup,則 ChannelHandler 將由 EventExecutorGroup 中的 EventExecutor 異步執(zhí)行。這樣的好處是可以實現(xiàn) Netty I/O 線程與業(yè)務(wù) ChannelHandler 邏輯執(zhí)行的分離,防止 ChannelHandler 中耗時業(yè)務(wù)邏輯的執(zhí)行阻塞 I/O 線程。

ChannelHandler 異步執(zhí)行的流程如下所示:
Netty 防止內(nèi)存泄漏措施

圖 3 ChannelHandler 異步并發(fā)執(zhí)行流程
如果業(yè)務(wù) ChannelHandler 中執(zhí)行的業(yè)務(wù)邏輯耗時較長,消息的讀取速度又比較快,很容易發(fā)生消息在 EventExecutor 中積壓的問題,如果創(chuàng)建 EventExecutor 時沒有通過 io.netty.eventexecutor.maxPendingTasks 參數(shù)指定積壓的最大消息個數(shù),則默認取值為 0x7fffffff,長時間的積壓將導(dǎo)致內(nèi)存溢出,相關(guān)代碼如下所示(異步執(zhí)行 ChannelHandler,將消息封裝成 Task 加入到 taskQueue 中):

 復(fù)制代碼

public void execute(Runnable task) {

if(task==null) {

thrownewNullPointerException("task");

}

boolean inEventLoop =inEventLoop();

if(inEventLoop) {

addTask(task);

}else{

startThread();

addTask(task);

if(isShutdown()&&removeTask(task)) {

reject();

}

}
解決對策:對 EventExecutor 中任務(wù)隊列的容量做限制,可以通過 io.netty.eventexecutor.maxPendingTasks 參數(shù)做全局設(shè)置,也可以通過構(gòu)造方法傳參設(shè)置。結(jié)合 EventExecutorGroup 中 EventExecutor 的個數(shù)來計算 taskQueue 的個數(shù),根據(jù) taskQueue N 任務(wù)隊列平均大小 maxPendingTasks < 系數(shù) K(0 < K < 1) 總內(nèi)存的公式來進行計算和評估。

2.2. 消息發(fā)送
2.2.1 如何防止發(fā)送隊列積壓
為了防止高并發(fā)場景下,由于對方處理慢導(dǎo)致自身消息積壓,除了服務(wù)端做流控之外,客戶端也需要做并發(fā)保護,防止自身發(fā)生消息積壓。

利用 Netty 提供的高低水位機制,可以實現(xiàn)客戶端更精準的流控,它的工作原理如下:

Netty 防止內(nèi)存泄漏措施
圖 4 Netty 高水位接口說明
當發(fā)送隊列待發(fā)送的字節(jié)數(shù)組達到高水位上限時,對應(yīng)的 Channel 就變?yōu)椴豢蓪憼顟B(tài)。由于高水位并不影響業(yè)務(wù)線程調(diào)用 write 方法并把消息加入到待發(fā)送隊列中,因此,必須要在消息發(fā)送時對 Channel 的狀態(tài)進行判斷:當?shù)竭_高水位時,Channel 的狀態(tài)被設(shè)置為不可寫,通過對 Channel 的可寫狀態(tài)進行判斷來決定是否發(fā)送消息。

在消息發(fā)送時設(shè)置高低水位并對 Channel 狀態(tài)進行判斷,相關(guān)代碼示例如下:

 復(fù)制代碼

public void channelActive(finalChannelHandlerContextctx){

ctx.channel().config().setWriteBufferHighWaterMark(10 *1024*1024);

loadRunner =newRunnable(){

@Override

public void run(){

try{

TimeUnit.SECONDS.sleep(30);

} catch (InterruptedException e) {

e.printStackTrace();

}

ByteBuf msg = null;

while(true) {

if(ctx.channel().isWritable()) {

msg =Unpooled.wrappedBuffer("Netty OOM Example".getBytes());

ctx.writeAndFlush(msg);

}else{

LOG.warning("The write queue is busy : "+ ctx.channel().unsafe().outboundBuffer().nioBufferSize());

}

}

}

};

newThread(loadRunner,"LoadRunner-Thread").start();

}
對上述代碼做驗證,客戶端代碼中打印隊列積壓相關(guān)日志,說明基于高水位的流控機制生效,日志如下:

警告: The write queue is busy : 17
通過內(nèi)存監(jiān)控,發(fā)現(xiàn)內(nèi)存占用平穩(wěn):
Netty 防止內(nèi)存泄漏措施

圖 5 進行高低水位保護優(yōu)化之后內(nèi)存占用情況
在實際項目中,根據(jù)業(yè)務(wù) QPS 規(guī)劃、客戶端處理性能、網(wǎng)絡(luò)帶寬、鏈路數(shù)、消息平均碼流大小等綜合因素計算并設(shè)置高水位(WriteBufferHighWaterMark)閾值,利用高水位做消息發(fā)送速率的流控,既可以保護自身,同時又能減輕服務(wù)端的壓力,防止服務(wù)端被壓掛。

2.2.2 其它可能導(dǎo)致發(fā)送隊列積壓的因素
需要指出的是,并非只有高并發(fā)場景才會觸發(fā)消息積壓,在一些異常場景下,盡管系統(tǒng)流量不大,但仍然可能會導(dǎo)致消息積壓,可能的場景包括:

網(wǎng)絡(luò)瓶頸,發(fā)送速率超過網(wǎng)絡(luò)鏈接處理能力時,會導(dǎo)致發(fā)送隊列積壓。

對端讀取速度小于己方發(fā)送速度,導(dǎo)致自身 TCP 發(fā)送緩沖區(qū)滿,頻繁發(fā)生 write 0 字節(jié)時,待發(fā)送消息會在 Netty 發(fā)送隊列排隊。

當出現(xiàn)大量排隊時,很容易導(dǎo)致 Netty 的直接內(nèi)存泄漏,示例如下:

Netty 防止內(nèi)存泄漏措施
圖 6 消息積壓導(dǎo)致內(nèi)存泄漏相關(guān)堆棧
我們在設(shè)計系統(tǒng)時,需要根據(jù)業(yè)務(wù)的場景、所處的網(wǎng)絡(luò)環(huán)境等因素進行綜合設(shè)計,為潛在的各種故障做容錯和保護,防止因為外部因素導(dǎo)致自身發(fā)生內(nèi)存泄漏。

  1. ByteBuf 的申請和釋放策略
    3.1 ByteBuf 申請和釋放的理解誤區(qū)
    有一種說法認為 Netty 框架分配的 ByteBuf 框架會自動釋放,業(yè)務(wù)不需要釋放;業(yè)務(wù)創(chuàng)建的 ByteBuf 則需要自己釋放,Netty 框架不會釋放。

事實上,這種觀點是錯誤的,即便 ByteBuf 是 Netty 創(chuàng)建的,如果使用不當仍然會發(fā)生內(nèi)存泄漏。在實際項目中如何更好的管理 ByteBuf,下面我們分四種場景進行說明。

3.2 ByteBuf 的釋放策略
3.2.1 基于內(nèi)存池的請求 ByteBuf
這類 ByteBuf 主要包括 PooledDirectByteBuf 和 PooledHeapByteBuf,它由 Netty 的 NioEventLoop 線程在處理 Channel 的讀操作時分配,需要在業(yè)務(wù) ChannelInboundHandler 處理完請求消息之后釋放(通常是解碼之后),它的釋放有 2 種策略:

策略 1:業(yè)務(wù) ChannelInboundHandler 繼承自 SimpleChannelInboundHandler,實現(xiàn)它的抽象方法 channelRead0(ChannelHandlerContext ctx, I msg),ByteBuf 的釋放業(yè)務(wù)不用關(guān)心,由 SimpleChannelInboundHandler 負責釋放,相關(guān)代碼如下所示(SimpleChannelInboundHandler):
 復(fù)制代碼

@Override

public void channelRead(ChannelHandlerContextctx, Objectmsg)throws Exception {

boolean release =true;

try{

if(acceptInboundMessage(msg)) {

I imsg = (I) msg;

channelRead0(ctx,imsg);

}else{

release =false;

ctx.fireChannelRead(msg);

}

} finally {

if(autoRelease&&release) {

ReferenceCountUtil.release(msg);

}

}

}
如果當前業(yè)務(wù) ChannelInboundHandler 需要執(zhí)行,則調(diào)用完 channelRead0 之后執(zhí)行 ReferenceCountUtil.release(msg) 釋放當前請求消息。如果沒有匹配上需要繼續(xù)執(zhí)行后續(xù)的 ChannelInboundHandler,則不釋放當前請求消息,調(diào)用 ctx.fireChannelRead(msg) 驅(qū)動 ChannelPipeline 繼續(xù)執(zhí)行。

繼承自 SimpleChannelInboundHandler,即便業(yè)務(wù)不釋放請求 ByteBuf 對象,依然不會發(fā)生內(nèi)存泄漏,相關(guān)示例代碼如下所示:

 復(fù)制代碼

publiccla***outerServerHandlerV2extendsSimpleChannelInboundHandler<ByteBuf>{

// 代碼省略...

@Override

publicvoidchannelRead0(ChannelHandlerContext ctx, ByteBuf msg){

byte[] body =newbyte[msg.readableBytes()];

executorService.execute(()->

{

// 解析請求消息,做路由轉(zhuǎn)發(fā),代碼省略...

// 轉(zhuǎn)發(fā)成功,返回響應(yīng)給客戶端

ByteBuf respMsg = allocator.heapBuffer(body.length);

respMsg.writeBytes(body);// 作為示例,簡化處理,將請求返回

ctx.writeAndFlush(respMsg);

});

}
對上述代碼做性能測試,發(fā)現(xiàn)內(nèi)存占用平穩(wěn),無內(nèi)存泄漏問題,驗證了之前的分析結(jié)論。

策略 2:在業(yè)務(wù) ChannelInboundHandler 中調(diào)用 ctx.fireChannelRead(msg) 方法,讓請求消息繼續(xù)向后執(zhí)行,直到調(diào)用到 DefaultChannelPipeline 的內(nèi)部類 TailContext,由它來負責釋放請求消息,代碼如下所示(TailContext):
 復(fù)制代碼

protectedvoidonUnhandledInboundMessage(Object msg){

try{

logger.debug(

"Discarded inbound message {} that reached at the tail of the pipeline. "+

"Please check your pipeline configuration.", msg);

}finally{

ReferenceCountUtil.release(msg);

}

}
3.2.2 基于非內(nèi)存池的請求 ByteBuf
如果業(yè)務(wù)使用非內(nèi)存池模式覆蓋 Netty 默認的內(nèi)存池模式創(chuàng)建請求 ByteBuf,例如通過如下代碼修改內(nèi)存申請策略為 Unpooled:

 復(fù)制代碼

// 代碼省略...

.childHandler(newChannelInitializer<SocketChannel>() {

@Override

publicvoidinitChannel(SocketChannel ch)throwsException{

ChannelPipeline p = ch.pipeline(); ch.config().setAllocator(UnpooledByteBufAllocator.DEFAULT);

p.addLast(newRouterServerHandler());

}

});

}
也需要按照內(nèi)存池的方式去釋放內(nèi)存。

3.2.3 基于內(nèi)存池的響應(yīng) ByteBuf
只要調(diào)用了 writeAndFlush 或者 flush 方法,在消息發(fā)送完成之后都會由 Netty 框架進行內(nèi)存釋放,業(yè)務(wù)不需要主動釋放內(nèi)存。

它的工作原理如下:

調(diào)用 ctx.writeAndFlush(respMsg) 方法,當消息發(fā)送完成之后,Netty 框架會主動幫助應(yīng)用來釋放內(nèi)存,內(nèi)存的釋放分為兩種場景:

如果是堆內(nèi)存(PooledHeapByteBuf),則將 HeapByteBuffer 轉(zhuǎn)換成 DirectByteBuffer,并釋放 PooledHeapByteBuf 到內(nèi)存池,代碼如下(AbstractNioChannel 類):
 復(fù)制代碼

protected final ByteBufnewDirectBuffer(ByteBufbuf){

? finalintreadableBytes = buf.readableBytes();

?if(readableBytes==0) {

? ReferenceCountUtil.safeRelease(buf);

? return Unpooled.EMPTY_BUFFER;

? }

? final ByteBufAllocator alloc = alloc();

?if(alloc.isDirectBufferPooled()) {

? ByteBuf directBuf = alloc.directBuffer(readableBytes);

? directBuf.writeBytes(buf,buf.readerIndex(), readableBytes);

? ReferenceCountUtil.safeRelease(buf);

? return directBuf;

? } }

// 后續(xù)代碼省略

}
如果消息完整的被寫到 SocketChannel 中,則釋放 DirectByteBuffer,代碼如下(ChannelOutboundBuffer)所示:

 復(fù)制代碼

public boolean remove(){

? Entry e = flushedEntry;

?if(e==null) {

? clearNioBuffers();

? returnfalse;

? }

? Object msg = e.msg;

? ChannelPromise promise = e.promise;

?intsize = e.pendingSize;

? removeEntry(e);

?if(!e.cancelled) {

? ReferenceCountUtil.safeRelease(msg);

? safeSuccess(promise);

? decrementPendingOutboundBytes(size,false,true);

? }

// 后續(xù)代碼省略

}
對 Netty 源碼進行斷點調(diào)試,驗證上述分析:

斷點 1:在響應(yīng)消息發(fā)送處打印斷點,獲取到 PooledUnsafeHeapByteBuf 實例 ID 為 1506。
Netty 防止內(nèi)存泄漏措施

圖 7 響應(yīng)發(fā)送處斷點調(diào)試
斷點 2:在 HeapByteBuffer 轉(zhuǎn)換成 DirectByteBuffer 處打斷點,發(fā)現(xiàn)實例 ID 為 1506 的 PooledUnsafeHeapByteBuf 被釋放。

Netty 防止內(nèi)存泄漏措施
圖 8 響應(yīng)消息釋放處斷點
斷點 3:轉(zhuǎn)換之后待發(fā)送的響應(yīng)消息 PooledUnsafeDirectByteBuf 實例 ID 為 1527。
Netty 防止內(nèi)存泄漏措施

圖 9 響應(yīng)消息轉(zhuǎn)換處斷點
斷點 4:響應(yīng)消息發(fā)送完成之后,實例 ID 為 1527 的 PooledUnsafeDirectByteBuf 被釋放到內(nèi)存池。
Netty 防止內(nèi)存泄漏措施

圖 10 轉(zhuǎn)換之后的響應(yīng)消息釋放處斷點
如果是 DirectByteBuffer,則不需要轉(zhuǎn)換,當消息發(fā)送完成之后,由 ChannelOutboundBuffer 的 remove() 負責釋放。
3.2.4 基于非內(nèi)存池的響應(yīng) ByteBuf
無論是基于內(nèi)存池還是非內(nèi)存池分配的 ByteBuf,如果是堆內(nèi)存,則將堆內(nèi)存轉(zhuǎn)換成堆外內(nèi)存,然后釋放 HeapByteBuffer,待消息發(fā)送完成之后,再釋放轉(zhuǎn)換后的 DirectByteBuf;如果是 DirectByteBuffer,則無需轉(zhuǎn)換,待消息發(fā)送完成之后釋放。因此對于需要發(fā)送的響應(yīng) ByteBuf,由業(yè)務(wù)創(chuàng)建,但是不需要業(yè)務(wù)來釋放。

  1. Netty 服務(wù)端高并發(fā)保護
    4.1 高并發(fā)場景下的 OOM 問題
    在 RPC 調(diào)用時,如果客戶端并發(fā)連接數(shù)過多,服務(wù)端又沒有針對并發(fā)連接數(shù)的流控機制,一旦服務(wù)端處理慢,就很容易發(fā)生批量超時和斷連重連問題。

以 Netty HTTPS 服務(wù)端為例,典型的業(yè)務(wù)組網(wǎng)示例如下所示:

Netty 防止內(nèi)存泄漏措施
圖 11 Netty HTTPS 組網(wǎng)圖
客戶端采用 HTTP 連接池的方式與服務(wù)端進行 RPC 調(diào)用,單個客戶端連接池上限為 200,客戶端部署了 30 個實例,而服務(wù)端只部署了 3 個實例。在業(yè)務(wù)高峰期,每個服務(wù)端需要處理 6000 個 HTTP 連接,當服務(wù)端時延增大之后,會導(dǎo)致客戶端批量超時,超時之后客戶端會關(guān)閉連接重新發(fā)起 connect 操作,在某個瞬間,幾千個 HTTPS 連接同時發(fā)起 SSL 握手操作,由于服務(wù)端此時也處于高負荷運行狀態(tài),就會導(dǎo)致部分連接 SSL 握手失敗或者超時,超時之后客戶端會繼續(xù)重連,進一步加重服務(wù)端的處理壓力,最終導(dǎo)致服務(wù)端來不及釋放客戶端 close 的連接,引起 NioSocketChannel 大量積壓,最終 OOM。

通過客戶端的運行日志可以看到一些 SSL 握手發(fā)生了超時,示例如下:
Netty 防止內(nèi)存泄漏措施

圖 12 SSL 握手超時日志
服務(wù)端并沒有對客戶端的連接數(shù)做限制,這會導(dǎo)致盡管 ESTABLISHED 狀態(tài)的連接數(shù)并不會超過 6000 上限,但是由于一些 SSL 連接握手失敗,再加上積壓在服務(wù)端的連接并沒有及時釋放,最終引起了 NioSocketChannel 的大量積壓。

4.2.Netty HTTS 并發(fā)連接數(shù)流控
在服務(wù)端增加對客戶端并發(fā)連接數(shù)的控制,原理如下所示:
Netty 防止內(nèi)存泄漏措施

圖 13 服務(wù)端 HTTS 連接數(shù)流控
基于 Netty 的 Pipeline 機制,可以對 SSL 握手成功、SSL 連接關(guān)閉做切面攔截(類似于 Spring 的 AOP 機制,但是沒采用反射機制,性能更高),通過流控切面接口,對 HTTPS 連接做計數(shù),根據(jù)計數(shù)器做流控,服務(wù)端的流控算法如下:

獲取流控閾值。

從全局上下文中獲取當前的并發(fā)連接數(shù),與流控閾值對比,如果小于流控閾值,則對當前的計數(shù)器做原子自增,允許客戶端連接接入。

如果等于或者大于流控閾值,則拋出流控異常給客戶端。

SSL 連接關(guān)閉時,獲取上下文中的并發(fā)連接數(shù),做原子自減。

在實現(xiàn)服務(wù)端流控時,需要注意如下幾點:

流控的 ChannelHandler 聲明為 @ChannelHandler.Sharable,這樣全局創(chuàng)建一個流控實例,就可以在所有的 SSL 連接中共享。

通過 userEventTriggered 方法攔截 SslHandshakeCompletionEvent 和 SslCloseCompletionEvent 事件,在 SSL 握手成功和 SSL 連接關(guān)閉時更新流控計數(shù)器。

流控并不是單針對 ESTABLISHED 狀態(tài)的 HTTP 連接,而是針對所有狀態(tài)的連接,因為客戶端關(guān)閉連接,并不意味著服務(wù)端也同時關(guān)閉了連接,只有 SslCloseCompletionEvent 事件觸發(fā)時,服務(wù)端才真正的關(guān)閉了 NioSocketChannel,GC 才會回收連接關(guān)聯(lián)的內(nèi)存。

流控 ChannelHandler 會被多個 NioEventLoop 線程調(diào)用,因此對于相關(guān)的計數(shù)器更新等操作,要保證并發(fā)安全性,避免使用全局鎖,可以通過原子類等提升性能。

  1. 總結(jié)
    5.1. 其它的防內(nèi)存泄漏措施
    5.1.1 NioEventLoop
    執(zhí)行它的 execute(Runnable task) 以及定時任務(wù)相關(guān)接口時,如果任務(wù)執(zhí)行耗時過長、任務(wù)執(zhí)行頻度過高,可能會導(dǎo)致任務(wù)隊列積壓,進而引起 OOM:

Netty 防止內(nèi)存泄漏措施
圖 14 NioEventLoop 定時任務(wù)執(zhí)行接口
建議業(yè)務(wù)在使用時,對 NioEventLoop 隊列的積壓情況進行采集和告警。

5.1.2 客戶端連接池
業(yè)務(wù)在初始化連接池時,如果采用每個客戶端連接對應(yīng)一個 EventLoopGroup 實例的方式,即每創(chuàng)建一個客戶端連接,就會同時創(chuàng)建一個 NioEventLoop 線程來處理客戶端連接以及后續(xù)的網(wǎng)絡(luò)讀寫操作,采用的策略是典型的 1 個 TCP 連接對應(yīng)一個 NIO 線程的模式。當系統(tǒng)的連接數(shù)很多、堆內(nèi)存又不足時,就會發(fā)生內(nèi)存泄漏或者線程創(chuàng)建失敗異常。問題示意如下:
Netty 防止內(nèi)存泄漏措施

圖 15 錯誤的客戶端線程模型
優(yōu)化策略:客戶端創(chuàng)建連接池時,EventLoopGroup 可以重用,優(yōu)化之后的連接池線程模型如下所示:
Netty 防止內(nèi)存泄漏措施

圖 16 正確的客戶端線程模型
5.2 內(nèi)存泄漏問題定位
5.2.1 堆內(nèi)存泄漏
通過 jmap -dump:format=b,file=xx pid 命令 Dump 內(nèi)存堆棧,然后使用 MemoryAnalyzer 工具對內(nèi)存占用進行分析,查找內(nèi)存泄漏點,然后結(jié)合代碼進行分析,定位內(nèi)存泄漏的具體原因,示例如下所示:
Netty 防止內(nèi)存泄漏措施

圖 17 通過 MemoryAnalyzer 工具分析內(nèi)存堆棧
5.2.2 堆外內(nèi)存泄漏
建議策略如下:

排查下業(yè)務(wù)代碼,看使用堆外內(nèi)存的地方是否存在忘記釋放問題。

如果使用到了 Netty 的 TLS/SSL/openssl,建議到 Netty 社區(qū)查下 BUG 列表,看是否是 Netty 老版本已知的 BUG,此類 BUG 通過升級 Netty 版本可以解決。

如果上述兩個步驟排查沒有結(jié)果,則可以通過 google-perftools 工具協(xié)助進行堆外內(nèi)存分析

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI