溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Disruptor的內存溢出實例分析

發(fā)布時間:2022-01-10 10:16:04 來源:億速云 閱讀:147 作者:柒染 欄目:大數(shù)據(jù)

Disruptor的內存溢出實例分析,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。

前言
OutOfMemoryError 問題相信很多朋友都遇到過,相對于常見的業(yè)務異常(數(shù)組越界、空指針等)來說這類問題是很難定位和解決的。

下面以最近碰到的一次線上內存溢出的定位、解決問題的方式展開。

主要從表現(xiàn)-->排查-->定位-->解決 四個步驟來分析和解決問題。

表象
最近我們生產上的一個應用不斷的爆出內存溢出,并且隨著業(yè)務量的增長出現(xiàn)的頻次越來越高。

該程序的業(yè)務邏輯非常簡單,就是從 Kafka 中將數(shù)據(jù)消費下來然后批量的做持久化操作。

而現(xiàn)象則是隨著 Kafka 的消息越多,出現(xiàn)的異常的頻次就越快。由于當時還有其他工作所以只能讓運維做重啟,并且監(jiān)控好堆內存以及 GC 情況。

重啟大法雖好,可是依然不能根本解決問題。

排查
于是我們想根據(jù)運維之前收集到的內存數(shù)據(jù)、GC 日志嘗試判斷哪里出現(xiàn)問題。

結果發(fā)現(xiàn)老年代的內存使用就算是發(fā)生 GC 也一直居高不下,而且隨著時間推移也越來越高。

結合 jstat 的日志發(fā)現(xiàn)就算是發(fā)生了 FGC 老年代也已經回收不了,內存已經到頂。

甚至有幾臺應用 FGC 達到了上百次,時間也高的可怕。

這說明應用的內存使用肯定是有問題的,有許多賴皮對象始終回收不掉。

定位
由于生產上的內存 dump 文件非常大,達到了幾十G。也是由于我們的內存設置太大有關。

所以導致想使用 MAT 分析需要花費大量時間。

因此我們便想是否可以在本地復現(xiàn),這樣就要好定位的多。

為了盡快的復現(xiàn)問題,我將本地應用最大堆內存設置為 150M。

然后在消費 Kafka 那里 Mock 為一個 while 循環(huán)一直不斷的生成數(shù)據(jù)。

同時當應用啟動之后利用 VisualVM 連上應用實時監(jiān)控內存、GC 的使用情況。

結果跑了 10 幾分鐘內存使用并沒有什么問題。根據(jù)圖中可以看出,每產生一次 GC 內存都能有效的回收,所以這樣并沒有復現(xiàn)問題。

沒法復現(xiàn)問題就很難定位了。于是我們 review 代碼,發(fā)現(xiàn)生產的邏輯和我們用 while 循環(huán) Mock 數(shù)據(jù)還不太一樣。

查看生產的日志發(fā)現(xiàn)每次從 Kafka 中取出的都是幾百條數(shù)據(jù),而我們 Mock 時每次只能產生一條。

為了盡可能的模擬生產情況便在服務器上跑著一個生產者程序,一直源源不斷的向 Kafka 中發(fā)送數(shù)據(jù)。

果然不出意外只跑了一分多鐘內存就頂不住了,觀察左圖發(fā)現(xiàn) GC 的頻次非常高,但是內存的回收卻是相形見拙。

同時后臺也開始打印內存溢出了,這樣便復現(xiàn)出問題。

解決
從目前的表現(xiàn)來看就是內存中有許多對象一直存在強引用關系導致得不到回收。

于是便想看看到底是什么對象占用了這么多的內存,利用 VisualVM 的 HeapDump 功能可以立即 dump 出當前應用的內存情況。

結果發(fā)現(xiàn) com.lmax.disruptor.RingBuffer 類型的對象占用了將近 50% 的內存。

看到這個包自然就想到了 Disruptor 環(huán)形隊列。

再次 review 代碼發(fā)現(xiàn):從 Kafka 里取出的 700 條數(shù)據(jù)是直接往 Disruptor 里丟的。

這里也就能說明為什么第一次模擬數(shù)據(jù)沒復現(xiàn)問題了。

模擬的時候是一個對象放進隊列里,而生產的情況是 700 條數(shù)據(jù)放進隊列里。這個數(shù)據(jù)量是 700 倍的差距。

而 Disruptor 作為一個環(huán)形隊列,再對象沒有被覆蓋之前是一直存在的。

我也做了一個實驗,證明確實如此。

我設置隊列大小為 8 ,從 0~9 往里面寫 10 條數(shù)據(jù),當寫到 8 的時候就會把之前 0 的位置覆蓋掉,后面的以此類推(類似于 HashMap 的取模定位)。

所以在生產上假設我們的隊列大小是 1024,那么隨著系統(tǒng)的運行最終肯定會導致 1024 個位置上裝滿了對象,而且每個位置是 700 個!

于是查看了生產上 Disruptor 的 RingBuffer 配置,結果是:1024*1024。

這個數(shù)量級就非常嚇人了。

為了驗證是否是這個問題,我在本地將該值換為 2 ,一個最小值試試。

同樣的 128M 內存,也是通過 Kafka 一直源源不斷的取出數(shù)據(jù)。通過監(jiān)控如下:

跑了 20 幾分鐘系統(tǒng)一切正常,每當一次 GC 都能回收大部分內存,最終呈現(xiàn)鋸齒狀。

這樣問題就找到了,不過生產上這個值具體設置多少還得根據(jù)業(yè)務情況測試才能知道,但原有的 1024*1024 是絕對不能再使用了。

雖然到了最后也就改了一行代碼(還沒改,直接修改配置),但這排查過程我覺得是有意義的。

也會讓大部分覺得 JVM 這樣的黑盒難以下手的同學有一個直觀的感受。

看完上述內容是否對您有幫助呢?如果還想對相關知識有進一步的了解或閱讀更多相關文章,請關注億速云行業(yè)資訊頻道,感謝您對億速云的支持。

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經查實,將立刻刪除涉嫌侵權內容。

AI