溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

高級Java研發(fā)人員在解決大數(shù)據(jù)問題上的技巧

發(fā)布時間:2020-05-01 08:15:49 來源:網(wǎng)絡(luò) 閱讀:822 作者:風火9527 欄目:大數(shù)據(jù)

眾所周知, Java 在處理數(shù)據(jù)量比較大的時候,加載到內(nèi)存必然會導(dǎo)致內(nèi)存溢出,而在一些數(shù)據(jù)處理中我們不得不去處理海量數(shù)據(jù),在做數(shù)據(jù)處理中,我們常見的手段是分解,壓縮,并行,臨時文件等方法;

高級Java研發(fā)人員在解決大數(shù)據(jù)問題上的技巧cdn.xitu.io/2018/7/23/164c5afdf20d4a8c?imageView2/0/w/1280/h/960/format/webp/ignore-error/1">


例如,我們要將 數(shù)據(jù)庫 (不論是什么數(shù)據(jù)庫)的數(shù)據(jù)導(dǎo)出到一個文件,一般是Excel或文本格式的CSV;對于Excel來講,對于POI和JXL的接口,你很多時候沒有辦法去控制內(nèi)存什么時候向磁盤寫入,很惡心,而且這些API在內(nèi)存構(gòu)造的對象大小將比數(shù)據(jù)原有的大小要大很多倍數(shù),所以你不得不去拆分Excel,還好,POI開始意識到這個問題,在3.8.4的版本后,開始提供cache的行數(shù),提供了SXSSFWorkbook的接口,可以設(shè)置在內(nèi)存中的行數(shù),不過可惜的是,他當你超過這個行數(shù),每添加一行,它就將相對行數(shù)前面的一行寫入磁盤(如你設(shè)置2000行的話,當你寫第20001行的時候,他會將第一行寫入磁盤),其實這個時候他些的臨時文件,以至于不消耗內(nèi)存,不過這樣你會發(fā)現(xiàn),刷磁盤的頻率會非常高,我們的確不想這樣,因為我們想讓他達到一個范圍一次性將數(shù)據(jù)刷如磁盤,比如一次刷1M之類的做法,可惜現(xiàn)在還沒有這種API,很痛苦,我自己做過測試,通過寫小的Excel比使用目前提供刷磁盤的API來寫大文件,效率要高一些,而且這樣如果訪問的人稍微多一些磁盤IO可能會扛不住,因為IO資源是非常有限的,所以還是拆文件才是上策;而當我們寫CSV,也就是文本類型的文件,我們很多時候是可以自己控制的,不過你不要用CSV自己提供的API,也是不太可控的,CSV本身就是文本文件,你按照文本格式寫入即可被CSV識別出來;如何寫入呢?下面來說說。。。

在處理數(shù)據(jù)層面,如從數(shù)據(jù)庫中讀取數(shù)據(jù),生成本地文件,寫代碼為了方便,我們未必要1M怎么來處理,這個交給底層的驅(qū)動程序去拆分,對于我們的程序來講我們認為它是連續(xù)寫即可;我們比如想將一個1000W數(shù)據(jù)的數(shù)據(jù)庫表,導(dǎo)出到文件;此時,你要么進行分頁,oracle當然用三層包裝即可, MySQL 用limit,不過分頁每次都會新的查詢,而且隨著翻頁,會越來越慢,其實我們想拿到一個句柄,然后向下游動,編譯一部分數(shù)據(jù)(如10000行)將寫文件一次(寫文件細節(jié)不多說了,這個是最基本的),需要注意的時候每次buffer的數(shù)據(jù),在用outputstream寫入的時候,最好flush一下,將緩沖區(qū)清空下;接下來, 執(zhí)行一個沒有where條件的SQL,會不會將內(nèi)存撐爆 ?是的,這個問題我們值得去思考下,通過API發(fā)現(xiàn)可以對SQL進行一些操作,例如,通過:PreparedStatement statement = connection.prepareStatement(sql),這是默認得到的預(yù)編譯,還可以通過設(shè)置:PreparedStatement statement = connection.prepareStatement(sql , ResultSet.TYPE_FORWARD_ONLY , ResultSet.CONCUR_READ_ONLY);

來設(shè)置游標的方式,以至于游標不是將數(shù)據(jù)直接cache到本地內(nèi)存,然后通過設(shè)置statement.setFetchSize(200);設(shè)置游標每次遍歷的大小;OK,這個其實我用過,oracle用了和沒用沒區(qū)別,因為oracle的jdbc API默認就是不會將數(shù)據(jù)cache到j(luò)ava的內(nèi)存中的,而mysql里頭設(shè)置根本無效, 我上面說了一堆廢話,呵呵 ,我只是想說,java提供的標準API也未必有效,很多時候要看廠商的實現(xiàn)機制,還有這個設(shè)置是很多網(wǎng)上說有效的,但是這純屬抄襲;對于oracle上面說了不用關(guān)心,他本身就不是cache到內(nèi)存,所以java內(nèi)存不會導(dǎo)致什么問題,如果是mysql,首先必須使用5以上的版本,然后在連接參數(shù)上加上useCursorFetch=true這個參數(shù),至于游標大小可以通過連接參數(shù)上加上:defaultFetchSize=1000來設(shè)置,例如:

jdbc:mysql://xxx.xxx.xxx.xxx:3306/abc?zeroDateTimeBehavior=convertToNull&useCursorFetch=true&defaultFetchSize=1000

上次被這個問題糾結(jié)了很久(mysql的數(shù)據(jù)老導(dǎo)致程序內(nèi)存膨脹,并行2個直接系統(tǒng)就宕了),還去看了很多源碼才發(fā)現(xiàn)奇跡竟然在這里,最后經(jīng)過mysql文檔的確認,然后進行測試,并行多個,而且數(shù)據(jù)量都是500W以上的,都不會導(dǎo)致內(nèi)存膨脹,GC一切正常,這個問題終于完結(jié)了。

高級Java研發(fā)人員在解決大數(shù)據(jù)問題上的技巧


看完以上內(nèi)容大家應(yīng)該累了吧,這里小編把自己的大數(shù)據(jù)學(xué)習qun531629188推薦給大家無論是大牛還是想轉(zhuǎn)行想學(xué)習的大學(xué)生

小編我都挺歡迎,晚上20:10都有一節(jié)【免費的】大數(shù)據(jù)直播課程,專注大數(shù)據(jù)分析方法,大數(shù)據(jù)編程,大數(shù)據(jù)倉庫,大數(shù)據(jù)案例,人工智能,數(shù)據(jù)挖掘都是純干貨分享,

我們再聊聊其他的,數(shù)據(jù)拆分和合并,當數(shù)據(jù)文件多的時候我們想合并,當文件太大想要拆分,合并和拆分的過程也會遇到類似的問題,還好,這個在我們可控制的范圍內(nèi),如果文件中的數(shù)據(jù)最終是可以組織的,那么在拆分和合并的時候,此時就不要按照數(shù)據(jù)邏輯行數(shù)來做了,因為行數(shù)最終你需要解釋數(shù)據(jù)本身來判定,但是只是做拆分是沒有必要的,你需要的是做二進制處理,在這個二進制處理過程,你要注意了,和平時read文件不要使用一樣的方式,平時大多對一個文件讀取只是用一次read操作,如果對于大文件內(nèi)存肯定直接掛掉了,不用多說,你此時因該每次讀取一個可控范圍的數(shù)據(jù),read方法提供了重載的offset和length的范圍,這個在循環(huán)過程中自己可以計算出來,寫入大文件和上面一樣,不要讀取到一定程序就要通過寫入流flush到磁盤;其實對于小數(shù)據(jù)量的處理在現(xiàn)代的NIO技術(shù)的中也有用到,例如多個終端同時請求一個大文件下載,例如視頻下載吧,在常規(guī)的情況下,如果用java的容器來處理,一般會發(fā)生兩種情況:

其一為內(nèi)存溢出,因為每個請求都要加載一個文件大小的內(nèi)存甚至于更多,因為java包裝的時候會產(chǎn)生很多其他的內(nèi)存開銷,如果使用二進制會產(chǎn)生得少一些,而且在經(jīng)過輸入輸出流的過程中還會經(jīng)歷幾次內(nèi)存拷貝,當然如果有你類似nginx之類的中間件,那么你可以通過send_file模式發(fā)送出去,但是如果你要用程序來處理的時候,內(nèi)存除非你足夠大,但是java內(nèi)存再大也會有GC的時候,如果你內(nèi)存真的很大,GC的時候死定了,當然這個地方也可以考慮自己通過直接內(nèi)存的調(diào)用和釋放來實現(xiàn),不過要求剩余的物理內(nèi)存也足夠大才行,那么足夠大是多大呢?這個不好說,要看文件本身的大小和訪問的頻率;

其二為假如內(nèi)存足夠大,無限制大,那么此時的限制就是線程,傳統(tǒng)的IO模型是線程是一個請求一個線程,這個線程從主線程從線程池中分配后,就開始工作,經(jīng)過你的Context包裝、Filter、攔截器、業(yè)務(wù)代碼各個層次和業(yè)務(wù)邏輯、訪問數(shù)據(jù)庫、訪問文件、渲染結(jié)果等等,其實整個過程線程都是被掛住的,所以這部分資源非常有限,而且如果是大文件操作是屬于IO密集型的操作,大量的CPU時間是空余的,方法最直接當然是增加線程數(shù)來控制,當然內(nèi)存足夠大也有足夠的空間來申請線程池,不過一般來講一個進程的線程池一般會受到限制也不建議太多的,而在有限的系統(tǒng)資源下,要提高性能,我們開始有了new IO技術(shù),也就是NIO技術(shù),新版的里面又有了AIO技術(shù),NIO只能算是異步IO,但是在中間讀寫過程仍然是阻塞的(也就是在真正的讀寫過程,但是不會去關(guān)心中途的響應(yīng)),還未做到真正的異步IO,在監(jiān)聽connect的時候他是不需要很多線程參與的,有單獨的線程去處理,連接也又傳統(tǒng)的socket變成了selector,對于不需要進行數(shù)據(jù)處理的是無需分配線程處理的;而AIO通過了一種所謂的回調(diào)注冊來完成,當然還需要OS的支持,當會掉的時候會去分配線程,目前還不是很成熟,性能最多和NIO吃平,不過隨著技術(shù)發(fā)展,AIO必然會超越NIO,目前谷歌V8虛擬機引擎所驅(qū)動的node.js就是類似的模式,有關(guān)這種技術(shù)不是本文的說明重點;

高級Java研發(fā)人員在解決大數(shù)據(jù)問題上的技巧


將上面兩者結(jié)合起來就是要解決大文件,還要并行度,最土的方法是將文件每次請求的大小降低到一定程度,如8K(這個大小是經(jīng)過測試后網(wǎng)絡(luò)傳輸較為適宜的大小,本地讀取文件并不需要這么小),如果再做深入一些,可以做一定程度的cache,將多個請求的一樣的文件,cache在內(nèi)存或分布式緩存中,你不用將整個文件cache在內(nèi)存中,將近期使用的cache幾秒左右即可,或你可以采用一些熱點的算法來配合;類似迅雷下載的斷點傳送中(不過迅雷的網(wǎng)絡(luò)協(xié)議不太一樣),它在處理下載數(shù)據(jù)的時候未必是連續(xù)的,只要最終能合并即可,在服務(wù)器端可以反過來,誰正好需要這塊的數(shù)據(jù),就給它就可以;才用NIO后,可以支持很大的連接和并發(fā),本地通過NIO做socket連接測試,100個終端同時請求一個線程的服務(wù)器,正常的WEB應(yīng)用是第一個文件沒有發(fā)送完成,第二個請求要么等待,要么超時,要么直接拒絕得不到連接,改成NIO后此時100個請求都能連接上服務(wù)器端,服務(wù)端只需要1個線程來處理數(shù)據(jù)就可以,將很多數(shù)據(jù)傳遞給這些連接請求資源,每次讀取一部分數(shù)據(jù)傳遞出去,不過可以計算的是,在總體長連接傳輸過程中總體效率并不會提升,只是相對相應(yīng)和所開銷的內(nèi)存得到量化控制,這就是技術(shù)的魅力,也許不要太多的算法,不過你得懂他。

類似的數(shù)據(jù)處理還有很多,有些時候還會將就效率問題,比如在 HBase 的文件拆分和合并過程中,要不影響線上業(yè)務(wù)是比較難的事情,很多問題值得我們?nèi)パ芯繄鼍?,因為不同的場景有不同的方法去解決,但是大同小異,明白思想和方法,明白內(nèi)存和體系 架構(gòu) ,明白你所面臨的是沈陽的場景,只是細節(jié)上改變可以帶來驚人的效果。


作者:風火數(shù)據(jù)
鏈接:https://juejin.im/post/5b556c846fb9a04f9963a8b5
來源:掘金
著作權(quán)歸作者所有。商業(yè)轉(zhuǎn)載請聯(lián)系作者獲得授權(quán),非商業(yè)轉(zhuǎn)載請注明出處。


向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI