溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

發(fā)布時間:2020-09-22 02:26:08 來源:網(wǎng)絡(luò) 閱讀:3617 作者:Java月亮呀 欄目:編程語言

前言

中大型項目中,一旦遇到數(shù)據(jù)量比較大,小伙伴應(yīng)該都知道就應(yīng)該對數(shù)據(jù)進行拆分了。有垂直和水平兩種

垂直拆分比較簡單,也就是本來一個數(shù)據(jù)庫,數(shù)據(jù)量大之后,從業(yè)務(wù)角度進行拆分多個庫。如下圖,獨立的拆分出訂單庫和用戶庫。

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

水平拆分的概念,是同一個業(yè)務(wù)數(shù)據(jù)量大之后,進行水平拆分。

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

上圖中訂單數(shù)據(jù)達到了4000萬,我們也知道mysql單表存儲量推薦是百萬級,如果不進行處理,mysql單表數(shù)據(jù)太大,會導(dǎo)致性能變慢。使用方案可以參考數(shù)據(jù)進行水平拆分。把4000萬數(shù)據(jù)拆分4張表或者更多。當(dāng)然也可以分庫,再分表;把壓力從數(shù)據(jù)庫層級分開。

一、分庫分表方案

分庫分表方案中有常用的方案,hash取模和range范圍方案;分庫分表方案最主要就是路由算法,把路由的key按照指定的算法進行路由存放。下邊來介紹一下兩個方案的特點。

1.1、hash取模方案

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

在我們設(shè)計系統(tǒng)之前,可以先預(yù)估一下大概這幾年的訂單量,如:4000萬。每張表我們可以容納1000萬,也我們可以設(shè)計4張表進行存儲。

那具體如何路由存儲的呢?hash的方案就是對指定的路由key(如:id)對分表總數(shù)進行取模,上圖中,id=12的訂單,對4進行取模,也就是會得到0,那此訂單會放到0表中。id=13的訂單,取模得到為1,就會放到1表中。為什么對4取模,是因為分表總數(shù)是4。

  • 優(yōu)點:

訂單數(shù)據(jù)可以均勻的放到那4張表中,這樣此訂單進行操作時,就不會有熱點問題。

熱點的含義:熱點的意思就是對訂單進行操作集中到1個表中,其他表的操作很少。

訂單有個特點就是時間屬性,一般用戶操作訂單數(shù)據(jù),都會集中到這段時間產(chǎn)生的訂單。如果這段時間產(chǎn)生的訂單 都在同一張訂單表中,那就會形成熱點,那張表的壓力會比較大。

  • 缺點:

將來的數(shù)據(jù)遷移和擴容,會很難。

如:業(yè)務(wù)發(fā)展很好,訂單量很大,超出了4000萬的量,那我們就需要增加分表數(shù)。如果我們增加4個表

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

一旦我們增加了分表的總數(shù),取模的基數(shù)就會變成8,以前id=12的訂單按照此方案就會到4表中查詢,但之前的此訂單時在0表的,這樣就導(dǎo)致了數(shù)據(jù)查不到。就是因為取模的基數(shù)產(chǎn)生了變化。

遇到這個情況,我們小伙伴想到的方案就是做數(shù)據(jù)遷移,把之前的4000萬數(shù)據(jù),重新做一個hash方案,放到新的規(guī)劃分表中。也就是我們要做數(shù)據(jù)遷移。這個是很痛苦的事情。有些小公司可以接受晚上停機遷移,但大公司是不允許停機做數(shù)據(jù)遷移的。

當(dāng)然做數(shù)據(jù)遷移可以結(jié)合自己的公司的業(yè)務(wù),做一個工具進行,不過也帶來了很多工作量,每次擴容都要做數(shù)據(jù)遷移

那有沒有不需要做數(shù)據(jù)遷移的方案呢,我們看下面的方案

1.2、range范圍方案

range方案也就是以范圍進行拆分數(shù)據(jù)。

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

range方案比較簡單,就是把一定范圍內(nèi)的訂單,存放到一個表中;如上圖id=12放到0表中,id=1300萬的放到1表中。設(shè)計這個方案時就是前期把表的范圍設(shè)計好。通過id進行路由存放。

  • 優(yōu)點

我們小伙伴們想一下,此方案是不是有利于將來的擴容,不需要做數(shù)據(jù)遷移。即時再增加4張表,之前的4張表的范圍不需要改變,id=12的還是在0表,id=1300萬的還是在1表,新增的4張表他們的范圍肯定是 大于 4000萬之后的范圍劃分的。

  • 缺點

有熱點問題,我們想一下,因為id的值會一直遞增變大,那這段時間的訂單是不是會一直在某一張表中,如id=1000萬 ~ id=2000萬之間,這段時間產(chǎn)生的訂單是不是都會集中到此張表中,這個就導(dǎo)致1表過熱,壓力過大,而其他的表沒有什么壓力。

1.3、總結(jié):

hash取模方案:沒有熱點問題,但擴容遷移數(shù)據(jù)痛苦

range方案:不需要遷移數(shù)據(jù),但有熱點問題。

那有什么方案可以做到兩者的優(yōu)點結(jié)合呢?,即不需要遷移數(shù)據(jù),又能解決數(shù)據(jù)熱點的問題呢?

其實還有一個現(xiàn)實需求,能否根據(jù)服務(wù)器的性能以及存儲高低,適當(dāng)均勻調(diào)整存儲呢?

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

二、方案思路

hash是可以解決數(shù)據(jù)均勻的問題,range可以解決數(shù)據(jù)遷移問題,那我們可以不可以兩者相結(jié)合呢?利用這兩者的特性呢?

我們考慮一下數(shù)據(jù)的擴容代表著,路由key(如id)的值變大了,這個是一定的,那我們先保證數(shù)據(jù)變大的時候,首先用range方案讓數(shù)據(jù)落地到一個范圍里面。這樣以后id再變大,那以前的數(shù)據(jù)是不需要遷移的。

但又要考慮到數(shù)據(jù)均勻,那是不是可以在一定的范圍內(nèi)數(shù)據(jù)均勻的呢?因為我們每次的擴容肯定會事先設(shè)計好這次擴容的范圍大小,我們只要保證這次的范圍內(nèi)的數(shù)據(jù)均勻是不是就ok了。

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

三、方案設(shè)計

我們先定義一個group組概念,這組里面包含了一些分庫以及分表,如下圖

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

上圖有幾個關(guān)鍵點:

1)id=0~4000萬肯定落到group01組中

2)group01組有3個DB,那一個id如何路由到哪個DB?

3)根據(jù)hash取模定位DB,那模數(shù)為多少?模數(shù)要為所有此group組DB中的表數(shù),上圖總表數(shù)為10。為什么要去表的總數(shù)?而不是DB總數(shù)3呢?

4)如id=12,id%10=2;那值為2,落到哪個DB庫呢?這是設(shè)計是前期設(shè)定好的,那怎么設(shè)定的呢?

5)一旦設(shè)計定位哪個DB后,就需要確定落到DB中的哪張表呢?

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

四、核心主流程

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

按照上面的流程,我們就可以根據(jù)此規(guī)則,定位一個id,我們看看有沒有避免熱點問題。

我們看一下,id在【0,1000萬】范圍內(nèi)的,根據(jù)上面的流程設(shè)計,1000萬以內(nèi)的id都均勻的分配到DB_0,DB_1,DB_2三個數(shù)據(jù)庫中的Table_0表中,為什么可以均勻,因為我們用了hash的方案,對10進行取模。

上面我們也提了疑問,為什么對表的總數(shù)10取模,而不是DB的總數(shù)3進行取模?我們看一下為什么DB_0是4張表,其他兩個DB_1是3張表?

在我們安排服務(wù)器時,有些服務(wù)器的性能高,存儲高,就可以安排多存放些數(shù)據(jù),有些性能低的就少放點數(shù)據(jù)。如果我們?nèi)∧J前凑誅B總數(shù)3,進行取模,那就代表著【0,4000萬】的數(shù)據(jù)是平均分配到3個DB中的,那就不能夠?qū)崿F(xiàn)按照服務(wù)器能力適當(dāng)分配了。

按照Table總數(shù)10就能夠達到,看如何達到

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

上圖中我們對10進行取模,如果值為【0,1,2,3】就路由到DB_0,【4,5,6】路由到DB_1,【7,8,9】路由到DB_2?,F(xiàn)在小伙伴們有沒有理解,這樣的設(shè)計就可以把多一點的數(shù)據(jù)放到DB_0中,其他2個DB數(shù)據(jù)量就可以少一點。DB_0承擔(dān)了4/10的數(shù)據(jù)量,DB_1承擔(dān)了3/10的數(shù)據(jù)量,DB_2也承擔(dān)了3/10的數(shù)據(jù)量。整個Group01承擔(dān)了【0,4000萬】的數(shù)據(jù)量。

注意:小伙伴千萬不要被DB_1或DB_2中table的范圍也是0~4000萬疑惑了,這個是范圍區(qū)間,也就是id在哪些范圍內(nèi),落地到哪個表而已。

上面一大段的介紹,就解決了熱點的問題,以及可以按照服務(wù)器指標(biāo),設(shè)計數(shù)據(jù)量的分配。

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

五、如何擴容

其實上面設(shè)計思路理解了,擴容就已經(jīng)出來了;那就是擴容的時候再設(shè)計一個group02組,定義好此group的數(shù)據(jù)范圍就ok了。

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

因為是新增的一個group01組,所以就沒有什么數(shù)據(jù)遷移概念,完全是新增的group組,而且這個group組照樣就防止了熱點,也就是【4000萬,5500萬】的數(shù)據(jù),都均勻分配到三個DB的table_0表中,【5500萬~7000萬】數(shù)據(jù)均勻分配到table_1表中。

六、系統(tǒng)設(shè)計

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

思路確定了,設(shè)計是比較簡單的,就3張表,把group,DB,table之間建立好關(guān)聯(lián)關(guān)系就行了。

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

上面的表關(guān)聯(lián)其實是比較簡單的,只要原理思路理順了,就ok了。小伙伴們在開發(fā)的時候不要每次都去查詢?nèi)龔堦P(guān)聯(lián)表,可以保存到緩存中(本地jvm緩存),這樣不會影響性能。

分庫分表?如何做到永不遷移數(shù)據(jù)和避免熱點?

一旦需要擴容,小伙伴是不是要增加一下group02關(guān)聯(lián)關(guān)系,那應(yīng)用服務(wù)需要重新啟動嗎?

簡單點的話,就凌晨配置,重啟應(yīng)用服務(wù)就行了。但如果是大型公司,是不允許的,因為凌晨也有訂單的。那怎么辦呢?本地jvm緩存怎么更新呢?

其實方案也很多,可以使用用zookeeper,也可以使用分布式配置,這里是比較推薦使用分布式配置中心的,可以將這些數(shù)據(jù)配置到分布式配置中心去。

到此為止,整體的方案介紹結(jié)束,希望對小伙伴們有所幫助。謝謝!?。?/p>

讀者福利:

針對于Java程序員,我這邊準備了免費的Java架構(gòu)學(xué)習(xí)資料(里面有高可用、高并發(fā)、高性能及分布式、Jvm性能調(diào)優(yōu)、MyBatis,Netty,Redis,Kafka,Mysql,Zookeeper,Tomcat,Docker,Dubbo,Nginx等多個知識點的架構(gòu)資料)有需要的程序員朋友可以加Java高級架構(gòu)攻城獅:867923845
為什么某些人會一直比你優(yōu)秀,是因為他本身就很優(yōu)秀還一直在持續(xù)努力變得更優(yōu)秀,而你是不是還在滿足于現(xiàn)狀內(nèi)心在竊喜!希望讀到這的您能點個小贊和關(guān)注下我,以后還會更新技術(shù)干貨,謝謝您的支持!

向AI問一下細節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI