溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

億級流量高并發(fā)場景下,如何解決一致性問題?

發(fā)布時間:2020-06-28 17:24:36 來源:網(wǎng)絡(luò) 閱讀:477 作者:架構(gòu)師追風(fēng) 欄目:編程語言

作者:魏武歸心
相信只要是個稍微像樣點的互聯(lián)網(wǎng)公司,或多或少都有自己的一套緩存體
只要用緩存,就可能會涉及到緩存與數(shù)據(jù)庫雙存儲雙寫,你只要是雙寫,就一定會有數(shù)據(jù)一致性的問題,遂筆者想在這想和大家聊一聊:如何解決一致性問題?
如何保證緩存與數(shù)據(jù)庫雙寫一致性,也是現(xiàn)在Java面試中面試官非常喜歡問的一個問題!
一般來說,如果允許緩存可以稍微跟數(shù)據(jù)庫偶爾有不一致,也就是說如果你的系統(tǒng)不是嚴(yán)格要求 緩存 + 數(shù)據(jù)庫 必須保持一致性的話,最好不要做這個方案。
即:讀請求和寫請求串行化,串到一個內(nèi)存隊列里去,從而達到防止并發(fā)請求導(dǎo)致數(shù)據(jù)錯亂的問題,場景如圖所示:
億級流量高并發(fā)場景下,如何解決一致性問題?

值得注意的是,串行化可以保證一定不會出現(xiàn)不一致的情況,但是它也會導(dǎo)致系統(tǒng)的吞吐量大幅度降低,用比正常情況下多幾倍的機器去支撐線上的一個請求(土豪請自覺無視此提醒)
解決思路如下圖:
億級流量高并發(fā)場景下,如何解決一致性問題?

代碼實現(xiàn)大致如下:

/**
 * 請求異步處理的service實現(xiàn)
 * @author Administrator
 *
 */
@Service("requestAsyncProcessService")  
public class RequestAsyncProcessServiceImpl implements RequestAsyncProcessService {

 @Override
 public void process(Request request) {
 try {
 // 先做讀請求的去重
 RequestQueue requestQueue = RequestQueue.getInstance();
 Map<Integer, Boolean> flagMap = requestQueue.getFlagMap();

 if(request instanceof ProductInventoryDBUpdateRequest) {
 // 如果是一個更新數(shù)據(jù)庫的請求,那么就將那個productId對應(yīng)的標(biāo)識設(shè)置為true
        flagMap.put(request.getProductId(), true);
      } else if(request instanceof ProductInventoryCacheRefreshRequest) {
 Boolean flag = flagMap.get(request.getProductId());

 // 如果flag是null
 if(flag == null) {
          flagMap.put(request.getProductId(), false);
        }

 // 如果是緩存刷新的請求,那么就判斷,如果標(biāo)識不為空,而且是true,就說明之前有一個這個商品的數(shù)據(jù)庫更新請求
 if(flag != null && flag) {
          flagMap.put(request.getProductId(), false);
        }

 // 如果是緩存刷新的請求,而且發(fā)現(xiàn)標(biāo)識不為空,但是標(biāo)識是false
 // 說明前面已經(jīng)有一個數(shù)據(jù)庫更新請求+一個緩存刷新請求了,大家想一想
 if(flag != null && !flag) {
 // 對于這種讀請求,直接就過濾掉,不要放到后面的內(nèi)存隊列里面去了
 return;
        }
      }

 // 做請求的路由,根據(jù)每個請求的商品id,路由到對應(yīng)的內(nèi)存隊列中去
 ArrayBlockingQueue<Request> queue = getRoutingQueue(request.getProductId());
 // 將請求放入對應(yīng)的隊列中,完成路由操作
      queue.put(request);
    } catch (Exception e) {
      e.printStackTrace();
    }
  }

 /**
   * 獲取路由到的內(nèi)存隊列
   * @param productId 商品id
   * @return 內(nèi)存隊列
   */
 private ArrayBlockingQueue<Request> getRoutingQueue(Integer productId) {
 RequestQueue requestQueue = RequestQueue.getInstance();

 // 先獲取productId的hash值
 String key = String.valueOf(productId);
 int h;
 int hash = (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);

 // 對hash值取模,將hash值路由到指定的內(nèi)存隊列中,比如內(nèi)存隊列大小8
 // 用內(nèi)存隊列的數(shù)量對hash值取模之后,結(jié)果一定是在0~7之間
 // 所以任何一個商品id都會被固定路由到同樣的一個內(nèi)存隊列中去的
 int index = (requestQueue.queueSize() - 1) & hash;

 System.out.println("===========日志===========: 路由內(nèi)存隊列,商品id=" + productId + ", 隊列索引=" + index);  

 return requestQueue.getQueue(index);
  }

}
Cache Aside Pattern

下面我們來聊聊最經(jīng)典的緩存+數(shù)據(jù)庫讀寫的模式,就是 Cache Aside Pattern。
讀的時候,先讀緩存,緩存沒有的話,就讀數(shù)據(jù)庫,然后取出數(shù)據(jù)后放入緩存,同時返回響應(yīng)。更新的時候,先更新數(shù)據(jù)庫,然后再刪除緩存。
為什么是刪除緩存,而不是更新緩存?
原因很簡單,很多時候,在復(fù)雜點的緩存場景,緩存不單單是數(shù)據(jù)庫中直接取出來的值。
比如可能更新了某個表的一個字段,然后其對應(yīng)的緩存,是需要查詢另外兩個表的數(shù)據(jù)并進行運算,才能計算出緩存最新的值的。
另外更新緩存的代價有時候是很高的,是不是每次修改數(shù)據(jù)庫的時候,都一定要將其對應(yīng)的緩存更新一份?
也許有的場景是這樣,但是對于比較復(fù)雜的緩存數(shù)據(jù)計算的場景,就不是這樣了。
如果你頻繁修改一個緩存涉及的多個表,緩存也頻繁更新。但是問題在于,這個緩存到底會不會被頻繁訪問到?
舉個栗子,一個緩存涉及的表的字段,在 1 分鐘內(nèi)就修改了 20 次,或者是 100 次,那么緩存更新 20 次、100 次;
但是這個緩存在 1 分鐘內(nèi)只被讀取了 1 次,有大量的冷數(shù)據(jù)。
實際上,如果你只是刪除緩存的話,那么在 1 分鐘內(nèi),這個緩存不過就重新計算一次而已,開銷大幅度降低,用到緩存才去算緩存。
其實刪除緩存,而不是更新緩存,就是一個 lazy 計算的思想,不要每次都重新做復(fù)雜的計算,不管它會不會用到,而是讓它到需要被使用的時候再重新計算。
像 mybatis,hibernate,都有懶加載思想,查詢一個部門,部門帶了一個員工的 list,沒有必要說每次查詢部門,都把里面的 1000 個員工的數(shù)據(jù)也同時查出來。
80% 的情況,查這個部門,就只是要訪問這個部門的信息就可以了,先查部門,同時要訪問里面的員工,那么這時只有在你要訪問里面的員工的時候,才會去數(shù)據(jù)庫里面查詢 1000 個員工。

最初級的緩存不一致問題及解決方案
問題:先修改數(shù)據(jù)庫,再刪除緩存。如果刪除緩存失敗了,那么會導(dǎo)致數(shù)據(jù)庫中是新數(shù)據(jù),緩存中是舊數(shù)據(jù),數(shù)據(jù)就出現(xiàn)了不一致。
解決思路:先刪除緩存,再修改數(shù)據(jù)庫。如果數(shù)據(jù)庫修改失敗了,那么數(shù)據(jù)庫中是舊數(shù)據(jù),緩存中是空的,那么數(shù)據(jù)不會不一致。
因為讀的時候緩存沒有,則讀數(shù)據(jù)庫中舊數(shù)據(jù),然后更新到緩存中。
比較復(fù)雜的數(shù)據(jù)不一致問題分析
數(shù)據(jù)發(fā)生了變更,先刪除了緩存,然后要去修改數(shù)據(jù)庫。
但是還沒來得及修改,一個請求過來,去讀緩存,發(fā)現(xiàn)緩存空了,去查詢數(shù)據(jù)庫,查到了修改前的舊數(shù)據(jù),放到了緩存中。
隨后數(shù)據(jù)變更的程序完成了數(shù)據(jù)庫的修改。
完了,數(shù)據(jù)庫和緩存中的數(shù)據(jù)不一樣了。。。
為什么上億流量高并發(fā)場景下,緩存會出現(xiàn)這個問題?
只有在對一個數(shù)據(jù)在并發(fā)的進行讀寫的時候,才可能會出現(xiàn)這種問題。
如果說你的并發(fā)量很低的話,特別是讀并發(fā)很低,每天訪問量就 1 萬次,那么很少的情況下,會出現(xiàn)剛才描述的那種不一致的場景。
但是問題是,如果每天的是上億的流量,每秒并發(fā)讀是幾萬,每秒只要有數(shù)據(jù)更新的請求,就可能會出現(xiàn)上述的數(shù)據(jù)庫+緩存不一致的情況。

解決方案如下:
更新數(shù)據(jù)的時候,根據(jù)數(shù)據(jù)的唯一標(biāo)識,將操作路由之后,發(fā)送到一個 jvm 內(nèi)部隊列中。
讀取數(shù)據(jù)的時候,如果發(fā)現(xiàn)數(shù)據(jù)不在緩存中,那么將重新讀取數(shù)據(jù)+更新緩存的操作,根據(jù)唯一標(biāo)識路由之后,也發(fā)送同一個 jvm 內(nèi)部隊列中。
一個隊列對應(yīng)一個工作線程,每個工作線程串行拿到對應(yīng)的操作,然后一條一條的執(zhí)行。
這樣的話,一個數(shù)據(jù)變更的操作,先刪除緩存,然后再去更新數(shù)據(jù)庫,但是還沒完成更新。
此時如果一個讀請求過來,讀到了空的緩存,那么可以先將緩存更新的請求發(fā)送到隊列中,此時會在隊列中積壓,然后同步等待緩存更新完成。
這里有一個優(yōu)化點,一個隊列中,其實多個更新緩存請求串在一起是沒意義的,因此可以做過濾
如果發(fā)現(xiàn)隊列中已經(jīng)有一個更新緩存的請求了,那么就不用再放個更新請求操作進去了,直接等待前面的更新操作請求完成即可。
待那個隊列對應(yīng)的工作線程完成了上一個操作的數(shù)據(jù)庫的修改之后,才會去執(zhí)行下一個操作,也就是緩存更新的操作,此時會從數(shù)據(jù)庫中讀取最新的值,然后寫入緩存中。
如果請求還在等待時間范圍內(nèi),不斷輪詢發(fā)現(xiàn)可以取到值了,那么就直接返回;如果請求等待的時間超過一定時長,那么這一次直接從數(shù)據(jù)庫中讀取當(dāng)前的舊值。

高并發(fā)的場景下,該解決方案要注意的問題:
1、讀請求長時阻塞
由于讀請求進行了非常輕度的異步化,所以一定要注意讀超時的問題,每個讀請求必須在超時時間范圍內(nèi)返回。
該解決方案,最大的風(fēng)險點在于,可能數(shù)據(jù)更新很頻繁,導(dǎo)致隊列中積壓了大量更新操作在里面,然后讀請求會發(fā)生大量的超時,最后導(dǎo)致大量的請求直接走數(shù)據(jù)庫。
所以務(wù)必通過一些模擬真實的測試,看看更新數(shù)據(jù)的頻率是怎樣的。
另外一點,因為一個隊列中,可能會積壓針對多個數(shù)據(jù)項的更新操作,因此需要根據(jù)自己的業(yè)務(wù)情況進行測試,可能需要部署多個服務(wù),每個服務(wù)分?jǐn)傄恍?shù)據(jù)的更新操作。
如果一個內(nèi)存隊列里積壓 100 個商品的庫存修改操作,每個庫存修改操作要耗費 10ms 去完成,那么最后一個商品的讀請求,可能等待 10 * 100 = 1000ms = 1s 后,才能得到數(shù)據(jù),這個時候就導(dǎo)致讀請求的長時阻塞。
因此,一定要根據(jù)實際業(yè)務(wù)系統(tǒng)的運行情況,去進行一些壓力測試和模擬線上環(huán)境,去看看最繁忙的時候,內(nèi)存隊列可能會積壓多少更新操作,可能會導(dǎo)致最后一個更新操作對應(yīng)的讀請求,會 hang 多少時間。
如果讀請求在 200ms 返回,如果你計算過后,哪怕是最繁忙的時候,積壓 10 個更新操作,最多等待 200ms,那還可以的。
如果一個內(nèi)存隊列中可能積壓的更新操作特別多,那么你就要加機器,讓每個機器上部署的服務(wù)實例處理更少的數(shù)據(jù),那么每個內(nèi)存隊列中積壓的更新操作就會越少。
其實根據(jù)之前的項目經(jīng)驗,一般來說,數(shù)據(jù)的寫頻率是很低的,因此實際上正常來說,在隊列中積壓的更新操作應(yīng)該是很少的。
像這種針對讀高并發(fā)、讀緩存架構(gòu)的項目,一般來說寫請求是非常少的,每秒的 QPS 能到幾百就不錯了。
實際粗略測算一下,如果一秒有 500 的寫操作,分成 5 個時間片,每 200ms 就 100 個寫操作,放到 20 個內(nèi)存隊列中,每個內(nèi)存隊列,可能就積壓 5 個寫操作。
每個寫操作性能測試后,一般是在 20ms 左右就完成,那么針對每個內(nèi)存隊列的數(shù)據(jù)的讀請求,也就最多 hang 一會兒,200ms 以內(nèi)肯定能返回了。
經(jīng)過剛才簡單的測算,我們知道,單機支撐的寫 QPS 在幾百是沒問題的,如果寫 QPS 擴大了 10 倍,那么就擴容機器,擴容 10 倍的機器,每個機器 20 個隊列。

2、讀請求并發(fā)量過高
這里還必須做好壓力測試,確保恰巧碰上上述情況時,還有一個風(fēng)險,就是突然間大量讀請求會在幾十毫秒的延時 hang 在服務(wù)上,看服務(wù)能不能扛的住,需要多少機器才能扛住最大的極限情況的峰值。
但是因為并不是所有的數(shù)據(jù)都在同一時間更新,緩存也不會同一時間失效,所以每次可能也就是少數(shù)數(shù)據(jù)的緩存失效了,然后那些數(shù)據(jù)對應(yīng)的讀請求過來,并發(fā)量應(yīng)該也不會特別大。

3、多服務(wù)實例部署的請求路由
可能這個服務(wù)部署了多個實例,那么必須保證說,執(zhí)行數(shù)據(jù)更新操作,以及執(zhí)行緩存更新操作的請求,都通過 Nginx 服務(wù)器路由到相同的服務(wù)實例上。
比如對同一個商品的讀寫請求,全部路由到同一臺機器上??梢宰约喝プ龇?wù)間的按照某個請求參數(shù)的 hash 路由,也可以用 Nginx 的 hash 路由功能等等。

4、熱點商品的路由問題,導(dǎo)致請求的傾斜
萬一某個商品的讀寫請求特別高,全部打到相同的機器的相同的隊列里面去了,可能會造成某臺機器的壓力過大。
因為只有在商品數(shù)據(jù)更新的時候才會清空緩存,然后才會導(dǎo)致讀寫并發(fā),所以要根據(jù)業(yè)務(wù)系統(tǒng)去看,如果更新頻率不是太高的話,這個問題的影響并不是特別大,但是可能某些機器的負(fù)載會高一些。

歡迎大家一起交流,喜歡文章記得點個贊,感謝支持!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI