溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

編程面試題:編寫一個會造成數(shù)據(jù)庫死鎖的應用

發(fā)布時間:2020-08-11 21:08:15 來源:ITPUB博客 閱讀:149 作者:i042416 欄目:數(shù)據(jù)庫

相信對于"開發(fā)一個會產(chǎn)生死鎖的Java應用”這類需求,大家都能順利完成。但是如果題目要求得更具體一些,要求這個死鎖發(fā)生在數(shù)據(jù)庫層面,應該怎樣完成呢?

編程面試題:編寫一個會造成數(shù)據(jù)庫死鎖的應用

下面我提供一種答案,采用SAP的編程語言ABAP(Advanced Business Application Programming)實現(xiàn)。

我們從ABAP幫助文檔中得知,SELECT SINGLE FOR UPDATE在從數(shù)據(jù)庫讀取一條記錄時,會在數(shù)據(jù)庫里將該條記錄上鎖。幫助文檔里也提到,如果編程不恰當,會引起死鎖(deadlock)。

編程面試題:編寫一個會造成數(shù)據(jù)庫死鎖的應用

所以我們的答題就利用SELECT SINGLE FOR UPDATE這條語句。

首先在數(shù)據(jù)庫里插入兩條記錄,主鍵分別為Z01和Z02。

編程面試題:編寫一個會造成數(shù)據(jù)庫死鎖的應用

開發(fā)兩個應用,第一個應用依次鎖Z01和Z02。

REPORT zlock1.
DATA: ls_prod TYPE zorder_header.
SELECT SINGLE FOR UPDATE * FROM zorder_header INTO ls_prod WHERE object_id = 'Z01'.
SELECT SINGLE FOR UPDATE * FROM zorder_header INTO ls_prod WHERE object_id = 'Z02'.
第二個應用依次鎖Z02和Z01。
REPORT zlock2.
DATA: ls_prod TYPE zorder_header.
SELECT SINGLE FOR UPDATE * FROM zorder_header INTO ls_prod WHERE object_id = 'Z02'.
SELECT SINGLE FOR UPDATE * FROM zorder_header INTO ls_prod WHERE object_id = 'Z01'.

下面的步驟會造成數(shù)據(jù)庫層面的死鎖。

1. 以調(diào)試模式運行第一個應用,單步執(zhí)行完代碼第10行,成功鎖住Z01。

編程面試題:編寫一個會造成數(shù)據(jù)庫死鎖的應用

2. 新開一個窗口,以調(diào)試模式運行第二個應用,單步執(zhí)行完代碼第10行,成功鎖住Z02。

編程面試題:編寫一個會造成數(shù)據(jù)庫死鎖的應用

3. 回到應用1的窗口,繼續(xù)執(zhí)行。此時應用1試圖鎖Z02,但是Z02已經(jīng)被應用2鎖住了,因此應用1處于等待狀態(tài)。

編程面試題:編寫一個會造成數(shù)據(jù)庫死鎖的應用

4. 回到應用2的窗口,繼續(xù)執(zhí)行。此時應用2試圖鎖Z01,但是Z01已經(jīng)被應用1鎖住了,所以應用2只有等待應用1釋放出Z01的鎖。但應用1此時也在等待應用2,因此造成了死鎖。

編程面試題:編寫一個會造成數(shù)據(jù)庫死鎖的應用

ABAP和Java不同,一旦檢測到死鎖,應用會拋運行時異常并自動終止,異常信息里說得很清楚:Deadlock detected while executing transaction...

編程面試題:編寫一個會造成數(shù)據(jù)庫死鎖的應用

編程面試題:編寫一個會造成數(shù)據(jù)庫死鎖的應用

要獲取更多Jerry的原創(chuàng)技術(shù)文章,請關(guān)注公眾號"汪子熙"或者掃描下面二維碼:


編程面試題:編寫一個會造成數(shù)據(jù)庫死鎖的應用

編程面試題:編寫一個會造成數(shù)據(jù)庫死鎖的應用


向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI