溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

EJB設(shè)計模式4 (轉(zhuǎn))

發(fā)布時間:2020-08-06 18:50:09 來源:ITPUB博客 閱讀:207 作者:worldblog 欄目:編程語言
EJB設(shè)計模式4 (轉(zhuǎn))[@more@]設(shè)計模式4
在設(shè)計模式3中我們看到使bean從struct繼承后使得代碼大
幅縮水并且所有的字段都可定義為cmp字段。這里,我們可
以更進(jìn)一步修正setdata()和getdata()的實(shí)現(xiàn)方法來減少代碼量。
我們?yōu)檫@個struct增加一個方法。


Value object code snippet for Company
public class CompanyStruct implements
Java.io.Serializable {
public Integer comId;
public String comName;
public String comDescription;
public Timestamp mutationDate;
public void copyFrom(CompanyStruct struct) {
comId = struct.comId;
comName = struct.comName;
comDescription = struct.comDescription;
mutationDate = struct.mutationDate;
}
}


由于entity bean是從struct繼承下來的,在bean的實(shí)現(xiàn)類
中也一樣可以引用copyfrom()方法,當(dāng)然,必須注意的是,
這個copyfrom()方法并不是一個商業(yè)方法,它不需要在bean
的遠(yuǎn)程接口中暴露給調(diào)用者。
現(xiàn)在,getdata()和setdata()方法可以簡化更進(jìn)一步的簡化。


Code snippet for an Entity Bean’s getData()
public CompanyStruct getData() {
CompanyStruct result = new CompanyStruct();
result.copyFrom(this);
return result;
}

這里把this作為一個參數(shù)傳入copyfrom()。由于enttity bean
從struct繼承而來,于是這個entitty bean便可以作為一個
struct傳入。
EJB容器并不贊成把this指針作為一個參數(shù)傳遞因?yàn)樵趦蓚€控
制線程中同時訪問一個bean的實(shí)例可能會引起事務(wù)沖突。但事
實(shí)上我們所做的并沒有違背這個原則,因?yàn)槲覀兊牟]有在
bean之間傳遞this的引用并且也沒有引用任何可能引起事務(wù)沖突的方法。

Code snippet for an Entity Bean’s setData()
public void setData(CompanyStruct struct) {
this.copyFrom(struct);
}
類似的,上面的方法把struct的值賦給enttity bean。

對于一個映射到有很多列的表的entity bean,這種實(shí)現(xiàn)
方法的優(yōu)點(diǎn)是使得bean實(shí)現(xiàn)類的代碼非常簡單。這種設(shè)
計模式使得代碼及其精簡,可讀性和可維護(hù)性也大大增強(qiáng)。

任何數(shù)據(jù)庫的修改都只需要修改作為基類的struct,而幾
乎不需要修改bean的代碼。把這種改變從struct分離出來,
當(dāng)cmp字段發(fā)生改變時需要修改部署描述符。這就使得開
發(fā)時能夠更好的適應(yīng)設(shè)計的改變。
這里,還是沒有實(shí)現(xiàn)bean之間的關(guān)系,這將在設(shè)計模式5中解決。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI