溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

Oracle nvarchar2錯(cuò)誤的問題分析及解決方法

發(fā)布時(shí)間:2021-09-10 16:46:28 來源:億速云 閱讀:312 作者:chen 欄目:關(guān)系型數(shù)據(jù)庫

本篇內(nèi)容主要講解“Oracle nvarchar2錯(cuò)誤的問題分析及解決方法”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實(shí)用性強(qiáng)。下面就讓小編來帶大家學(xué)習(xí)“Oracle nvarchar2錯(cuò)誤的問題分析及解決方法”吧!

Oracle nvarchar2錯(cuò)誤

問題:

使用substr函數(shù)截取指定字符串時(shí),取出4位字符 年(例如2019),結(jié)果只取出3位(例如201);

問題原因:

字符類型nvarchar2

解決方案:

通過TRANSLATE函數(shù)將nvarchar2轉(zhuǎn)換成varchar2。

問題重現(xiàn):

---1 創(chuàng)建測(cè)試數(shù)據(jù)

create table t1(id number,t_format nvarchar2(100),t_name varchar2(100));

insert into t1 values(1,'abcde2019xxx0707uuu','abcde2019xxx0707uuu');

commit;

---2 通過substr函數(shù)截取年月日

select id,

       t_format,

       t_name,

       length(t_format),

       length(t_name),

       substr(t_format, 6, 4),

       substr(t_format, 13, 4),

       substr(t_name, 6, 4),

       substr(t_name, 13, 4)

  from t1;

Oracle nvarchar2錯(cuò)誤的問題分析及解決方法select id,

       t_format,

       t_name,

       substr(t_format, 6, 5),

       substr(t_format, 13, 5),

       substr(t_name, 6, 4),

       substr(t_name, 13, 4)

  from t1;

Oracle nvarchar2錯(cuò)誤的問題分析及解決方法 

---3 通過TRANSLATE函數(shù)將nvarchar2轉(zhuǎn)換成varchar2

select id,

       t_format,

       t_name,

       substr(utl_raw.cast_to_varchar2(utl_raw.cast_to_raw(Translate(t_format USING CHAR_CS))),6,4),

       substr(utl_raw.cast_to_varchar2(utl_raw.cast_to_raw(Translate(t_format USING CHAR_CS))),13,4),

       substr(t_name, 6, 4),

       substr(t_name, 13, 4)

  from t1;

Oracle nvarchar2錯(cuò)誤的問題分析及解決方法

到此,相信大家對(duì)“Oracle nvarchar2錯(cuò)誤的問題分析及解決方法”有了更深的了解,不妨來實(shí)際操作一番吧!這里是億速云網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI