溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

go語(yǔ)言中的byte是什么

發(fā)布時(shí)間:2020-06-17 14:03:34 來(lái)源:億速云 閱讀:1394 作者:鴿子 欄目:編程語(yǔ)言

字符串中的每一個(gè)元素叫做“字符”,在遍歷或者單個(gè)獲取字符串元素時(shí)可以獲得字符。

Go語(yǔ)言的字符有以下兩種:

一種是 uint8 類型,或者叫 byte 型,代表了 ASCII 碼的一個(gè)字符。

另一種是 rune 類型,代表一個(gè) UTF-8 字符,當(dāng)需要處理中文、日文或者其他復(fù)合字符時(shí),則需要用到 rune 類型。rune 類型等價(jià)于 int32 類型。

byte 類型是 uint8 的別名,對(duì)于只占用 1 個(gè)字節(jié)的傳統(tǒng) ASCII 編碼的字符來(lái)說(shuō),完全沒(méi)有問(wèn)題,例如 var ch byte = 'A',字符使用單引號(hào)括起來(lái)。

在 ASCII 碼表中,A 的值是 65,使用 16 進(jìn)制表示則為 41,所以下面的寫法是等效的:

var ch byte = 65 或 var ch byte = '\x41'      //(\x 總是緊跟著長(zhǎng)度為 2 的 16 進(jìn)制數(shù))

另外一種可能的寫法是\后面緊跟著長(zhǎng)度為 3 的八進(jìn)制數(shù),例如 \377。

Go語(yǔ)言同樣支持 Unicode(UTF-8),因此字符同樣稱為 Unicode 代碼點(diǎn)或者 runes,并在內(nèi)存中使用 int 來(lái)表示。在文檔中,一般使用格式 U+hhhh 來(lái)表示,其中 h 表示一個(gè) 16 進(jìn)制數(shù)。

在書寫 Unicode 字符時(shí),需要在 16 進(jìn)制數(shù)之前加上前綴\u或者\(yùn)U。因?yàn)?Unicode 至少占用 2 個(gè)字節(jié),所以我們使用 int16 或者 int 類型來(lái)表示。如果需要使用到 4 字節(jié),則使用\u前綴,如果需要使用到 8 個(gè)字節(jié),則使用\U前綴。

var ch int = '\u0041'
var ch3 int = '\u03B2'
var ch4 int = '\U00101234'
fmt.Printf("%d - %d - %d\n", ch, ch3, ch4) // integer
fmt.Printf("%c - %c - %c\n", ch, ch3, ch4) // character
fmt.Printf("%X - %X - %X\n", ch, ch3, ch4) // UTF-8 bytes
fmt.Printf("%U - %U - %U", ch, ch3, ch4)   // UTF-8 code point

輸出:

65 - 946 - 1053236
A - β - r
41 - 3B2 - 101234
U+0041 - U+03B2 - U+101234

格式化說(shuō)明符%c用于表示字符,當(dāng)和字符配合使用時(shí),%v或%d會(huì)輸出用于表示該字符的整數(shù),%U輸出格式為 U+hhhh 的字符串。

Unicode 包中內(nèi)置了一些用于測(cè)試字符的函數(shù),這些函數(shù)的返回值都是一個(gè)布爾值,如下所示(其中 ch 代表字符):

判斷是否為字母:unicode.IsLetter(ch)
判斷是否為數(shù)字:unicode.IsDigit(ch)
判斷是否為空白符號(hào):unicode.IsSpace(ch)

以上就是golang  byte是什么的詳細(xì)內(nèi)容,更多請(qǐng)關(guān)注億速云其它相關(guān)文章!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI