溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

Python增強(qiáng)賦值和共享引用注意事項(xiàng)小結(jié)

發(fā)布時(shí)間:2020-09-12 07:47:46 來源:腳本之家 閱讀:118 作者:若數(shù) 欄目:開發(fā)技術(shù)

概述

Python中的增強(qiáng)賦值是從C語(yǔ)言中借鑒出來的,所以這些格式的用法大多和C一致,本身就是對(duì)表達(dá)式的簡(jiǎn)寫,即二元表達(dá)式和賦值語(yǔ)句的結(jié)合,比如a += b 和a = a + b 就是一致的,比如還有以下的增強(qiáng)賦值語(yǔ)句。

- - - -
a += b a &= b a -= b a |= b
a *= b a ^= b a /= b a >>=b
a %= b a <<= b a **= b a //=b

即增強(qiáng)賦值語(yǔ)句適用于任何支持隱式二元表達(dá)式的類型,比如“+”的多態(tài):數(shù)字的相加和字符串的合并

數(shù)字加減

a = 1
a = a + 1
print(str(a))
a += 1
print(str(a))

示例結(jié)果:

2
3

字符串合并

S = 'I'
S = S + ' like '
print(S)
S += 'Python.'
print(S)

示例結(jié)果:

I like
I like Python.

優(yōu)點(diǎn)

  • 簡(jiǎn)潔
  • 減少一次a的執(zhí)行,執(zhí)行速度更快
  • 針對(duì)可變對(duì)象,增強(qiáng)賦值會(huì)自動(dòng)選擇執(zhí)行原處的修改運(yùn)算,而不是速度更慢的復(fù)制。這就引申出我們?cè)诳勺儗?duì)象中可能涉及的共享引用問題。

共享引用

當(dāng)我們想要擴(kuò)展列表時(shí),比如將一組元素添加到末尾,我們會(huì)怎么做?

L = [1, 2, 3]
# 傳統(tǒng)“+”法
L = L + [4, 5]
print(L)
# 利用列表方法extend
L.extend([6, 7])
print(L)

示例結(jié)果

[1, 2, 3, 4, 5]
[1, 2, 3, 4, 5, 6, 7]

示例中第一中“+”法,即采用合并的方法,需要新創(chuàng)建一個(gè)對(duì)象把左側(cè)的L復(fù)制到新列表中,然后再[4, 5]復(fù)制到新列表中。而第二種extend則是直接在內(nèi)存空間列表L末尾L加上[4, 5],即速度會(huì)更快,增強(qiáng)賦值則是自動(dòng)采用的第二種即L.extend([6, 7])和L += [6, 7]是等價(jià)的,也是最優(yōu)的選擇。這種合并方式雖然快,但對(duì)于可變對(duì)象的共享引用則會(huì)變的棘手些。

L1 = [1, 2, 3]
L2 = L1
L2 = L2 + [4, 5]
print(L2)
print(L1)

print('-' * 21)

L1 = [1, 2, 3]
L2 = L1
L2 += [4, 5]
print(L2)
print(L1)

示例結(jié)果:

[1, 2, 3, 4, 5]
[1, 2, 3]
---------------------
[1, 2, 3, 4, 5]
[1, 2, 3, 4, 5]

我們可以從示例中看到如果同一個(gè)可變對(duì)象賦值了多個(gè)變量,那么在破壞共享引用結(jié)構(gòu)時(shí),就應(yīng)該對(duì)可變對(duì)象拷貝后在進(jìn)行操作。

總結(jié)

以上就是這篇文章的全部?jī)?nèi)容了,希望本文的內(nèi)容對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,謝謝大家對(duì)億速云的支持。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI