您好,登錄后才能下訂單哦!
怎么解決python中的request中文亂碼?相信很多沒有經(jīng)驗的人對此束手無策,為此本文總結(jié)了問題出現(xiàn)的原因和解決方法,通過這篇文章希望你能解決這個問題。
先在爬蟲都在推薦用Requests庫,而不是Urllib,但是讀取網(wǎng)頁的時候中文會出現(xiàn)亂碼。
分析:
r = requests.get(“http://www.baidu.com“)
**r.text返回的是Unicode型的數(shù)據(jù)。
使用r.content返回的是bytes型的數(shù)據(jù)。
也就是說,如果你想取文本,可以通過r.text。
如果想取圖片,文件,則可以通過r.content。**
獲取一個網(wǎng)頁的內(nèi)容
方法1:使用r.content,得到的是bytes型,再轉(zhuǎn)為str
url='http://music.baidu.com' r = requests.get(url) html=r.content html_doc=str(html,'utf-8') #html_doc=html.decode("utf-8","ignore") print(html_doc)
方法2:使用r.text
Requests 會自動解碼來自服務(wù)器的內(nèi)容。大多數(shù) unicode 字符集都能被無縫地解碼。請求發(fā)出后,Requests 會基于 HTTP 頭部對響應(yīng)的編碼作出有根據(jù)的推測。當你訪問 r.text 之時,Requests 會使用其推測的文本編碼。你可以找出 Requests 使用了什么編碼,并且能夠使用 r.encoding 屬性來改變它.
但是Requests庫的自身編碼為: r.encoding = ‘ISO-8859-1’
可以 r.encoding 修改編碼
url='http://music.baidu.com' r=requests.get(url) r.encoding='utf-8' print(r.text)
看完上述內(nèi)容,你們掌握怎么解決python中的request中文亂碼的方法了嗎?如果還想學(xué)到更多技能或想了解更多相關(guān)內(nèi)容,歡迎關(guān)注億速云行業(yè)資訊頻道,感謝各位的閱讀!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。