您好,登錄后才能下訂單哦!
小編給大家分享一下解決python爬到的內(nèi)容中文亂碼,希望大家閱讀完這篇文章后大所收獲,下面讓我們一起去探討吧!
網(wǎng)絡(luò)爬蟲為一個(gè)自動(dòng)提取網(wǎng)頁的程序,它為搜索引擎從萬維網(wǎng)上下載網(wǎng)頁,是搜索引擎的重要組成。傳統(tǒng)爬蟲從一個(gè)或若干初始網(wǎng)頁的
URL開始,獲得初始網(wǎng)頁上的URL,在抓取網(wǎng)頁的過程中,不斷從當(dāng)前頁面上抽取新的URL放入隊(duì)列,直到滿足系統(tǒng)的一定停止條件。
爬蟲部分代碼如下
`` r = requests.get('http://www.xxxxxxxxxxxxxxx.html') print(r.text) ```
初次試寫python爬蟲爬取網(wǎng)頁小說,
但是會(huì)出現(xiàn)中文亂碼,很是尷尬。
解決辦法
先 r.encoding = r.apparent_encoding # 解決中文亂碼
解碼后再取text。 結(jié)束
看完了這篇文章,相信你對(duì)解決python爬到的內(nèi)容中文亂碼有了一定的了解,想了解更多相關(guān)知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道,感謝各位的閱讀!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。