溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

python爬蟲中異常捕獲及標(biāo)簽過濾的方法

發(fā)布時間:2022-02-19 16:08:03 來源:億速云 閱讀:205 作者:iii 欄目:開發(fā)技術(shù)

這篇文章主要介紹了python爬蟲中異常捕獲及標(biāo)簽過濾的方法的相關(guān)知識,內(nèi)容詳細(xì)易懂,操作簡單快捷,具有一定借鑒價值,相信大家閱讀完這篇python爬蟲中異常捕獲及標(biāo)簽過濾的方法文章都會有所收獲,下面我們一起來看看吧。

增加異常捕獲,更容易現(xiàn)問題的解決方向

import ssl
import urllib.request
from bs4 import BeautifulSoup
from urllib.error import HTTPError, URLError
 
 
def get_data(url):
    headers = {"user-agent":
                   "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36"
               }
    ssl._create_default_https_context = ssl._create_unverified_context
 
    """
    urlopen處增加兩個異常捕獲:
            1、如果頁面出現(xiàn)錯誤或者服務(wù)器不存在時,會拋HTTP錯誤代碼
            2、如果url寫錯了或者是鏈接打不開時,會拋URLError錯誤
    """
    try:
        url_obj = urllib.request.Request(url, headers=headers)
        response = urllib.request.urlopen(url_obj)
        html = response.read().decode('utf8')
    except (HTTPError, URLError)as e:
        raise e
 
    """
    BeautifulSoup處增加異常捕獲是因?yàn)锽eautifulSoup對象中有時候標(biāo)簽實(shí)際不存在時,會返回None值;
    因?yàn)椴恢?,所以調(diào)用了就會導(dǎo)致拋出AttributeError: 'NoneType' object has no xxxxxxx。
    """
    try:
        bs = BeautifulSoup(html, "html.parser")
        results = bs.body 
    except AttributeError as e:
        return None
 
    return results
 
 
if __name__ == '__main__':
    print(get_data("https://movie.douban.com/chart"))

解析html,更好的實(shí)現(xiàn)數(shù)據(jù)展示效果

  • get_text():獲取文本信息

# 此處代碼同上面打開url代碼一致,故此處省略......
 
html = response.read().decode('utf8')
bs = BeautifulSoup(html, "html.parser")
data = bs.find('span', {'class': 'pl'})
print(f'電影評價數(shù):{data}')
print(f'電影評價數(shù):{data.get_text()}')

運(yùn)行后的結(jié)果顯示如下:

電影評價數(shù):<span class="pl">(38054人評價)</span>
電影評價數(shù):(38054人評價)
  • find() 方法是過濾HTML標(biāo)簽,查找需要的單個標(biāo)簽

實(shí)際find方法封裝是調(diào)用了正則find_all方法,把find_all中的limt參數(shù)傳1,獲取單個標(biāo)簽

1.name:可直接理解為標(biāo)簽元素

2.attrs:字典格式,放屬性和屬性值 {"class": "indent"}

3.recursive:遞歸參數(shù),布爾值,為真時遞歸查詢子標(biāo)簽

4.text:標(biāo)簽的文本內(nèi)容匹配 , 是標(biāo)簽的文本,標(biāo)簽的文本

  • find_all() 方法是過濾HTML標(biāo)簽,查找需要的標(biāo)簽組

使用方法適合find一樣的,無非就是多了個limit參數(shù)(篩選數(shù)據(jù))

必須注意的小知識點(diǎn):

#   下面兩種寫法,實(shí)際是一樣的功能,都是查詢id為text的屬性值
bs.find_all(id="text")
bs.find_all(' ', {"id": "text"})
#   如果是class的就不能class="x x x"了,因?yàn)閏lass是python中類的關(guān)鍵字
bs.find_all(class_="text")
bs.find_all(' ', {"class": "text"})

關(guān)于“python爬蟲中異常捕獲及標(biāo)簽過濾的方法”這篇文章的內(nèi)容就介紹到這里,感謝各位的閱讀!相信大家對“python爬蟲中異常捕獲及標(biāo)簽過濾的方法”知識都有一定的了解,大家如果還想學(xué)習(xí)更多知識,歡迎關(guān)注億速云行業(yè)資訊頻道。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI