溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

python爬蟲beautiful?soup怎么使用

發(fā)布時(shí)間:2022-08-25 11:25:28 來源:億速云 閱讀:106 作者:iii 欄目:開發(fā)技術(shù)

這篇“python爬蟲beautiful soup怎么使用”文章的知識(shí)點(diǎn)大部分人都不太理解,所以小編給大家總結(jié)了以下內(nèi)容,內(nèi)容詳細(xì),步驟清晰,具有一定的借鑒價(jià)值,希望大家閱讀完這篇文章能有所收獲,下面我們一起來看看這篇“python爬蟲beautiful soup怎么使用”文章吧。

前言

 簡(jiǎn)述bs4:使用pip install beautifulsoup4將bs4包安裝到當(dāng)前的python解釋器環(huán)境,使用from bs4 import BeautifulSoup導(dǎo)入BeautifulSoup類,進(jìn)而生成BeautifulSoup類實(shí)例并調(diào)用實(shí)例相應(yīng)的屬性和方法。

bs類似于正則查詢字符串,不過不需要我們自己寫正則表達(dá)式,bs4已經(jīng)將處理爬蟲數(shù)據(jù)時(shí)的實(shí)際問題進(jìn)行了統(tǒng)一歸類并提出了解決方法,即:將處理html文檔字符串時(shí)遇到的問題進(jìn)行簡(jiǎn)化并給出api,以便于對(duì)html字符串文檔進(jìn)行信息提取和篩選(不需要自己寫正則了)。

一,Beautiful Soup簡(jiǎn)介

 Beatifil soup提供一些簡(jiǎn)單的、python式的函數(shù)用來處理導(dǎo)航、搜索、修改分析樹等功能。它是一個(gè)工具箱,通過解析文檔為用戶提供需要機(jī)取的數(shù)據(jù),因?yàn)楹?jiǎn)單,所以不需要多少代碼就可以寫出一個(gè)完整的應(yīng)用程序。
Beautiul Soup自動(dòng)將輸入文檔轉(zhuǎn)換為Unicode編碼,輸出文檔轉(zhuǎn)換為utf8編碼。你不需要考慮編碼方式,除非文檔有指定一個(gè)編碼方式,這時(shí),Beautiful soup就不能自動(dòng)識(shí)別編碼方了。然后,你僅僅需要說明—下原始編碼方式就可以了。一般的編碼為:utf8,gb2312等。
Beautiful Soup已成為和bxml、html6lib一樣出色的python解釋器,為用戶靈活地提供不同的解析策胳或強(qiáng)勁的速度。

總結(jié):Beautiful Soup依據(jù)給定的解釋器來解析html文檔,其依據(jù)html中標(biāo)簽把html文檔在內(nèi)存中轉(zhuǎn)化為類似于二叉樹的數(shù)據(jù)結(jié)構(gòu),并通過實(shí)現(xiàn)的查詢方法來查詢二叉樹以得到我們想要的爬蟲數(shù)據(jù)。也就是Beautiful Soup專門用于處理html這種有著規(guī)范格式的文檔字符串,他會(huì)自動(dòng)補(bǔ)全html標(biāo)簽以及根據(jù)標(biāo)簽層級(jí)結(jié)構(gòu)進(jìn)行文檔格式化,使其更美觀,而且支持query各種標(biāo)簽。

二,Beautiful Soup的解析器

2.1 各種解析器一覽

python爬蟲beautiful?soup怎么使用

2.2 引入解析器的語(yǔ)法

# soup對(duì)象 = BeautifulSoup(爬取得到的文檔字符串, 解析器)
soup = BeautifulSoup(html, 'lxml')

三,Beautiful Soup解析得到的四種對(duì)象

3.1 四種對(duì)象 一覽

Beautiful Soup將復(fù)雜HTML文檔轉(zhuǎn)換成一個(gè)復(fù)雜的樹形結(jié)構(gòu),每個(gè)節(jié)點(diǎn)都是Python對(duì)象,所有對(duì)象可以歸納為4種: Tag , Navigablestring , BeautifulSoup , Comment .

python爬蟲beautiful?soup怎么使用

具體指代如下:BeautifulSoup指代整個(gè)html文檔,即document。

python爬蟲beautiful?soup怎么使用

3.2 bs對(duì)象的tag屬性

tag為一個(gè)統(tǒng)稱,可以具體為html的各種標(biāo)簽,如h2-h7,div,a……等。實(shí)際上tag與一個(gè)節(jié)點(diǎn)對(duì)象綁定,這個(gè)節(jié)點(diǎn)對(duì)象擁有string,name,parent,attrs等屬性,指代一個(gè)html標(biāo)簽。注:只有第一個(gè)先出現(xiàn)的tag會(huì)被捕捉到。

詳細(xì)如下圖:

python爬蟲beautiful?soup怎么使用

舉例如下:

soup = BeautifulSoup(html, 'lxml')
title = soup.title # 獲取文檔的標(biāo)題,并與變量title綁定
 
# tag對(duì)象常見的屬性如下:
title.name # 返回當(dāng)前tag的標(biāo)簽名稱,該屬性可讀寫
title.string # 獲取當(dāng)前tag的navigatiblestring對(duì)象
title.parent # 獲取當(dāng)前tag的父節(jié)點(diǎn)
title.attrs # 獲取當(dāng)前tag的屬性字典
 
 
# tag對(duì)象常見的方法如下:
title.get('class') # 括號(hào)里面寫屬性名稱,title.get('屬性名稱')
title.get('href')
title.get_text() # 獲取tag的元素內(nèi)容,與string一模一樣

3.3 bs對(duì)象的prettify屬性及prettify()方法

用于打印整個(gè)格式化之后的html文檔,會(huì)自動(dòng)補(bǔ)全缺少的標(biāo)簽。

from bs4 import BeautifulSoup
soup = BeautifulSoup('<b id="boldest"> ','lxml')
soup.prettify()
soup.prettify
# 上面兩個(gè)等價(jià)

3.4 bs對(duì)象tag對(duì)象的屬性獲取

python爬蟲beautiful?soup怎么使用

屬性可以通過tag['key']來讀取,也可以用一個(gè)全新的變量來綁定tag的attrs屬性進(jìn)行訪問?;蛘呤褂胻ag.get(attr_name)來獲取屬性的value。另外attrs是一個(gè)字典,支持字典的增刪改查等操作,從而操作tag的屬性。

多值屬性指的是某些標(biāo)簽屬性如class,charset&hellip;&hellip;等具有多個(gè)屬性值,如:<class="mmd mmd2 mmd3">,對(duì)于這種標(biāo)簽,bs將他們的屬性值放在一個(gè)list中。而如id等屬性只有一個(gè)值,他們的屬性值為str類型。多值屬性列表會(huì)自動(dòng)轉(zhuǎn)換為html里面的多值屬性語(yǔ)法格式。

css_soup = BeautifulSoup('<p class="body"></p>')
css_soup.p['class']
# ["body"]
 
id_soup = BeautifulSoup('<p id="my id"></p>')
id_soup.p['id']
# 'my id'

3.5  NavigableString對(duì)象

一般指tag.string,他是一個(gè)偽字符串對(duì)象,使用str()將其轉(zhuǎn)換為python的字符串即可。轉(zhuǎn)換之后本質(zhì)上等同于python的字符串類型。所有字符串的屬性及對(duì)字符串的方法都對(duì)其適用。

也可以不使用str()轉(zhuǎn)換,直接使用tag.text就是一個(gè)字符串。

他指代某個(gè)標(biāo)簽里面的文字內(nèi)容,而不包括里面嵌套的標(biāo)簽。由于其類似字符串,所以無(wú)法修改,但是可以使用replace_with() 方法將其修改為其他字符串。

from bs4 import BeautifulSoup
soup = BeautifulSoup('<b class="boldest">Extremely bold</b>','lxml')
tag = soup.b
print(tag.string)
print(type(tag.string))
# Extremely bold
# <class 'bs4.element.NavigableString'>
 
#---------------------------------------------------#
unicode_string = str(tag.string)
print(unicode_string)
print(type(unicode_string))
# Extremely bold
# <class 'str'>
 
#---------------------------------------------------#
tag.string.replace_with("No longer bold")
print(tag)
# No longer bold

3.6 comment對(duì)象及beautiful soup對(duì)象

了解即可。beautiful soup對(duì)象指代document文檔對(duì)象,本質(zhì)上也是一個(gè)tag;comment指代html文檔中的注釋內(nèi)容,是一種特殊的 NavigableString對(duì)象,實(shí)際中應(yīng)注意注釋混在元素內(nèi)容之中,造成數(shù)據(jù)污染。

說其是一種特殊的 NavigableString對(duì)象,是因?yàn)椋簍ag.string可以為一個(gè) NavigableString對(duì)象,也有可能為一個(gè)comment對(duì)象。但是一般使用tag.string來訪問元素內(nèi)容,而不是元素里面的注釋。

使用tag.prettify屬性來打印出某個(gè)tag里面的所有內(nèi)容,來判斷使元素內(nèi)容還是注釋。

四,標(biāo)簽的定位

使用bs最重要的部分就是標(biāo)簽定位,定位之后才能獲取得到我們想要的數(shù)據(jù)。各種定位方法都是基于對(duì)html解析樹的操作,類似于二叉樹從一個(gè)節(jié)點(diǎn)向四周尋找節(jié)點(diǎn)。所有我們需要做的就是:先定位到一個(gè)容易定位的二叉樹節(jié)點(diǎn),再?gòu)倪@個(gè)節(jié)點(diǎn)定位到我們需要的節(jié)點(diǎn)?;蛘呤褂胏ss選擇器精準(zhǔn)定位。

4.1 find()&find_all()方法

官方名字為過濾器,實(shí)際上就是通過正則匹配到我們想要的字符串。下面只介紹find_all(),find只能找一個(gè),一般不使用。

需要注意find_all()的參數(shù),可以是一個(gè)tag_name,一個(gè)正則對(duì)象,一個(gè)列表(如,['div','a']),一個(gè)keyword(如,id="mmd"),一個(gè)True&hellip;&hellip;

 具體用法如下圖:

tag
soup.find_all('b')
# [<b>The Dormouse's story</b>]
 
正則
import re
for tag in soup.find_all(re.compile("^b")):
    print(tag.name)
# body
# b
 
列表
soup.find_all(["a", "b"])
# [<b>The Dormouse's story</b>,
#  <a class="sister" href="http://example.com/elsie" rel="external nofollow"  id="link1">Elsie</a>,
#  <a class="sister" href="http://example.com/lacie" rel="external nofollow"  id="link2">Lacie</a>,
#  <a class="sister" href="http://example.com/tillie" rel="external nofollow"  id="link3">Tillie</a>]
 
True
for tag in soup.find_all(True):
    print(tag.name)
# html
# head
# title
# body
 
方法
def has_class_but_no_id(tag):
    return tag.has_attr('class') and not tag.has_attr('id')
soup.find_all(has_class_but_no_id)
# [<p class="title"><b>The Dormouse's story</b></p>,
#  <p class="story">Once upon a time there were...</p>,
#  <p class="story">...</p>]

常用寫法:

python爬蟲beautiful?soup怎么使用

4.2 select()方法

參數(shù)是一個(gè)css選擇器。 與前端css中的各種選擇器一模一樣,這個(gè)比f(wàn)ind_all()更加常用,畢竟與前端比較類似,容錯(cuò)率高。

python爬蟲beautiful?soup怎么使用

soup.select("title")
# [<title>The Dormouse's story</title>]
 
soup.select("p:nth-of-type(3)")
# [<p class="story">...</p>]

4.4 節(jié)點(diǎn)之間的各種關(guān)系定位函數(shù)

參看官方文檔,bs4官方文檔。

上面的selec和find_all()基本上能夠定位到任何位置了,不需要找爸爸找兒子這種形式去定位了。

以上就是關(guān)于“python爬蟲beautiful soup怎么使用”這篇文章的內(nèi)容,相信大家都有了一定的了解,希望小編分享的內(nèi)容對(duì)大家有幫助,若想了解更多相關(guān)的知識(shí)內(nèi)容,請(qǐng)關(guān)注億速云行業(yè)資訊頻道。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI