您好,登錄后才能下訂單哦!
這篇“python爬蟲beautiful soup怎么使用”文章的知識(shí)點(diǎn)大部分人都不太理解,所以小編給大家總結(jié)了以下內(nèi)容,內(nèi)容詳細(xì),步驟清晰,具有一定的借鑒價(jià)值,希望大家閱讀完這篇文章能有所收獲,下面我們一起來看看這篇“python爬蟲beautiful soup怎么使用”文章吧。
簡(jiǎn)述bs4:使用pip install beautifulsoup4將bs4包安裝到當(dāng)前的python解釋器環(huán)境,使用from bs4 import BeautifulSoup導(dǎo)入BeautifulSoup類,進(jìn)而生成BeautifulSoup類實(shí)例并調(diào)用實(shí)例相應(yīng)的屬性和方法。
bs類似于正則查詢字符串,不過不需要我們自己寫正則表達(dá)式,bs4已經(jīng)將處理爬蟲數(shù)據(jù)時(shí)的實(shí)際問題進(jìn)行了統(tǒng)一歸類并提出了解決方法,即:將處理html文檔字符串時(shí)遇到的問題進(jìn)行簡(jiǎn)化并給出api,以便于對(duì)html字符串文檔進(jìn)行信息提取和篩選(不需要自己寫正則了)。
Beatifil soup提供一些簡(jiǎn)單的、python式的函數(shù)用來處理導(dǎo)航、搜索、修改分析樹等功能。它是一個(gè)工具箱,通過解析文檔為用戶提供需要機(jī)取的數(shù)據(jù),因?yàn)楹?jiǎn)單,所以不需要多少代碼就可以寫出一個(gè)完整的應(yīng)用程序。
Beautiul Soup自動(dòng)將輸入文檔轉(zhuǎn)換為Unicode編碼,輸出文檔轉(zhuǎn)換為utf8編碼。你不需要考慮編碼方式,除非文檔有指定一個(gè)編碼方式,這時(shí),Beautiful soup就不能自動(dòng)識(shí)別編碼方了。然后,你僅僅需要說明—下原始編碼方式就可以了。一般的編碼為:utf8,gb2312等。
Beautiful Soup已成為和bxml、html6lib一樣出色的python解釋器,為用戶靈活地提供不同的解析策胳或強(qiáng)勁的速度。
總結(jié):Beautiful Soup依據(jù)給定的解釋器來解析html文檔,其依據(jù)html中標(biāo)簽把html文檔在內(nèi)存中轉(zhuǎn)化為類似于二叉樹的數(shù)據(jù)結(jié)構(gòu),并通過實(shí)現(xiàn)的查詢方法來查詢二叉樹以得到我們想要的爬蟲數(shù)據(jù)。也就是Beautiful Soup專門用于處理html這種有著規(guī)范格式的文檔字符串,他會(huì)自動(dòng)補(bǔ)全html標(biāo)簽以及根據(jù)標(biāo)簽層級(jí)結(jié)構(gòu)進(jìn)行文檔格式化,使其更美觀,而且支持query各種標(biāo)簽。
# soup對(duì)象 = BeautifulSoup(爬取得到的文檔字符串, 解析器) soup = BeautifulSoup(html, 'lxml')
Beautiful Soup將復(fù)雜HTML文檔轉(zhuǎn)換成一個(gè)復(fù)雜的樹形結(jié)構(gòu),每個(gè)節(jié)點(diǎn)都是Python對(duì)象,所有對(duì)象可以歸納為4種: Tag , Navigablestring , BeautifulSoup , Comment .
具體指代如下:BeautifulSoup指代整個(gè)html文檔,即document。
tag為一個(gè)統(tǒng)稱,可以具體為html的各種標(biāo)簽,如h2-h7,div,a……等。實(shí)際上tag與一個(gè)節(jié)點(diǎn)對(duì)象綁定,這個(gè)節(jié)點(diǎn)對(duì)象擁有string,name,parent,attrs等屬性,指代一個(gè)html標(biāo)簽。注:只有第一個(gè)先出現(xiàn)的tag會(huì)被捕捉到。
詳細(xì)如下圖:
舉例如下:
soup = BeautifulSoup(html, 'lxml') title = soup.title # 獲取文檔的標(biāo)題,并與變量title綁定 # tag對(duì)象常見的屬性如下: title.name # 返回當(dāng)前tag的標(biāo)簽名稱,該屬性可讀寫 title.string # 獲取當(dāng)前tag的navigatiblestring對(duì)象 title.parent # 獲取當(dāng)前tag的父節(jié)點(diǎn) title.attrs # 獲取當(dāng)前tag的屬性字典 # tag對(duì)象常見的方法如下: title.get('class') # 括號(hào)里面寫屬性名稱,title.get('屬性名稱') title.get('href') title.get_text() # 獲取tag的元素內(nèi)容,與string一模一樣
用于打印整個(gè)格式化之后的html文檔,會(huì)自動(dòng)補(bǔ)全缺少的標(biāo)簽。
from bs4 import BeautifulSoup soup = BeautifulSoup('<b id="boldest"> ','lxml') soup.prettify() soup.prettify # 上面兩個(gè)等價(jià)
屬性可以通過tag['key']來讀取,也可以用一個(gè)全新的變量來綁定tag的attrs屬性進(jìn)行訪問?;蛘呤褂胻ag.get(attr_name)來獲取屬性的value。另外attrs是一個(gè)字典,支持字典的增刪改查等操作,從而操作tag的屬性。
多值屬性指的是某些標(biāo)簽屬性如class,charset……等具有多個(gè)屬性值,如:<class="mmd mmd2 mmd3">,對(duì)于這種標(biāo)簽,bs將他們的屬性值放在一個(gè)list中。而如id等屬性只有一個(gè)值,他們的屬性值為str類型。多值屬性列表會(huì)自動(dòng)轉(zhuǎn)換為html里面的多值屬性語(yǔ)法格式。
css_soup = BeautifulSoup('<p class="body"></p>') css_soup.p['class'] # ["body"] id_soup = BeautifulSoup('<p id="my id"></p>') id_soup.p['id'] # 'my id'
一般指tag.string,他是一個(gè)偽字符串對(duì)象,使用str()將其轉(zhuǎn)換為python的字符串即可。轉(zhuǎn)換之后本質(zhì)上等同于python的字符串類型。所有字符串的屬性及對(duì)字符串的方法都對(duì)其適用。
也可以不使用str()轉(zhuǎn)換,直接使用tag.text就是一個(gè)字符串。
他指代某個(gè)標(biāo)簽里面的文字內(nèi)容,而不包括里面嵌套的標(biāo)簽。由于其類似字符串,所以無(wú)法修改,但是可以使用replace_with() 方法將其修改為其他字符串。
from bs4 import BeautifulSoup soup = BeautifulSoup('<b class="boldest">Extremely bold</b>','lxml') tag = soup.b print(tag.string) print(type(tag.string)) # Extremely bold # <class 'bs4.element.NavigableString'> #---------------------------------------------------# unicode_string = str(tag.string) print(unicode_string) print(type(unicode_string)) # Extremely bold # <class 'str'> #---------------------------------------------------# tag.string.replace_with("No longer bold") print(tag) # No longer bold
了解即可。beautiful soup對(duì)象指代document文檔對(duì)象,本質(zhì)上也是一個(gè)tag;comment指代html文檔中的注釋內(nèi)容,是一種特殊的 NavigableString
對(duì)象,實(shí)際中應(yīng)注意注釋混在元素內(nèi)容之中,造成數(shù)據(jù)污染。
說其是一種特殊的 NavigableString
對(duì)象,是因?yàn)椋簍ag.string可以為一個(gè) NavigableString
對(duì)象,也有可能為一個(gè)comment對(duì)象。但是一般使用tag.string來訪問元素內(nèi)容,而不是元素里面的注釋。
使用tag.prettify屬性來打印出某個(gè)tag里面的所有內(nèi)容,來判斷使元素內(nèi)容還是注釋。
使用bs最重要的部分就是標(biāo)簽定位,定位之后才能獲取得到我們想要的數(shù)據(jù)。各種定位方法都是基于對(duì)html解析樹的操作,類似于二叉樹從一個(gè)節(jié)點(diǎn)向四周尋找節(jié)點(diǎn)。所有我們需要做的就是:先定位到一個(gè)容易定位的二叉樹節(jié)點(diǎn),再?gòu)倪@個(gè)節(jié)點(diǎn)定位到我們需要的節(jié)點(diǎn)?;蛘呤褂胏ss選擇器精準(zhǔn)定位。
官方名字為過濾器,實(shí)際上就是通過正則匹配到我們想要的字符串。下面只介紹find_all(),find只能找一個(gè),一般不使用。
需要注意find_all()的參數(shù),可以是一個(gè)tag_name,一個(gè)正則對(duì)象,一個(gè)列表(如,['div','a']),一個(gè)keyword(如,id="mmd"),一個(gè)True……
具體用法如下圖:
tag soup.find_all('b') # [<b>The Dormouse's story</b>] 正則 import re for tag in soup.find_all(re.compile("^b")): print(tag.name) # body # b 列表 soup.find_all(["a", "b"]) # [<b>The Dormouse's story</b>, # <a class="sister" href="http://example.com/elsie" rel="external nofollow" id="link1">Elsie</a>, # <a class="sister" href="http://example.com/lacie" rel="external nofollow" id="link2">Lacie</a>, # <a class="sister" href="http://example.com/tillie" rel="external nofollow" id="link3">Tillie</a>] True for tag in soup.find_all(True): print(tag.name) # html # head # title # body 方法 def has_class_but_no_id(tag): return tag.has_attr('class') and not tag.has_attr('id') soup.find_all(has_class_but_no_id) # [<p class="title"><b>The Dormouse's story</b></p>, # <p class="story">Once upon a time there were...</p>, # <p class="story">...</p>]
常用寫法:
參數(shù)是一個(gè)css選擇器。 與前端css中的各種選擇器一模一樣,這個(gè)比f(wàn)ind_all()更加常用,畢竟與前端比較類似,容錯(cuò)率高。
soup.select("title") # [<title>The Dormouse's story</title>] soup.select("p:nth-of-type(3)") # [<p class="story">...</p>]
參看官方文檔,bs4官方文檔。
上面的selec和find_all()基本上能夠定位到任何位置了,不需要找爸爸找兒子這種形式去定位了。
以上就是關(guān)于“python爬蟲beautiful soup怎么使用”這篇文章的內(nèi)容,相信大家都有了一定的了解,希望小編分享的內(nèi)容對(duì)大家有幫助,若想了解更多相關(guān)的知識(shí)內(nèi)容,請(qǐng)關(guān)注億速云行業(yè)資訊頻道。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。