您好,登錄后才能下訂單哦!
在Python中使用requests庫(kù)爬取數(shù)據(jù)時(shí)返回為空如何解決?很多新手對(duì)此不是很清楚,為了幫助大家解決這個(gè)難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來(lái)學(xué)習(xí)下,希望你能有所收獲。
Python主要應(yīng)用于:1、Web開(kāi)發(fā);2、數(shù)據(jù)科學(xué)研究;3、網(wǎng)絡(luò)爬蟲(chóng);4、嵌入式應(yīng)用開(kāi)發(fā);5、游戲開(kāi)發(fā);6、桌面應(yīng)用開(kāi)發(fā)。
html字段:
robots協(xié)議:
現(xiàn)在我們開(kāi)始用python IDLE 爬取
import requests r = requests.get("https://baike.so.com/doc/24368318-25185095.html") r.status_code r.text
結(jié)果分析,我們可以成功訪問(wèn)到該網(wǎng)頁(yè),但是得不到網(wǎng)頁(yè)的結(jié)果。被360搜索識(shí)別,我們將headers修改。
輸出有個(gè)小插曲,網(wǎng)頁(yè)內(nèi)容很多,我是想將前500個(gè)字符輸出,第一次格式錯(cuò)了
import requests headers = { 'Cookie':'OCSSID=4df0bjva6j7ejussu8al3eqo03', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36' '(KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36', } r = requests.get("https://baike.so.com/doc/24368318-25185095.html", headers = headers) r.status_code r.text
接著我們對(duì)需要的內(nèi)容進(jìn)行爬取,用(.find)方法找到我們內(nèi)容位置,用(.children)下行遍歷的方法對(duì)內(nèi)容進(jìn)行爬取,用(isinstance)方法對(duì)內(nèi)容進(jìn)行篩選:
import requests from bs4 import BeautifulSoup import bs4 headers = { 'Cookie':'OCSSID=4df0bjva6j7ejussu8al3eqo03', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36' '(KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36', } r = requests.get("https://baike.so.com/doc/24368318-25185095.html", headers = headers) r.status_code r.encoding = r.apparent_encoding soup = BeautifulSoup(r.text, "html.parser") for tr in soup.find('tbody').children: if isinstance(tr, bs4.element.Tag): tds = tr('td') print([tds[0].string, tds[1].string, tds[2].string])
得到結(jié)果如下:
修改輸出的數(shù)目,我們用Clist列表來(lái)存取所有城市的排名,將前20個(gè)輸出代碼如下:
import requests from bs4 import BeautifulSoup import bs4 Clist = list() #存所有城市的列表 headers = { 'Cookie':'OCSSID=4df0bjva6j7ejussu8al3eqo03', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36' '(KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36', } r = requests.get("https://baike.so.com/doc/24368318-25185095.html", headers = headers) r.encoding = r.apparent_encoding #將html的編碼解碼為utf-8格式 soup = BeautifulSoup(r.text, "html.parser") #重新排版 for tr in soup.find('tbody').children: #將tbody標(biāo)簽的子列全部讀取 if isinstance(tr, bs4.element.Tag): #篩選tb列表,將有內(nèi)容的篩選出啦 tds = tr('td') Clist.append([tds[0].string, tds[1].string, tds[2].string]) for i in range(21): print(Clist[i])
最終結(jié)果:
看完上述內(nèi)容是否對(duì)您有幫助呢?如果還想對(duì)相關(guān)知識(shí)有進(jìn)一步的了解或閱讀更多相關(guān)文章,請(qǐng)關(guān)注億速云行業(yè)資訊頻道,感謝您對(duì)億速云的支持。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。