您好,登錄后才能下訂單哦!
這篇文章主要介紹Python3中如何爬取百姓網(wǎng)列表并保存為json功能,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!
具體如下:
python3爬蟲之爬取百姓網(wǎng)列表并保存為json文件。這幾天一直在學習使用python3爬取數(shù)據(jù),今天記錄一下,代碼很簡單很容易上手。
首先需要安裝python3。如果還沒有安裝,可參考本站python3安裝與配置相關文章。
首先需要安裝requests和lxml和json三個模塊
需要手動創(chuàng)建d.json文件
代碼
import requests from lxml import etree import json #構(gòu)造頭文件,模擬瀏覽器訪問 url="http://xian.baixing.com/meirongfuwu/" headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.77 Safari/537.36','referer':url} response=requests.get(url,headers=headers) body=response.text #獲取網(wǎng)頁內(nèi)容 html=etree.HTML(body,etree.HTMLParser()) gethtml=html.xpath('//div[contains(@class,"media-body-title")]') # 存儲為數(shù)組list jsondata = [] for item in gethtml: jsonone={} jsonone['title']=item.xpath('.//a[contains(@class,"ad-title")]/text()')[0] jsonone['url']=item.xpath('.//a[contains(@class,"ad-title")]/attribute::href')[0] jsonone['phone']=item.xpath('.//button[contains(@class,"contact-button")]/attribute::data-contact')[0] jsondata.append(jsonone) # 保存為json with open("./d.json",'w',encoding='utf-8') as json_file: json.dump(jsondata,json_file,ensure_ascii=False)
結(jié)果
以上是“Python3中如何爬取百姓網(wǎng)列表并保存為json功能”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關知識,歡迎關注億速云行業(yè)資訊頻道!
免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。