您好,登錄后才能下訂單哦!
這篇文章將為大家詳細(xì)講解有關(guān)如何用Python采集騰訊招聘數(shù)據(jù),文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個(gè)參考,希望大家閱讀完這篇文章后對相關(guān)知識有一定的了解。
今天我們爬取騰訊招聘網(wǎng)站Python崗位的招聘信息。如圖所示:
然后還是先看一下最終的結(jié)果,我們保存到csv文件中。
爬取1000條數(shù)據(jù),第一行是title:
老規(guī)矩,我們還是走流程。
抓取騰訊招聘網(wǎng)站Python相關(guān)崗位數(shù)據(jù),打開目標(biāo)網(wǎng)站,F12打開開發(fā)者工具,發(fā)現(xiàn)崗位信息不在網(wǎng)頁源碼中,很明顯是在XHR中的json數(shù)據(jù)。
正好對應(yīng)頁面十條數(shù)據(jù),接下來就好辦了。
找到url的頁面規(guī)律,
第一頁url:https://careers.tencent.com/tencentcareer/api/post/Query?timestamp=1620561777984&countryId=&cityId=&bgIds=&productId=&categoryId=&parentCategoryId=&attrId=&keyword=python&pageIndex=1&pageSize=10&language=zh-cn&area=cn
index參數(shù)對應(yīng)值即為頁碼,所以循環(huán)得到url鏈。
def getPage(self): url_list = [] for i in range(100): url = self.url.format(i + 1) url_list.append(url) return url_list
得到url鏈之后我們循環(huán)遍歷發(fā)起請求,得到j(luò)son數(shù)據(jù),將json數(shù)據(jù)轉(zhuǎn)換成字典,并解析數(shù)據(jù)。
for url in urlList: resp = requests.get(url, headers=self.headers) data = resp.content.decode('utf-8') dic_data = json.loads(data) dic_data_list = dic_data["Data"]["Posts"] for i in dic_data_list: work_list.append(i)
這樣就得到了崗位信息數(shù)據(jù)。
得到了崗位數(shù)據(jù)之后我們需要把它保存到本地,這里我們把數(shù)據(jù)保存到本地csv文件中。
try: with open('Tx_work.csv', 'w', encoding='utf-8', newline='') as f: writer = csv.DictWriter(f, self.title) writer.writeheader() writer.writerows(dic) print('寫入成功') except Exception as e: print(e)
if __name__ == '__main__': tx = Tx(base_url,hd,titles) tx.run()
關(guān)于如何用Python采集騰訊招聘數(shù)據(jù)就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識。如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。