您好,登錄后才能下訂單哦!
小編給大家分享一下python爬蟲如何爬取天氣預(yù)報表,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
1 構(gòu)造URL列表
每個月份的歷史天氣數(shù)據(jù)是通過一個 Javascript 文件獲取的。因此,我們需要構(gòu)造帶爬取數(shù)據(jù)的 URL 列表,再批量爬取數(shù)據(jù)。
# 構(gòu)造2019全年的月份列表 months = [] for year in (2019,): for month in range(12): months.append("%d%02d"%(year, month+1)) todo_urls = [ "http://tianqi.2345.com/t/wea_history/js/"+month+"/58457_"+month+".js" for month in months ]
2 批量下載數(shù)據(jù)
使用 requests 庫獲取 js 文件中的數(shù)據(jù),并存到 datas 變量中。
import requests datas = [] for url in todo_urls: r = requests.get(url, headers = headers) if r.status_code!=200: raise Exception() # 去除javascript前后的字符串,得到一個js格式的JSON data = r.text.lstrip("var weather_str=").rstrip(";") datas.append(data)
3 解析數(shù)據(jù)
我們從 js 文件獲取的數(shù)據(jù) json 格式存儲的,需要使用 demjson 對數(shù)據(jù)進(jìn)行解析。
# 解析所有月份的數(shù)據(jù) all_datas = [] for data in datas: tqInfos = demjson.decode(data)["tqInfo"] all_datas.extend([x for x in tqInfos if len(x)>0])
4 將結(jié)果導(dǎo)入 csv 文件
import csv with open('./hangzhou_tianqi_2019.csv', 'w', newline='', encoding='utf-8') as csv_file: writer = csv.writer(csv_file) columns = list(all_datas[0].keys()) writer.writerow(columns) for data in all_datas: writer.writerow([data[column] for column in columns])
5 結(jié)果展示
以上是python爬蟲如何爬取天氣預(yù)報表的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識,歡迎關(guān)注億速云行業(yè)資訊頻道!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。