您好,登錄后才能下訂單哦!
當(dāng)年學(xué)爬蟲的第一個(gè)想法就是想把雙色球的數(shù)據(jù)爬下來,然后看能不能用什么牛叉的算法,或者數(shù)據(jù)分析把后面的雙色球概率算出來;
知道現(xiàn)在才抽空寫了這幾行代碼爬取了雙色球的數(shù)據(jù),我也真是夠懶的;
也算是閑來無事,練手的爬蟲吧;
好了,多余的就不說了,直接上代碼吧,代碼注釋已經(jīng)很清楚了;
import sys
import requests
from lxml import etree
def get_url(url): #請(qǐng)求url的方法,返回html
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36',
}
response = requests.get(url,headers=headers) #獲取請(qǐng)求的返回?cái)?shù)據(jù)
response.encoding = 'utf-8' #定義編碼,不然中文輸出會(huì)亂碼;
if response.status_code == 200: #如果請(qǐng)求成功,則返回;
return response.text
return None
for q in range(1,125): #for循環(huán),一共124頁;
url = 'http://kaijiang.zhcw.com/zhcw/html/ssq/list_%s.html' % (q) #定義請(qǐng)求的鏈接
html = get_url(url) #請(qǐng)求url獲取返回代碼
xpath_html = etree.HTML(html) #xpath初始化html代碼
dates = xpath_html.xpath('//table[@class="wqhgt"]//tr//td[1]//text()') #獲取開獎(jiǎng)日期
result = xpath_html.xpath('//table[@class="wqhgt"]//tr//em//text()') #獲取上色球號(hào)
issues = xpath_html.xpath('//table[@class="wqhgt"]//tr//td[2]//text()') #獲取期號(hào)
# print(result) #輸出所有雙色球的列
# print(len(result)//7) #輸出有幾組雙色球
# print(dates)
# print(issues)
sta = 0
end = 7
for n in range(len(result)//7): #雙色球7個(gè)號(hào)一組,
print("開獎(jiǎng)日期:" + str(dates[n]) + " --- " + "期號(hào):" + str(issues[n]) + " --- " + str(result[sta:end]))
sta = sta + 7
end = end + 7
python版本用的3.7,開發(fā)工具用的pycharm;
爬取的結(jié)果可以根據(jù)自己需求進(jìn)行調(diào)整,后面怎么用這些數(shù)據(jù)就不說了哈;具體根據(jù)自己需求進(jìn)行分析吧;
運(yùn)行的結(jié)果:
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。