您好,登錄后才能下訂單哦!
這篇文章給大家分享的是有關(guān)java爬蟲如何爬取貓眼電影TOP榜數(shù)據(jù)的內(nèi)容。小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考,一起跟隨小編過來看看吧。
爬蟲是如何爬取貓眼電影TOP榜數(shù)據(jù)的。主要抓取的內(nèi)容有排名、圖片、電影名稱、主演、上映時(shí)間和評(píng)分信息。在抓取之前,我們先打開貓眼電影TOP100頁面,研究分析頁面,查找我們需要的信息位置,然后抓取。
代碼如下:
import json
import requests
from requests.exceptions import RequestException
import re
import time
def get_one_page(url):
try: headers = { 'User-Agent': 'agent信息'} response = requests.get(url, headers=headers) if response.status_code == 200: return response.text return None except RequestException: return None
def parse_one_page(html):
pattern = re.compile('<dd>.*?board-index.*?>(\d+)</i>.*?data-src="(.*?)".*?name"><a' + '.*?>(.*?)</a>.*?star">(.*?)</p>.*?releasetime">(.*?)</p>' + '.*?integer">(.*?)</i>.*?fraction">(.*?)</i>.*?</dd>', re.S) items = re.findall(pattern, html) for item in items: yield { 'index': item[0], 'image': item[1], 'title': item[2], 'actor': item[3].strip()[3:], 'time': item[4].strip()[5:], 'score': item[5] + item[6] }
def write_to_file(content):
with open('result.txt', 'a', encoding='utf-8') as f: f.write(json.dumps(content, ensure_ascii=False) + '\n')
def main(offset):
url = 'http://maoyan.com/board/4?offset=' + str(offset) html = get_one_page(url) for item in parse_one_page(html): print(item) write_to_file(item)
if name == 'main':
for i in range(10): main(offset=i * 10) time.sleep(1)
通過上述代碼,我們就可以獲取到貓眼電影TOP榜數(shù)據(jù)信息了。
感謝各位的閱讀!關(guān)于“java爬蟲如何爬取貓眼電影TOP榜數(shù)據(jù)”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,讓大家可以學(xué)到更多知識(shí),如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到吧!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。