您好,登錄后才能下訂單哦!
這篇文章將為大家詳細講解有關怎么使用Python抓取豆瓣影評數據,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
1、簡單易用,與C/C++、Java、C# 等傳統語言相比,Python對代碼格式的要求沒有那么嚴格;2、Python屬于開源的,所有人都可以看到源代碼,并且可以被移植在許多平臺上使用;3、Python面向對象,能夠支持面向過程編程,也支持面向對象編程;4、Python是一種解釋性語言,Python寫的程序不需要編譯成二進制代碼,可以直接從源代碼運行程序;5、Python功能強大,擁有的模塊眾多,基本能夠實現所有的常見功能。
抓取豆瓣影評評分
正常的抓取
分析請求的url
https://movie.douban.com/subject/26322642/comments?start=20&limit=20&sort=new_score&status=P&percent_type=
里面有用的也就是start
和limit
參數,我嘗試過修改limit參數,但是沒有效果,可以認為是默認的 start
參數是用來設置從第幾條數據開始查詢的
設計查詢列表,發(fā)現頁面中有url中的查詢部分,且指向下一個頁面
于是采用下面的代碼進行判斷是否還有下一個頁面
if next_url: visit_URL('https://movie.douban.com/subject/24753477/comments'+next_url)
用requests發(fā)送請求,beautifulsoup進行網頁解析
把數據寫入txt
import requests from bs4 import BeautifulSoup first_url = 'https://movie.douban.com/subject/26322642/comments?status=P' # 請求頭部 headers = { 'Host':'movie.douban.com', 'Referer':'https://movie.douban.com/subject/24753477/?tag=%E7%83%AD%E9%97%A8&from=gaia_video', 'Upgrade-Insecure-Requests':'1', 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36', } def visit_URL(url): res = requests.get(url=url,headers=headers) soup = BeautifulSoup(res.content,'html5lib') div_comment = soup.find_all('div',class_='comment-item') # 找到所有的評論模塊 for com in div_comment: username = com.find('div',class_='avatar').a['title'] comment_time = com.find('span',class_='comment-time')['title'] votes = com.find('span',class_='votes').get_text() comment = com.p.get_text() with open('1.txt','a',encoding='utf8') as file: file.write('評論人:'+username+'\n') file.write('評論時間:'+comment_time+'\n') file.write('支持人數:'+votes+'\n') file.write('評論內容:'+comment+'\n') # 檢查是否有下一頁 next_url = soup.find('a',class_='next') if next_url: temp = next_url['href'].strip().split('&') # 獲取下一個url next_url = ''.join(temp) print(next_url) # print(next_url) if next_url: visit_URL('https://movie.douban.com/subject/24753477/comments'+next_url) if __name__ == '__main__': visit_URL(first_url)
模仿移動端
很多時候模仿移動端獲得的頁面會比PC端的簡單,更加容易解析,這次模擬移動端,發(fā)現可以直接訪問api獲取json格式的數據,nice!
至于怎么模擬移動端只需要將user-agent
修改為移動端的頭
useragents = [ "Mozilla/5.0 (iPhone; CPU iPhone OS 9_2 like Mac OS X) AppleWebKit/601.1 (KHTML, like Gecko) CriOS/47.0.2526.70 Mobile/13C71 Safari/601.1.46", "Mozilla/5.0 (Linux; U; Android 4.4.4; Nexus 5 Build/KTU84P) AppleWebkit/534.30 (KHTML, like Gecko) Version/4.0 Mobile Safari/534.30", "Mozilla/5.0 (compatible; MSIE 9.0; Windows Phone OS 7.5; Trident/5.0; IEMobile/9.0)"
怎么獲取這些頭部?用火狐的插件user-agent switcher
之后的操作就是解析json
import random import requests import json import time first_url = 'https://m.douban.com/rexxar/api/v2/tv/26322642/interests?count=20&order_by=hot&start=0&ck=dNhr&for_mobile=1' url = 'https://m.douban.com/rexxar/api/v2/tv/26322642/interests' # 移動端頭部信息 useragents = [ "Mozilla/5.0 (iPhone; CPU iPhone OS 9_2 like Mac OS X) AppleWebKit/601.1 (KHTML, like Gecko) CriOS/47.0.2526.70 Mobile/13C71 Safari/601.1.46", "Mozilla/5.0 (Linux; U; Android 4.4.4; Nexus 5 Build/KTU84P) AppleWebkit/534.30 (KHTML, like Gecko) Version/4.0 Mobile Safari/534.30", "Mozilla/5.0 (compatible; MSIE 9.0; Windows Phone OS 7.5; Trident/5.0; IEMobile/9.0)" ] def visit_URL(i): print(">>>>>",i) # 請求頭部 headers = { 'Host':'m.douban.com', 'Upgrade-Insecure-Requests':'1', 'User-Agent':random.choice(useragents) } params = { 'count':'50', 'order_by':'hot', 'start':str(i), 'for_mobile':'1', 'ck':'dNhr' } res = requests.get(url=url,headers=headers,params=params) res_json = res.json() interests = res_json['interests'] print(len(interests)) for item in interests: with open('huge.txt','a',encoding='utf-8') as file: if item['user']: if item['user']['name']: file.write('評論用戶:'+item['user']['name']+'\n') else: file.write('評論用戶:none\n') if item['create_time']: file.write('評論時間:'+item['create_time']+'\n') else: file.write('評論時間:none\n') if item['comment']: file.write('評論內容:'+item['comment']+'\n') else: file.write('評論內容:none\n') if item['rating']: if item['rating']['value']: file.write('對電影的評分:'+str(item['rating']['value'])+'\n\n') else: file.write('對電影的評分:none\n') if __name__ == '__main__': for i in range(0,66891,20): # time.sleep(2) visit_URL(i)
關于“怎么使用Python抓取豆瓣影評數據”這篇文章就分享到這里了,希望以上內容可以對大家有一定的幫助,使各位可以學到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。
免責聲明:本站發(fā)布的內容(圖片、視頻和文字)以原創(chuàng)、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。