您好,登錄后才能下訂單哦!
這篇文章將為大家詳細(xì)講解有關(guān)Python3爬蟲實戰(zhàn)中爬取豆瓣電影的方法是什么,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。
爬蟲又稱為網(wǎng)頁蜘蛛,是一種程序或腳本。
但重點(diǎn)在于,它能夠按照一定的規(guī)則,自動獲取網(wǎng)頁信息。
爬蟲的基本原理——通用框架
1.挑選種子URL;
2.講這些URL放入帶抓取的URL列隊;
3.取出帶抓取的URL,下載并存儲進(jìn)已下載網(wǎng)頁庫中。此外,講這些URL放入帶抓取URL列隊,進(jìn)入下一循環(huán)。
4.分析已抓取列隊中的URL,并且將URL放入帶抓取URL列隊,從而進(jìn)去下一循環(huán)。
爬蟲獲取網(wǎng)頁信息和人工獲取信息,其實原理是一致的。
如我們要獲取電影的“評分”信息
人工操作步驟:
1.獲取電影信息的網(wǎng)頁;
2.定位(找到)要評分信息的位置;
3.復(fù)制、保存我們想要的評分?jǐn)?shù)據(jù)。
爬蟲操作步驟:
1.請求并下載電影頁面信息;
2.解析并定位評分信息;
3.保存評分?jǐn)?shù)據(jù)。
爬蟲的基本流程
簡單來說,我們向服務(wù)器發(fā)送請求后,會得到返回的頁面,通過解析頁面后,我們可以抽取我們想要的那部分信息,并存儲在指定文檔或數(shù)據(jù)庫中,這樣,我們想要的信息會被我們“爬”下來了。
python中用于爬蟲的包很多,如bs4,urllib,requests等等。這里我們用requests+xpath的方式,因為簡單易學(xué),像BeautifulSoup還是有點(diǎn)難的。
下面我們就使用requests和xpath來爬取豆瓣電影中的“電影名”、“導(dǎo)演”、“演員”、“評分”等信息。
安裝requests和lxml庫:
pip install requests pip install lxml
一、導(dǎo)入模塊
#-*- coding:utf-8 -*- import requests from lxml import etree import time #這里導(dǎo)入時間模塊,以免豆瓣封你IP
二、獲取豆瓣電影目標(biāo)網(wǎng)頁并解析
爬取豆瓣電影《神秘巨星》上的一些信息,地址
https://movie.douban.com/subject/26942674/?from=showing
#-*- coding:utf-8 -*- import requests from lxml import etree import time url = 'https://movie.douban.com/subject/26942674/' data = requests.get(url).text s=etree.HTML(data) #給定url并用requests.get()方法來獲取頁面的text,用etree.HTML() #來解析下載的頁面數(shù)據(jù)“data”。
1.獲取電影名稱。
獲取電影的xpath信息并獲得文本
s.xpath('元素的xpath信息/text()')
這里的xpath信息要手動獲取,獲取方式如下:
1.如果你是用谷歌瀏覽器的話,鼠標(biāo)“右鍵”–>“檢查元素”;
2.Ctrl+Shift+C將鼠標(biāo)定位到標(biāo)題;
3.“右鍵”–>“Copy”–>“Copy Xpath”就可以復(fù)制xpath。
這樣,我們就把電影標(biāo)題的xpath信息復(fù)制下來了。
//*[@id="content"]/h2/span[1]
放到代碼中并打印信息
#-*- coding:utf-8 -*- import requests from lxml import etree import time url = 'https://movie.douban.com/subject/26942674/' data = requests.get(url).text s=etree.HTML(data) film_name = s.xpath('//*[@id="content"]/h2/span[1]/text()') print("電影名:",film_name)
這樣,我們爬取豆瓣電影中《神秘巨星》的“電影名稱”信息的代碼已經(jīng)完成了,可以在eclipse中運(yùn)行代碼。
得到如下結(jié)果:
電影名: ['神秘巨星 Secret Superstar']
OK,邁出了第一步,我們繼續(xù)抓取導(dǎo)演、主演、評分;
film_name=s.xpath('//*[@id="content"]/h2/span[1]/text()')#電影名 director=s.xpath('//*[@id="info"]/span[1]/span[2]/a/text()')#編劇 actor1=s.xpath('//*[@id="info"]/span[3]/span[2]/a[1]/text()')#主演1 actor2=s.xpath('//*[@id="info"]/span[3]/span[2]/a[2]/text()')#主演2 actor3=s.xpath('//*[@id="info"]/span[3]/span[2]/a[3]/text()')#主演3 actor4=s.xpath('//*[@id="info"]/span[3]/span[2]/a[4]/text()')#主演4 movie_time=s.xpath('//*[@id="info"]/span[13]/text()')#片長
觀察上面的代碼,發(fā)現(xiàn)獲取不同主演時,區(qū)別只在于“a[x]”中“x”的值不同。實際上,要一次性獲取所有主演信息時,用不加數(shù)字的“a”即可獲取。
如下:
actors = s.xpath('//*[@id="info"]/span[3]/span[2]/a/text()')#所有主演
所以我們修改好的完整代碼如下:
#-*- coding:utf-8 -*- import requests from lxml import etree import time url1 = 'https://movie.douban.com/subject/26942674/' data = requests.get(url1).text s=etree.HTML(data) film_name=s.xpath('//*[@id="content"]/h2/span[1]/text()')#電影名 director=s.xpath('//*[@id="info"]/span[1]/span[2]/a/text()')#編劇 actor=s.xpath('//*[@id="info"]/span[3]/span[2]/a/text()')#主演 movie_time=s.xpath('//*[@id="info"]/span[13]/text()')#片長 #由于導(dǎo)演有時候不止一個人,所以我這里以列表的形式輸出 ds = [] for d in director: ds.append(d) #由于演員不止一個人,所以我這里以列表的形式輸出 acs = [] for a in actor: acs.append(a) print ('電影名:',film_name) print ('導(dǎo)演:',ds) print ('主演:',acs) print ('片長:',movie_time)
結(jié)果輸出:
電影名: ['神秘巨星 Secret Superstar'] 導(dǎo)演: ['阿德瓦·香登'] 主演: ['塞伊拉·沃西', '梅·維賈', '阿米爾·汗', '拉杰·阿晶', '提斯·沙馬', '卡比爾·謝赫', '法如克·賈法爾', '馬努杰·沙瑪', '莫娜·安伯加卡爾', '尼基塔·阿南德', '尚', '莫納利·塔庫爾'] 片長: ['150分鐘']
怎么樣,是不是很簡單啊。趕快去試試吧~~~
這里順便補(bǔ)充點(diǎn)基礎(chǔ)知識:
Requests常用的七種方法:
目前,我們只需要掌握最常用的requests.get()方法就好了。
requests.get()的使用方法
import requests url = 'https://www.baidu.com' data = requests.get(url)#使用get方法發(fā)送請求,返回汗網(wǎng)頁數(shù)據(jù)的Response并存儲到對象data 中
Repsonse對象的屬性:
data.status_code:http請求的返回狀態(tài),200表示連接成功;
data.text:返回對象的文本內(nèi)容;
data.content:猜測返回對象的二進(jìn)制形式;
data.encoding:返回對象的編碼方式;
data.apparent_encoding:響應(yīng)內(nèi)容編碼方式。
關(guān)于Python3爬蟲實戰(zhàn)中爬取豆瓣電影的方法是什么就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。