您好,登錄后才能下訂單哦!
本篇內(nèi)容主要講解“python如何爬取熱門電影”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實(shí)用性強(qiáng)。下面就讓小編來帶大家學(xué)習(xí)“python如何爬取熱門電影”吧!
'''
爬取電影與地址路徑
操作步驟
1,獲取到url內(nèi)容
2,css選擇其選擇內(nèi)容
3,保存自己需要數(shù)據(jù)
'''
#導(dǎo)入爬蟲需要的包
import requests
from bs4 import BeautifulSoup
#requests與BeautifulSoup用來解析網(wǎng)頁的
import time
#設(shè)置訪問網(wǎng)頁時(shí)間,防止自己IP訪問多了被限制拒絕訪問
import re
class Position():
def __init__(self,position_name,position_require,):#構(gòu)建對象屬性
self.position_name=position_name
self.position_require=position_require
def __str__(self):
return '%s%s/n'%(self.position_name,self.position_require)#重載方法將輸入變量改成字符串形式
class Aiqiyi():
def iqiyi(self,url):
head= {
'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.67 Safari/537.36 Edg/87.0.664.47"
} #模擬的服務(wù)器頭
html = requests.get(url,headers=head)
#headers=hard 讓腳本以瀏覽器的方式去訪問,有一些網(wǎng)址禁止以python的反爬機(jī)制,這就是其中一個(gè)
soup = BeautifulSoup(html.content, 'lxml', from_encoding='utf-8') # BeautifulSoup打看網(wǎng)頁
soupl = soup.select(".qy-list-wrap") # 查找標(biāo)簽,用css選擇器,選擇自己需要數(shù)據(jù) 進(jìn)行選擇頁面第一次內(nèi)容(標(biāo)簽要找到唯一的,找id好,如果沒有考慮其他標(biāo)簽如class)
results = [] # 創(chuàng)建一個(gè)列表用來存儲數(shù)據(jù)
for e in soupl:
biao = e.select('.qy-mod-li') # 進(jìn)行二次篩選
for h in biao:
p=Position(h.select_one('.qy-mod-link-wrap').get_text(strip=True),
h.select_one('.title-wrap').get_text(strip=True))#調(diào)用類轉(zhuǎn)換(繼續(xù)三次篩選選擇自己需要內(nèi)容)
results.append(p)
return results # 返回內(nèi)容
def address(self,url):
#保存網(wǎng)址
head = {
'User-Agent': "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.67 Safari/537.36 Edg/87.0.664.47"
} # 模擬的服務(wù)器頭
html = requests.get(url, headers=head)
soup = BeautifulSoup(html.content, 'lxml', from_encoding='utf-8') # BeautifulSoup打看網(wǎng)頁
alist = soup.find('div', class_='qy-list-wrap').find_all("a") # 查找div塊模塊下的 a標(biāo)簽
ls=[]
for i in alist:
ls.append(i.get('href'))
return ls
if __name__ == '__main__':
time.sleep(2)
#設(shè)置2秒訪問一次
a=Aiqiyi()
url = "https://list.*****.com/www/1/-------------11-1-1-iqiyi--.html"
with open(file='e:/練習(xí).txt ', mode='a+') as f: # e:/練習(xí).txt 為我電腦新建的文件,a+為給內(nèi)容進(jìn)行添加,但不進(jìn)行覆蓋原內(nèi)容。
for item in a.iqiyi(url):
line = f'{item.position_name} {item.position_require}
'
f.write(line) # 采用方法
print("下載完成")
with open(file='e:/地址.txt ', mode='a+') as f: # e:/練習(xí).txt 為我電腦新建的文件,a+為給內(nèi)容進(jìn)行添加,但不進(jìn)行覆蓋原內(nèi)容。
for item in a.address(url):
line=f'https{item}
'
f.write(line) # 采用方法
print("下載完成")
到此,相信大家對“python如何爬取熱門電影”有了更深的了解,不妨來實(shí)際操作一番吧!這里是億速云網(wǎng)站,更多相關(guān)內(nèi)容可以進(jìn)入相關(guān)頻道進(jìn)行查詢,關(guān)注我們,繼續(xù)學(xué)習(xí)!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。