溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Python爬蟲中的并發(fā)編程怎么應(yīng)用

發(fā)布時間:2023-05-04 15:54:40 來源:億速云 閱讀:119 作者:iii 欄目:開發(fā)技術(shù)

本文小編為大家詳細(xì)介紹“Python爬蟲中的并發(fā)編程怎么應(yīng)用”,內(nèi)容詳細(xì),步驟清晰,細(xì)節(jié)處理妥當(dāng),希望這篇“Python爬蟲中的并發(fā)編程怎么應(yīng)用”文章能幫助大家解決疑惑,下面跟著小編的思路慢慢深入,一起來學(xué)習(xí)新知識吧。

什么是并發(fā)編程

并發(fā)編程是指在一個時間段內(nèi),能夠執(zhí)行多個操作的程序設(shè)計,通常表現(xiàn)為程序中有多個任務(wù)同時啟動,可以運(yùn)行并且相互之間不會產(chǎn)生影響。并發(fā)編程的好處是可以提高程序的性能和響應(yīng)能力。

并發(fā)編程在爬蟲中的應(yīng)用

爬蟲程序是典型的 I/O 密集型任務(wù),對于 I/O 密集型任務(wù)來說,多線程和異步 I/O 都是很好的選擇,因為當(dāng)程序的某個部分因 I/O 操作阻塞時,程序的其他部分仍然可以運(yùn)轉(zhuǎn),這樣我們不用在等待和阻塞中浪費(fèi)大量的時間。

單線程版本

我們首先來看單線程版本的爬蟲程序。這個爬蟲程序使用了requests庫獲取 JSON 數(shù)據(jù),并通過open函數(shù)將圖片保存到本地。

"""
example04.py - 單線程版本爬蟲
"""
import os
import requests
def download_picture(url):
    filename = url[url.rfind('/') + 1:]
    resp = requests.get(url)
    if resp.status_code == 200:
        with open(f'images/beauty/{filename}', 'wb') as file:
            file.write(resp.content)
def main():
    if not os.path.exists('images/beauty'):
        os.makedirs('images/beauty')
    for page in range(3):
        resp = requests.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}')
        if resp.status_code == 200:
            pic_dict_list = resp.json()['list']
            for pic_dict in pic_dict_list:
                download_picture(pic_dict['qhimg_url'])
if __name__ == '__main__':
    main()

在 macOS 或 Linux 系統(tǒng)上,我們可以使用time命令來了解上面代碼的執(zhí)行時間以及 CPU 的利用率,如下所示。

time python3 example04.py

下面是單線程爬蟲代碼在我的電腦上執(zhí)行的結(jié)果。

python3 example04.py  2.36s user 0.39s system 12% cpu 21.578 total

這里我們只需要關(guān)注代碼的總耗時為21.578秒,CPU 利用率為12%。

多線程版本

我們使用之前講到過的線程池技術(shù),將上面的代碼修改為多線程版本。

"""
example05.py - 多線程版本爬蟲
"""
import os
from concurrent.futures import ThreadPoolExecutor
import requests
def download_picture(url):
    filename = url[url.rfind('/') + 1:]
    resp = requests.get(url)
    if resp.status_code == 200:
        with open(f'images/beauty/{filename}', 'wb') as file:
            file.write(resp.content)
def main():
    if not os.path.exists('images/beauty'):
        os.makedirs('images/beauty')
    with ThreadPoolExecutor(max_workers=16) as pool:
        for page in range(3):
            resp = requests.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}')
            if resp.status_code == 200:
                pic_dict_list = resp.json()['list']
                for pic_dict in pic_dict_list:
                    pool.submit(download_picture, pic_dict['qhimg_url'])
if __name__ == '__main__':
    main()

執(zhí)行如下所示的命令。

time python3 example05.py

代碼的執(zhí)行結(jié)果如下所示:

python3 example05.py  2.65s user 0.40s system 95% cpu 3.193 total

異步I/O版本

我們使用aiohttp將上面的代碼修改為異步 I/O 的版本。為了以異步 I/O 的方式實現(xiàn)網(wǎng)絡(luò)資源的獲取和寫文件操作,我們首先得安裝三方庫aiohttpaiofile。

pip install aiohttp aiofile

下面是異步 I/O 版本的爬蟲代碼。

"""
example06.py - 異步I/O版本爬蟲
"""
import asyncio
import json
import os
import aiofile
import aiohttp
async def download_picture(session, url):
    filename = url[url.rfind('/') + 1:]
    async with session.get(url, ssl=False) as resp:
        if resp.status == 200:
            data = await resp.read()
            async with aiofile.async_open(f'images/beauty/{filename}', 'wb') as file:
                await file.write(data)
async def main():
    if not os.path.exists('images/beauty'):
        os.makedirs('images/beauty')
    async with aiohttp.ClientSession() as session:
        tasks = []
        for page in range(3):
            resp = await session.get(f'<https://image.so.com/zjl?ch=beauty&sn=>{page * 30}')
            if resp.status == 200:
                pic_dict_list = (await resp.json())['list']
                for pic_dict in pic_dict_list:
                    tasks.append(asyncio.ensure_future(download_picture(session, pic_dict['qhimg_url'])))
        await asyncio.gather(*tasks)
if __name__ == '__main__':
    loop = asyncio.get_event_loop()
    loop.run_until_complete(main())

執(zhí)行如下所示的命令。

time python3 example06.py

代碼的執(zhí)行結(jié)果如下所示:

python3 example06.py  0.92s user 0.27s system 290% cpu 0.420 total

相對于單線程版本的爬蟲程序,多線程版本和異步 I/O 版本的爬蟲程序在執(zhí)行上的時間上有了顯著的提升,而且異步 I/O 版本的爬蟲程序表現(xiàn)最佳。

讀到這里,這篇“Python爬蟲中的并發(fā)編程怎么應(yīng)用”文章已經(jīng)介紹完畢,想要掌握這篇文章的知識點還需要大家自己動手實踐使用過才能領(lǐng)會,如果想了解更多相關(guān)內(nèi)容的文章,歡迎關(guān)注億速云行業(yè)資訊頻道。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI