溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

怎么利用python實(shí)現(xiàn)查看溧陽的攝影圈

發(fā)布時間:2022-05-17 13:53:32 來源:億速云 閱讀:133 作者:iii 欄目:開發(fā)技術(shù)

這篇“怎么利用python實(shí)現(xiàn)查看溧陽的攝影圈”文章的知識點(diǎn)大部分人都不太理解,所以小編給大家總結(jié)了以下內(nèi)容,內(nèi)容詳細(xì),步驟清晰,具有一定的借鑒價值,希望大家閱讀完這篇文章能有所收獲,下面我們一起來看看這篇“怎么利用python實(shí)現(xiàn)查看溧陽的攝影圈”文章吧。

目標(biāo)站點(diǎn)分析

本次要采集的目標(biāo)站點(diǎn)分頁規(guī)則如下:

http://www.jsly001.com/thread-htm-fid-45-page-{頁碼}.html

代碼采用多線程 threading 模塊+requests 模塊+BeautifulSoup 模塊編寫。

采取規(guī)則依據(jù)列表頁 → 詳情頁:

怎么利用python實(shí)現(xiàn)查看溧陽的攝影圈

溧陽攝影圈圖片采集代碼

本案例屬于實(shí)操案例,先展示完整代碼,然后基于注釋與重點(diǎn)函數(shù)進(jìn)行說明。

主要實(shí)現(xiàn)步驟如下所示:

  • 設(shè)置日志輸出級別

  • 聲明一個 LiYang 類,其繼承自 threading.Thread

  • 實(shí)例化多線程對象

  • 每個線程都去獲取全局資源

  • 調(diào)用html解析函數(shù)

  • 獲取板塊主題分割區(qū)域,主要為防止獲取置頂?shù)闹黝}

  • 使用 lxml 進(jìn)行解析

  • 解析出標(biāo)題與數(shù)據(jù)

  • 解析圖片地址

  • 保存圖片

import random
import threading
import logging
from bs4 import BeautifulSoup
import requests
import lxml
logging.basicConfig(level=logging.NOTSET) # 設(shè)置日志輸出級別
# 聲明一個 LiYang 類,其繼承自 threading.Thread
class LiYangThread(threading.Thread):
    def __init__(self):
        threading.Thread.__init__(self) # 實(shí)例化多線程對象
        self._headers = self._get_headers() # 隨機(jī)獲取 ua
        self._timeout = 5 # 設(shè)置超時時間

    # 每個線程都去獲取全局資源
    def run(self):
        # while True: # 此處為多線程開啟位置
        try:
            res = requests.get(url="http://www.jsly001.com/thread-htm-fid-45-page-1.html", headers=self._headers,
                               timeout=self._timeout) # 測試獲取第一頁數(shù)據(jù)
        except Exception as e:
            logging.error(e)
        if res is not None:
            html_text = res.text
            self._format_html(html_text) # 調(diào)用html解析函數(shù)

    def _format_html(self, html):
        # 使用 lxml 進(jìn)行解析
        soup = BeautifulSoup(html, 'lxml')

        # 獲取板塊主題分割區(qū)域,主要為防止獲取置頂?shù)闹黝}
        part_tr = soup.find(attrs={'class': 'bbs_tr4'})

        if part_tr is not None:
            items = part_tr.find_all_next(attrs={"name": "readlink"}) # 獲取詳情頁地址
        else:
            items = soup.find_all(attrs={"name": "readlink"})
        # 解析出標(biāo)題與數(shù)據(jù)
        data = [(item.text, f'http://www.jsly001.com/{item["href"]}') for item in items]
        # 進(jìn)入標(biāo)題內(nèi)頁
        for name, url in data:
            self._get_imgs(name, url)

    def _get_imgs(self, name, url):
        """解析圖片地址"""
        try:
            res = requests.get(url=url, headers=self._headers, timeout=self._timeout)
        except Exception as e:
            logging.error(e)
		# 圖片提取邏輯
        if res is not None:
            soup = BeautifulSoup(res.text, 'lxml')
            origin_div1 = soup.find(attrs={'class': 'tpc_content'})
            origin_div2 = soup.find(attrs={'class': 'imgList'})
            content = origin_div2 if origin_div2 else origin_div1

            if content is not None:
                imgs = content.find_all('img')

                # print([img.get("src") for img in imgs])
                self._save_img(name, imgs) # 保存圖片
    def _save_img(self, name, imgs):
        """保存圖片"""
        for img in imgs:
            url = img.get("src")
            if url.find('http') < 0:
                continue
            # 尋找父標(biāo)簽中的 id 屬性
            id_ = img.find_parent('span').get("id")

            try:
                res = requests.get(url=url, headers=self._headers, timeout=self._timeout)
            except Exception as e:
                logging.error(e)

            if res is not None:
                name = name.replace("/", "_")
                with open(f'./imgs/{name}_{id_}.jpg', "wb+") as f: # 注意在 python 運(yùn)行時目錄提前創(chuàng)建 imgs 文件夾
                    f.write(res.content)
    def _get_headers(self):
        uas = [
            "Mozilla/5.0 (compatible; Baiduspider/2.0; +http://www.baidu.com/search/spider.html)",
        ]
        ua = random.choice(uas)
        headers = {
            "user-agent": ua
        }
        return headers
if __name__ == '__main__':
    my_thread = LiYangThread()
    my_thread.run()

本次案例采用中,BeautifulSoup 模塊采用 lxml 解析器 對 HTML 數(shù)據(jù)進(jìn)行解析,后續(xù)多采用此解析器,在使用前注意先導(dǎo)入 lxml 模塊。

數(shù)據(jù)提取部分采用 soup.find() 與 soup.find_all() 兩個函數(shù)進(jìn)行,代碼中還使用了 find_parent() 函數(shù),用于采集父級標(biāo)簽中的 id 屬性。

# 尋找父標(biāo)簽中的 id 屬性
id_ = img.find_parent('span').get("id")

代碼運(yùn)行過程出現(xiàn) DEBUG 信息,控制 logging 日志輸出級別即可。![用python看溧陽攝影圈,里面照片非常真

以上就是關(guān)于“怎么利用python實(shí)現(xiàn)查看溧陽的攝影圈”這篇文章的內(nèi)容,相信大家都有了一定的了解,希望小編分享的內(nèi)容對大家有幫助,若想了解更多相關(guān)的知識內(nèi)容,請關(guān)注億速云行業(yè)資訊頻道。

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI