溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

怎么用Python寫個(gè)聽(tīng)小說(shuō)的爬蟲(chóng)

發(fā)布時(shí)間:2022-02-21 09:08:59 來(lái)源:億速云 閱讀:167 作者:iii 欄目:開(kāi)發(fā)技術(shù)

這篇文章主要介紹了怎么用Python寫個(gè)聽(tīng)小說(shuō)的爬蟲(chóng)的相關(guān)知識(shí),內(nèi)容詳細(xì)易懂,操作簡(jiǎn)單快捷,具有一定借鑒價(jià)值,相信大家閱讀完這篇怎么用Python寫個(gè)聽(tīng)小說(shuō)的爬蟲(chóng)文章都會(huì)有所收獲,下面我們一起來(lái)看看吧。

書(shū)名和章節(jié)列表

隨機(jī)點(diǎn)開(kāi)一本書(shū),這個(gè)頁(yè)面可以使用 BeautifulSoup 獲取書(shū)名和所有單個(gè)章節(jié)音頻的列表。復(fù)制瀏覽器的地址,如:https://www.tingchina.com/yousheng/disp_31086.htm。

怎么用Python寫個(gè)聽(tīng)小說(shuō)的爬蟲(chóng)

from bs4 import BeautifulSoup
import requests
import re
import random
import os

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36'
}

def get_detail_urls(url):
    url_list = []
    response = requests.get(url, headers=headers)
    response.encoding = 'gbk'
    soup = BeautifulSoup(response.text, 'lxml')
    name = soup.select('.red12')[0].strong.text
    if not os.path.exists(name):
        os.makedirs(name)
    div_list = soup.select('div.list a')
    for item in div_list:
        url_list.append({'name': item.string, 'url': 'https://www.tingchina.com/yousheng/{}'.format(item['href'])})
    return name, url_list

音頻地址

打開(kāi)單個(gè)章節(jié)的鏈接,在 Elements 面板用章節(jié)名稱作為搜索詞,在底部發(fā)現(xiàn)了一個(gè) script,這一部分就是聲源的地址。

怎么用Python寫個(gè)聽(tīng)小說(shuō)的爬蟲(chóng)

在 Network 面板可以看到,聲源的 url 域名和章節(jié)列表的域名是不一樣的。在獲取下載鏈接的時(shí)候需要注意這一點(diǎn)。

怎么用Python寫個(gè)聽(tīng)小說(shuō)的爬蟲(chóng)

def get_mp3_path(url):
    response = requests.get(url, headers=headers)
    response.encoding = 'gbk'
    soup = BeautifulSoup(response.text, 'lxml')
    script_text = soup.select('script')[-1].string
    fileUrl_search = re.search('fileUrl= "(.*?)";', script_text, re.S)
    if fileUrl_search:
        return 'https://t3344.tingchina.com' + fileUrl_search.group(1)

下載

驚喜總是突如其來(lái),把這個(gè) https://t3344.tingchina.com/xxxx.mp3 放入瀏覽器中運(yùn)行居然是 404。

怎么用Python寫個(gè)聽(tīng)小說(shuō)的爬蟲(chóng)

肯定是少了關(guān)鍵性的參數(shù),回到上面 Network 仔細(xì)觀察 mp3 的 url,發(fā)現(xiàn)在 url 后面帶了一個(gè) key 的關(guān)鍵字。如下圖,這個(gè) key 是來(lái)自于 https://img.tingchina.com/play/h6_jsonp.asp?0.5078556568562795 的返回值,可以使用正則表達(dá)式將 key 取出來(lái)。

怎么用Python寫個(gè)聽(tīng)小說(shuō)的爬蟲(chóng)

def get_key(url):
    url = 'https://img.tingchina.com/play/h6_jsonp.asp?{}'.format(str(random.random()))
    headers['referer'] = url
    response = requests.get(url, headers=headers)
    matched = re.search('(key=.*?)";', response.text, re.S)
    if matched:
        temp = matched.group(1)
        return temp[len(temp)-42:]

最后的最后在 __main__ 中將以上的代碼串聯(lián)起來(lái)。

if __name__ == "__main__":
    url = input("請(qǐng)輸入瀏覽器書(shū)頁(yè)的地址:")
    dir,url_list = get_detail_urls()

    for item in url_list:
        audio_url = get_mp3_path(item['url'])
        key = get_key(item['url'])
        audio_url = audio_url + '?key=' + key
        headers['referer'] = item['url']
        r = requests.get(audio_url, headers=headers,stream=True)
        with open(os.path.join(dir, item['name']),'ab') as f:
            f.write(r.content)
            f.flush()

完整代碼

from bs4 import BeautifulSoup
import requests
import re
import random
import os

headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36'
}

def get_detail_urls(url):
    url_list = []
    response = requests.get(url, headers=headers)
    response.encoding = 'gbk'
    soup = BeautifulSoup(response.text, 'lxml')
    name = soup.select('.red12')[0].strong.text
    if not os.path.exists(name):
        os.makedirs(name)
    div_list = soup.select('div.list a')
    for item in div_list:
        url_list.append({'name': item.string, 'url': 'https://www.tingchina.com/yousheng/{}'.format(item['href'])})
    return name, url_list
    
def get_mp3_path(url):
    response = requests.get(url, headers=headers)
    response.encoding = 'gbk'
    soup = BeautifulSoup(response.text, 'lxml')
    script_text = soup.select('script')[-1].string
    fileUrl_search = re.search('fileUrl= "(.*?)";', script_text, re.S)
    if fileUrl_search:
        return 'https://t3344.tingchina.com' + fileUrl_search.group(1)
        
def get_key(url):
    url = 'https://img.tingchina.com/play/h6_jsonp.asp?{}'.format(str(random.random()))
    headers['referer'] = url
    response = requests.get(url, headers=headers)
    matched = re.search('(key=.*?)";', response.text, re.S)
    if matched:
        temp = matched.group(1)
        return temp[len(temp)-42:]

if __name__ == "__main__":
    url = input("請(qǐng)輸入瀏覽器書(shū)頁(yè)的地址:")
    dir,url_list = get_detail_urls()

    for item in url_list:
        audio_url = get_mp3_path(item['url'])
        key = get_key(item['url'])
        audio_url = audio_url + '?key=' + key
        headers['referer'] = item['url']
        r = requests.get(audio_url, headers=headers,stream=True)
        with open(os.path.join(dir, item['name']),'ab') as f:
            f.write(r.content)
            f.flush()

關(guān)于“怎么用Python寫個(gè)聽(tīng)小說(shuō)的爬蟲(chóng)”這篇文章的內(nèi)容就介紹到這里,感謝各位的閱讀!相信大家對(duì)“怎么用Python寫個(gè)聽(tīng)小說(shuō)的爬蟲(chóng)”知識(shí)都有一定的了解,大家如果還想學(xué)習(xí)更多知識(shí),歡迎關(guān)注億速云行業(yè)資訊頻道。

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI