溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

怎么用python實(shí)現(xiàn)精準(zhǔn)搜索并提取網(wǎng)頁核心內(nèi)容

發(fā)布時(shí)間:2021-11-01 11:43:32 來源:億速云 閱讀:111 作者:iii 欄目:開發(fā)技術(shù)

這篇文章主要講解了“怎么用python實(shí)現(xiàn)精準(zhǔn)搜索并提取網(wǎng)頁核心內(nèi)容”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“怎么用python實(shí)現(xiàn)精準(zhǔn)搜索并提取網(wǎng)頁核心內(nèi)容”吧!

    生成PDF

    開始想了一個(gè)取巧的方法,就是利用工具(wkhtmltopdf[2])將目標(biāo)網(wǎng)頁生成 PDF 文件。

    好處是不必關(guān)心頁面的具體形式,就像給頁面拍了一張照片,文章結(jié)構(gòu)是完整的。

    雖然 PDF 是可以源碼級檢索,但是,生成 PDF 有諸多缺點(diǎn):

    耗費(fèi)計(jì)算資源多、效率低、出錯(cuò)率高,體積太大。

    幾萬條數(shù)據(jù)已經(jīng)兩百多G,如果數(shù)據(jù)量上來光存儲就是很大的問題。

    提取文章內(nèi)容

    不生成PDF,有簡單辦法就是通過 xpath[3] 提取頁面上的所有文字。

    但是內(nèi)容將失去結(jié)構(gòu),可讀性差。更要命的是,網(wǎng)頁上有很多無關(guān)內(nèi)容,比如側(cè)邊欄,廣告,相關(guān)鏈接等,也會被提取下來,影響內(nèi)容的精確性。

    為了保證有一定的結(jié)構(gòu),還要識別到核心內(nèi)容,就只能識別并提取文章部分的結(jié)構(gòu)了。像搜索引擎學(xué)習(xí),就是想辦法識別頁面的核心內(nèi)容。

    我們知道,通常情況下,頁面上的核心內(nèi)容(如文章部分)文字比較集中,可以從這個(gè)地方著手分析。

    于是編寫了一段代碼,我是用 Scrapy[4] 作為爬蟲框架的,這里只截取了其中提取文章部分的代碼 :

    divs = response.xpath("body//div")
    sel = None
    maxvalue = 0
    for d in divs:
      ds = len(d.xpath(".//div"))
      ps = len(d.xpath(".//p"))
      value = ps - ds
      if value > maxvalue:
        sel = {
          "node": d,
          "value": value
        }
        maxvalue = value 
    print("".join(sel['node'].getall()))
    • response 是頁面的一個(gè)響應(yīng),其中包含了頁面的所有內(nèi)容,可以通過 xpath 提取想要的部分

    • "body//div" 的意思是提取所以 body 標(biāo)簽下的 div 子標(biāo)簽,注意:// 操作是遞歸的

    • 遍歷所有提取到的標(biāo)簽,計(jì)算其中包含的 div 數(shù)量,和 p 數(shù)量

    • p 數(shù)量 和 div 數(shù)量的差值作為這個(gè)元素的權(quán)值,意思是如果這個(gè)元素里包含了大量的 p 時(shí),就認(rèn)為這里是文章主體

    • 通過比較權(quán)值,選擇出權(quán)值最大的元素,這便是文章主體

    • 得到文章主體之后,提取這個(gè)元素的內(nèi)容,相當(dāng)于 jQuery[5] 的 outerHtml

    簡單明了,測試了幾個(gè)頁面確實(shí)挺好。

    不過大量提取時(shí)發(fā)現(xiàn),很多頁面提取不到數(shù)據(jù)。仔細(xì)查看發(fā)現(xiàn),有兩種情況。

    • 有的文章內(nèi)容被放在了 <article> 標(biāo)簽里了,所以沒有獲取到

    • 有的文章每個(gè) <p> 外面都包裹了一個(gè) <div>,所以 p 的數(shù)量 和 div 的抵消了

    再調(diào)整了一下策略,不再區(qū)分 div,查看所有的元素。

    另外優(yōu)先選擇更多的 p,在其基礎(chǔ)上再看更少的 div。調(diào)整后的代碼如下:

    divs = response.xpath("body//*")
    sels = []
    maxvalue = 0
    for d in divs:
      ds = len(d.xpath(".//div"))
      ps = len(d.xpath(".//p"))
      if ps >= maxvalue:
        sel = {
          "node": d,
          "ps": ps,
          "ds": ds
        }
        maxvalue = ps
        sels.append(sel)
     
    sels.sort(lambda x: x.ds)
     
    sel = sels[0]
     
    print("".join(sel['node'].getall()))
    • 方法主體里,先挑選出 p 數(shù)量比較大的節(jié)點(diǎn),注意 if 判斷條件中 換成了 >= 號,作用時(shí)篩選出同樣具有 p 數(shù)量的結(jié)點(diǎn)

    • 經(jīng)過篩選之后,按照 div 數(shù)量排序,然后選取 div 數(shù)量最少的

    經(jīng)過這樣修改之后,確實(shí)在一定程度上彌補(bǔ)了前面的問題,但是引入了一個(gè)更麻煩的問題。

    就是找到的文章主體不穩(wěn)定,特別容易受到其他部分有些 p 的影響。

    選擇最優(yōu)

    既然直接計(jì)算不太合適,需要重新設(shè)計(jì)一個(gè)算法。

    我發(fā)現(xiàn),文字集中的地方是往往是文章主體,而前面的方法中,沒有考慮到這一點(diǎn),只是機(jī)械地找出了最大的 p。

    還有一點(diǎn),網(wǎng)頁結(jié)構(gòu)是個(gè)顆 DOM 樹[6]

    怎么用python實(shí)現(xiàn)精準(zhǔn)搜索并提取網(wǎng)頁核心內(nèi)容

    那么越靠近 p 標(biāo)簽的地方應(yīng)該越可能是文章主體,也就是說,計(jì)算是越靠近 p 的節(jié)點(diǎn)權(quán)值應(yīng)該越大,而遠(yuǎn)離 p 的結(jié)點(diǎn)及時(shí)擁有很多 p 但是權(quán)值也應(yīng)該小一點(diǎn)。

    經(jīng)過試錯(cuò),最終代碼如下:

    def find(node, sel):
        value = 0
        for n in node.xpath("*"):
            if n.xpath("local-name()").get() == "p":
                t = "".join([s.strip() for s in (n.xpath('text()').getall() + n.xpath("*/text()").getall())])
                value += len(t)
            else:
                value += find(n, a)*0.5
        if value > sel["value"]:
            sel["node"] = node
            sel["value"] = value
        return value
     
    sel = {
        'value': 0,
        'node': None
    }
    find(response.xpath("body"), sel)
    • 定義了一個(gè) find 函數(shù),這是為了方便做遞歸,第一次調(diào)用的參數(shù)是 body 標(biāo)簽,和前面一樣

    • 進(jìn)入方法里,只找出該節(jié)點(diǎn)的直接孩子們,然后遍歷這些孩子

    • 判斷如果孩子是 p 節(jié)點(diǎn),提取出其中的所有文字,包括子節(jié)點(diǎn)的,然后將文字的長度作為權(quán)值

    • 提取文字的地方比較繞,先取出直接的文本,和間接文本,合成 list,對每部分文本做了去除前后空字符,最后合并為一個(gè)字符串,得到了所包含的文本

    • 如果孩子節(jié)點(diǎn)不是 p,就遞歸調(diào)用 find 方法,而 find 方法返回的是 指定節(jié)點(diǎn)所包含的文本長度

    • 在獲取子節(jié)點(diǎn)的長度時(shí),做了縮減處理,用以體現(xiàn)距離越遠(yuǎn),權(quán)值越低的規(guī)則

    • 最終通過 引用傳遞的 sel 參數(shù),記錄權(quán)值最高的節(jié)點(diǎn)

    通過這樣改造之后,效果特別好。

    為什么呢?其實(shí)利用了密度原理,就是說越靠近中心的地方,密度越高,遠(yuǎn)離中心的地方密度成倍的降低,這樣就能篩選出密度中心了。

    50% 的坡度比率是如何得到的呢?

    其實(shí)是通過實(shí)驗(yàn)確定的,剛開始時(shí)我設(shè)置為 90%,但結(jié)果時(shí) body 節(jié)點(diǎn)總是最優(yōu)的,因?yàn)?body 里包含了所有的文字內(nèi)容。

    反復(fù)實(shí)驗(yàn)后,確定 50% 是比較好的值,如果在你的應(yīng)用中不合適,可以做調(diào)整。

    感謝各位的閱讀,以上就是“怎么用python實(shí)現(xiàn)精準(zhǔn)搜索并提取網(wǎng)頁核心內(nèi)容”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對怎么用python實(shí)現(xiàn)精準(zhǔn)搜索并提取網(wǎng)頁核心內(nèi)容這一問題有了更深刻的體會,具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是億速云,小編將為大家推送更多相關(guān)知識點(diǎn)的文章,歡迎關(guān)注!

    向AI問一下細(xì)節(jié)

    免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

    AI