溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

Python爬蟲相關(guān)工具有哪些

發(fā)布時(shí)間:2021-11-20 15:36:19 來源:億速云 閱讀:125 作者:iii 欄目:編程語言

這篇文章主要介紹“Python爬蟲相關(guān)工具有哪些”,在日常操作中,相信很多人在Python爬蟲相關(guān)工具有哪些問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對(duì)大家解答”Python爬蟲相關(guān)工具有哪些”的疑惑有所幫助!接下來,請(qǐng)跟著小編一起來學(xué)習(xí)吧!

網(wǎng)絡(luò)爬蟲和相關(guān)工具

網(wǎng)絡(luò)爬蟲的概念

網(wǎng)絡(luò)爬蟲(web crawler),以前經(jīng)常稱之為網(wǎng)絡(luò)蜘蛛(spider),是按照一定的規(guī)則自動(dòng)瀏覽萬維網(wǎng)并獲取信息的機(jī)器人程序(或腳本),曾經(jīng)被廣泛的應(yīng)用于互聯(lián)網(wǎng)搜索引擎。使用過互聯(lián)網(wǎng)和瀏覽器的人都知道,網(wǎng)頁中除了供用戶閱讀的文字信息之外,還包含一些超鏈接。網(wǎng)絡(luò)爬蟲系統(tǒng)正是通過網(wǎng)頁中的超鏈接信息不斷獲得網(wǎng)絡(luò)上的其它頁面。正因如此,網(wǎng)絡(luò)數(shù)據(jù)采集的過程就像一個(gè)爬蟲或者蜘蛛在網(wǎng)絡(luò)上漫游,所以才被形象的稱為網(wǎng)絡(luò)爬蟲或者網(wǎng)絡(luò)蜘蛛。

爬蟲的應(yīng)用領(lǐng)域

在理想的狀態(tài)下,所有ICP(Internet Content Provider)都應(yīng)該為自己的網(wǎng)站提供API接口來共享它們?cè)试S其他程序獲取的數(shù)據(jù),在這種情況下爬蟲就不是必需品,國內(nèi)比較有名的電商平臺(tái)(如淘寶、京東等)、社交平臺(tái)(如騰訊微博等)等網(wǎng)站都提供了自己的Open API,但是這類Open API通常會(huì)對(duì)可以抓取的數(shù)據(jù)以及抓取數(shù)據(jù)的頻率進(jìn)行限制。對(duì)于大多數(shù)的公司而言,及時(shí)的獲取行業(yè)相關(guān)數(shù)據(jù)是企業(yè)生存的重要環(huán)節(jié)之一,然而大部分企業(yè)在行業(yè)數(shù)據(jù)方面的匱乏是其與生俱來的短板,合理的利用爬蟲來獲取數(shù)據(jù)并從中提取出有商業(yè)價(jià)值的信息是至關(guān)重要的。當(dāng)然爬蟲還有很多重要的應(yīng)用領(lǐng)域,下面列舉了其中的一部分:

  1. 搜索引擎

  2. 新聞聚合

  3. 社交應(yīng)用

  4. 輿情監(jiān)控

  5. 行業(yè)數(shù)據(jù)

合法性和背景調(diào)研

爬蟲合法性探討

  1. 網(wǎng)絡(luò)爬蟲領(lǐng)域目前還屬于拓荒階段,雖然互聯(lián)網(wǎng)世界已經(jīng)通過自己的游戲規(guī)則建立起一定的道德規(guī)范(Robots協(xié)議,全稱是“網(wǎng)絡(luò)爬蟲排除標(biāo)準(zhǔn)”),但法律部分還在建立和完善中,也就是說,現(xiàn)在這個(gè)領(lǐng)域暫時(shí)還是灰色地帶。

  2. “法不禁止即為許可”,如果爬蟲就像瀏覽器一樣獲取的是前端顯示的數(shù)據(jù)(網(wǎng)頁上的公開信息)而不是網(wǎng)站后臺(tái)的私密敏感信息,就不太擔(dān)心法律法規(guī)的約束,因?yàn)槟壳按髷?shù)據(jù)產(chǎn)業(yè)鏈的發(fā)展速度遠(yuǎn)遠(yuǎn)超過了法律的完善程度。

  3. 在爬取網(wǎng)站的時(shí)候,需要限制自己的爬蟲遵守Robots協(xié)議,同時(shí)控制網(wǎng)絡(luò)爬蟲程序的抓取數(shù)據(jù)的速度;在使用數(shù)據(jù)的時(shí)候,必須要尊重網(wǎng)站的知識(shí)產(chǎn)權(quán)(從Web 2.0時(shí)代開始,雖然Web上的數(shù)據(jù)很多都是由用戶提供的,但是網(wǎng)站平臺(tái)是投入了運(yùn)營成本的,當(dāng)用戶在注冊(cè)和發(fā)布內(nèi)容時(shí),平臺(tái)通常就已經(jīng)獲得了對(duì)數(shù)據(jù)的所有權(quán)、使用權(quán)和分發(fā)權(quán))。如果違反了這些規(guī)定,在打官司的時(shí)候敗訴幾率相當(dāng)高。

Robots.txt文件

大多數(shù)網(wǎng)站都會(huì)定義robots.txt文件,下面以淘寶的robots.txt文件為例,看看該網(wǎng)站對(duì)爬蟲有哪些限制。

User-agent: Baiduspider
Allow: /article
Allow: /oshtml
Disallow: /product/
Disallow: /
User-Agent: Googlebot
Allow: /article
Allow: /oshtml
Allow: /product
Allow: /spu
Allow: /dianpu
Allow: /oversea
Allow: /list
Disallow: /
User-agent: Bingbot
Allow: /article
Allow: /oshtml
Allow: /product
Allow: /spu
Allow: /dianpu
Allow: /oversea
Allow: /list
Disallow: /
User-Agent: 360Spider
Allow: /article
Allow: /oshtml
Disallow: /
User-Agent: Yisouspider
Allow: /article
Allow: /oshtml
Disallow: /
User-Agent: Sogouspider
Allow: /article
Allow: /oshtml
Allow: /product
Disallow: /
User-Agent: Yahoo! Slurp
Allow: /product
Allow: /spu
Allow: /dianpu
Allow: /oversea
Allow: /list
Disallow: /
User-Agent: *
Disallow: /

注意上面robots.txt第一段的最后一行,通過設(shè)置“Disallow: /”禁止百度爬蟲訪問除了“Allow”規(guī)定頁面外的其他所有頁面。因此當(dāng)你在百度搜索“淘寶”的時(shí)候,搜索結(jié)果下方會(huì)出現(xiàn):“由于該網(wǎng)站的robots.txt文件存在限制指令(限制搜索引擎抓取),系統(tǒng)無法提供該頁面的內(nèi)容描述”。百度作為一個(gè)搜索引擎,至少在表面上遵守了淘寶網(wǎng)的robots.txt協(xié)議,所以用戶不能從百度上搜索到淘寶內(nèi)部的產(chǎn)品信息。

到此,關(guān)于“Python爬蟲相關(guān)工具有哪些”的學(xué)習(xí)就結(jié)束了,希望能夠解決大家的疑惑。理論與實(shí)踐的搭配能更好的幫助大家學(xué)習(xí),快去試試吧!若想繼續(xù)學(xué)習(xí)更多相關(guān)知識(shí),請(qǐng)繼續(xù)關(guān)注億速云網(wǎng)站,小編會(huì)繼續(xù)努力為大家?guī)砀鄬?shí)用的文章!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI