您好,登錄后才能下訂單哦!
這篇文章主要介紹“Python爬蟲相關(guān)工具有哪些”,在日常操作中,相信很多人在Python爬蟲相關(guān)工具有哪些問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對(duì)大家解答”Python爬蟲相關(guān)工具有哪些”的疑惑有所幫助!接下來,請(qǐng)跟著小編一起來學(xué)習(xí)吧!
網(wǎng)絡(luò)爬蟲的概念
網(wǎng)絡(luò)爬蟲(web crawler),以前經(jīng)常稱之為網(wǎng)絡(luò)蜘蛛(spider),是按照一定的規(guī)則自動(dòng)瀏覽萬維網(wǎng)并獲取信息的機(jī)器人程序(或腳本),曾經(jīng)被廣泛的應(yīng)用于互聯(lián)網(wǎng)搜索引擎。使用過互聯(lián)網(wǎng)和瀏覽器的人都知道,網(wǎng)頁中除了供用戶閱讀的文字信息之外,還包含一些超鏈接。網(wǎng)絡(luò)爬蟲系統(tǒng)正是通過網(wǎng)頁中的超鏈接信息不斷獲得網(wǎng)絡(luò)上的其它頁面。正因如此,網(wǎng)絡(luò)數(shù)據(jù)采集的過程就像一個(gè)爬蟲或者蜘蛛在網(wǎng)絡(luò)上漫游,所以才被形象的稱為網(wǎng)絡(luò)爬蟲或者網(wǎng)絡(luò)蜘蛛。
爬蟲的應(yīng)用領(lǐng)域
在理想的狀態(tài)下,所有ICP(Internet Content Provider)都應(yīng)該為自己的網(wǎng)站提供API接口來共享它們?cè)试S其他程序獲取的數(shù)據(jù),在這種情況下爬蟲就不是必需品,國內(nèi)比較有名的電商平臺(tái)(如淘寶、京東等)、社交平臺(tái)(如騰訊微博等)等網(wǎng)站都提供了自己的Open API,但是這類Open API通常會(huì)對(duì)可以抓取的數(shù)據(jù)以及抓取數(shù)據(jù)的頻率進(jìn)行限制。對(duì)于大多數(shù)的公司而言,及時(shí)的獲取行業(yè)相關(guān)數(shù)據(jù)是企業(yè)生存的重要環(huán)節(jié)之一,然而大部分企業(yè)在行業(yè)數(shù)據(jù)方面的匱乏是其與生俱來的短板,合理的利用爬蟲來獲取數(shù)據(jù)并從中提取出有商業(yè)價(jià)值的信息是至關(guān)重要的。當(dāng)然爬蟲還有很多重要的應(yīng)用領(lǐng)域,下面列舉了其中的一部分:
搜索引擎
新聞聚合
社交應(yīng)用
輿情監(jiān)控
行業(yè)數(shù)據(jù)
合法性和背景調(diào)研
爬蟲合法性探討
網(wǎng)絡(luò)爬蟲領(lǐng)域目前還屬于拓荒階段,雖然互聯(lián)網(wǎng)世界已經(jīng)通過自己的游戲規(guī)則建立起一定的道德規(guī)范(Robots協(xié)議,全稱是“網(wǎng)絡(luò)爬蟲排除標(biāo)準(zhǔn)”),但法律部分還在建立和完善中,也就是說,現(xiàn)在這個(gè)領(lǐng)域暫時(shí)還是灰色地帶。
“法不禁止即為許可”,如果爬蟲就像瀏覽器一樣獲取的是前端顯示的數(shù)據(jù)(網(wǎng)頁上的公開信息)而不是網(wǎng)站后臺(tái)的私密敏感信息,就不太擔(dān)心法律法規(guī)的約束,因?yàn)槟壳按髷?shù)據(jù)產(chǎn)業(yè)鏈的發(fā)展速度遠(yuǎn)遠(yuǎn)超過了法律的完善程度。
在爬取網(wǎng)站的時(shí)候,需要限制自己的爬蟲遵守Robots協(xié)議,同時(shí)控制網(wǎng)絡(luò)爬蟲程序的抓取數(shù)據(jù)的速度;在使用數(shù)據(jù)的時(shí)候,必須要尊重網(wǎng)站的知識(shí)產(chǎn)權(quán)(從Web 2.0時(shí)代開始,雖然Web上的數(shù)據(jù)很多都是由用戶提供的,但是網(wǎng)站平臺(tái)是投入了運(yùn)營成本的,當(dāng)用戶在注冊(cè)和發(fā)布內(nèi)容時(shí),平臺(tái)通常就已經(jīng)獲得了對(duì)數(shù)據(jù)的所有權(quán)、使用權(quán)和分發(fā)權(quán))。如果違反了這些規(guī)定,在打官司的時(shí)候敗訴幾率相當(dāng)高。
Robots.txt文件
大多數(shù)網(wǎng)站都會(huì)定義robots.txt文件,下面以淘寶的robots.txt文件為例,看看該網(wǎng)站對(duì)爬蟲有哪些限制。
User-agent: Baiduspider Allow: /article Allow: /oshtml Disallow: /product/ Disallow: / User-Agent: Googlebot Allow: /article Allow: /oshtml Allow: /product Allow: /spu Allow: /dianpu Allow: /oversea Allow: /list Disallow: / User-agent: Bingbot Allow: /article Allow: /oshtml Allow: /product Allow: /spu Allow: /dianpu Allow: /oversea Allow: /list Disallow: / User-Agent: 360Spider Allow: /article Allow: /oshtml Disallow: / User-Agent: Yisouspider Allow: /article Allow: /oshtml Disallow: / User-Agent: Sogouspider Allow: /article Allow: /oshtml Allow: /product Disallow: / User-Agent: Yahoo! Slurp Allow: /product Allow: /spu Allow: /dianpu Allow: /oversea Allow: /list Disallow: / User-Agent: * Disallow: /
注意上面robots.txt第一段的最后一行,通過設(shè)置“Disallow: /”禁止百度爬蟲訪問除了“Allow”規(guī)定頁面外的其他所有頁面。因此當(dāng)你在百度搜索“淘寶”的時(shí)候,搜索結(jié)果下方會(huì)出現(xiàn):“由于該網(wǎng)站的robots.txt文件存在限制指令(限制搜索引擎抓取),系統(tǒng)無法提供該頁面的內(nèi)容描述”。百度作為一個(gè)搜索引擎,至少在表面上遵守了淘寶網(wǎng)的robots.txt協(xié)議,所以用戶不能從百度上搜索到淘寶內(nèi)部的產(chǎn)品信息。
到此,關(guān)于“Python爬蟲相關(guān)工具有哪些”的學(xué)習(xí)就結(jié)束了,希望能夠解決大家的疑惑。理論與實(shí)踐的搭配能更好的幫助大家學(xué)習(xí),快去試試吧!若想繼續(xù)學(xué)習(xí)更多相關(guān)知識(shí),請(qǐng)繼續(xù)關(guān)注億速云網(wǎng)站,小編會(huì)繼續(xù)努力為大家?guī)砀鄬?shí)用的文章!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。