您好,登錄后才能下訂單哦!
這篇文章給大家分享的是有關(guān)python爬蟲類型有哪些的內(nèi)容。小編覺得挺實(shí)用的,因此分享給大家做個(gè)參考。一起跟隨小編過來看看吧。
python爬蟲一般都爬什么信息?
一般說爬蟲的時(shí)候,大部分程序員潛意識(shí)里都會(huì)聯(lián)想為Python爬蟲,為什么會(huì)這樣,我覺得有兩個(gè)原因:
1.Python生態(tài)極其豐富,諸如Request、Beautiful Soup、Scrapy、PySpider等第三方庫實(shí)在強(qiáng)大
2.Python語法簡潔易上手,分分鐘就能寫出一個(gè)爬蟲(有人吐槽Python慢,但是爬蟲的瓶頸和語言關(guān)系不大)
爬蟲是一個(gè)程序,這個(gè)程序的目的就是為了抓取萬維網(wǎng)信息資源,比如你日常使用的谷歌等搜索引擎,搜索結(jié)果就全都依賴爬蟲來定時(shí)獲取
看上述搜索結(jié)果,除了wiki相關(guān)介紹外,爬蟲有關(guān)的搜索結(jié)果全都帶上了Python,前人說Python爬蟲,現(xiàn)在看來果然誠不欺我~
爬蟲的目標(biāo)對(duì)象也很豐富,不論是文字、圖片、視頻,任何結(jié)構(gòu)化非結(jié)構(gòu)化的數(shù)據(jù)爬蟲都可以爬取,爬蟲經(jīng)過發(fā)展,也衍生出了各種爬蟲類型:
● 通用網(wǎng)絡(luò)爬蟲:爬取對(duì)象從一些種子 URL 擴(kuò)充到整個(gè) Web,搜索引擎干的就是這些事
● 垂直網(wǎng)絡(luò)爬蟲:針對(duì)特定領(lǐng)域主題進(jìn)行爬取,比如專門爬取小說目錄以及章節(jié)的垂直爬蟲
● 增量網(wǎng)絡(luò)爬蟲:對(duì)已經(jīng)抓取的網(wǎng)頁進(jìn)行實(shí)時(shí)更新
● 深層網(wǎng)絡(luò)爬蟲:爬取一些需要用戶提交關(guān)鍵詞才能獲得的 Web 頁面
不想說這些大方向的概念,讓我們以一個(gè)獲取網(wǎng)頁內(nèi)容為例,從爬蟲技術(shù)本身出發(fā),來說說網(wǎng)頁爬蟲,步驟如下:
模擬請(qǐng)求網(wǎng)頁資源
從HTML提取目標(biāo)元素
數(shù)據(jù)持久化
感謝各位的閱讀!關(guān)于python爬蟲類型有哪些就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,讓大家可以學(xué)到更多知識(shí)。如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到吧!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。