溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

什么是爬數(shù)據(jù)

發(fā)布時間:2020-07-28 10:03:30 來源:億速云 閱讀:166 作者:Leah 欄目:互聯(lián)網(wǎng)科技

這篇文章將為大家詳細講解有關(guān)什么是爬數(shù)據(jù),文章內(nèi)容質(zhì)量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關(guān)知識有一定的了解。

爬數(shù)據(jù)的意思是:通過網(wǎng)絡(luò)爬蟲程序來獲取需要的網(wǎng)站上的內(nèi)容信息,比如文字、視頻、圖片等數(shù)據(jù)。網(wǎng)絡(luò)爬蟲(網(wǎng)頁蜘蛛)是一種按照一定的規(guī)則,自動的抓取萬維網(wǎng)信息的程序或者腳本。

學習一些爬數(shù)據(jù)的知識有什么用呢?

比如:大到大家經(jīng)常使用的搜索引擎(Google, 搜狗);

當用戶在Google搜索引擎上檢索相應(yīng)關(guān)鍵詞時,谷歌將對關(guān)鍵詞進行分析,從已“收錄”的網(wǎng)頁中找出可能的最符合用戶的條目呈現(xiàn)給用戶;那么,如何獲取這些網(wǎng)頁就是爬蟲需要做的,當然如何推送給用戶最有價值的網(wǎng)頁,也是需要結(jié)合相應(yīng)算法的,這就涉及到數(shù)據(jù)挖掘的的知識了;

比較小一些的應(yīng)用,比如我們統(tǒng)計測試工作的工作量,這就需要統(tǒng)計一周/一月的修改單數(shù)量,jira記的缺陷數(shù)以及具體內(nèi)容;

還有就是最近火熱進行的世界杯,如果你想統(tǒng)計一下各個球員/國家的數(shù)據(jù),并存儲這些數(shù)據(jù)以供其他用處;

還有就是根據(jù)自己的興趣愛好通過一些數(shù)據(jù)做一些分析等(統(tǒng)計一本書/一部電影的好評度),這就需要爬取已有網(wǎng)頁的數(shù)據(jù)了,然后通過獲取的數(shù)據(jù)做一些具體的分析/統(tǒng)計工作等。

學習簡單的爬蟲需要具備哪些基礎(chǔ)知識?

我把基礎(chǔ)知識分為兩部分:

1、前端基礎(chǔ)知識

HTML/JSON,CSS; Ajax

參考資料:

http://www.w3school.com.cn/h.asp

http://www.w3school.com.cn/ajax/

http://www.w3school.com.cn/json/

https://www.php.cn/course/list/1.html

https://www.php.cn/course/list/2.html

https://www.html.cn/

2. python編程相關(guān)知識

(1)Python基礎(chǔ)知識

基本語法知識,字典,列表,函數(shù),正則表達式,JSON等

參考資料:

http://www.runoob.com/python3/python3-tutorial.html

https://www.py.cn/

https://www.php.cn/course/list/30.html

(2)Python常用庫:

Python的urllib庫的用法 (此模塊我用的urlretrieve函數(shù)多一些,主要用它保存一些獲取的資源(文檔/圖片/mp3/視頻等))

Python的pyMysql庫 (數(shù)據(jù)庫連接以及增刪改查)

python模塊bs4(需要具備css選擇器,html的樹形結(jié)構(gòu)domTree知識等,根據(jù)css選擇器/html標簽/屬性定位我們需要的內(nèi)容)

python的requests(顧名思義,此模塊用于發(fā)送request請求的/POST/Get等,獲取一個Response 對象)

python的os模塊 (此模塊提供了非常豐富的方法用來處理文件和目錄。os.path.join/exists函數(shù)用的較多一些)

參考資料:這部分可以參考相關(guān)模塊的接口API文檔

擴展資料:

網(wǎng)絡(luò)爬蟲是一個自動提取網(wǎng)頁的程序,它為搜索引擎從萬維網(wǎng)上下載網(wǎng)頁,是搜索引擎的重要組成。

傳統(tǒng)爬蟲從一個或若干初始網(wǎng)頁的URL開始,獲得初始網(wǎng)頁上的URL,在抓取網(wǎng)頁的過程中,不斷從當前頁面上抽取新的URL放入隊列,直到滿足系統(tǒng)的一定停止條件。

聚焦爬蟲的工作流程較為復(fù)雜,需要根據(jù)一定的網(wǎng)頁分析算法過濾與主題無關(guān)的鏈接,保留有用的鏈接并將其放入等待抓取的URL隊列。然后,它將根據(jù)一定的搜索策略從隊列中選擇下一步要抓取的網(wǎng)頁URL,并重復(fù)上述過程,直到達到系統(tǒng)的某一條件時停止。

另外,所有被爬蟲抓取的網(wǎng)頁將會被系統(tǒng)存貯,進行一定的分析、過濾,并建立索引,以便之后的查詢和檢索;對于聚焦爬蟲來說,這一過程所得到的分析結(jié)果還可能對以后的抓取過程給出反饋和指導(dǎo)。

相對于通用網(wǎng)絡(luò)爬蟲,聚焦爬蟲還需要解決三個主要問題:

(1) 對抓取目標的描述或定義;

(2) 對網(wǎng)頁或數(shù)據(jù)的分析與過濾;

(3) 對URL的搜索策略。

關(guān)于什么是爬數(shù)據(jù)就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI